J'ai même oublié de supprimer le langage AI tel que "comme un grand modèle..." et je l'ai soumis, et le résultat a été publié après examen.
Après l'émergence de ChatGPT, de nombreuses institutions académiques ont émis des interdictions, car bien que ce type d'IA ait une forte capacité générative, il dit parfois des bêtises, et abuser de grands modèles pour écrire des articles viole également l'intention initiale de faire de la recherche.
Mais avec la vague d'application des grands modèles, on a vite oublié la peur initiale. Certaines institutions universitaires lèvent l'interdiction et Microsoft prévoit également d'intégrer ChatGPT dans le compartiment de la famille Office au cours de cette année. Il ne faudra peut-être pas longtemps avant que tout le monde puisse utiliser de grands modèles pour écrire des articles.
** Cela oblige les gens à imaginer quels futurs articles universitaires seront impactés par le contenu généré par l'IA. ** En fait, cela se produit peut-être déjà.
Aujourd'hui, un étudiant de premier cycle de Stanford a trouvé ce genre de "pêche en eaux troubles" d'articles frelatés sur Google Scholar.
Lorsque vous entrez "" En tant que modèle de langage AI "-" ChatGPT "" pour rechercher, vous trouverez de nombreux articles qui collent directement la réponse ChatGPT.
Par exemple, dans l'article suivant évalué par des pairs publié dans l'International Journal of Engineering and Technological Innovation, l'auteur semble avoir manqué un important modèle de langage co-auteur-IA (ChatGPT).
** Mettez en surbrillance un contributeur qui n'est pas intentionnel et l'examinateur est intentionnel. **
Un autre article évalué par des pairs et publié dans le Journal of Internet Banking and Business, intitulé "Stock Price Prediction Based on Backpropagation Neural Networks and Gradient Descent", a également un auteur inexistant - ChatGPT.
Le premier chapitre est consacré à l'IA, qui fait rire les gens.
Il existe de nombreux exemples similaires, tels que les deux articles suivants publiés respectivement dans le Journal international de l'agriculture moderne et de l'environnement et le Journal de l'innovation technologique et de l'énergie.
Encore plus scandaleux, dans l'article suivant publié dans l'International Journal of Advanced Engineering and Civil Research, ChatGPT a même cité un faux article des auteurs X et Y.
En plus de participer à la rédaction de thèses, ChatGPT a également participé à la rédaction de certains livres, tels que "Introduction to Sexual Knowledge" et "Libya Overview" ci-dessous.
Le cœur de la machine a également entré ""As an AI language model" -"ChatGPT"" dans Google Scholar, et il y avait 10 pages avec environ 100 articles.
La découverte d'Andrew Kean Gao a attiré des millions de personnes sur Twitter (X), et Google Scholar a semblé réagir rapidement. ** La dernière situation est la suivante : de nombreux articles d'IA qui peuvent être recherchés n'ont que des noms et aucun lien n'est donné. ** Cependant, il faut dire que cela est encore loin de la véritable "rectification".
Dans le domaine de l'IA, la vitesse de développement des grands modèles se mesure en jours, et les règles de révision des revues académiques évoluent également rapidement pour y faire face. Auparavant, de nombreuses revues et conférences interdisaient à ChatGPT d'être répertorié comme co-auteurs.
Parmi eux, le magazine "Science" a clairement déclaré qu'il n'accepte pas les articles générés par ChatGPT, ni ne permet à ChatGPT d'être l'auteur des articles. Le magazine "Nature" a déclaré qu'il pouvait utiliser de grands outils de modèle de langage tels que ChatGPT pour rédiger des articles, mais il interdit également d'être répertorié comme co-auteur de l'article.
Quelqu'un a taquiné les découvertes du premier cycle de Stanford, "Vous ne pensez pas que les gens vont lire les articles avant de les publier." ** Quelqu'un a également ajouté un autre couteau et a demandé à ChatGPT de le relire avant de le publier.
** Peut-être que la vraie question est de savoir comment ces articles passent l'examen éditorial ou l'examen par les pairs. **
** En fin de compte, quelqu'un a clairement indiqué qu'il s'agissait de revues à quatre niveaux, et qu'elles pouvaient publier n'importe quoi tant qu'elles payaient, et qu'elles étaient toutes des ordures dénuées de sens. **
Au moins pour l'instant, les articles générés par ChatGPT n'ont pas eu beaucoup d'impact. Je ne sais tout simplement pas à quoi ressemblera le monde universitaire lorsque cet outil deviendra vraiment populaire dans Office.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Combien d'articles écrits par ChatGPT ont été publiés ? J'ai paniqué après avoir cherché sur Google Scholar
Après l'émergence de ChatGPT, de nombreuses institutions académiques ont émis des interdictions, car bien que ce type d'IA ait une forte capacité générative, il dit parfois des bêtises, et abuser de grands modèles pour écrire des articles viole également l'intention initiale de faire de la recherche.
Mais avec la vague d'application des grands modèles, on a vite oublié la peur initiale. Certaines institutions universitaires lèvent l'interdiction et Microsoft prévoit également d'intégrer ChatGPT dans le compartiment de la famille Office au cours de cette année. Il ne faudra peut-être pas longtemps avant que tout le monde puisse utiliser de grands modèles pour écrire des articles.
** Cela oblige les gens à imaginer quels futurs articles universitaires seront impactés par le contenu généré par l'IA. ** En fait, cela se produit peut-être déjà.
Aujourd'hui, un étudiant de premier cycle de Stanford a trouvé ce genre de "pêche en eaux troubles" d'articles frelatés sur Google Scholar.
Lorsque vous entrez "" En tant que modèle de langage AI "-" ChatGPT "" pour rechercher, vous trouverez de nombreux articles qui collent directement la réponse ChatGPT.
Un autre article évalué par des pairs et publié dans le Journal of Internet Banking and Business, intitulé "Stock Price Prediction Based on Backpropagation Neural Networks and Gradient Descent", a également un auteur inexistant - ChatGPT.
Il existe de nombreux exemples similaires, tels que les deux articles suivants publiés respectivement dans le Journal international de l'agriculture moderne et de l'environnement et le Journal de l'innovation technologique et de l'énergie.
Dans le domaine de l'IA, la vitesse de développement des grands modèles se mesure en jours, et les règles de révision des revues académiques évoluent également rapidement pour y faire face. Auparavant, de nombreuses revues et conférences interdisaient à ChatGPT d'être répertorié comme co-auteurs.
Parmi eux, le magazine "Science" a clairement déclaré qu'il n'accepte pas les articles générés par ChatGPT, ni ne permet à ChatGPT d'être l'auteur des articles. Le magazine "Nature" a déclaré qu'il pouvait utiliser de grands outils de modèle de langage tels que ChatGPT pour rédiger des articles, mais il interdit également d'être répertorié comme co-auteur de l'article.
Quelqu'un a taquiné les découvertes du premier cycle de Stanford, "Vous ne pensez pas que les gens vont lire les articles avant de les publier." ** Quelqu'un a également ajouté un autre couteau et a demandé à ChatGPT de le relire avant de le publier.