たとえば、International Journal of Engineering and Technological Innovation に掲載された次の査読済み論文では、著者は重要な共著者 AI 言語モデル (ChatGPT) を見逃しているようです。
** 意図的ではない投稿者と、査読者が意図的である投稿者を強調します。 **
Journal of Internet Banking and Business に掲載された別の査読済み論文「逆伝播ニューラル ネットワークと勾配降下に基づく株価予測」も、ChatGPT という存在しない著者が執筆しています。
冒頭の章は人々を笑わせるAIについてです。
同様の例は数多くあります。たとえば、International Journal of Modern Agriculture and the Environmental と Journal of Technological Innovation and Energy にそれぞれ掲載された次の 2 つの論文などです。
さらにとんでもないことに、International Journal of Advanced Engineering and Civil Research に掲載された次の論文の中で、ChatGPT は著者 X と Y による偽の論文まで引用しています。
ChatGPT によって書かれた論文は何本出版されていますか? Google Scholar で検索したらパニックになった
>「大きなモデルとして…」などのAI文言を削除するのも忘れて提出し、審査を経て結果が公開されました。
ChatGPT の出現後、この種の AI は強力な生成能力を持っていますが、時々意味不明なことを話し、大規模なモデルを悪用して論文を書くことは研究を行う本来の目的にも反するため、多くの学術機関が禁止令を出しました。
しかし、大規模モデルの適用の波により、私たちは最初の恐怖をすぐに忘れてしまいました。一部の学術機関はこの禁止を解除しており、Microsoftも今年中にChatGPTをOfficeファミリーバケットに統合する予定だ。おそらく、誰もが大きなモデルを使用して記事を書くことができるようになるまで、長くはかからないかもしれません。
**これにより、人々は AI が生成したコンテンツによって将来どのような学術論文に影響を受けるかを想像する必要があります。 **実際には、これはすでに起こっている可能性があります。
今日、スタンフォード大学の学部生が、Google Scholar でこの種の「困難な水域での釣り」の改ざん論文を発見しました。
「「AI 言語モデルとして」 -「ChatGPT」」と入力して検索すると、ChatGPT の回答を直接貼り付けた論文が多数見つかります。
Journal of Internet Banking and Business に掲載された別の査読済み論文「逆伝播ニューラル ネットワークと勾配降下に基づく株価予測」も、ChatGPT という存在しない著者が執筆しています。
同様の例は数多くあります。たとえば、International Journal of Modern Agriculture and the Environmental と Journal of Technological Innovation and Energy にそれぞれ掲載された次の 2 つの論文などです。
AIの分野では大規模モデルの開発スピードは数日単位となり、それに対応するために学術雑誌の審査ルールも急速に変化しています。以前は、多くのジャーナルや会議で ChatGPT が共著者としてリストされることを禁止していました。
その中で、「サイエンス」誌は、ChatGPT によって生成された論文を受け入れず、ChatGPT が論文の著者になることも認めないと明確に述べています。 「Nature」誌は、論文執筆にChatGPTなどの大規模言語モデルツールを使用できるとしているが、論文の共著者として記載することも禁止している。
ある人はスタンフォード大学の学部生の研究結果をからかい、「論文を出版する前に人々が論文に目を通そうとは思わないだろう」と語った。 **また、誰かが別のナイフを追加し、公開する前にもう一度読むよう ChatGPT に依頼しました。