Até esqueci de deletar a linguagem AI como "como um modelo grande..." e enviei, e o resultado foi publicado após revisão.
Após o surgimento do ChatGPT, muitas instituições acadêmicas emitiram proibições, porque embora esse tipo de IA tenha forte capacidade generativa, às vezes fala bobagens e abusar de modelos grandes para escrever artigos também viola a intenção original de fazer pesquisa.
Mas com a onda de aplicação de grandes modelos, rapidamente esquecemos o medo inicial. Algumas instituições acadêmicas estão suspendendo a proibição, e a Microsoft também planeja integrar o ChatGPT ao pacote da família Office ainda este ano. Talvez não demore muito para que todos possam usar grandes modelos para escrever artigos.
**Isso faz com que as pessoas tenham que imaginar quais trabalhos acadêmicos futuros serão impactados pelo conteúdo gerado por IA. **Na verdade, isso já pode estar acontecendo.
Hoje, um aluno de graduação de Stanford encontrou esse tipo de "pesca em águas turbulentas" documentos adulterados no Google Scholar.
Ao inserir ""Como um modelo de linguagem AI" -"ChatGPT"" para pesquisar, você encontrará muitos artigos que colam diretamente a resposta do ChatGPT.
Por exemplo, no seguinte artigo revisado por pares publicado no International Journal of Engineering and Technological Innovation, o autor parece ter perdido um importante modelo de linguagem co-autor-IA (ChatGPT).
** Destaque um colaborador não intencional e o revisor intencionalmente. **
Outro artigo revisado por pares publicado no Journal of Internet Banking and Business, intitulado "Stock Price Prediction Based on Backpropagation Neural Networks and Gradient Descent", também tem um autor inexistente - ChatGPT.
O capítulo de abertura é sobre IA, o que faz as pessoas rirem.
Existem muitos exemplos semelhantes, como os dois artigos a seguir publicados no International Journal of Modern Agriculture and the Environment e no Journal of Technological Innovation and Energy, respectivamente.
Ainda mais escandaloso, no seguinte artigo publicado no International Journal of Advanced Engineering and Civil Research, o ChatGPT chegou a citar um artigo falso dos autores X e Y.
Além de participar da redação de teses, o ChatGPT também participou da redação de alguns livros, como "Introduction to Sexual Knowledge" e "Libya Overview" abaixo.
O coração da máquina também entrou ""Como um modelo de linguagem AI" -"ChatGPT"" no Google Scholar, e havia 10 páginas com cerca de 100 artigos.
A descoberta de Andrew Kean Gao atraiu milhões de pessoas no Twitter (X), e o Google Scholar pareceu reagir rapidamente a ela. **A situação mais recente é: muitos artigos de IA que podem ser pesquisados têm apenas nomes e nenhum link é fornecido. **No entanto, é preciso dizer que isso ainda está longe da verdadeira "retificação".
No campo da IA, a velocidade de desenvolvimento de grandes modelos é medida em dias, e as regras de revisão das revistas acadêmicas também estão mudando rapidamente para lidar com isso. Anteriormente, muitos periódicos e conferências proibiam o ChatGPT de ser listado como co-autores.
Entre eles, a revista "Science" afirmou claramente que não aceita os papers gerados pelo ChatGPT, nem permite que o ChatGPT seja o autor dos papers. A revista "Nature" afirmou que pode usar grandes ferramentas de modelo de linguagem, como ChatGPT, para escrever artigos, mas também proíbe ser listado como co-autor do artigo.
Alguém brincou com as descobertas do aluno de graduação de Stanford: "Você não acha que as pessoas vão ler os artigos antes de publicá-los". **Alguém também adicionou outra faca e pediu ao ChatGPT para lê-la novamente antes de publicar.
**Talvez a verdadeira questão seja como esses artigos passam pela revisão editorial ou pela revisão por pares. **
** No final, alguém deixou claro que esses são periódicos de quatro níveis e podem publicar qualquer coisa, desde que paguem, e todos são lixo sem sentido. **
Pelo menos por enquanto, os papéis gerados pelo ChatGPT não tiveram muito impacto. Só não sei como será o mundo acadêmico quando essa ferramenta se tornar realmente popular no Office.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Quantos artigos escritos pelo ChatGPT foram publicados? Entrei em pânico depois de pesquisar no Google Acadêmico
Após o surgimento do ChatGPT, muitas instituições acadêmicas emitiram proibições, porque embora esse tipo de IA tenha forte capacidade generativa, às vezes fala bobagens e abusar de modelos grandes para escrever artigos também viola a intenção original de fazer pesquisa.
Mas com a onda de aplicação de grandes modelos, rapidamente esquecemos o medo inicial. Algumas instituições acadêmicas estão suspendendo a proibição, e a Microsoft também planeja integrar o ChatGPT ao pacote da família Office ainda este ano. Talvez não demore muito para que todos possam usar grandes modelos para escrever artigos.
**Isso faz com que as pessoas tenham que imaginar quais trabalhos acadêmicos futuros serão impactados pelo conteúdo gerado por IA. **Na verdade, isso já pode estar acontecendo.
Hoje, um aluno de graduação de Stanford encontrou esse tipo de "pesca em águas turbulentas" documentos adulterados no Google Scholar.
Ao inserir ""Como um modelo de linguagem AI" -"ChatGPT"" para pesquisar, você encontrará muitos artigos que colam diretamente a resposta do ChatGPT.
Outro artigo revisado por pares publicado no Journal of Internet Banking and Business, intitulado "Stock Price Prediction Based on Backpropagation Neural Networks and Gradient Descent", também tem um autor inexistente - ChatGPT.
Existem muitos exemplos semelhantes, como os dois artigos a seguir publicados no International Journal of Modern Agriculture and the Environment e no Journal of Technological Innovation and Energy, respectivamente.
No campo da IA, a velocidade de desenvolvimento de grandes modelos é medida em dias, e as regras de revisão das revistas acadêmicas também estão mudando rapidamente para lidar com isso. Anteriormente, muitos periódicos e conferências proibiam o ChatGPT de ser listado como co-autores.
Entre eles, a revista "Science" afirmou claramente que não aceita os papers gerados pelo ChatGPT, nem permite que o ChatGPT seja o autor dos papers. A revista "Nature" afirmou que pode usar grandes ferramentas de modelo de linguagem, como ChatGPT, para escrever artigos, mas também proíbe ser listado como co-autor do artigo.
Alguém brincou com as descobertas do aluno de graduação de Stanford: "Você não acha que as pessoas vão ler os artigos antes de publicá-los". **Alguém também adicionou outra faca e pediu ao ChatGPT para lê-la novamente antes de publicar.