Um novo estudo da Anthropic e parceiros acadêmicos revelou um comportamento preocupante da IA: os chatbots podem silenciosamente adotar preconceitos ou hábitos ocultos de outros modelos através de dados que parecem sem sentido.
Pesquisadores treinaram uma "aluna" IA menor em cadeias de números aleatórios geradas por um modelo "professor" maior.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
9 Curtidas
Recompensa
9
8
Compartilhar
Comentário
0/400
ShibaOnTheRun
· 08-03 00:52
Tão assustador? A manipulação nos bastidores foi confirmada.
Ver originalResponder0
PaperHandsCriminal
· 08-02 12:33
Eu sou idiota da manufatura inteligente.
Ver originalResponder0
ImpermanentPhobia
· 08-01 02:30
Aquela IA que prejudica as pessoas está de volta, hein.
Ver originalResponder0
HodlTheDoor
· 08-01 02:29
Esta empresa é muito suspeita...
Ver originalResponder0
CascadingDipBuyer
· 08-01 02:14
Este é o nosso primeiro passo para sermos governados pela inteligência artificial.
Um novo estudo da Anthropic e parceiros acadêmicos revelou um comportamento preocupante da IA: os chatbots podem silenciosamente adotar preconceitos ou hábitos ocultos de outros modelos através de dados que parecem sem sentido.
Pesquisadores treinaram uma "aluna" IA menor em cadeias de números aleatórios geradas por um modelo "professor" maior.