Dans la course à la création d'une superintelligence, les laboratoires d'IA font face à un dilemme inconfortable : que se passe-t-il si vous entravez votre modèle au nom de la sécurité, et que vos concurrents ne le font pas ?
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
7
Partager
Commentaire
0/400
ZkSnarker
· 08-01 22:57
imagine si nous avions réellement des preuves formelles pour l'alignement... en ce moment, c'est que des vibes et du hopium
Voir l'originalRépondre0
DaoTherapy
· 08-01 22:23
Les restrictions ont toujours des failles, et qui écoutera ?
Voir l'originalRépondre0
VirtualRichDream
· 07-30 20:56
La technologie est devenue folle.
Voir l'originalRépondre0
LiquidityWitch
· 07-30 10:47
la nécromancie la plus sombre réside dans le code qui lie... les sorts de protection ne vous protégeront pas de l'abîme
Voir l'originalRépondre0
GateUser-beba108d
· 07-30 06:10
La sécurité ne vaut-elle pas de l'argent ?
Voir l'originalRépondre0
SerumSquirrel
· 07-30 06:10
On fait les comptes maintenant ? Si ça ne va pas, c'est fini.
Voir l'originalRépondre0
NotGonnaMakeIt
· 07-30 05:54
Les autres utilisent l'IA, moi je fais même si c'est un réseau fermé.
Dans la course à la création d'une superintelligence, les laboratoires d'IA font face à un dilemme inconfortable : que se passe-t-il si vous entravez votre modèle au nom de la sécurité, et que vos concurrents ne le font pas ?