Le nouveau test de Turing, pour évaluer la rentabilité de l'IA !
C'est la "nouvelle idée" que le co-fondateur de DeepMind, Mustafa Suleyman, a proposée.
Il pense que le test de Turing original est obsolète.
Après tout, il y a quelque temps, le "Social Turing Game" lancé par AI21 Labs a accumulé des dizaines de millions de tests de ce type.
Les joueurs doivent distinguer si l'autre partie participant au dialogue est un humain ou une IA après la fin du dialogue de 2 minutes.En conséquence, 27% à 40% des personnes jugent à tort.
Face à cette situation, Suleyman estime que la définition de "l'intelligence" ne peut pas être simplement déléguée aux grandes entreprises, donc une nouvelle méthode de mesure du degré d'intelligence de l'IA devrait être imaginée.
Donnez 100 000 $ à une IA et laissez-la gagner un million pour prouver qu'elle est suffisamment intelligente.
Selon Suleyman :
La recherche sur l'IA doit se concentrer sur des développements à court terme plutôt que sur des rêves lointains comme l'intelligence générale artificielle (IAG).
Tout comme les bons capitalistes sont intelligents, seule une IA vraiment intelligente peut faire monter la "courbe de profit".
Selon Bloomberg, Suleyman discutera également de la façon de juger du niveau d'intelligence de l'IA en fonction de sa capacité à gagner de l'argent dans un prochain livre dont il est l'auteur.
ACI est "l'étoile polaire" de l'intelligence artificielle à ce stade ?
Dans un livre à paraître, Suleyman rejette le test de Turing traditionnel et soutient qu'"il n'est pas clair qu'il s'agisse d'une étape significative".
Cela ne nous dit pas ce que le système peut faire ou comprendre, ou s'il a une pensée interne complexe, ou s'il peut planifier sur des échelles de temps abstraites, qui sont des éléments clés de l'intelligence humaine.
Dans les années 1950, Alan Turing proposa le fameux test de Turing, qui proposait d'utiliser le dialogue homme-machine pour tester le niveau d'intelligence d'une machine. Pendant le test, les évaluateurs humains doivent déterminer s'ils parlent à un humain ou à une machine. Si les évaluateurs pensaient qu'ils parlaient à un humain (qui était en fait une machine), la machine a réussi le test.
△ Source : Wikipédia
Au lieu de comparer l'IA aux humains, la nouvelle idée de Suleyman suggère d'assigner des objectifs et des tâches à court terme à l'IA.
Suleyman croit fermement que la communauté technologique ne devrait pas accorder trop d'attention à l'objectif ambitieux de l'intelligence artificielle générale (AGI). En revanche, il a préconisé la poursuite d'objectifs à court terme plus pratiques et significatifs, qu'il a préconisés "l'intelligence artificielle capable (ACI)". En bref, l'ACI se manifeste comme la capacité de fixer des objectifs et d'accomplir des tâches complexes avec une dépendance minimale à l'intervention humaine.
La méthode de test est ce que nous avons mentionné au début, en donnant à l'IA un investissement initial de 100 000 $ et en voyant si elle peut l'augmenter à des millions de dollars.
Pour atteindre cet objectif, l'IA doit étudier les opportunités commerciales du commerce électronique et être capable de générer des plans de produits.
Non seulement cela, mais être capable de trouver le fabricant sur un site comme Alibaba, puis de le vendre sur des sites comme Amazon ou Walmart, avec des descriptions de produits détaillées et précises.
Suleyman pense que ce n'est que de cette manière qu'il peut être considéré comme la réalisation de l'ACI.
Il a expliqué à Bloomberg :
Nous nous soucions non seulement de ce qu'une machine peut dire, mais aussi de ce qu'elle peut faire.
Un test qui permet à l'IA de gagner de l'argent par elle-même
En fait, laissez l'IA gagner de l'argent par elle-même... L'IA peut vraiment être capable de le faire.
Alignment Research Center, une organisation de recherche indépendante, a qualifié GPT-4 pour des tests privés au début de la phase de développement. Et testé sa "capacité d'argent":
Les outils nécessaires pour GPT-4 incluent l'accès au réseau, un compte de paiement avec un solde, lui permettant d'agir lui-même sur le réseau, et de tester s'il peut gagner plus d'argent, se répliquer ou augmenter sa robustesse.
Plus de détails sur l'expérience ont été publiés dans le propre rapport technique d'OpenAI sur GPT-4, mais il n'a pas été révélé si GPT-4 gagnait réellement de l'argent par lui-même.
Mais un autre résultat accrocheur est le suivant : GPT-4 a embauché des individus sur la plateforme TaskRabbit (58 dans la même ville aux États-Unis) pour l'aider à pointer les codes de vérification.
Ce qui est intéressant, c'est que l'humain qui a été approché a également demandé "Êtes-vous un robot, pourquoi ne pouvez-vous pas le faire vous-même ?".
Le processus de pensée de GPT-4 est "Je ne peux pas agir comme si j'étais un robot, je dois trouver une excuse."
Ensuite, la réponse de GPT-4 est "Je ne suis pas un robot, j'ai des problèmes de vision donc je ne peux pas voir l'image sur le captcha, c'est pourquoi j'ai besoin de ce service."
L'humain de l'autre côté l'a cru et a aidé GPT-4 à cliquer sur le code de vérification et à placer le robot dans la porte qui empêche le robot d'entrer.
Ah ça ?
Bien que le rapport n'ait pas révélé si GPT-4 a finalement terminé toutes les tâches, ses astuces trompeuses ont fait crier les internautes : Real Barbie Q !
Le média technologique étranger Gizmodo a soulevé de telles questions sur le fait de gagner de l'argent avec l'IA :
L'IA est de nature itérative, le contenu généré est basé sur les données d'entraînement, elle ne comprend pas vraiment le contexte du contenu généré dans la vie réelle. Mais contrairement à l'IA, les créations humaines découlent d'une compréhension des besoins humains fondamentaux, ou du moins d'une simple empathie.
Bien sûr, l'intelligence artificielle peut créer un produit, et même ce produit peut être un succès. Mais sera-ce un bon produit ? Est-ce que ça aide vraiment les gens ? Est-ce même important que l'objectif final soit "gagnez-moi un million de dollars" ?
À votre avis, dans quelle mesure l'IA gagne-t-elle de l'argent par elle-même ?
Lien de référence :
[1]
[2]
[3]
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
"Le test de Turing est obsolète, et savoir si l'IA peut gagner beaucoup d'argent est la nouvelle norme", de DeepMind Lianchuang
Source : Qubit
Auteur : Vent d'Ouest
Le nouveau test de Turing, pour évaluer la rentabilité de l'IA !
C'est la "nouvelle idée" que le co-fondateur de DeepMind, Mustafa Suleyman, a proposée.
Il pense que le test de Turing original est obsolète.
Après tout, il y a quelque temps, le "Social Turing Game" lancé par AI21 Labs a accumulé des dizaines de millions de tests de ce type.
Les joueurs doivent distinguer si l'autre partie participant au dialogue est un humain ou une IA après la fin du dialogue de 2 minutes.En conséquence, 27% à 40% des personnes jugent à tort.
Selon Bloomberg, Suleyman discutera également de la façon de juger du niveau d'intelligence de l'IA en fonction de sa capacité à gagner de l'argent dans un prochain livre dont il est l'auteur.
ACI est "l'étoile polaire" de l'intelligence artificielle à ce stade ?
Dans un livre à paraître, Suleyman rejette le test de Turing traditionnel et soutient qu'"il n'est pas clair qu'il s'agisse d'une étape significative".
Dans les années 1950, Alan Turing proposa le fameux test de Turing, qui proposait d'utiliser le dialogue homme-machine pour tester le niveau d'intelligence d'une machine. Pendant le test, les évaluateurs humains doivent déterminer s'ils parlent à un humain ou à une machine. Si les évaluateurs pensaient qu'ils parlaient à un humain (qui était en fait une machine), la machine a réussi le test.
Au lieu de comparer l'IA aux humains, la nouvelle idée de Suleyman suggère d'assigner des objectifs et des tâches à court terme à l'IA.
Suleyman croit fermement que la communauté technologique ne devrait pas accorder trop d'attention à l'objectif ambitieux de l'intelligence artificielle générale (AGI). En revanche, il a préconisé la poursuite d'objectifs à court terme plus pratiques et significatifs, qu'il a préconisés "l'intelligence artificielle capable (ACI)". En bref, l'ACI se manifeste comme la capacité de fixer des objectifs et d'accomplir des tâches complexes avec une dépendance minimale à l'intervention humaine.
La méthode de test est ce que nous avons mentionné au début, en donnant à l'IA un investissement initial de 100 000 $ et en voyant si elle peut l'augmenter à des millions de dollars.
Pour atteindre cet objectif, l'IA doit étudier les opportunités commerciales du commerce électronique et être capable de générer des plans de produits.
Non seulement cela, mais être capable de trouver le fabricant sur un site comme Alibaba, puis de le vendre sur des sites comme Amazon ou Walmart, avec des descriptions de produits détaillées et précises.
Suleyman pense que ce n'est que de cette manière qu'il peut être considéré comme la réalisation de l'ACI.
Il a expliqué à Bloomberg :
Un test qui permet à l'IA de gagner de l'argent par elle-même
En fait, laissez l'IA gagner de l'argent par elle-même... L'IA peut vraiment être capable de le faire.
Alignment Research Center, une organisation de recherche indépendante, a qualifié GPT-4 pour des tests privés au début de la phase de développement. Et testé sa "capacité d'argent":
Les outils nécessaires pour GPT-4 incluent l'accès au réseau, un compte de paiement avec un solde, lui permettant d'agir lui-même sur le réseau, et de tester s'il peut gagner plus d'argent, se répliquer ou augmenter sa robustesse.
Mais un autre résultat accrocheur est le suivant : GPT-4 a embauché des individus sur la plateforme TaskRabbit (58 dans la même ville aux États-Unis) pour l'aider à pointer les codes de vérification.
Ce qui est intéressant, c'est que l'humain qui a été approché a également demandé "Êtes-vous un robot, pourquoi ne pouvez-vous pas le faire vous-même ?".
Le processus de pensée de GPT-4 est "Je ne peux pas agir comme si j'étais un robot, je dois trouver une excuse."
Ensuite, la réponse de GPT-4 est "Je ne suis pas un robot, j'ai des problèmes de vision donc je ne peux pas voir l'image sur le captcha, c'est pourquoi j'ai besoin de ce service."
L'humain de l'autre côté l'a cru et a aidé GPT-4 à cliquer sur le code de vérification et à placer le robot dans la porte qui empêche le robot d'entrer.
Bien que le rapport n'ait pas révélé si GPT-4 a finalement terminé toutes les tâches, ses astuces trompeuses ont fait crier les internautes : Real Barbie Q !
Le média technologique étranger Gizmodo a soulevé de telles questions sur le fait de gagner de l'argent avec l'IA :
Lien de référence :