De l'IA vérifiable à l'IA composable - Réflexions sur les scénarios d'application ZKML

Intermédiaire12/17/2023, 5:56:24 PM
Cet article réexamine les solutions d'IA vérifiables d'un point de vue application, et analyse dans quels scénarios elles sont nécessaires immédiatement, et dans quels scénarios la demande est relativement faible. Enfin, le modèle d'écosystème d'IA basé sur la chaîne publique a été discuté, et deux modèles de développement différents, horizontal et vertical, ont été proposés.
  1. Que ce soit nécessaire de vérifier l'IA dépend de : si les données on-chain sont modifiées, et si l'équité et la confidentialité sont impliquées

    1. Lorsque l'IA n'affecte pas le statut on-chain, l'IA peut agir en tant que conseiller. Les gens peuvent juger de la qualité des services d'IA à travers les résultats réels sans vérifier le processus de calcul.
    2. Lorsque l'état on-chain est affecté, si le service cible les individus et n'affecte pas la vie privée, alors les utilisateurs peuvent toujours juger directement la qualité des services d'IA sans vérifier le processus de calcul.
    3. Lorsque la production d'IA affecte l'équité et la vie privée de nombreuses personnes, par exemple en utilisant l'IA pour évaluer et distribuer des récompenses aux membres de la communauté, en utilisant l'IA pour optimiser l'AMM, ou en impliquant des données biologiques, les gens voudront examiner les calculs d'IA. C'est là qu'il peut être vérifié que l'IA peut trouver PMF.
  2. Écosystème d'application AI vertical : Comme une extrémité de l'AI vérifiable est un contrat intelligent, les applications AI vérifiables et même les dapps AI et natives peuvent être en mesure de s'utiliser mutuellement sans confiance. Il s'agit d'un écosystème potentiel d'application AI composable

  3. Écosystème d'application IA horizontal: Le système de chaîne publique peut gérer des problèmes tels que le paiement de services, la coordination des litiges de paiement et l'appariement des besoins des utilisateurs et du contenu des services pour les fournisseurs de services IA, de sorte que les utilisateurs puissent profiter d'une expérience de service IA décentralisée avec un degré de liberté plus élevé.

1. Vue d'ensemble de Modulus Labs et histoires d'application

1.1 Introduction et solutions clés

Modulus Labs est une société d'IA "sur chaîne" qui croit que l'IA peut améliorer considérablement les capacités des contrats intelligents et rendre les applications web3 plus puissantes. Cependant, il y a une contradiction lorsque l'IA est appliquée à web3, c'est-à-dire que l'IA nécessite une grande quantité de puissance de calcul pour fonctionner, et l'IA est une boîte noire pour le calcul hors chaîne. Cela ne répond pas aux exigences de base de web3 en matière de confiance et de vérifiabilité.

Ainsi, Modulus Labs s'est appuyé sur le schéma zk rollup [prétraitement hors chaîne+vérification sur chaîne] et a proposé une architecture pouvant vérifier l'IA. Plus précisément, le modèle ML s'exécute hors chaîne, et en outre, un zkp est généré pour le processus de calcul ML hors chaîne. Grâce à ce zkp, l'architecture, les poids et les entrées (inputs) du modèle hors chaîne peuvent être vérifiés. Bien sûr, ce zkp peut également être publié sur la chaîne pour vérification par des contrats intelligents. À ce stade, l'IA et les contrats sur chaîne peuvent interagir de manière plus fiable, c'est-à-dire que l '«IA sur chaîne» a été réalisée.

Basé sur l'idée d'une IA vérifiable, Modulus Labs a lancé jusqu'à présent trois applications "d'IA sur chaîne", et a également proposé de nombreux scénarios d'application possibles.

1.2 Cas d'application

  1. Le premier à être lancé était Rocky Bot, une IA de trading automatisée. Rocky a été formé par des données historiques provenant de la paire de trading Weth/USDC. Il juge les tendances weth futures en se basant sur des données historiques. Après avoir pris une décision de trading, il générera un zkp pour le processus de décision (processus de calcul) et enverra un message à L1 pour déclencher la transaction.
  2. Le deuxième est le jeu d'échecs sur chaîne "Leela vs. le Monde". Les deux joueurs dans le jeu sont des IA et des humains, et la situation du jeu est dans un contrat. Le joueur opère via un portefeuille (interagit avec des contrats). Cependant, l'IA lit la nouvelle situation du jeu d'échecs, fait un jugement et génère un zkp pour l'ensemble du processus de calcul. Les deux étapes sont réalisées sur le cloud AWS, et le zkp est vérifié par un contrat sur chaîne. Après la vérification réussie, le contrat de jeu est utilisé pour "jouer aux échecs".
  3. Le troisième est un artiste d'IA "on-chain" et a lancé la série NFT zKMon. Le cœur est que l'IA génère des NFT et les publie sur la chaîne, et génère également un zkp. Les utilisateurs peuvent vérifier si leur NFT est généré à partir du modèle d'IA correspondant grâce au zkp.

De plus, Modulus Labs a mentionné quelques autres cas d'utilisation :

  1. Utilisez l'IA pour évaluer les données personnelles on-chain et d'autres informations, générer des notes de réputation personnelles et publier zkp pour la vérification de l'utilisateur;
  2. Utiliser l'IA pour optimiser les performances de l'AMM et publier zkp pour que les utilisateurs puissent vérifier;
  3. Utilisez l'IA vérifiable pour aider les projets de confidentialité à faire face à la pression réglementaire, sans pour autant exposer la confidentialité (peut-être en utilisant l'IA pour prouver que cette transaction n'est pas liée au blanchiment d'argent, tout en ne divulguant pas d'informations telles que les adresses des utilisateurs) ;
  4. Oracles d'IA et libération de zkp pour que tout le monde puisse vérifier la fiabilité des données hors chaîne;
  5. Dans le concours de modèles d'IA, les participants soumettent leur propre architecture et leurs poids, puis exécutent le modèle avec une entrée de test unifiée pour générer un zkp pour le calcul, et le contrat final envoie automatiquement l'argent du prix au gagnant;
  6. Worldcoin a déclaré que dans le futur, les utilisateurs pourront peut-être télécharger un modèle d'iris pour générer le code correspondant sur l'appareil local, exécuter le modèle localement et générer zkp. De cette façon, le contrat on-chain peut utiliser zkp pour vérifier que le code d'iris de l'utilisateur est généré à partir du modèle correct et de l'iris raisonnable, tandis que les informations biologiques ne quittent pas l'appareil de l'utilisateur.

Crédit photo: Modulus Labs

1.3 Discutez des différents scénarios d'application basés sur le besoin d'IA vérifiable

1.3.1 Scénarios qui peuvent vérifier que l'IA n'est peut-être pas nécessaire

Dans le scénario du bot Rocky, les utilisateurs peuvent ne pas être tenus de vérifier le processus de calcul de l'IA. Premièrement, les utilisateurs n'ont pas les compétences ni la capacité de faire une véritable vérification. Même s'il existe un outil de vérification, selon l'opinion de l'utilisateur, "Je presse un bouton, l'interface s'affiche pour me dire que ce service d'IA a en fait été généré par un certain modèle", et l'authenticité ne peut pas être déterminée. Deuxièmement, les utilisateurs n'ont pas besoin de vérifier, car ils se soucient de savoir si le rendement de l'IA est élevé. Les utilisateurs migrent lorsque la rentabilité est faible, et ils choisissent toujours le modèle qui fonctionne le mieux. En bref, lorsque le résultat final de l'IA correspond à ce que l'utilisateur recherche, le processus de vérification peut ne pas être significatif car l'utilisateur n'a besoin que de migrer vers le service qui fonctionne le mieux.

**Une solution possible est que l'IA agisse uniquement en tant que conseiller, et l'utilisateur exécute la transaction de manière indépendante. **Lorsque les gens saisissent leurs objectifs de trading dans l'IA, l'IA calcule et retourne un meilleur chemin de transaction/direction de trade hors chaîne, et l'utilisateur choisit s'il doit l'exécuter. Les gens n'ont pas non plus besoin de vérifier le modèle derrière cela; ils ont juste besoin de choisir le produit avec le rendement le plus élevé.

Une autre situation dangereuse mais très probable est que les gens se soucient peu de leur contrôle sur les actifs ou du processus de calcul de l'IA. Lorsqu'un robot qui gagne automatiquement de l'argent apparaît, les gens sont même prêts à lui confier directement de l'argent, tout comme ils mettent des jetons dans une CEX ou des banques traditionnelles pour la gestion financière. Parce que les gens ne se soucient pas des principes qui le sous-tendent; ils se soucient seulement de la somme d'argent qu'ils obtiennent à la fin, ou même de la somme d'argent que la partie projet leur montre à gagner, ce type de service peut rapidement acquérir un grand nombre d'utilisateurs, et même itérer plus rapidement que les produits côté projet qui utilisent une IA vérifiable.

En prenant du recul, si l'IA ne participe pas du tout aux changements d'état on-chain, mais se contente de collecter des données on-chain et de les prétraiter pour les utilisateurs, alors il n'est pas nécessaire de générer des ZKP pour le processus de calcul. Voici quelques exemples de ce type d'application en tant que "service de données":

  1. La boîte de chat fournie par Mest est un service de données typique. Les utilisateurs peuvent utiliser des questions et des réponses pour comprendre leurs données on-chain, comme demander combien d'argent ils ont dépensé en NFT;
  2. ChaingPT est un assistant AI multifonctionnel qui peut interpréter les contrats intelligents pour vous avant de trader, vous dire si vous tradez avec le bon pool, ou vous dire si la transaction est susceptible d'être attrapée ou arrachée. ChaingPT se prépare également à faire des recommandations de nouvelles AI, à entrer des suggestions pour générer automatiquement des images et les publier sous forme de NFT et d'autres services;
  3. RSS3 fournit AIOP, de sorte que les utilisateurs peuvent sélectionner les données sur chaîne qu'ils souhaitent et effectuer un prétraitement spécifique, ce qui facilite l'entraînement de l'IA avec des données sur chaîne spécifiques;
  4. DeVillama et RSS3 ont également développé des plug-ins ChatGPT, où les utilisateurs peuvent obtenir des données on-chain grâce à des conversations;

1.3.2 Scénarios nécessitant une IA vérifiable

Cet article soutient que les scénarios impliquant plusieurs personnes, impliquant l'équité et la confidentialité, nécessitent ZKP pour fournir une vérification, et plusieurs des applications mentionnées par Modulus Labs sont discutées ici :

  1. Lorsqu'une communauté récompense les individus en fonction de réputations personnelles générées par l'IA, les membres de la communauté demanderont inévitablement une révision du processus de décision d'évaluation, qui est le processus de calcul du ML;
  2. Les scénarios d'optimisation de l'IA pour les AMM impliquent la distribution des avantages parmi plusieurs personnes, et le processus de calcul de l'IA doit également être vérifié régulièrement;
  3. Lorsqu'il s'agit d'équilibrer la vie privée et la réglementation, ZK est actuellement l'une des meilleures solutions. Si le fournisseur de services utilise ML dans le service pour traiter des données privées, il doit générer ZKP pour l'ensemble du processus de calcul ;
  4. Étant donné que les oracles ont une large gamme d'influence, s'ils sont contrôlés par l'IA, il est nécessaire de générer régulièrement des ZKP pour vérifier si l'IA fonctionne correctement;
  5. Dans la compétition, le public et les autres participants doivent vérifier si le calcul de ML est conforme aux spécifications de la compétition;
  6. Parmi les cas d'utilisation potentiels de Worldcoin, la protection des données biologiques personnelles est également une exigence forte;

En règle générale, lorsque l'IA est similaire à un décideur, et que sa production a une large influence et implique l'équité de nombreuses parties, les gens demanderont un examen du processus décisionnel, ou simplement garantir qu'il n'y a pas de problèmes majeurs avec le processus de décision de l'IA, et protéger la vie privée est une exigence très immédiate.

Par conséquent, "que la sortie de l'IA modifie l'état on-chain" et "qu'elle affecte l'équité/la vie privée" sont deux critères pour juger si une solution d'IA vérifiable est nécessaire

  1. Lorsque la sortie de l'IA ne modifie pas l'état on-chain, le service d'IA peut agir en tant que recommandeur. Les gens peuvent juger de la qualité du service d'IA à travers l'effet de recommandation sans vérifier le processus de calcul;
  2. Lorsque la sortie de l'IA modifie l'état on-chain, si le service ne vise que les individus et n'affecte pas la confidentialité, alors les utilisateurs peuvent toujours juger directement de la qualité du service IA sans vérifier le processus de calcul;
  3. Lorsque la production d'IA affecte directement l'équité entre de nombreuses personnes, et que l'IA modifie automatiquement les données on-chain, la communauté et le public doivent tester le processus de prise de décision de l'IA;
  4. Lorsque les données traitées par ML impliquent la vie privée des personnes, zk est également nécessaire pour protéger la vie privée et ainsi répondre aux exigences réglementaires.

Crédit photo : Kernel Ventures

2. Deux modèles d'écosystème AI basés sur des chaînes publiques

En tout cas, la solution de Modulus Labs est très instructive sur la manière dont l'IA peut combiner la crypto et apporter une valeur d'application pratique. Cependant, le système de chaîne publique améliore non seulement les capacités des services d'IA individuels, mais a également le potentiel de construire un nouvel écosystème d'application d'IA. Cet nouvel écosystème a entraîné une relation différente entre les services d'IA par rapport à Web2, la relation entre les services d'IA et les utilisateurs, et même la manière dont les liens amont et aval collaborent. Nous pouvons résumer les modèles d'écosystème d'application d'IA potentiels en deux types : le mode vertical et le modèle horizontal.

2.1 Mode Vertical : Mettre l'accent sur la réalisation de la composition entre les IA

Le cas d'utilisation d'échecs en chaîne "Leela vs. the World" occupe une place spéciale. Les gens peuvent parier sur des humains ou sur une IA, et les jetons sont automatiquement distribués après la fin du jeu. À ce stade, le sens de zkp n'est pas seulement pour que les utilisateurs vérifient les calculs de l'IA, mais aussi comme une garantie de confiance pour déclencher des transitions d'état on-chain. Avec l'assurance de confiance, il peut également y avoir une composabilité au niveau des dapps entre les services d'IA et entre l'IA et les dapps natifs de la crypto.

Source de l'image: Kernel Ventures, avec référence de Modulus Labs

L'unité de base de l'IA combinable est [modèle ML hors chaîne - génération zkp - contrat de vérification sur chaîne - contrat principal]. Cette unité s'appuie sur le cadre "Leela vs. the World", mais l'architecture réelle d'une seule application IA peut ne pas être la même que celle montrée dans l'image ci-dessus. Tout d'abord, la situation du jeu d'échecs dans les échecs nécessite un contrat, mais en réalité, l'IA peut ne pas avoir besoin d'un contrat sur chaîne. Cependant, en ce qui concerne l'architecture de l'IA combinable, si l'activité principale est enregistrée à travers des contrats, il peut être plus pratique pour d'autres applications de la combiner avec elle. Deuxièmement, le contrat principal n'a pas nécessairement besoin d'affecter le modèle ML de l'application IA elle-même, car une application IA peut avoir un effet unidirectionnel. Après que le modèle ML soit traité, il suffit de déclencher un contrat lié à son propre activité, et le contrat sera appelé par d'autres applications.

De manière extensive, les appels entre contrats sont des appels entre différentes applications web3. Ce sont des appels pour l'identité personnelle, les actifs, les services financiers, et même les informations sociales. Nous pouvons imaginer une combinaison spécifique d'applications d'IA :

  1. Worldcoin utilise l'IA pour générer des codes iris et zkp pour les données personnelles de l'iris;
  2. L'application d'IA de notation de réputation vérifie d'abord si la personne derrière ce DID est une vraie personne (avec des données sur l'iris à l'arrière), puis alloue des NFT aux utilisateurs en fonction de la réputation on-chain;
  3. Le service de prêt ajuste la part du prêt en fonction du NFT possédé par l'utilisateur;
  4. ...

L'interaction entre l'IA dans le cadre de la chaîne publique n'est pas quelque chose qui n'a pas été discuté. Loaf, un contributeur à l'écosystème Realms des jeux à chaîne complète, a proposé une fois que les PNJ d'IA peuvent commercer entre eux comme les joueurs, de sorte que l'ensemble du système économique puisse s'optimiser lui-même et fonctionner automatiquement. AI Arena a développé un jeu de bataille automatisé par IA. Les utilisateurs achètent d'abord un NFT. Un NFT représente un robot de combat, et un modèle IA est derrière. Les utilisateurs jouent d'abord à des jeux par eux-mêmes, puis transmettent les données à l'IA pour un apprentissage simulé. Lorsque les utilisateurs estiment que l'IA est assez forte, ils peuvent jouer automatiquement contre d'autres IA dans l'arène. Modulus Labs a mentionné que AI Arena veut transformer tout cela en IA vérifiable. Ces deux cas ont vu la possibilité pour l'IA d'interagir les unes avec les autres et de modifier directement les données de la chaîne au fur et à mesure de leur interaction.

Cependant, il reste encore de nombreuses questions à discuter dans la mise en œuvre spécifique de l'IA combinable, comme la façon dont différents dapps peuvent utiliser les zkp de l'autre ou vérifier les contrats. Cependant, il existe également de nombreux projets excellents dans le domaine zk. Par exemple, RISC Zero a réalisé beaucoup de progrès dans l'exécution de calculs complexes hors chaîne et la libération de zkp vers la chaîne. Peut-être qu'un jour, il sera possible de mettre en place une solution appropriée.

2.2 Modèle horizontal: plateformes de services d'IA axées sur la décentralisation

À cet égard, nous présentons principalement une plateforme d'IA décentralisée appelée SAKSHI, qui a été conjointement proposée par des personnes de Princeton, de l'Université Tsinghua, de l'Université de l'Illinois à Urbana-Champaign, de l'Université de Hong Kong pour la Science et la Technologie, de Witness Chain et d'Eigen Layer. Son objectif principal est de permettre aux utilisateurs d'accéder aux services d'IA de manière plus décentralisée, rendant l'ensemble du processus plus décentralisé et automatisé.

Crédit photo: SAKSHI

La structure de SAKSHI peut être divisée en six couches : couche de service (couche de service), couche de contrôle (couche de contrôle), couche de transaction (couche de transaction), couche de preuve (couche de preuve), couche économique (couche économique) et couche de marché (Marketplace)

Le marché est le niveau le plus proche de l'utilisateur. Il y a des agrégateurs sur le marché pour fournir des services aux utilisateurs au nom de différents fournisseurs d'IA. Les utilisateurs passent des commandes par le biais des agrégateurs et concluent des accords avec les agrégateurs sur la qualité des services et les prix de paiement (les accords sont appelés SLA - accords de niveau de service).

Ensuite, la couche de service fournit une API pour le côté client, puis le client fait une demande d'inférence ML à l'agrégateur, et la demande est envoyée à un serveur utilisé pour faire correspondre le fournisseur de services IA (la route utilisée pour transmettre la demande fait partie de la couche de contrôle). Par conséquent, la couche de service et la couche de contrôle sont similaires à un service avec plusieurs serveurs web2, mais les serveurs différents sont exploités par des entités différentes, et chaque serveur est lié par le biais d'un SLA (accord de service précédemment signé) et d'un agrégateur.

Les SLA sont déployés sur la chaîne sous forme de contrats intelligents, qui appartiennent tous à la couche de transaction (note : dans cette solution, ils sont déployés sur la chaîne de témoin). La couche de transaction enregistre également le statut actuel d'une commande de service et est utilisée pour coordonner les utilisateurs, les agrégateurs et les fournisseurs de services pour traiter les litiges de paiement.

Afin que la couche de transaction dispose de preuves sur lesquelles s'appuyer en cas de litige, la couche de preuve (Proof Layer) vérifiera si le fournisseur de services utilise le modèle tel qu'accepté dans l'ASL. Cependant, SAKSHI n'a pas choisi de générer un zkp pour le processus de calcul ML, mais a plutôt utilisé l'idée de preuve optimiste, espérant établir un réseau de nœuds challengers pour tester le service. Les incitations des nœuds sont prises en charge par Witness Chain.

Bien que SLA et le réseau de nœuds challenger soient sur Witness Chain, dans le plan de SAKSHI, Witness Chain ne prévoit pas d'utiliser ses incitations en jetons natifs pour assurer une sécurité indépendante, mais utilise plutôt la sécurité d'Ethereum via Eigen Layer, de sorte que toute l'économie repose en réalité sur Eigen Layer.

Comme on peut le voir, SAKSHI se situe entre les fournisseurs de services d'IA et les utilisateurs, et organise différents AIs de manière décentralisée pour fournir des services aux utilisateurs. Il s'agit plus d'une solution horizontale. Le cœur de SAKSHI est qu'il permet aux fournisseurs de services d'IA de se concentrer davantage sur la gestion de leurs propres calculs de modèle hors chaîne, l'association des besoins des utilisateurs avec les services de modèle, le paiement des services, et la vérification de la qualité des services grâce à des accords sur chaîne, et tente de résoudre automatiquement les litiges de paiement. Bien sûr, à l'heure actuelle, SAKSHI en est encore au stade théorique, et il y a également de nombreux détails d'implémentation qui méritent d'être déterminés.

3. Perspectives futures

Que ce soit l'IA combinable ou les plateformes d'IA décentralisées, le modèle d'écosystème d'IA basé sur la chaîne publique semble avoir quelque chose en commun. Par exemple, les fournisseurs de services d'IA ne se connectent pas directement avec les utilisateurs ; ils ont seulement besoin de fournir des modèles ML et d'effectuer des calculs hors chaîne. Les paiements, la résolution des litiges et la coordination entre les besoins des utilisateurs et les services peuvent tous être résolus par des accords décentralisés. En tant qu'infrastructure sans confiance, la chaîne publique réduit les frictions entre les fournisseurs de services et les utilisateurs, et les utilisateurs ont également une plus grande autonomie à ce moment.

Bien que les avantages de l'utilisation de la chaîne publique comme base d'application soient des clichés, il est vrai que cela s'applique également aux services d'IA. Cependant, la différence entre les applications d'IA et les applications dapp existantes est que les applications d'IA ne peuvent pas placer toutes les calculs sur la chaîne, il est donc nécessaire d'utiliser des preuves zk ou optimistes pour connecter les services d'IA au système de chaîne publique de manière plus décentralisée.

Avec la mise en œuvre d'une série de solutions d'optimisation de l'expérience telles que l'abstraction de compte, les utilisateurs peuvent ne pas être en mesure de percevoir l'existence de mnémoniques, de chaînes et de gaz. Cela rapproche l'écosystème de la chaîne publique de web2 en termes d'expérience, tandis que les utilisateurs peuvent obtenir un degré de liberté et de composition plus élevé que les services web2. Cela sera très attractif pour les utilisateurs. L'écosystème d'application d'IA basé sur la chaîne publique mérite d'être attendu avec impatience.


Kernel Ventures est un fonds de capital-risque crypto piloté par une communauté de recherche et développement avec plus de 70 investissements en phase précoce axés sur l'infrastructure, les middleware, les dApps, en particulier ZK, Rollup, DEX, les blockchains modulaires, et les verticaux qui accueilleront les prochains milliards d'utilisateurs de crypto, tels que l'abstraction de compte, la disponibilité des données, la scalabilité, etc. Au cours des sept dernières années, nous nous sommes engagés à soutenir le développement des communautés de développement de base et des associations universitaires de blockchain à travers le monde.

Avertissement:

  1. Cet article est repris de[miroir]. Tous les droits d'auteur appartiennent à l'auteur original [Kernel Ventures Jerry Luo]. Si vous avez des objections à cette réimpression, veuillez contacter l'équipe Gate Learn(gatelearn@gate.io), et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent pas des conseils en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.

De l'IA vérifiable à l'IA composable - Réflexions sur les scénarios d'application ZKML

Intermédiaire12/17/2023, 5:56:24 PM
Cet article réexamine les solutions d'IA vérifiables d'un point de vue application, et analyse dans quels scénarios elles sont nécessaires immédiatement, et dans quels scénarios la demande est relativement faible. Enfin, le modèle d'écosystème d'IA basé sur la chaîne publique a été discuté, et deux modèles de développement différents, horizontal et vertical, ont été proposés.
  1. Que ce soit nécessaire de vérifier l'IA dépend de : si les données on-chain sont modifiées, et si l'équité et la confidentialité sont impliquées

    1. Lorsque l'IA n'affecte pas le statut on-chain, l'IA peut agir en tant que conseiller. Les gens peuvent juger de la qualité des services d'IA à travers les résultats réels sans vérifier le processus de calcul.
    2. Lorsque l'état on-chain est affecté, si le service cible les individus et n'affecte pas la vie privée, alors les utilisateurs peuvent toujours juger directement la qualité des services d'IA sans vérifier le processus de calcul.
    3. Lorsque la production d'IA affecte l'équité et la vie privée de nombreuses personnes, par exemple en utilisant l'IA pour évaluer et distribuer des récompenses aux membres de la communauté, en utilisant l'IA pour optimiser l'AMM, ou en impliquant des données biologiques, les gens voudront examiner les calculs d'IA. C'est là qu'il peut être vérifié que l'IA peut trouver PMF.
  2. Écosystème d'application AI vertical : Comme une extrémité de l'AI vérifiable est un contrat intelligent, les applications AI vérifiables et même les dapps AI et natives peuvent être en mesure de s'utiliser mutuellement sans confiance. Il s'agit d'un écosystème potentiel d'application AI composable

  3. Écosystème d'application IA horizontal: Le système de chaîne publique peut gérer des problèmes tels que le paiement de services, la coordination des litiges de paiement et l'appariement des besoins des utilisateurs et du contenu des services pour les fournisseurs de services IA, de sorte que les utilisateurs puissent profiter d'une expérience de service IA décentralisée avec un degré de liberté plus élevé.

1. Vue d'ensemble de Modulus Labs et histoires d'application

1.1 Introduction et solutions clés

Modulus Labs est une société d'IA "sur chaîne" qui croit que l'IA peut améliorer considérablement les capacités des contrats intelligents et rendre les applications web3 plus puissantes. Cependant, il y a une contradiction lorsque l'IA est appliquée à web3, c'est-à-dire que l'IA nécessite une grande quantité de puissance de calcul pour fonctionner, et l'IA est une boîte noire pour le calcul hors chaîne. Cela ne répond pas aux exigences de base de web3 en matière de confiance et de vérifiabilité.

Ainsi, Modulus Labs s'est appuyé sur le schéma zk rollup [prétraitement hors chaîne+vérification sur chaîne] et a proposé une architecture pouvant vérifier l'IA. Plus précisément, le modèle ML s'exécute hors chaîne, et en outre, un zkp est généré pour le processus de calcul ML hors chaîne. Grâce à ce zkp, l'architecture, les poids et les entrées (inputs) du modèle hors chaîne peuvent être vérifiés. Bien sûr, ce zkp peut également être publié sur la chaîne pour vérification par des contrats intelligents. À ce stade, l'IA et les contrats sur chaîne peuvent interagir de manière plus fiable, c'est-à-dire que l '«IA sur chaîne» a été réalisée.

Basé sur l'idée d'une IA vérifiable, Modulus Labs a lancé jusqu'à présent trois applications "d'IA sur chaîne", et a également proposé de nombreux scénarios d'application possibles.

1.2 Cas d'application

  1. Le premier à être lancé était Rocky Bot, une IA de trading automatisée. Rocky a été formé par des données historiques provenant de la paire de trading Weth/USDC. Il juge les tendances weth futures en se basant sur des données historiques. Après avoir pris une décision de trading, il générera un zkp pour le processus de décision (processus de calcul) et enverra un message à L1 pour déclencher la transaction.
  2. Le deuxième est le jeu d'échecs sur chaîne "Leela vs. le Monde". Les deux joueurs dans le jeu sont des IA et des humains, et la situation du jeu est dans un contrat. Le joueur opère via un portefeuille (interagit avec des contrats). Cependant, l'IA lit la nouvelle situation du jeu d'échecs, fait un jugement et génère un zkp pour l'ensemble du processus de calcul. Les deux étapes sont réalisées sur le cloud AWS, et le zkp est vérifié par un contrat sur chaîne. Après la vérification réussie, le contrat de jeu est utilisé pour "jouer aux échecs".
  3. Le troisième est un artiste d'IA "on-chain" et a lancé la série NFT zKMon. Le cœur est que l'IA génère des NFT et les publie sur la chaîne, et génère également un zkp. Les utilisateurs peuvent vérifier si leur NFT est généré à partir du modèle d'IA correspondant grâce au zkp.

De plus, Modulus Labs a mentionné quelques autres cas d'utilisation :

  1. Utilisez l'IA pour évaluer les données personnelles on-chain et d'autres informations, générer des notes de réputation personnelles et publier zkp pour la vérification de l'utilisateur;
  2. Utiliser l'IA pour optimiser les performances de l'AMM et publier zkp pour que les utilisateurs puissent vérifier;
  3. Utilisez l'IA vérifiable pour aider les projets de confidentialité à faire face à la pression réglementaire, sans pour autant exposer la confidentialité (peut-être en utilisant l'IA pour prouver que cette transaction n'est pas liée au blanchiment d'argent, tout en ne divulguant pas d'informations telles que les adresses des utilisateurs) ;
  4. Oracles d'IA et libération de zkp pour que tout le monde puisse vérifier la fiabilité des données hors chaîne;
  5. Dans le concours de modèles d'IA, les participants soumettent leur propre architecture et leurs poids, puis exécutent le modèle avec une entrée de test unifiée pour générer un zkp pour le calcul, et le contrat final envoie automatiquement l'argent du prix au gagnant;
  6. Worldcoin a déclaré que dans le futur, les utilisateurs pourront peut-être télécharger un modèle d'iris pour générer le code correspondant sur l'appareil local, exécuter le modèle localement et générer zkp. De cette façon, le contrat on-chain peut utiliser zkp pour vérifier que le code d'iris de l'utilisateur est généré à partir du modèle correct et de l'iris raisonnable, tandis que les informations biologiques ne quittent pas l'appareil de l'utilisateur.

Crédit photo: Modulus Labs

1.3 Discutez des différents scénarios d'application basés sur le besoin d'IA vérifiable

1.3.1 Scénarios qui peuvent vérifier que l'IA n'est peut-être pas nécessaire

Dans le scénario du bot Rocky, les utilisateurs peuvent ne pas être tenus de vérifier le processus de calcul de l'IA. Premièrement, les utilisateurs n'ont pas les compétences ni la capacité de faire une véritable vérification. Même s'il existe un outil de vérification, selon l'opinion de l'utilisateur, "Je presse un bouton, l'interface s'affiche pour me dire que ce service d'IA a en fait été généré par un certain modèle", et l'authenticité ne peut pas être déterminée. Deuxièmement, les utilisateurs n'ont pas besoin de vérifier, car ils se soucient de savoir si le rendement de l'IA est élevé. Les utilisateurs migrent lorsque la rentabilité est faible, et ils choisissent toujours le modèle qui fonctionne le mieux. En bref, lorsque le résultat final de l'IA correspond à ce que l'utilisateur recherche, le processus de vérification peut ne pas être significatif car l'utilisateur n'a besoin que de migrer vers le service qui fonctionne le mieux.

**Une solution possible est que l'IA agisse uniquement en tant que conseiller, et l'utilisateur exécute la transaction de manière indépendante. **Lorsque les gens saisissent leurs objectifs de trading dans l'IA, l'IA calcule et retourne un meilleur chemin de transaction/direction de trade hors chaîne, et l'utilisateur choisit s'il doit l'exécuter. Les gens n'ont pas non plus besoin de vérifier le modèle derrière cela; ils ont juste besoin de choisir le produit avec le rendement le plus élevé.

Une autre situation dangereuse mais très probable est que les gens se soucient peu de leur contrôle sur les actifs ou du processus de calcul de l'IA. Lorsqu'un robot qui gagne automatiquement de l'argent apparaît, les gens sont même prêts à lui confier directement de l'argent, tout comme ils mettent des jetons dans une CEX ou des banques traditionnelles pour la gestion financière. Parce que les gens ne se soucient pas des principes qui le sous-tendent; ils se soucient seulement de la somme d'argent qu'ils obtiennent à la fin, ou même de la somme d'argent que la partie projet leur montre à gagner, ce type de service peut rapidement acquérir un grand nombre d'utilisateurs, et même itérer plus rapidement que les produits côté projet qui utilisent une IA vérifiable.

En prenant du recul, si l'IA ne participe pas du tout aux changements d'état on-chain, mais se contente de collecter des données on-chain et de les prétraiter pour les utilisateurs, alors il n'est pas nécessaire de générer des ZKP pour le processus de calcul. Voici quelques exemples de ce type d'application en tant que "service de données":

  1. La boîte de chat fournie par Mest est un service de données typique. Les utilisateurs peuvent utiliser des questions et des réponses pour comprendre leurs données on-chain, comme demander combien d'argent ils ont dépensé en NFT;
  2. ChaingPT est un assistant AI multifonctionnel qui peut interpréter les contrats intelligents pour vous avant de trader, vous dire si vous tradez avec le bon pool, ou vous dire si la transaction est susceptible d'être attrapée ou arrachée. ChaingPT se prépare également à faire des recommandations de nouvelles AI, à entrer des suggestions pour générer automatiquement des images et les publier sous forme de NFT et d'autres services;
  3. RSS3 fournit AIOP, de sorte que les utilisateurs peuvent sélectionner les données sur chaîne qu'ils souhaitent et effectuer un prétraitement spécifique, ce qui facilite l'entraînement de l'IA avec des données sur chaîne spécifiques;
  4. DeVillama et RSS3 ont également développé des plug-ins ChatGPT, où les utilisateurs peuvent obtenir des données on-chain grâce à des conversations;

1.3.2 Scénarios nécessitant une IA vérifiable

Cet article soutient que les scénarios impliquant plusieurs personnes, impliquant l'équité et la confidentialité, nécessitent ZKP pour fournir une vérification, et plusieurs des applications mentionnées par Modulus Labs sont discutées ici :

  1. Lorsqu'une communauté récompense les individus en fonction de réputations personnelles générées par l'IA, les membres de la communauté demanderont inévitablement une révision du processus de décision d'évaluation, qui est le processus de calcul du ML;
  2. Les scénarios d'optimisation de l'IA pour les AMM impliquent la distribution des avantages parmi plusieurs personnes, et le processus de calcul de l'IA doit également être vérifié régulièrement;
  3. Lorsqu'il s'agit d'équilibrer la vie privée et la réglementation, ZK est actuellement l'une des meilleures solutions. Si le fournisseur de services utilise ML dans le service pour traiter des données privées, il doit générer ZKP pour l'ensemble du processus de calcul ;
  4. Étant donné que les oracles ont une large gamme d'influence, s'ils sont contrôlés par l'IA, il est nécessaire de générer régulièrement des ZKP pour vérifier si l'IA fonctionne correctement;
  5. Dans la compétition, le public et les autres participants doivent vérifier si le calcul de ML est conforme aux spécifications de la compétition;
  6. Parmi les cas d'utilisation potentiels de Worldcoin, la protection des données biologiques personnelles est également une exigence forte;

En règle générale, lorsque l'IA est similaire à un décideur, et que sa production a une large influence et implique l'équité de nombreuses parties, les gens demanderont un examen du processus décisionnel, ou simplement garantir qu'il n'y a pas de problèmes majeurs avec le processus de décision de l'IA, et protéger la vie privée est une exigence très immédiate.

Par conséquent, "que la sortie de l'IA modifie l'état on-chain" et "qu'elle affecte l'équité/la vie privée" sont deux critères pour juger si une solution d'IA vérifiable est nécessaire

  1. Lorsque la sortie de l'IA ne modifie pas l'état on-chain, le service d'IA peut agir en tant que recommandeur. Les gens peuvent juger de la qualité du service d'IA à travers l'effet de recommandation sans vérifier le processus de calcul;
  2. Lorsque la sortie de l'IA modifie l'état on-chain, si le service ne vise que les individus et n'affecte pas la confidentialité, alors les utilisateurs peuvent toujours juger directement de la qualité du service IA sans vérifier le processus de calcul;
  3. Lorsque la production d'IA affecte directement l'équité entre de nombreuses personnes, et que l'IA modifie automatiquement les données on-chain, la communauté et le public doivent tester le processus de prise de décision de l'IA;
  4. Lorsque les données traitées par ML impliquent la vie privée des personnes, zk est également nécessaire pour protéger la vie privée et ainsi répondre aux exigences réglementaires.

Crédit photo : Kernel Ventures

2. Deux modèles d'écosystème AI basés sur des chaînes publiques

En tout cas, la solution de Modulus Labs est très instructive sur la manière dont l'IA peut combiner la crypto et apporter une valeur d'application pratique. Cependant, le système de chaîne publique améliore non seulement les capacités des services d'IA individuels, mais a également le potentiel de construire un nouvel écosystème d'application d'IA. Cet nouvel écosystème a entraîné une relation différente entre les services d'IA par rapport à Web2, la relation entre les services d'IA et les utilisateurs, et même la manière dont les liens amont et aval collaborent. Nous pouvons résumer les modèles d'écosystème d'application d'IA potentiels en deux types : le mode vertical et le modèle horizontal.

2.1 Mode Vertical : Mettre l'accent sur la réalisation de la composition entre les IA

Le cas d'utilisation d'échecs en chaîne "Leela vs. the World" occupe une place spéciale. Les gens peuvent parier sur des humains ou sur une IA, et les jetons sont automatiquement distribués après la fin du jeu. À ce stade, le sens de zkp n'est pas seulement pour que les utilisateurs vérifient les calculs de l'IA, mais aussi comme une garantie de confiance pour déclencher des transitions d'état on-chain. Avec l'assurance de confiance, il peut également y avoir une composabilité au niveau des dapps entre les services d'IA et entre l'IA et les dapps natifs de la crypto.

Source de l'image: Kernel Ventures, avec référence de Modulus Labs

L'unité de base de l'IA combinable est [modèle ML hors chaîne - génération zkp - contrat de vérification sur chaîne - contrat principal]. Cette unité s'appuie sur le cadre "Leela vs. the World", mais l'architecture réelle d'une seule application IA peut ne pas être la même que celle montrée dans l'image ci-dessus. Tout d'abord, la situation du jeu d'échecs dans les échecs nécessite un contrat, mais en réalité, l'IA peut ne pas avoir besoin d'un contrat sur chaîne. Cependant, en ce qui concerne l'architecture de l'IA combinable, si l'activité principale est enregistrée à travers des contrats, il peut être plus pratique pour d'autres applications de la combiner avec elle. Deuxièmement, le contrat principal n'a pas nécessairement besoin d'affecter le modèle ML de l'application IA elle-même, car une application IA peut avoir un effet unidirectionnel. Après que le modèle ML soit traité, il suffit de déclencher un contrat lié à son propre activité, et le contrat sera appelé par d'autres applications.

De manière extensive, les appels entre contrats sont des appels entre différentes applications web3. Ce sont des appels pour l'identité personnelle, les actifs, les services financiers, et même les informations sociales. Nous pouvons imaginer une combinaison spécifique d'applications d'IA :

  1. Worldcoin utilise l'IA pour générer des codes iris et zkp pour les données personnelles de l'iris;
  2. L'application d'IA de notation de réputation vérifie d'abord si la personne derrière ce DID est une vraie personne (avec des données sur l'iris à l'arrière), puis alloue des NFT aux utilisateurs en fonction de la réputation on-chain;
  3. Le service de prêt ajuste la part du prêt en fonction du NFT possédé par l'utilisateur;
  4. ...

L'interaction entre l'IA dans le cadre de la chaîne publique n'est pas quelque chose qui n'a pas été discuté. Loaf, un contributeur à l'écosystème Realms des jeux à chaîne complète, a proposé une fois que les PNJ d'IA peuvent commercer entre eux comme les joueurs, de sorte que l'ensemble du système économique puisse s'optimiser lui-même et fonctionner automatiquement. AI Arena a développé un jeu de bataille automatisé par IA. Les utilisateurs achètent d'abord un NFT. Un NFT représente un robot de combat, et un modèle IA est derrière. Les utilisateurs jouent d'abord à des jeux par eux-mêmes, puis transmettent les données à l'IA pour un apprentissage simulé. Lorsque les utilisateurs estiment que l'IA est assez forte, ils peuvent jouer automatiquement contre d'autres IA dans l'arène. Modulus Labs a mentionné que AI Arena veut transformer tout cela en IA vérifiable. Ces deux cas ont vu la possibilité pour l'IA d'interagir les unes avec les autres et de modifier directement les données de la chaîne au fur et à mesure de leur interaction.

Cependant, il reste encore de nombreuses questions à discuter dans la mise en œuvre spécifique de l'IA combinable, comme la façon dont différents dapps peuvent utiliser les zkp de l'autre ou vérifier les contrats. Cependant, il existe également de nombreux projets excellents dans le domaine zk. Par exemple, RISC Zero a réalisé beaucoup de progrès dans l'exécution de calculs complexes hors chaîne et la libération de zkp vers la chaîne. Peut-être qu'un jour, il sera possible de mettre en place une solution appropriée.

2.2 Modèle horizontal: plateformes de services d'IA axées sur la décentralisation

À cet égard, nous présentons principalement une plateforme d'IA décentralisée appelée SAKSHI, qui a été conjointement proposée par des personnes de Princeton, de l'Université Tsinghua, de l'Université de l'Illinois à Urbana-Champaign, de l'Université de Hong Kong pour la Science et la Technologie, de Witness Chain et d'Eigen Layer. Son objectif principal est de permettre aux utilisateurs d'accéder aux services d'IA de manière plus décentralisée, rendant l'ensemble du processus plus décentralisé et automatisé.

Crédit photo: SAKSHI

La structure de SAKSHI peut être divisée en six couches : couche de service (couche de service), couche de contrôle (couche de contrôle), couche de transaction (couche de transaction), couche de preuve (couche de preuve), couche économique (couche économique) et couche de marché (Marketplace)

Le marché est le niveau le plus proche de l'utilisateur. Il y a des agrégateurs sur le marché pour fournir des services aux utilisateurs au nom de différents fournisseurs d'IA. Les utilisateurs passent des commandes par le biais des agrégateurs et concluent des accords avec les agrégateurs sur la qualité des services et les prix de paiement (les accords sont appelés SLA - accords de niveau de service).

Ensuite, la couche de service fournit une API pour le côté client, puis le client fait une demande d'inférence ML à l'agrégateur, et la demande est envoyée à un serveur utilisé pour faire correspondre le fournisseur de services IA (la route utilisée pour transmettre la demande fait partie de la couche de contrôle). Par conséquent, la couche de service et la couche de contrôle sont similaires à un service avec plusieurs serveurs web2, mais les serveurs différents sont exploités par des entités différentes, et chaque serveur est lié par le biais d'un SLA (accord de service précédemment signé) et d'un agrégateur.

Les SLA sont déployés sur la chaîne sous forme de contrats intelligents, qui appartiennent tous à la couche de transaction (note : dans cette solution, ils sont déployés sur la chaîne de témoin). La couche de transaction enregistre également le statut actuel d'une commande de service et est utilisée pour coordonner les utilisateurs, les agrégateurs et les fournisseurs de services pour traiter les litiges de paiement.

Afin que la couche de transaction dispose de preuves sur lesquelles s'appuyer en cas de litige, la couche de preuve (Proof Layer) vérifiera si le fournisseur de services utilise le modèle tel qu'accepté dans l'ASL. Cependant, SAKSHI n'a pas choisi de générer un zkp pour le processus de calcul ML, mais a plutôt utilisé l'idée de preuve optimiste, espérant établir un réseau de nœuds challengers pour tester le service. Les incitations des nœuds sont prises en charge par Witness Chain.

Bien que SLA et le réseau de nœuds challenger soient sur Witness Chain, dans le plan de SAKSHI, Witness Chain ne prévoit pas d'utiliser ses incitations en jetons natifs pour assurer une sécurité indépendante, mais utilise plutôt la sécurité d'Ethereum via Eigen Layer, de sorte que toute l'économie repose en réalité sur Eigen Layer.

Comme on peut le voir, SAKSHI se situe entre les fournisseurs de services d'IA et les utilisateurs, et organise différents AIs de manière décentralisée pour fournir des services aux utilisateurs. Il s'agit plus d'une solution horizontale. Le cœur de SAKSHI est qu'il permet aux fournisseurs de services d'IA de se concentrer davantage sur la gestion de leurs propres calculs de modèle hors chaîne, l'association des besoins des utilisateurs avec les services de modèle, le paiement des services, et la vérification de la qualité des services grâce à des accords sur chaîne, et tente de résoudre automatiquement les litiges de paiement. Bien sûr, à l'heure actuelle, SAKSHI en est encore au stade théorique, et il y a également de nombreux détails d'implémentation qui méritent d'être déterminés.

3. Perspectives futures

Que ce soit l'IA combinable ou les plateformes d'IA décentralisées, le modèle d'écosystème d'IA basé sur la chaîne publique semble avoir quelque chose en commun. Par exemple, les fournisseurs de services d'IA ne se connectent pas directement avec les utilisateurs ; ils ont seulement besoin de fournir des modèles ML et d'effectuer des calculs hors chaîne. Les paiements, la résolution des litiges et la coordination entre les besoins des utilisateurs et les services peuvent tous être résolus par des accords décentralisés. En tant qu'infrastructure sans confiance, la chaîne publique réduit les frictions entre les fournisseurs de services et les utilisateurs, et les utilisateurs ont également une plus grande autonomie à ce moment.

Bien que les avantages de l'utilisation de la chaîne publique comme base d'application soient des clichés, il est vrai que cela s'applique également aux services d'IA. Cependant, la différence entre les applications d'IA et les applications dapp existantes est que les applications d'IA ne peuvent pas placer toutes les calculs sur la chaîne, il est donc nécessaire d'utiliser des preuves zk ou optimistes pour connecter les services d'IA au système de chaîne publique de manière plus décentralisée.

Avec la mise en œuvre d'une série de solutions d'optimisation de l'expérience telles que l'abstraction de compte, les utilisateurs peuvent ne pas être en mesure de percevoir l'existence de mnémoniques, de chaînes et de gaz. Cela rapproche l'écosystème de la chaîne publique de web2 en termes d'expérience, tandis que les utilisateurs peuvent obtenir un degré de liberté et de composition plus élevé que les services web2. Cela sera très attractif pour les utilisateurs. L'écosystème d'application d'IA basé sur la chaîne publique mérite d'être attendu avec impatience.


Kernel Ventures est un fonds de capital-risque crypto piloté par une communauté de recherche et développement avec plus de 70 investissements en phase précoce axés sur l'infrastructure, les middleware, les dApps, en particulier ZK, Rollup, DEX, les blockchains modulaires, et les verticaux qui accueilleront les prochains milliards d'utilisateurs de crypto, tels que l'abstraction de compte, la disponibilité des données, la scalabilité, etc. Au cours des sept dernières années, nous nous sommes engagés à soutenir le développement des communautés de développement de base et des associations universitaires de blockchain à travers le monde.

Avertissement:

  1. Cet article est repris de[miroir]. Tous les droits d'auteur appartiennent à l'auteur original [Kernel Ventures Jerry Luo]. Si vous avez des objections à cette réimpression, veuillez contacter l'équipe Gate Learn(gatelearn@gate.io), et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent pas des conseils en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.
Comece agora
Registe-se e ganhe um cupão de
100 USD
!