L'avènement des blockchains publiques est l'une des avancées les plus profondes de l'histoire de l'informatique. Mais le développement de l'intelligence artificielle aura, et a déjà, un impact profond sur notre monde. Si la technologie blockchain offre un nouveau modèle pour le règlement des transactions, le stockage des données et la conception de systèmes, l'intelligence artificielle est une révolution dans le calcul, l'analyse et la diffusion de contenu. L'innovation dans les deux industries ouvre de nouveaux cas d'utilisation qui pourraient accélérer l'adoption des deux dans les années à venir. Ce rapport explore les intégrations en cours de la crypto et de l'IA en mettant l'accent sur les cas d'utilisation novateurs qui tentent de combler le fossé entre les deux, en exploitant la puissance des deux. Plus précisément, ce rapport examine les projets développant des protocoles de calcul décentralisés, une infrastructure d'apprentissage machine à confidentialité nulle (zkML) et des agents d'IA.
La crypto fournit à l’IA une couche de règlement sans autorisation, sans confiance et composable. Cela ouvre la voie à des cas d’utilisation tels que l’amélioration de l’accessibilité du matériel grâce à des systèmes de calcul décentralisés, la création d’agents d’IA capables d’exécuter des tâches complexes nécessitant l’échange de valeur, et le développement de solutions d’identité et de provenance pour lutter contre les attaques Sybil et les deep fakes. L’IA apporte à la crypto bon nombre des mêmes avantages que nous voyons dans le Web 2. Cela inclut l’amélioration de l’expérience utilisateur (UX) pour les utilisateurs et les développeurs grâce à des modèles à langage large (c’est-à-dire des versions spécialement entraînées de ChatGPT et Copilot), ainsi que la possibilité d’améliorer considérablement la fonctionnalité et l’automatisation des contrats intelligents. Les blockchains sont les environnements transparents riches en données dont l’IA a besoin. Mais les blockchains ont également une capacité de calcul limitée, un obstacle majeur à l’intégration directe des modèles d’IA.
La force motrice derrière l'expérimentation en cours et l'adoption éventuelle à l'intersection de la crypto et de l'IA est la même qui alimente une grande partie des cas d'utilisation les plus prometteurs de la crypto - l'accès à une couche de coordination sans permission et sans confiance qui facilite mieux le transfert de valeur. Compte tenu du potentiel énorme, les participants dans l'espace doivent comprendre les façons fondamentales dont les deux technologies s'entrecroisent.
L'intelligence artificielle est l'utilisation du calcul et des machines pour imiter les capacités de raisonnement et de résolution de problèmes des êtres humains.
Les réseaux neuronaux sont une méthode de formation des modèles d'IA. Ils font passer les entrées à travers des couches discrètes d'algorithmes, les affinant jusqu'à ce que la sortie souhaitée soit produite. Les réseaux neuronaux sont constitués d'équations qui ont des poids pouvant être modifiés pour changer la sortie. Ils peuvent nécessiter des quantités incroyables de données et de calcul pour être formés de sorte que leurs sorties soient précises. C'est l'une des façons les plus courantes dont les modèles d'IA sont développés (ChatGPT utilise un processus de réseau neuronal basé surtransformateurs).
L'entraînement est le processus par lequel les réseaux neuronaux et autres modèles d'IA sont développés. Il nécessite de grandes quantités de données pour entraîner les modèles à interpréter correctement les entrées et produire des sorties précises. Pendant le processus d'entraînement, les poids de l'équation du modèle sont continuellement modifiés jusqu'à ce qu'une sortie satisfaisante soit produite. L'entraînement peut être très coûteux. ChatGPT, par exemple, utilisedes dizaines de milliers de ses propres GPU pour traiter ses données. Les équipes avec moins de ressources ont souvent recours à des fournisseurs de calcul dédiés comme Amazon Web Services, Azure et Google Cloud Providers.
L'inférence est l'utilisation réelle d'un modèle d'IA pour obtenir une sortie ou un résultat (par exemple, utiliser ChatGPT pour créer un plan pour un article sur l'intersection de la crypto et de l'IA). Les inférences sont utilisées tout au long du processus de formation et dans le produit final. Elles peuvent être coûteuses à exécuter, même après la fin de la formation, en raison des coûts de calcul, mais sont moins intensives en calcul que la formation.
Les preuves de connaissance nulle (ZKP) permettent de vérifier une réclamation sans révéler les informations sous-jacentes. Cela est utile en crypto pour deux raisons principales: 1) la confidentialité et 2) l'évolutivité. En ce qui concerne la confidentialité, cela permet aux utilisateurs de réaliser des transactions sans révéler d'informations sensibles telles que la quantité d'ETH dans leur portefeuille. En ce qui concerne l'évolutivité, cela permet de prouver plus rapidement sur la chaîne des calculs effectués hors chaîne, plutôt que de devoir réexécuter le calcul. Cela permet aux blockchains et aux applications d'effectuer des calculs à moindre coût hors chaîne, puis de les vérifier sur la chaîne. Pour plus d'informations sur la connaissance nulle et son rôle dans la machine virtuelle Ethereum, veuillez vous référer au rapport de Christine KimzkEVMs: L'avenir de l'extensibilité d'Ethereum.
Les projets à l'intersection de l'IA et de la crypto construisent toujours l'infrastructure sous-jacente nécessaire pour soutenir les interactions d'IA on-chain à grande échelle.
Les marchés de calcul décentralisés émergent pour fournir de grandes quantités de matériel physique, principalement sous forme d'unités de traitement graphique (GPU), nécessaires à la formation et à l'inférence de modèles d'IA. Ces marchés à deux faces relient les personnes qui louent et cherchent à louer des ressources informatiques, facilitant le transfert de valeur et la vérification des ressources informatiques. Au sein des calculs décentralisés, plusieurs sous-catégories émergent qui fournissent des fonctionnalités supplémentaires. En plus des marchés à deux faces, ce rapport examinera les fournisseurs de formation en apprentissage automatique qui se spécialisent dans le service de formation vérifiable et de réglage fin des sorties, ainsi que les projets visant à connecter les ressources informatiques et la génération de modèles pour atteindre une intelligence artificielle générale, également fréquemment désignée sous le nom de réseaux d'incitations à l'intelligence.
zkML est un domaine émergent d'intérêt pour les projets qui souhaitent fournir des sorties de modèle vérifiables on-chain de manière rentable et opportune. Ces projets permettent principalement aux applications de gérer les demandes de calcul intensif off-chain, puis de publier on-chain une sortie vérifiable prouvant que la charge de travail off-chain est complète et précise. zkML est à la fois coûteux et chronophage dans sa forme actuelle, mais est de plus en plus utilisé comme solution. Cela est évident dans le nombre croissant d'intégrations entre les fournisseurs de zkML et les applications DeFi/Gaming qui souhaitent tirer parti des modèles d'IA.
Une offre abondante de calcul et la capacité de vérifier ce calcul on-chain ouvrent la voie aux agents d'IA on-chain. Les agents sont des modèles entraînés capables d'exécuter des demandes au nom d'un utilisateur. Les agents offrent la possibilité d'améliorer considérablement l'expérience on-chain, permettant aux utilisateurs d'exécuter des transactions complexes rien qu'en parlant à un chatbot. Cependant, tels qu'ils existent aujourd'hui, les projets d'agents se concentrent encore sur le développement de l'infrastructure et des outils pour un déploiement facile et rapide.
L'IA nécessite de grandes quantités de calcul, à la fois pour former des modèles et exécuter des inférences. Au cours de la dernière décennie, à mesure que les modèles sont devenus plus sophistiqués, les besoins en calcul ont augmenté de manière exponentielle. OpenAI, par exemple,fonderqu'entre 2012 et 2018, les exigences en matière de calcul pour ses modèles sont passées d'un doublement tous les deux ans à tous les trois mois et demi. Cela a entraîné une forte demande de GPU, certains mineurs de crypto-monnaie mêmeréaffectation de leurs GPU pour fournir des services d’informatique en nuage (@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">en savoir plus à ce sujet dans notre rapport annuel sur le minage de Bitcoin). Alors que la concurrence pour accéder au calcul augmente et que les coûts augmentent, plusieurs projets utilisent la cryptographie pour fournir des solutions de calcul décentralisées. Ils offrent des calculs à la demande à des prix compétitifs afin que les équipes puissent former et exécuter des modèles à un prix abordable. Le compromis, dans certains cas, peut être la performance et la sécurité.
Les GPU de pointe, comme ceux produitspar Nvidia, sont très demandées. En septembre, Tetheracquisune participation dans Northern Data, une entreprise minière allemande de Bitcoin, aurait payé 420 millions de dollars pour acquérir 10 000 H100 GPUs (l'un des GPUs les plus avancés pour la formation en IA).AttendreLes délais pour obtenir du matériel de pointe peuvent être d'au moins six mois, et dans de nombreux cas, plus longs. Pour aggraver la situation, les entreprises sont souvent tenues de signer des contrats à long terme pour des quantités de calcul qu'elles pourraient même ne pas utiliser. Cela peut entraîner des situations où des ressources de calcul sont disponibles, mais ne sont pas disponibles sur le marché. Les systèmes de calcul décentralisés aident à résoudre ces inefficacités du marché, en créant un marché secondaire où les propriétaires de ressources de calcul peuvent sous-louer leur capacité excédentaire à tout moment, débloquant ainsi une nouvelle offre.
Au-delà de la tarification compétitive et de l'accessibilité, la proposition de valeur clé de l'informatique décentralisée est la résistance à la censure. Le développement de l'IA de pointe est de plus en plus dominé par de grandes entreprises technologiques ayant un accès inégalé aux ressources informatiques et aux données. Le premier thème clé mis en avant dans le Rapport sur l’indice d’IALe rapport annuel 2023 indique que l'industrie devance de plus en plus le monde universitaire dans le développement de modèles d'IA, centralisant le contrôle entre les mains de quelques leaders technologiques. Cela a soulevé des inquiétudes quant à leur capacité à exercer une influence démesurée dans la dictée des normes et des valeurs qui sous-tendent les modèles d'IA, notamment après la réglementation poussepar ces mêmes entreprises technologiques pour freiner le développement de l'IA en dehors de leur contrôle.
Plusieurs modèles de calcul décentralisé ont émergé au cours des dernières années, chacun avec son propre focus et compromis.
Des projets comme Akash, io.net, iExec, Cudos et bien d’autres sont des applications de calcul décentralisées qui offrent un accès à, ou offriront bientôt l’accès, à des calculs spécialisés pour l’entraînement et les inférences de l’IA, en plus des données et des solutions de calcul généralisées.
Akash est actuellement la seule plateforme « supercloud » entièrement open source. C'est un réseau de preuve d'enjeu utilisant Cosmos SDK. AKT, le jeton natif d'Akash est utilisé pour sécuriser le réseau, comme moyen de paiement et pour inciter à la participation. Akash a lancé son premier mainnet en 2020 axé sur la fourniture d'un marché de calcul en nuage sans permission, proposant initialement des services de location de stockage et de CPU. En juin 2023, Akash lancéun nouveau testnet axé sur les GPU et en septembrelancésa GPU mainnet permet aux utilisateurs de louer des GPU pour l'entraînement et les inférences en IA.
Il y a deux acteurs principaux dans l'écosystème Akash - les Locataires et les Fournisseurs. Les Locataires sont des utilisateurs du réseau Akash qui souhaitent acheter des ressources de calcul. Les Fournisseurs sont les fournisseurs de calcul. Pour mettre en relation les locataires et les fournisseurs, Akash s'appuie sur un processus d'enchères inversées. Les locataires soumettent leurs besoins en calcul, dans lesquels ils peuvent spécifier certaines conditions telles que l'emplacement des serveurs ou le type de matériel effectuant le calcul, ainsi que le montant qu'ils sont prêts à payer. Les fournisseurs soumettent ensuite leur prix demandé, le prix le plus bas recevant la tâche.
Les validateurs Akash maintiennent l’intégrité du réseau. L’ensemble de validateurs est actuellement limité à 100 et il est prévu d’augmenter progressivement au fil du temps. N’importe qui peut devenir un validateur en jalonnant plus d’AKT que le validateur actuel avec le moins d’AKT mis en jeu. Les détenteurs d’AKT peuvent également déléguer leur AKT à des validateurs. Les frais de transaction et les récompenses de bloc pour le réseau sont distribués dans AKT. De plus, pour chaque location, le réseau Akash perçoit une « commission de prise » à un taux déterminé par la communauté qui est distribué aux détenteurs d’AKT.
Les marchés de calcul décentralisés visent à combler les inefficacités du marché actuel du calcul. Les contraintes d'approvisionnement poussent les entreprises à stocker des ressources de calcul au-delà de leurs besoins, et l'approvisionnement est encore plus limité en raison de la structure des contrats avec les fournisseurs de cloud, qui contraignent les clients à des contrats à long terme même si un accès continu n'est pas nécessaire. Les plateformes de calcul décentralisées débloquent de nouvelles ressources, permettant à quiconque dans le monde ayant besoin de ressources de calcul de devenir un fournisseur.
Il reste à voir si la demande croissante de GPU pour l’entraînement de l’IA se traduira par une utilisation à long terme du réseau sur Akash. Akash fournit depuis longtemps une place de marché pour les processeurs, par exemple, offrant des services similaires en tant qu’alternatives centralisées à 70-80%remise. Cependant, des prix plus bas n'ont pas entraîné une adoption significative. Les baux actifs sur le réseau se sont stabilisés, avec seulement 33% de calcul, 16% de mémoire et 13% de stockage pour le second trimestre 2023. Bien que ces chiffres soient impressionnants pour l'adoption on-chain (pour référence, le principal fournisseur de stockage Filecoin avait Utilisation du stockage de 12,6%au 3e trimestre 2023), cela démontre que l'offre continue de surpasser la demande pour ces produits.
Il y a un peu plus d'un an que Akash a lancé son réseau GPU et il est encore trop tôt pour évaluer avec précision l'adoption à long terme. Un signe de la demande, l'utilisation moyenne des GPU à ce jour est de 44 % et supérieure à celle des CPU, de la mémoire et du stockage. Cela est principalement dû à la demande pour les GPU de la plus haute qualité (comme les A100), avec plus de90%loué.
Les dépenses quotidiennes sur Akash ont également augmenté, doublant presque par rapport aux pré-GPU. Cela peut être partiellement attribué à une augmentation des autres services utilisés, en particulier les processeurs, mais est principalement le résultat de l’utilisation de nouveaux GPU.
Les prix correspondent (ou dans certains cas sont même légèrement plus chers) à ceux de ses concurrents centralisés comme Lambda Cloud et Vast.ai. La demande incroyable pour les GPU haut de gamme (comme les H100 et A100) signifie que la plupart des propriétaires de ce type d'équipement ont peu d'intérêt à être répertoriés sur des places de marché où ils doivent faire face à une concurrence en termes de prix.
Bien que l'intérêt initial soit prometteur, il reste des obstacles à l'adoption (discutés plus loin ci-dessous). Les réseaux de calcul décentralisés devront en faire plus pour générer à la fois la demande et l'offre et les équipes expérimentent la meilleure façon d'attirer de nouveaux utilisateurs. Au début de 2024, par exemple, Akash a passéProposition 240augmenter les émissions d'AKT pour les fournisseurs de GPU et inciter à fournir plus, en ciblant spécifiquement les GPU haut de gamme. Les équipes travaillent également à déployer des modèles de preuve de concept pour montrer aux utilisateurs potentiels les capacités en temps réel de leurs réseaux. Akash est formationleur propre modèle fondateur et a déjà été lancéchatbotetgénération d'imagesoffres qui créent des sorties en utilisant les GPU Akash. De même, io.net a développéun modèle de diffusion stable et est en cours de déploiementnouvelles fonctionnalités réseauqui imitent mieux les performances et l'échelle des centres de données GPU traditionnels.
En plus des plates-formes de calcul généralisées qui peuvent répondre aux besoins de l’IA, un ensemble de fournisseurs de GPU d’IA spécialisés axés sur l’entraînement de modèles d’apprentissage automatique émergent également. Gensyn, par exemple, est «coordonnantl'électricité et le matériel pour construire une intelligence collective” avec l'idée que, “Si quelqu'un veut entraîner quelque chose, et que quelqu'un est prêt à l'entraîner, alors cet entraînement devrait être autorisé à se produire.”
Le protocole a quatre acteurs principaux : les soumissionnaires, les solveurs, les vérificateurs et les lanceurs d'alerte. Les soumissionnaires soumettent des tâches au réseau avec des demandes de formation. Ces tâches comprennent l'objectif de formation, le modèle à former et les données de formation. Dans le cadre du processus de soumission, les soumissionnaires paient des frais à l'avance pour le calcul estimé requis par le solveur.
Une fois soumises, les tâches sont attribuées aux solveurs qui effectuent la formation réelle des modèles. Les solveurs soumettent ensuite les tâches terminées aux vérificateurs qui sont responsables de vérifier la formation pour s'assurer qu'elle a été correctement effectuée. Les lanceurs d'alerte sont responsables de garantir que les vérificateurs se comportent de manière honnête. Pour inciter les lanceurs d'alerte à participer au réseau, Gensyn prévoit de fournir périodiquement des preuves intentionnellement incorrectes qui récompensent les lanceurs d'alerte qui les attrapent.
Au-delà de la fourniture de ressources de calcul pour les charges de travail liées à l’IA, la principale proposition de valeur de Gensyn est son système de vérification, qui est encore en cours de développement. La vérification est nécessaire pour s’assurer que les calculs externes effectués par les fournisseurs de GPU sont effectués correctement (c’est-à-dire pour s’assurer que le modèle d’un utilisateur est entraîné comme il le souhaite). Gensyn s’attaque à ce problème avec une approche unique, en s’appuyant sur de nouvelles méthodes de vérification appelées « preuve d’apprentissage probabiliste, protocole d’identification basé sur des graphes et jeux d’incitation de style Truebit ». Il s’agit d’un mode de résolution optimiste qui permet à un vérificateur de confirmer qu’un solveur a correctement exécuté un modèle sans avoir à le réexécuter complètement lui-même, ce qui est un processus coûteux et inefficace.
En plus de sa méthode de vérification innovante, Gensyn revendicationsêtre rentable par rapport aux alternatives centralisées et aux concurrents crypto - fournir une formation en ML jusqu'à 80% moins cher que AWS tout en surpassant des projets similaires comme Truebit dans les tests.
Que ces premiers résultats puissent être reproduits à grande échelle sur un réseau décentralisé reste à voir. Gensyn souhaite exploiter les ressources informatiques excédentaires des fournisseurs tels que les petits centres de données, les utilisateurs individuels, et à l'avenir même des appareils mobiles plus petits comme les téléphones portables. Cependant, comme l'équipe de Gensyn elle-même a admis, compter sur des fournisseurs de calcul hétérogènes présente plusieurs nouveaux défis.
Pour les fournisseurs centralisés tels que les fournisseurs de Google Cloud et Coreweave, le calcul est coûteux tandis que la communication entre ce calcul (largeur de bande et latence) est bon marché. Ces systèmes sont conçus pour permettre la communication entre le matériel aussi rapidement que possible. Gensyn inverse ce cadre, réduisant les coûts de calcul en permettant à quiconque dans le monde de fournir des GPU mais en augmentant les coûts de communication car le réseau doit désormais coordonner les tâches de calcul sur un matériel hétérogène situé loin les uns des autres. Gensyn n'a pas encore été lancé, mais il s'agit d'une preuve de concept de ce qui pourrait être possible en matière de construction de protocoles d'entraînement décentralisés pour l'apprentissage automatique.
Les plates-formes de calcul décentralisées ouvrent également les possibilités de conception pour les méthodes de création d'intelligence artificielle. Bittensor est un protocole de calcul décentralisé construit sur Substrate qui est essayer de répondrela question de, 'comment pouvons-nous transformer l'IA en une approche collaborative?' Bittensor vise à décentraliser et à marchandiser la génération d'intelligence artificielle. Lancé en 2021, le protocole veut exploiter la puissance de modèles d'apprentissage machine collaboratifs pour itérer continuellement et produire une meilleure intelligence artificielle.
Bittensor s'inspire de Bitcoin, avec un approvisionnement de vingt et un millions de sa monnaie native TAO et un cycle de division par deux de quatre ans (la première division par deux aura lieu en 2025). Au lieu d'utiliser la preuve de travail pour générer le nonce correct et gagner une récompense de bloc, Bittensor s'appuie sur la "preuve d'intelligence", obligeant les mineurs à exécuter des modèles qui produisent des sorties en réponse à des demandes d'inférence.
Bittensor s'appuyait initialement sur un modèle de Mixture of Experts (MoE) pour produire des résultats. Lorsque des demandes d'inférence sont soumises, plutôt que de s'appuyer sur un modèle généralisé, les modèles MoE transmettent la demande d'inférence aux modèles les plus précis pour un type d'entrée donné. Pensez à la construction d'une maison où vous engagez une variété de spécialistes pour différents aspects du processus de construction (par exemple : architectes, ingénieurs, peintres, ouvriers du bâtiment, etc.). MoE applique cela aux modèles d'apprentissage automatique, en essayant d'exploiter les résultats de différents modèles en fonction de l'entrée. Comme le fondateur de Bittensor, Ala Shaabana expliqué, c'est comme « s'adresser à une pièce de personnes intelligentes et obtenir la meilleure réponse plutôt que de s'adresser à une seule personne. » En raison de défisen veillant à l'acheminement correct, à la synchronisation des messages vers le modèle correct et à l'incitation, cette approche a été mise de côté jusqu'à ce que le projet soit plus développé.
Il y a deux acteurs principaux dans le réseau Bittensor : les validateurs et les mineurs. Les validateurs sont chargés d'envoyer des demandes d'inférence aux mineurs, de passer en revue leurs sorties et de les classer en fonction de la qualité de leurs réponses. Pour garantir la fiabilité de leurs classements, les validateurs se voient attribuer des scores de "vtrust" en fonction de la cohérence de leurs classements avec ceux des autres validateurs. Plus le score de "vtrust" d'un validateur est élevé, plus il gagne d'émissions de TAO. Cela vise à inciter les validateurs à parvenir à un consensus sur les classements des modèles au fil du temps, car plus il y a de validateurs qui s'accordent sur les classements, plus leurs scores de "vtrust" individuels sont élevés.
Les mineurs, aussi appelés serveurs, sont des participants du réseau qui exécutent les modèles d'apprentissage automatique réels. Les mineurs se concurrencent pour fournir aux validateurs les sorties les plus précises pour une requête donnée, gagnant ainsi plus d'émissions de TAO plus précises leurs sorties sont. Les mineurs peuvent générer ces sorties comme bon leur semble. Par exemple, il est tout à fait possible dans un scénario futur qu'un mineur de Bittensor ait préalablement formé des modèles sur Gensyn qu'il utilise pour gagner des émissions de TAO.
Aujourd'hui, la plupart des interactions se font directement entre les validateurs et les mineurs. Les validateurs soumettent des entrées aux mineurs et demandent des sorties (c'est-à-dire, former le modèle). Une fois qu'un validateur a interrogé les mineurs sur le réseau et reçu leurs réponses, il classe ensuite les mineurs et soumet leurs classements au réseau.
Cette interaction entre les validateurs (qui dépendent de PoS) et les mineurs (qui dépendent de la Preuve du Modèle, une forme de PoW) – est appelée Consensus Yuma. Il vise à inciter les mineurs à produire les meilleurs résultats pour gagner des émissions de TAO et à inciter les validateurs à classer précisément les résultats des mineurs pour gagner un score de vtrust plus élevé et augmenter leurs récompenses TAO formant le mécanisme de consensus du réseau.
Les interactions sur Bittensor consistent principalement en des validateurs soumettant des demandes aux mineurs et évaluant leurs résultats. Cependant, à mesure que la qualité des mineurs contributeurs augmente et que l'intelligence globale du réseau se développe, Bittensor créera une couche d'application au-dessus de sa pile existante afin que les développeurs puissent construire des applications interrogeant le réseau Bittensor.
En octobre 2023, Bittensor a franchi une étape importante vers la réalisation de cela avec le introductiondes sous-réseaux grâce à sa mise à niveau Revolution. Les sous-réseaux sont des réseaux individuels sur Bittensor qui encouragent des comportements spécifiques. La Revolution ouvre le réseau à toute personne intéressée à créer un sous-réseau. Dans les mois qui ont suivi sa publication, plus de 32 sous-réseauxont été lancées, y compris celles pour la saisie de texte, le scraping de données, la génération d'images et le stockage. À mesure que les sous-réseaux mûrissent et deviennent prêts pour le produit, les créateurs de sous-réseaux créeront également des intégrations d'application, permettant aux équipes de construire des applications qui interrogent un sous-réseau spécifique. Certaines applications (chatbot, générateur d'images, bot de réponse Twitter, marché de prédictionIl existe aujourd'hui, mais il n'y a pas d'incitations formelles pour les validateurs à accepter et relayer ces requêtes au-delà des subventions de la Fondation Bittensor.
Pour fournir une illustration plus claire, voici un exemple de la façon dont Bittensor pourrait fonctionner une fois que les applications sont intégrées dans le réseau.
Les sous-réseaux gagnent des TAO en fonction de leur performance évaluée par leréseau racineLe réseau racine repose au-dessus de tous les sous-réseaux, agissant essentiellement comme un type spécial de sous-réseau, et est géré par les 64 plus grands validateurs de sous-réseaux par enjeu. Les validateurs du réseau racine classent les sous-réseaux en fonction de leurs performances et distribuent périodiquement les émissions TAO aux sous-réseaux. De cette manière, les sous-réseaux individuels agissent comme les mineurs du réseau racine.
Bittensor fait toujours face à des difficultés de croissance alors qu'il étend la fonctionnalité du protocole pour inciter à la génération d'intelligence à travers plusieurs sous-réseaux. Les mineurs continuent de concevoir de nouvelles façons d'attaquer le réseau pour gagner plus de récompenses TAO, par exemple en modificationla sortie d'une exécution d'inférence très bien notée par leur modèle, puis soumettre plusieurs variantes. Les propositions de gouvernance impactant l'ensemble du réseau ne peuvent être soumises et mises en œuvre que par leTriumvirat, qui est entièrement composé d'intervenants de la Fondation Opentensor (il est important de noter que les propositions nécessitent l'approbation de la Bittensor Sénatcomposé de validateurs Bittensor avant sa mise en œuvre). Et l'économie de jetons du projet est en cours de révision pour améliorer les incitations à l'utilisation de TAO à travers les sous-réseaux. Le projet gagne également rapidement en notoriété pour son approche unique, avec le PDG de l'un des sites Web d'IA les plus populairesHuggingFaceindiquant que Bittensor devrait ajouter ses ressources au site Web.
Dans un récemment publié piècepar un développeur principal appelé “Bittensor Paradigm”, l'équipe expose sa vision de Bittensor évoluant finalement pour être “agnostique à ce qui est mesuré.” En théorie, cela pourrait permettre à Bittensor de développer des sous-réseaux incitant à tout type de comportement, le tout alimenté par TAO. Il reste des contraintes pratiques considérables - notamment démontrer que ces réseaux sont capables de s'adapter à une telle diversité de processus et que les incitations sous-jacentes stimulent un progrès dépassant les offres centralisées.
Les sections ci-dessus fournissent un aperçu général des différents types de protocoles de calcul d'intelligence artificielle décentralisée en cours de développement. Bien qu'au début de leur développement et de leur adoption, ils posent les bases d'un écosystème qui pourrait éventuellement faciliter la création de “briques de construction d'IA”, comme le concept de “Légos monétaires” de DeFi. La composabilité des blockchains sans permission ouvre la possibilité à chaque protocole de se construire les uns sur les autres pour fournir un écosystème d'intelligence artificielle décentralisée plus complet.
Par exemple, voici une façon dont Akash, Gensyn et Bittensor pourraient tous interagir pour répondre à une demande d'inférence.
Pour être clair, il s'agit simplement d'un exemple de ce qui pourrait être possible à l'avenir, et non d'une représentation de l'écosystème actuel, des partenariats existants ou des résultats probables. Les contraintes en matière d'interopérabilité, ainsi que d'autres considérations décrites ci-dessous, limitent considérablement les possibilités d'intégration aujourd'hui. Au-delà de cela, la fragmentation de la liquidité et la nécessité d'utiliser plusieurs jetons peuvent être préjudiciables à l'expérience utilisateur, quelque chose qui a étésouligné par les fondateurs d’Akash et de Bittensor.
En plus du calcul, plusieurs autres services d'infrastructure décentralisée sont en cours de déploiement pour soutenir l'écosystème émergent de l'IA cryptographique. Les énumérer tous dépasse le cadre de ce rapport, mais quelques exemples intéressants et illustratifs incluent :
Dans l'ensemble, ces éléments indiquent les possibilités presque infinies d'explorer des modèles de marché décentralisés qui soutiennent des modèles AI, ou l'infrastructure environnante nécessaire pour les développer. Pour l'instant, ces projets sont principalement à l'étape de la preuve de concept et beaucoup plus de recherche et développement est nécessaire pour démontrer qu'ils peuvent fonctionner à l'échelle nécessaire pour fournir des services AI complets.
Les offres de calcul décentralisé en sont encore à leurs débuts. Ils commencent tout juste à proposer l'accès à des capacités de calcul de pointe permettant de former les modèles d'IA les plus puissants en production. Pour qu'ils gagnent une part de marché significative, ils devront démontrer des avantages pratiques par rapport aux alternatives centralisées. Les déclencheurs potentiels d'une adoption plus large incluent :
Les contrats intelligents sont un élément essentiel de tout écosystème blockchain. Étant donné un ensemble spécifique de conditions, ils s'exécutent automatiquement et réduisent ou éliminent le besoin d'un tiers de confiance, permettant ainsi la création d'applications décentralisées complexes comme celles que l'on trouve dans la finance décentralisée (DeFi). Cependant, tels qu'ils existent pour la plupart aujourd'hui, les contrats intelligents restent limités dans leur fonctionnalité en ce sens qu'ils s'exécutent en fonction de paramètres prédéfinis qui doivent être mis à jour.
Par exemple, un contrat intelligent de protocole de prêt/emprunt est déployé avec des spécifications indiquant quand liquider une position en fonction de certains ratios prêt/valeur. Bien qu’utiles dans un environnement statique, dans une situation dynamique où le risque évolue constamment, ces contrats intelligents doivent être continuellement mis à jour pour tenir compte des changements de tolérance au risque, ce qui crée des défis pour les contrats qui ne sont pas régis par des processus centralisés. Les DAO, par exemple, qui dépendent de processus de gouvernance décentralisés, peuvent ne pas être en mesure de réagir assez rapidement pour répondre aux risques systémiques.
Les contrats intelligents qui intègrent l'IA (c'est-à-dire les modèles d'apprentissage automatique) sont un moyen possible d'améliorer la fonctionnalité, la sécurité et l'efficacité tout en améliorant l'expérience utilisateur globale. Ces intégrations introduisent également des risques supplémentaires, car il est impossible de garantir que les modèles sous-jacents à ces contrats intelligents ne peuvent pas être exploités ou tenir compte de situations longtail (qui sont notoirement difficiles à former des modèles donnés).pénurie d'entrées de donnéespour eux).
L'apprentissage automatique nécessite de grandes quantités de calcul pour exécuter des modèles complexes, ce qui empêche les modèles d'IA d'être directement exécutés à l'intérieur de contrats intelligents en raison des coûts élevés. Un protocole DeFi fournissant aux utilisateurs l'accès à un modèle d'optimisation du rendement, par exemple, aurait du mal à exécuter ce modèle on-chain sans devoir payer des frais de gaz prohibitivement élevés. Une solution consiste à augmenter la puissance de calcul de la blockchain sous-jacente. Cependant, cela augmente également les exigences du jeu de validateurs de la chaîne, sapant potentiellement les propriétés de décentralisation. Au lieu de cela, certains projets explorent l'utilisation de zkML pour vérifier les sorties de manière décentralisée sans nécessiter de calcul intensif on-chain.
Un courammentUn exemple partagé qui illustre l'utilité de zkML est lorsqu'un utilisateur a besoin que quelqu'un d'autre exécute des données à travers un modèle et vérifie également que leur contrepartie a réellement exécuté le bon modèle. Peut-être qu'un développeur utilise un fournisseur de calcul décentralisé pour entraîner ses modèles et craint que le fournisseur essaie de réduire les coûts en utilisant un modèle moins cher avec une différence de sortie presque imperceptible. zkML permet au fournisseur de calcul d'exécuter les données à travers leurs modèles, puis de générer une preuve qui peut être vérifiée sur la chaîne pour prouver que la sortie du modèle pour l'entrée donnée est correcte. Dans ce cas, le fournisseur de modèle aurait l'avantage supplémentaire de pouvoir offrir leurs modèles sans avoir à révéler les poids sous-jacents qui produisent la sortie.
L’inverse pourrait également être fait. Si un utilisateur souhaite exécuter un modèle à l’aide de ses données, mais ne souhaite pas que le projet fournissant le modèle ait accès à ses données pour des raisons de confidentialité (c’est-à-dire dans le cas d’un examen médical ou d’informations commerciales propriétaires), l’utilisateur peut exécuter le modèle sur ses données sans les partager, puis vérifier qu’il a exécuté le modèle correct avec une preuve. Ces possibilités élargissent considérablement l’espace de conception pour l’intégration de l’IA et des fonctionnalités de contrats intelligents en s’attaquant aux restrictions de calcul prohibitives.
Compte tenu du stade précoce de l'espace zkML, le développement est principalement axé sur la construction de l'infrastructure et des outils nécessaires pour permettre aux équipes de convertir leurs modèles et leurs résultats en preuves pouvant être vérifiées on-chain. Ces produits abstraient autant que possible l'aspect de développement de la preuve à connaissance nulle.
EZKLetGizasont deux projets construisant cet outil en fournissant des preuves vérifiables d'exécution de modèle d'apprentissage automatique. Les deux aident les équipes à construire des modèles d'apprentissage automatique pour garantir que ces modèles peuvent ensuite être exécutés de manière à ce que les résultats puissent être vérifiés de manière décentralisée sur la chaîne. Les deux projets utilisent l'Open Neural Network Exchange (ONNX) pour transformer les modèles d'apprentissage automatique écrits dans des langages courants comme TensorFlow et Pytorch en un format standard. Ils produisent ensuite des versions de ces modèles qui produisent également des preuves de connaissance nulle lors de leur exécution. EZKL est open source et produit des zk-SNARKS tandis que Giza est closed source et produit des zk-STARKS. Les deux projets sont actuellement uniquement compatibles avec l'EVM.
EZKL a fait des progrès significatifs au cours des derniers mois dans l'amélioration de leur solution zkML, principalement axée sur réduire les coûts, amélioration de la sécurité, et accélérer la génération de preuves. En novembre 2023, par exemple, EZKL a intégré une nouvelle bibliothèque GPU open-source qui réduit le temps de preuve global de 35% et en janvier EZKL annoncéLilith, une solution logicielle pour l'intégration de clusters de calcul haute performance et l'orchestration de travaux concurrents lors de l'utilisation du système de preuve EZKL. Giza est unique en ce qu'en plus de fournir des outils pour créer des modèles d'apprentissage machine vérifiables, ils prévoient également de mettre en œuvre un équivalent web3 deHugging Face, ouvrant un marché aux utilisateurs pour la collaboration zkML et le partage de modèles ainsi que l'intégration ultérieure d'offres de calcul décentralisé. En janvier, EZKL a publié un évaluation de référence comparaison des performances d’EZKL, de Gizeh et de RiscZero (voir ci-dessous). EZKL a démontré des temps de fermentation et une utilisation de la mémoire plus rapides.
Modulus Labsdéveloppe également une nouvelle technique de preuve zk sur mesure pour les modèles d'IA. Modulus a publié un document intituléLe Coût de l'Intelligence(suggérant les coûts incroyablement élevés pour exécuter des modèles d'IA on-chain), qui a comparé les systèmes existants de preuve zk à l'époque pour identifier les capacités et les goulots d'étranglement pour améliorer les preuves zk des modèles d'IA. Publié en janvier 2023, l'article démontre que les offres existantes sont tout simplement trop chères et inefficaces pour permettre des applications d'IA à grande échelle. S'appuyant sur leurs recherches initiales, en novembre, Modulus@ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">a présenté Remainder, un prouveur spécialisé à connaissance nulle conçu spécifiquement pour réduire les coûts et le temps de preuve des modèles d’IA dans le but de rendre économiquement viable pour les projets d’intégrer des modèles dans leurs contrats intelligents à grande échelle. Leur travail est à source fermée et n’a donc pas pu être comparé aux solutions ci-dessus, mais a récemment été référencé dans le rapport de Vitalik article de blogsur la crypto et l'IA.
Le développement d’outils et d’infrastructures est essentiel à la croissance future de l’espace zkML, car il réduit considérablement les frictions pour les équipes qui doivent déployer les circuits zk nécessaires pour exécuter des calculs hors chaîne vérifiables. La création d’interfaces sécurisées qui permettent aux constructeurs non natifs de la cryptographie travaillant dans le domaine de l’apprentissage automatique d’apporter leurs modèles sur la chaîne permettra une plus grande expérimentation d’applications avec des cas d’utilisation vraiment nouveaux. Les outils s’attaquent également à un obstacle majeur à l’adoption plus large de zkML, à savoir le manque de développeurs compétents et intéressés à travailler à l’intersection de la connaissance zéro, de l’apprentissage automatique et de la cryptographie.
Des solutions supplémentaires en développement, appelées « coprocesseurs », comprennent RiscZero,Axiome, et Rituel. Le terme coprocesseur est principalement sémantique - ces réseaux remplissent de nombreux rôles différents, notamment la vérification du calcul hors chaîne sur la chaîne. Tout comme EZKL, Giza et Modulus, ils visent à abstraire complètement le processus de génération de preuve de connaissance nulle, créant essentiellement des machines virtuelles de connaissance nulle capables d'exécuter des programmes hors chaîne et de générer des preuves pour vérification sur chaîne. RiscZero et Axiom peuvent servicedes modèles d'IA simples car ils sont censés être des coprocesseurs plus polyvalents, tandis que Ritual est conçu spécifiquement pour être utilisé avec des modèles d'IA.
Infernetest la première instantiation de Ritual et comprend un SDK Infernet qui permet aux développeurs de soumettre des demandes d'inférence au réseau et de recevoir en retour une sortie et une preuve (facultativement). Un nœud Infernet reçoit ces demandes et gère le calcul hors chaîne avant de renvoyer une sortie. Par exemple, un DAO pourrait créer un processus pour garantir que toutes les nouvelles propositions de gouvernance répondent à certaines conditions préalables avant d'être soumises. Chaque fois qu'une nouvelle proposition est soumise, le contrat de gouvernance déclenche une demande d'inférence via Infernet en appelant un modèle d'IA formé spécifiquement pour le gouvernance du DAO. Le modèle examine la proposition pour s'assurer que tous les critères nécessaires ont été soumis et renvoie la sortie et la preuve, approuvant ou refusant la soumission de la proposition.
Au cours de l'année à venir, l'équipe Ritual prévoit de déployer des fonctionnalités supplémentaires qui forment une couche d'infrastructure de base appelée le Superchain Ritual. Beaucoup des projets discutés précédemment pourraient se connecter à Ritual en tant que fournisseurs de services. Déjà, l'équipe Ritual s'est intégrée à EZKL pour la génération de preuves et ajoutera probablement bientôt des fonctionnalités d'autres principaux fournisseurs. Les nœuds Infernet sur Ritual pourraient également utiliser les GPU Akash ou io.net et interroger des modèles entraînés sur des sous-réseaux Bittensor. Leur objectif final est de devenir le principal fournisseur d'infrastructure AI ouverte, capable de fournir des services d'apprentissage automatique et d'autres tâches liées à l'IA à partir de n'importe quel réseau, pour n'importe quelle charge de travail.
zkML aideréconcilierla contradiction entre les blockchains et l'IA, où les premières sont intrinsèquement contraintes en ressources et les dernières nécessitent de grandes quantités de calcul et de données. En tant que l'un des fondateurs de GizaMettez-le, « Les cas d'utilisation sont si nombreux... C'est un peu comme demander, à l'époque d'Ethereum, quels sont les cas d'utilisation des contrats intelligents... Ce que nous faisons, c'est simplement étendre les cas d'utilisation des contrats intelligents. » Comme souligné ci-dessus, cependant, le développement aujourd'hui se déroule principalement au niveau des outils et de l'infrastructure. Les applications en sont encore à la phase exploratoire, les équipes étant défiées de démontrer que la valeur générée par la mise en œuvre de modèles utilisant zkML l'emporte sur la complexité et les coûts associés.
Certaines applications aujourd'hui incluent:
zkML est encore à un stade expérimental, la plupart des projets étant axés sur le développement des infrastructures primaires et des preuves de concepts. Les défis d'aujourd'hui incluent les coûts de calcul, les limitations de mémoire, la complexité des modèles, les outils et infrastructures limités, et les compétences des développeurs. En un mot, il y a considérablement plus de travail à faire avant que zkML puisse être mis en œuvre à l'échelle nécessaire pour les produits grand public.
À mesure que le domaine mûrit et que ces limitations sont traitées, zkML deviendra toutefois un composant critique de l'intégration de l'IA et de la crypto. Au cœur de zkML, il promet la capacité d'amener tout calcul hors chaîne de n'importe quelle taille sur chaîne tout en maintenant les mêmes garanties de sécurité ou proches de celles-ci que si le calcul avait été effectué sur chaîne. Jusqu'à ce que cette vision se réalise, cependant, les premiers utilisateurs de la technologie devront continuer à trouver un équilibre entre les compromis entre la confidentialité et la sécurité de zkML et l'efficacité des alternatives.
L'une des intégrations les plus passionnantes de l'IA et de la crypto consiste en une expérimentation continue avec des agents d'IA. Les agents sont des robots autonomes capables de recevoir, d'interpréter et d'exécuter des tâches à l'aide d'un modèle d'IA. Cela pourrait être n'importe quoi, de disposer d'un assistant personnel toujours disponible, parfaitement adapté à vos préférences, à engager un agent financier qui gère et ajuste votre portefeuille selon vos préférences en matière de risque.
Les agents et la crypto s'accordent bien en raison de l'infrastructure de paiement sans permission et sans confiance fournie par la crypto. Une fois formés, les agents peuvent se voir attribuer un portefeuille afin qu'ils puissent effectuer des transactions avec des contrats intelligents par eux-mêmes. Les agents simples d'aujourd'hui, par exemple, peuvent parcourir Internet à la recherche d'informations, puis réaliser des transactions sur des marchés prédictifs sur la base d'un modèle.
Morpheus est l'un des tout nouveaux projets d'agent open-source qui arrive sur le marché d'Ethereum et d'Arbitrum en 2024. Son livre blanc a été publié de manière anonyme en septembre 2023, posant les bases pour la formation d'une communauté et la construction autour (y compris des figures notables comme Erik Vorhees). Le livre blanc comprend un téléchargeable Protocole d'Agent Intelligent, qui est un LLM open source qui peut être exécuté localement, géré par le portefeuille de l'utilisateur et interagir avec des contrats intelligents. Il utilise un Classement des contrats intelligentspour aider l'agent à déterminer quels contrats intelligents sont sûrs d'interagir en fonction de critères tels que le nombre de transactions traitées.
Le livre blanc fournit également un cadre pour développer le réseau Morpheus, tel que les structures d'incitation et l'infrastructure nécessaires pour rendre le protocole Smart Agent opérationnel. Cela inclut l'incitation des contributeurs à développer des interfaces pour interagir avec les agents, des API pour que les développeurs puissent créer des applications pouvant se connecter aux agents afin qu'ils puissent interagir les uns avec les autres, et des solutions cloud pour permettre aux utilisateurs d'accéder aux calculs et au stockage nécessaires pour exécuter un agent sur un appareil périphérique. Le financement initial du projet a été lancé début février avec le lancement complet du protocole prévu au 2e trimestre 2024.
Réseau d'infrastructure autonome décentralisé (DAIN)est un nouveau protocole d'infrastructure d'agent construisant une économie d'agent à agent sur Solana. DAIN vise à permettre aux agents de différentes entreprises d'interagir de manière transparente les uns avec les autres via une API universelle, ouvrant considérablement l'espace de conception pour les agents d'IA en mettant l'accent sur la mise en œuvre d'agents capables d'interagir avec des produits web2 et web3. En janvier, DAIN a annoncé leur premier partenariatavec Asset Shield permettant aux utilisateurs d'ajouter des "agents signataires" à leur multisig capables d'interpréter les transactions et d'approuver/refuser en fonction des règles définies par l'utilisateur.
Fetch.AIa été l'un des premiers protocoles d'Agent d'IA déployés et a développé un écosystème pour la construction, le déploiement et l'utilisation d'Agents on-chain en utilisant son jeton FET et Fetch.AI portefeuille. Le protocole fournit une suite complète d'outils et d'applications pour utiliser Agents, y compris des fonctionnalités dans le portefeuille pour interagir avec et commander des agents.
Autonolas, dont les fondateurs incluent un membre précédent de l'équipe Fetch, est un marché ouvert pour la création et l'utilisation d'agents d'IA décentralisés. Autonolas fournit également un ensemble d'outils aux développeurs pour construire des agents d'IA hébergés hors chaîne et pouvant se connecter à plusieurs blockchains, y compris Polygon, Ethereum, Gnosis Chain et Solana. Ils ont actuellement quelques agents actifs en phase de concept de preuve.produitsy compris pour une utilisation dans les marchés de prédiction et la gouvernance des DAO.
SingularityNetconstruit un marché décentralisé pour les agents d'IA où les gens peuvent déployer des agents d'IA étroitement ciblés qui peuvent être loués par d'autres personnes ou agents pour exécuter des tâches complexes. D'autres, comme AlteredStateMachine, construisent des intégrations d'agents d'IA avec des NFT. Les utilisateurs créent des NFT avec des attributs aléatoires qui leur donnent des forces et des faiblesses pour différentes tâches. Ces agents peuvent ensuite être formés pour améliorer certaines caractéristiques pour des utilisations telles que le jeu, la DeFi, ou en tant qu'assistant virtuel et échangés avec d'autres utilisateurs.
Collectivement, ces projets envisagent un futur écosystème d'agents capables de travailler ensemble non seulement pour exécuter des tâches, mais également pour contribuer à la construction d'une intelligence artificielle générale. Des agents vraiment sophistiqués auront la capacité de remplir toute tâche utilisateur de manière autonome. Par exemple, au lieu de devoir s'assurer qu'un agent a déjà été intégré à une API externe (comme un site de réservation de voyages) avant de l'utiliser, les agents entièrement autonomes auront la capacité de trouver comment embaucher un autre agent pour intégrer l'API, puis exécuter la tâche. Du point de vue de l'utilisateur, il ne sera pas nécessaire de vérifier si un agent peut remplir une tâche car l'agent peut le déterminer lui-même.
En juillet 2023, Lightning Labsa déployé une implémentation de concept de preuve pour utiliser des Agents sur le réseau Lightning appelée LangChain Bitcoin Suite. Le produit est particulièrement intéressant car il vise à résoudre un problème croissant dans le monde du web 2 - gatedetcherClés API pour les applications Web.
LangChain résout ce problème en fournissant aux développeurs un ensemble d'outils permettant aux agents d'acheter, de vendre et de détenir Bitcoin, ainsi que de demander des clés d'API et d'envoyer des micro-paiements. Alors que sur les réseaux de paiement traditionnels, les petits micro-paiements sont prohibitifs en raison des frais, sur le réseau Lightning, les agents peuvent envoyer quotidiennement des micro-paiements illimités avec des frais minimes. Associé au cadre API facturé de LangChain, le L402, cela pourrait permettre aux entreprises d'ajuster les frais d'accès à leur API en fonction de l'augmentation et de la diminution de l'utilisation, plutôt que de fixer un standard prohibitif unique.
Dans un avenir où l'activité on-chain est dominée par des agents interagissant avec des agents, quelque chose comme cela sera nécessaire pour garantir que les agents puissent interagir les uns avec les autres de manière non coûteuse. Il s'agit d'un exemple précoce de la façon dont l'utilisation d'agents sur des rails de paiement sans autorisation et rentables ouvre les possibilités de nouveaux marchés et interactions économiques.
L'espace des agents est encore naissant. Les projets commencent tout juste à déployer des agents fonctionnels capables de gérer des tâches simples à l'aide de leur infrastructure, qui est souvent uniquement accessible aux développeurs et utilisateurs sophistiqués. Cependant, avec le temps, l'un des plus grands impacts des agents d'IA sur la crypto sera les améliorations de l'expérience utilisateur dans tous les domaines. Les transactions commenceront à passer du point-and-click au texte, les utilisateurs ayant la capacité d'interagir avec des agents on-chain via LLMs. Déjà, des équipes comme Portefeuille Dawnintroduisent des portefeuilles de chat-bot pour que les utilisateurs interagissent sur la chaîne.
De plus, il n'est pas clair comment les agents pourraient opérer sur le web 2 où les voies financières dépendent des institutions bancaires réglementées qui ne fonctionnent pas 24/7 et ne peuvent pas effectuer des transactions transfrontalières sans problème. As Lyn Aldencomme souligné, les crypto-rails sont particulièrement attractifs par rapport aux cartes de crédit en raison de l'absence de litiges et de la capacité à traiter des microtransactions. Cependant, si les agents deviennent un moyen plus courant de transaction, il est probable que les fournisseurs de paiement et les applications existants se dépêchent de mettre en place l'infrastructure nécessaire pour qu'ils puissent fonctionner sur les rails financiers existants, atténuant ainsi certains des avantages de l'utilisation de la crypto.
Pour l'instant, il est probable que les agents soient confinés à des transactions cryptographiques déterministes où une sortie donnée est garantie pour une entrée donnée. Les deux modèles, qui dictent la capacité de ces agents à comprendre comment exécuter des tâches complexes, et l'outillage, qui élargit la portée de ce qu'ils peuvent accomplir, nécessitent un développement ultérieur. Pour que les agents cryptographiques deviennent utiles en dehors des nouveaux cas d'utilisation de la cryptographie on-chain, il faudra une intégration plus large et une acceptation plus large de la cryptographie comme moyen de paiement, ainsi qu'une clarté réglementaire. Cependant, à mesure que ces composants se développent, les agents sont prêts à devenir l'un des plus grands consommateurs de calcul décentralisé et de solutions zkML discutées ci-dessus, agissant de manière autonome et non déterministe pour recevoir et résoudre toute tâche.
L’IA introduit dans la crypto les mêmes innovations que celles que nous voyons déjà dans le web2, améliorant tout, du développement de l’infrastructure à l’expérience utilisateur et à l’accessibilité. Cependant, les projets n’en sont qu’au début de leur évolution et l’intégration à court terme de la crypto et de l’IA sera principalement dominée par les intégrations hors chaîne.
Des produits comme Copiloteva“10x”efficacité des développeurs, avec couche 1setDeFiles applications commencent déjà à déployer des plateformes de développement assistées par l'IA en partenariat avec des grandes entreprises comme Microsoft. Des entreprises comme Cub3.aietTest Machinedéveloppent des intégrations d'IA pour l'audit de contrats intelligents et la surveillance des menaces en temps réel afin d'améliorer la sécurité on-chain. Et les chatbots LLM sont formés en utilisant des données on-chain, des documents de protocole et des applications pour offrir aux utilisateurs une accessibilité et une UX améliorées.
Pour des intégrations plus avancées qui tirent vraiment parti des technologies sous-jacentes de la crypto, le défi reste de démontrer que la mise en œuvre de solutions d'IA on-chain est à la fois techniquement possible et économiquement viable à grande échelle. Les développements en calcul décentralisé, zkML et les agents d'IA indiquent des verticales prometteuses qui jettent les bases d'un avenir où la crypto et l'IA sont étroitement liées.
L'avènement des blockchains publiques est l'une des avancées les plus profondes de l'histoire de l'informatique. Mais le développement de l'intelligence artificielle aura, et a déjà, un impact profond sur notre monde. Si la technologie blockchain offre un nouveau modèle pour le règlement des transactions, le stockage des données et la conception de systèmes, l'intelligence artificielle est une révolution dans le calcul, l'analyse et la diffusion de contenu. L'innovation dans les deux industries ouvre de nouveaux cas d'utilisation qui pourraient accélérer l'adoption des deux dans les années à venir. Ce rapport explore les intégrations en cours de la crypto et de l'IA en mettant l'accent sur les cas d'utilisation novateurs qui tentent de combler le fossé entre les deux, en exploitant la puissance des deux. Plus précisément, ce rapport examine les projets développant des protocoles de calcul décentralisés, une infrastructure d'apprentissage machine à confidentialité nulle (zkML) et des agents d'IA.
La crypto fournit à l’IA une couche de règlement sans autorisation, sans confiance et composable. Cela ouvre la voie à des cas d’utilisation tels que l’amélioration de l’accessibilité du matériel grâce à des systèmes de calcul décentralisés, la création d’agents d’IA capables d’exécuter des tâches complexes nécessitant l’échange de valeur, et le développement de solutions d’identité et de provenance pour lutter contre les attaques Sybil et les deep fakes. L’IA apporte à la crypto bon nombre des mêmes avantages que nous voyons dans le Web 2. Cela inclut l’amélioration de l’expérience utilisateur (UX) pour les utilisateurs et les développeurs grâce à des modèles à langage large (c’est-à-dire des versions spécialement entraînées de ChatGPT et Copilot), ainsi que la possibilité d’améliorer considérablement la fonctionnalité et l’automatisation des contrats intelligents. Les blockchains sont les environnements transparents riches en données dont l’IA a besoin. Mais les blockchains ont également une capacité de calcul limitée, un obstacle majeur à l’intégration directe des modèles d’IA.
La force motrice derrière l'expérimentation en cours et l'adoption éventuelle à l'intersection de la crypto et de l'IA est la même qui alimente une grande partie des cas d'utilisation les plus prometteurs de la crypto - l'accès à une couche de coordination sans permission et sans confiance qui facilite mieux le transfert de valeur. Compte tenu du potentiel énorme, les participants dans l'espace doivent comprendre les façons fondamentales dont les deux technologies s'entrecroisent.
L'intelligence artificielle est l'utilisation du calcul et des machines pour imiter les capacités de raisonnement et de résolution de problèmes des êtres humains.
Les réseaux neuronaux sont une méthode de formation des modèles d'IA. Ils font passer les entrées à travers des couches discrètes d'algorithmes, les affinant jusqu'à ce que la sortie souhaitée soit produite. Les réseaux neuronaux sont constitués d'équations qui ont des poids pouvant être modifiés pour changer la sortie. Ils peuvent nécessiter des quantités incroyables de données et de calcul pour être formés de sorte que leurs sorties soient précises. C'est l'une des façons les plus courantes dont les modèles d'IA sont développés (ChatGPT utilise un processus de réseau neuronal basé surtransformateurs).
L'entraînement est le processus par lequel les réseaux neuronaux et autres modèles d'IA sont développés. Il nécessite de grandes quantités de données pour entraîner les modèles à interpréter correctement les entrées et produire des sorties précises. Pendant le processus d'entraînement, les poids de l'équation du modèle sont continuellement modifiés jusqu'à ce qu'une sortie satisfaisante soit produite. L'entraînement peut être très coûteux. ChatGPT, par exemple, utilisedes dizaines de milliers de ses propres GPU pour traiter ses données. Les équipes avec moins de ressources ont souvent recours à des fournisseurs de calcul dédiés comme Amazon Web Services, Azure et Google Cloud Providers.
L'inférence est l'utilisation réelle d'un modèle d'IA pour obtenir une sortie ou un résultat (par exemple, utiliser ChatGPT pour créer un plan pour un article sur l'intersection de la crypto et de l'IA). Les inférences sont utilisées tout au long du processus de formation et dans le produit final. Elles peuvent être coûteuses à exécuter, même après la fin de la formation, en raison des coûts de calcul, mais sont moins intensives en calcul que la formation.
Les preuves de connaissance nulle (ZKP) permettent de vérifier une réclamation sans révéler les informations sous-jacentes. Cela est utile en crypto pour deux raisons principales: 1) la confidentialité et 2) l'évolutivité. En ce qui concerne la confidentialité, cela permet aux utilisateurs de réaliser des transactions sans révéler d'informations sensibles telles que la quantité d'ETH dans leur portefeuille. En ce qui concerne l'évolutivité, cela permet de prouver plus rapidement sur la chaîne des calculs effectués hors chaîne, plutôt que de devoir réexécuter le calcul. Cela permet aux blockchains et aux applications d'effectuer des calculs à moindre coût hors chaîne, puis de les vérifier sur la chaîne. Pour plus d'informations sur la connaissance nulle et son rôle dans la machine virtuelle Ethereum, veuillez vous référer au rapport de Christine KimzkEVMs: L'avenir de l'extensibilité d'Ethereum.
Les projets à l'intersection de l'IA et de la crypto construisent toujours l'infrastructure sous-jacente nécessaire pour soutenir les interactions d'IA on-chain à grande échelle.
Les marchés de calcul décentralisés émergent pour fournir de grandes quantités de matériel physique, principalement sous forme d'unités de traitement graphique (GPU), nécessaires à la formation et à l'inférence de modèles d'IA. Ces marchés à deux faces relient les personnes qui louent et cherchent à louer des ressources informatiques, facilitant le transfert de valeur et la vérification des ressources informatiques. Au sein des calculs décentralisés, plusieurs sous-catégories émergent qui fournissent des fonctionnalités supplémentaires. En plus des marchés à deux faces, ce rapport examinera les fournisseurs de formation en apprentissage automatique qui se spécialisent dans le service de formation vérifiable et de réglage fin des sorties, ainsi que les projets visant à connecter les ressources informatiques et la génération de modèles pour atteindre une intelligence artificielle générale, également fréquemment désignée sous le nom de réseaux d'incitations à l'intelligence.
zkML est un domaine émergent d'intérêt pour les projets qui souhaitent fournir des sorties de modèle vérifiables on-chain de manière rentable et opportune. Ces projets permettent principalement aux applications de gérer les demandes de calcul intensif off-chain, puis de publier on-chain une sortie vérifiable prouvant que la charge de travail off-chain est complète et précise. zkML est à la fois coûteux et chronophage dans sa forme actuelle, mais est de plus en plus utilisé comme solution. Cela est évident dans le nombre croissant d'intégrations entre les fournisseurs de zkML et les applications DeFi/Gaming qui souhaitent tirer parti des modèles d'IA.
Une offre abondante de calcul et la capacité de vérifier ce calcul on-chain ouvrent la voie aux agents d'IA on-chain. Les agents sont des modèles entraînés capables d'exécuter des demandes au nom d'un utilisateur. Les agents offrent la possibilité d'améliorer considérablement l'expérience on-chain, permettant aux utilisateurs d'exécuter des transactions complexes rien qu'en parlant à un chatbot. Cependant, tels qu'ils existent aujourd'hui, les projets d'agents se concentrent encore sur le développement de l'infrastructure et des outils pour un déploiement facile et rapide.
L'IA nécessite de grandes quantités de calcul, à la fois pour former des modèles et exécuter des inférences. Au cours de la dernière décennie, à mesure que les modèles sont devenus plus sophistiqués, les besoins en calcul ont augmenté de manière exponentielle. OpenAI, par exemple,fonderqu'entre 2012 et 2018, les exigences en matière de calcul pour ses modèles sont passées d'un doublement tous les deux ans à tous les trois mois et demi. Cela a entraîné une forte demande de GPU, certains mineurs de crypto-monnaie mêmeréaffectation de leurs GPU pour fournir des services d’informatique en nuage (@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">en savoir plus à ce sujet dans notre rapport annuel sur le minage de Bitcoin). Alors que la concurrence pour accéder au calcul augmente et que les coûts augmentent, plusieurs projets utilisent la cryptographie pour fournir des solutions de calcul décentralisées. Ils offrent des calculs à la demande à des prix compétitifs afin que les équipes puissent former et exécuter des modèles à un prix abordable. Le compromis, dans certains cas, peut être la performance et la sécurité.
Les GPU de pointe, comme ceux produitspar Nvidia, sont très demandées. En septembre, Tetheracquisune participation dans Northern Data, une entreprise minière allemande de Bitcoin, aurait payé 420 millions de dollars pour acquérir 10 000 H100 GPUs (l'un des GPUs les plus avancés pour la formation en IA).AttendreLes délais pour obtenir du matériel de pointe peuvent être d'au moins six mois, et dans de nombreux cas, plus longs. Pour aggraver la situation, les entreprises sont souvent tenues de signer des contrats à long terme pour des quantités de calcul qu'elles pourraient même ne pas utiliser. Cela peut entraîner des situations où des ressources de calcul sont disponibles, mais ne sont pas disponibles sur le marché. Les systèmes de calcul décentralisés aident à résoudre ces inefficacités du marché, en créant un marché secondaire où les propriétaires de ressources de calcul peuvent sous-louer leur capacité excédentaire à tout moment, débloquant ainsi une nouvelle offre.
Au-delà de la tarification compétitive et de l'accessibilité, la proposition de valeur clé de l'informatique décentralisée est la résistance à la censure. Le développement de l'IA de pointe est de plus en plus dominé par de grandes entreprises technologiques ayant un accès inégalé aux ressources informatiques et aux données. Le premier thème clé mis en avant dans le Rapport sur l’indice d’IALe rapport annuel 2023 indique que l'industrie devance de plus en plus le monde universitaire dans le développement de modèles d'IA, centralisant le contrôle entre les mains de quelques leaders technologiques. Cela a soulevé des inquiétudes quant à leur capacité à exercer une influence démesurée dans la dictée des normes et des valeurs qui sous-tendent les modèles d'IA, notamment après la réglementation poussepar ces mêmes entreprises technologiques pour freiner le développement de l'IA en dehors de leur contrôle.
Plusieurs modèles de calcul décentralisé ont émergé au cours des dernières années, chacun avec son propre focus et compromis.
Des projets comme Akash, io.net, iExec, Cudos et bien d’autres sont des applications de calcul décentralisées qui offrent un accès à, ou offriront bientôt l’accès, à des calculs spécialisés pour l’entraînement et les inférences de l’IA, en plus des données et des solutions de calcul généralisées.
Akash est actuellement la seule plateforme « supercloud » entièrement open source. C'est un réseau de preuve d'enjeu utilisant Cosmos SDK. AKT, le jeton natif d'Akash est utilisé pour sécuriser le réseau, comme moyen de paiement et pour inciter à la participation. Akash a lancé son premier mainnet en 2020 axé sur la fourniture d'un marché de calcul en nuage sans permission, proposant initialement des services de location de stockage et de CPU. En juin 2023, Akash lancéun nouveau testnet axé sur les GPU et en septembrelancésa GPU mainnet permet aux utilisateurs de louer des GPU pour l'entraînement et les inférences en IA.
Il y a deux acteurs principaux dans l'écosystème Akash - les Locataires et les Fournisseurs. Les Locataires sont des utilisateurs du réseau Akash qui souhaitent acheter des ressources de calcul. Les Fournisseurs sont les fournisseurs de calcul. Pour mettre en relation les locataires et les fournisseurs, Akash s'appuie sur un processus d'enchères inversées. Les locataires soumettent leurs besoins en calcul, dans lesquels ils peuvent spécifier certaines conditions telles que l'emplacement des serveurs ou le type de matériel effectuant le calcul, ainsi que le montant qu'ils sont prêts à payer. Les fournisseurs soumettent ensuite leur prix demandé, le prix le plus bas recevant la tâche.
Les validateurs Akash maintiennent l’intégrité du réseau. L’ensemble de validateurs est actuellement limité à 100 et il est prévu d’augmenter progressivement au fil du temps. N’importe qui peut devenir un validateur en jalonnant plus d’AKT que le validateur actuel avec le moins d’AKT mis en jeu. Les détenteurs d’AKT peuvent également déléguer leur AKT à des validateurs. Les frais de transaction et les récompenses de bloc pour le réseau sont distribués dans AKT. De plus, pour chaque location, le réseau Akash perçoit une « commission de prise » à un taux déterminé par la communauté qui est distribué aux détenteurs d’AKT.
Les marchés de calcul décentralisés visent à combler les inefficacités du marché actuel du calcul. Les contraintes d'approvisionnement poussent les entreprises à stocker des ressources de calcul au-delà de leurs besoins, et l'approvisionnement est encore plus limité en raison de la structure des contrats avec les fournisseurs de cloud, qui contraignent les clients à des contrats à long terme même si un accès continu n'est pas nécessaire. Les plateformes de calcul décentralisées débloquent de nouvelles ressources, permettant à quiconque dans le monde ayant besoin de ressources de calcul de devenir un fournisseur.
Il reste à voir si la demande croissante de GPU pour l’entraînement de l’IA se traduira par une utilisation à long terme du réseau sur Akash. Akash fournit depuis longtemps une place de marché pour les processeurs, par exemple, offrant des services similaires en tant qu’alternatives centralisées à 70-80%remise. Cependant, des prix plus bas n'ont pas entraîné une adoption significative. Les baux actifs sur le réseau se sont stabilisés, avec seulement 33% de calcul, 16% de mémoire et 13% de stockage pour le second trimestre 2023. Bien que ces chiffres soient impressionnants pour l'adoption on-chain (pour référence, le principal fournisseur de stockage Filecoin avait Utilisation du stockage de 12,6%au 3e trimestre 2023), cela démontre que l'offre continue de surpasser la demande pour ces produits.
Il y a un peu plus d'un an que Akash a lancé son réseau GPU et il est encore trop tôt pour évaluer avec précision l'adoption à long terme. Un signe de la demande, l'utilisation moyenne des GPU à ce jour est de 44 % et supérieure à celle des CPU, de la mémoire et du stockage. Cela est principalement dû à la demande pour les GPU de la plus haute qualité (comme les A100), avec plus de90%loué.
Les dépenses quotidiennes sur Akash ont également augmenté, doublant presque par rapport aux pré-GPU. Cela peut être partiellement attribué à une augmentation des autres services utilisés, en particulier les processeurs, mais est principalement le résultat de l’utilisation de nouveaux GPU.
Les prix correspondent (ou dans certains cas sont même légèrement plus chers) à ceux de ses concurrents centralisés comme Lambda Cloud et Vast.ai. La demande incroyable pour les GPU haut de gamme (comme les H100 et A100) signifie que la plupart des propriétaires de ce type d'équipement ont peu d'intérêt à être répertoriés sur des places de marché où ils doivent faire face à une concurrence en termes de prix.
Bien que l'intérêt initial soit prometteur, il reste des obstacles à l'adoption (discutés plus loin ci-dessous). Les réseaux de calcul décentralisés devront en faire plus pour générer à la fois la demande et l'offre et les équipes expérimentent la meilleure façon d'attirer de nouveaux utilisateurs. Au début de 2024, par exemple, Akash a passéProposition 240augmenter les émissions d'AKT pour les fournisseurs de GPU et inciter à fournir plus, en ciblant spécifiquement les GPU haut de gamme. Les équipes travaillent également à déployer des modèles de preuve de concept pour montrer aux utilisateurs potentiels les capacités en temps réel de leurs réseaux. Akash est formationleur propre modèle fondateur et a déjà été lancéchatbotetgénération d'imagesoffres qui créent des sorties en utilisant les GPU Akash. De même, io.net a développéun modèle de diffusion stable et est en cours de déploiementnouvelles fonctionnalités réseauqui imitent mieux les performances et l'échelle des centres de données GPU traditionnels.
En plus des plates-formes de calcul généralisées qui peuvent répondre aux besoins de l’IA, un ensemble de fournisseurs de GPU d’IA spécialisés axés sur l’entraînement de modèles d’apprentissage automatique émergent également. Gensyn, par exemple, est «coordonnantl'électricité et le matériel pour construire une intelligence collective” avec l'idée que, “Si quelqu'un veut entraîner quelque chose, et que quelqu'un est prêt à l'entraîner, alors cet entraînement devrait être autorisé à se produire.”
Le protocole a quatre acteurs principaux : les soumissionnaires, les solveurs, les vérificateurs et les lanceurs d'alerte. Les soumissionnaires soumettent des tâches au réseau avec des demandes de formation. Ces tâches comprennent l'objectif de formation, le modèle à former et les données de formation. Dans le cadre du processus de soumission, les soumissionnaires paient des frais à l'avance pour le calcul estimé requis par le solveur.
Une fois soumises, les tâches sont attribuées aux solveurs qui effectuent la formation réelle des modèles. Les solveurs soumettent ensuite les tâches terminées aux vérificateurs qui sont responsables de vérifier la formation pour s'assurer qu'elle a été correctement effectuée. Les lanceurs d'alerte sont responsables de garantir que les vérificateurs se comportent de manière honnête. Pour inciter les lanceurs d'alerte à participer au réseau, Gensyn prévoit de fournir périodiquement des preuves intentionnellement incorrectes qui récompensent les lanceurs d'alerte qui les attrapent.
Au-delà de la fourniture de ressources de calcul pour les charges de travail liées à l’IA, la principale proposition de valeur de Gensyn est son système de vérification, qui est encore en cours de développement. La vérification est nécessaire pour s’assurer que les calculs externes effectués par les fournisseurs de GPU sont effectués correctement (c’est-à-dire pour s’assurer que le modèle d’un utilisateur est entraîné comme il le souhaite). Gensyn s’attaque à ce problème avec une approche unique, en s’appuyant sur de nouvelles méthodes de vérification appelées « preuve d’apprentissage probabiliste, protocole d’identification basé sur des graphes et jeux d’incitation de style Truebit ». Il s’agit d’un mode de résolution optimiste qui permet à un vérificateur de confirmer qu’un solveur a correctement exécuté un modèle sans avoir à le réexécuter complètement lui-même, ce qui est un processus coûteux et inefficace.
En plus de sa méthode de vérification innovante, Gensyn revendicationsêtre rentable par rapport aux alternatives centralisées et aux concurrents crypto - fournir une formation en ML jusqu'à 80% moins cher que AWS tout en surpassant des projets similaires comme Truebit dans les tests.
Que ces premiers résultats puissent être reproduits à grande échelle sur un réseau décentralisé reste à voir. Gensyn souhaite exploiter les ressources informatiques excédentaires des fournisseurs tels que les petits centres de données, les utilisateurs individuels, et à l'avenir même des appareils mobiles plus petits comme les téléphones portables. Cependant, comme l'équipe de Gensyn elle-même a admis, compter sur des fournisseurs de calcul hétérogènes présente plusieurs nouveaux défis.
Pour les fournisseurs centralisés tels que les fournisseurs de Google Cloud et Coreweave, le calcul est coûteux tandis que la communication entre ce calcul (largeur de bande et latence) est bon marché. Ces systèmes sont conçus pour permettre la communication entre le matériel aussi rapidement que possible. Gensyn inverse ce cadre, réduisant les coûts de calcul en permettant à quiconque dans le monde de fournir des GPU mais en augmentant les coûts de communication car le réseau doit désormais coordonner les tâches de calcul sur un matériel hétérogène situé loin les uns des autres. Gensyn n'a pas encore été lancé, mais il s'agit d'une preuve de concept de ce qui pourrait être possible en matière de construction de protocoles d'entraînement décentralisés pour l'apprentissage automatique.
Les plates-formes de calcul décentralisées ouvrent également les possibilités de conception pour les méthodes de création d'intelligence artificielle. Bittensor est un protocole de calcul décentralisé construit sur Substrate qui est essayer de répondrela question de, 'comment pouvons-nous transformer l'IA en une approche collaborative?' Bittensor vise à décentraliser et à marchandiser la génération d'intelligence artificielle. Lancé en 2021, le protocole veut exploiter la puissance de modèles d'apprentissage machine collaboratifs pour itérer continuellement et produire une meilleure intelligence artificielle.
Bittensor s'inspire de Bitcoin, avec un approvisionnement de vingt et un millions de sa monnaie native TAO et un cycle de division par deux de quatre ans (la première division par deux aura lieu en 2025). Au lieu d'utiliser la preuve de travail pour générer le nonce correct et gagner une récompense de bloc, Bittensor s'appuie sur la "preuve d'intelligence", obligeant les mineurs à exécuter des modèles qui produisent des sorties en réponse à des demandes d'inférence.
Bittensor s'appuyait initialement sur un modèle de Mixture of Experts (MoE) pour produire des résultats. Lorsque des demandes d'inférence sont soumises, plutôt que de s'appuyer sur un modèle généralisé, les modèles MoE transmettent la demande d'inférence aux modèles les plus précis pour un type d'entrée donné. Pensez à la construction d'une maison où vous engagez une variété de spécialistes pour différents aspects du processus de construction (par exemple : architectes, ingénieurs, peintres, ouvriers du bâtiment, etc.). MoE applique cela aux modèles d'apprentissage automatique, en essayant d'exploiter les résultats de différents modèles en fonction de l'entrée. Comme le fondateur de Bittensor, Ala Shaabana expliqué, c'est comme « s'adresser à une pièce de personnes intelligentes et obtenir la meilleure réponse plutôt que de s'adresser à une seule personne. » En raison de défisen veillant à l'acheminement correct, à la synchronisation des messages vers le modèle correct et à l'incitation, cette approche a été mise de côté jusqu'à ce que le projet soit plus développé.
Il y a deux acteurs principaux dans le réseau Bittensor : les validateurs et les mineurs. Les validateurs sont chargés d'envoyer des demandes d'inférence aux mineurs, de passer en revue leurs sorties et de les classer en fonction de la qualité de leurs réponses. Pour garantir la fiabilité de leurs classements, les validateurs se voient attribuer des scores de "vtrust" en fonction de la cohérence de leurs classements avec ceux des autres validateurs. Plus le score de "vtrust" d'un validateur est élevé, plus il gagne d'émissions de TAO. Cela vise à inciter les validateurs à parvenir à un consensus sur les classements des modèles au fil du temps, car plus il y a de validateurs qui s'accordent sur les classements, plus leurs scores de "vtrust" individuels sont élevés.
Les mineurs, aussi appelés serveurs, sont des participants du réseau qui exécutent les modèles d'apprentissage automatique réels. Les mineurs se concurrencent pour fournir aux validateurs les sorties les plus précises pour une requête donnée, gagnant ainsi plus d'émissions de TAO plus précises leurs sorties sont. Les mineurs peuvent générer ces sorties comme bon leur semble. Par exemple, il est tout à fait possible dans un scénario futur qu'un mineur de Bittensor ait préalablement formé des modèles sur Gensyn qu'il utilise pour gagner des émissions de TAO.
Aujourd'hui, la plupart des interactions se font directement entre les validateurs et les mineurs. Les validateurs soumettent des entrées aux mineurs et demandent des sorties (c'est-à-dire, former le modèle). Une fois qu'un validateur a interrogé les mineurs sur le réseau et reçu leurs réponses, il classe ensuite les mineurs et soumet leurs classements au réseau.
Cette interaction entre les validateurs (qui dépendent de PoS) et les mineurs (qui dépendent de la Preuve du Modèle, une forme de PoW) – est appelée Consensus Yuma. Il vise à inciter les mineurs à produire les meilleurs résultats pour gagner des émissions de TAO et à inciter les validateurs à classer précisément les résultats des mineurs pour gagner un score de vtrust plus élevé et augmenter leurs récompenses TAO formant le mécanisme de consensus du réseau.
Les interactions sur Bittensor consistent principalement en des validateurs soumettant des demandes aux mineurs et évaluant leurs résultats. Cependant, à mesure que la qualité des mineurs contributeurs augmente et que l'intelligence globale du réseau se développe, Bittensor créera une couche d'application au-dessus de sa pile existante afin que les développeurs puissent construire des applications interrogeant le réseau Bittensor.
En octobre 2023, Bittensor a franchi une étape importante vers la réalisation de cela avec le introductiondes sous-réseaux grâce à sa mise à niveau Revolution. Les sous-réseaux sont des réseaux individuels sur Bittensor qui encouragent des comportements spécifiques. La Revolution ouvre le réseau à toute personne intéressée à créer un sous-réseau. Dans les mois qui ont suivi sa publication, plus de 32 sous-réseauxont été lancées, y compris celles pour la saisie de texte, le scraping de données, la génération d'images et le stockage. À mesure que les sous-réseaux mûrissent et deviennent prêts pour le produit, les créateurs de sous-réseaux créeront également des intégrations d'application, permettant aux équipes de construire des applications qui interrogent un sous-réseau spécifique. Certaines applications (chatbot, générateur d'images, bot de réponse Twitter, marché de prédictionIl existe aujourd'hui, mais il n'y a pas d'incitations formelles pour les validateurs à accepter et relayer ces requêtes au-delà des subventions de la Fondation Bittensor.
Pour fournir une illustration plus claire, voici un exemple de la façon dont Bittensor pourrait fonctionner une fois que les applications sont intégrées dans le réseau.
Les sous-réseaux gagnent des TAO en fonction de leur performance évaluée par leréseau racineLe réseau racine repose au-dessus de tous les sous-réseaux, agissant essentiellement comme un type spécial de sous-réseau, et est géré par les 64 plus grands validateurs de sous-réseaux par enjeu. Les validateurs du réseau racine classent les sous-réseaux en fonction de leurs performances et distribuent périodiquement les émissions TAO aux sous-réseaux. De cette manière, les sous-réseaux individuels agissent comme les mineurs du réseau racine.
Bittensor fait toujours face à des difficultés de croissance alors qu'il étend la fonctionnalité du protocole pour inciter à la génération d'intelligence à travers plusieurs sous-réseaux. Les mineurs continuent de concevoir de nouvelles façons d'attaquer le réseau pour gagner plus de récompenses TAO, par exemple en modificationla sortie d'une exécution d'inférence très bien notée par leur modèle, puis soumettre plusieurs variantes. Les propositions de gouvernance impactant l'ensemble du réseau ne peuvent être soumises et mises en œuvre que par leTriumvirat, qui est entièrement composé d'intervenants de la Fondation Opentensor (il est important de noter que les propositions nécessitent l'approbation de la Bittensor Sénatcomposé de validateurs Bittensor avant sa mise en œuvre). Et l'économie de jetons du projet est en cours de révision pour améliorer les incitations à l'utilisation de TAO à travers les sous-réseaux. Le projet gagne également rapidement en notoriété pour son approche unique, avec le PDG de l'un des sites Web d'IA les plus populairesHuggingFaceindiquant que Bittensor devrait ajouter ses ressources au site Web.
Dans un récemment publié piècepar un développeur principal appelé “Bittensor Paradigm”, l'équipe expose sa vision de Bittensor évoluant finalement pour être “agnostique à ce qui est mesuré.” En théorie, cela pourrait permettre à Bittensor de développer des sous-réseaux incitant à tout type de comportement, le tout alimenté par TAO. Il reste des contraintes pratiques considérables - notamment démontrer que ces réseaux sont capables de s'adapter à une telle diversité de processus et que les incitations sous-jacentes stimulent un progrès dépassant les offres centralisées.
Les sections ci-dessus fournissent un aperçu général des différents types de protocoles de calcul d'intelligence artificielle décentralisée en cours de développement. Bien qu'au début de leur développement et de leur adoption, ils posent les bases d'un écosystème qui pourrait éventuellement faciliter la création de “briques de construction d'IA”, comme le concept de “Légos monétaires” de DeFi. La composabilité des blockchains sans permission ouvre la possibilité à chaque protocole de se construire les uns sur les autres pour fournir un écosystème d'intelligence artificielle décentralisée plus complet.
Par exemple, voici une façon dont Akash, Gensyn et Bittensor pourraient tous interagir pour répondre à une demande d'inférence.
Pour être clair, il s'agit simplement d'un exemple de ce qui pourrait être possible à l'avenir, et non d'une représentation de l'écosystème actuel, des partenariats existants ou des résultats probables. Les contraintes en matière d'interopérabilité, ainsi que d'autres considérations décrites ci-dessous, limitent considérablement les possibilités d'intégration aujourd'hui. Au-delà de cela, la fragmentation de la liquidité et la nécessité d'utiliser plusieurs jetons peuvent être préjudiciables à l'expérience utilisateur, quelque chose qui a étésouligné par les fondateurs d’Akash et de Bittensor.
En plus du calcul, plusieurs autres services d'infrastructure décentralisée sont en cours de déploiement pour soutenir l'écosystème émergent de l'IA cryptographique. Les énumérer tous dépasse le cadre de ce rapport, mais quelques exemples intéressants et illustratifs incluent :
Dans l'ensemble, ces éléments indiquent les possibilités presque infinies d'explorer des modèles de marché décentralisés qui soutiennent des modèles AI, ou l'infrastructure environnante nécessaire pour les développer. Pour l'instant, ces projets sont principalement à l'étape de la preuve de concept et beaucoup plus de recherche et développement est nécessaire pour démontrer qu'ils peuvent fonctionner à l'échelle nécessaire pour fournir des services AI complets.
Les offres de calcul décentralisé en sont encore à leurs débuts. Ils commencent tout juste à proposer l'accès à des capacités de calcul de pointe permettant de former les modèles d'IA les plus puissants en production. Pour qu'ils gagnent une part de marché significative, ils devront démontrer des avantages pratiques par rapport aux alternatives centralisées. Les déclencheurs potentiels d'une adoption plus large incluent :
Les contrats intelligents sont un élément essentiel de tout écosystème blockchain. Étant donné un ensemble spécifique de conditions, ils s'exécutent automatiquement et réduisent ou éliminent le besoin d'un tiers de confiance, permettant ainsi la création d'applications décentralisées complexes comme celles que l'on trouve dans la finance décentralisée (DeFi). Cependant, tels qu'ils existent pour la plupart aujourd'hui, les contrats intelligents restent limités dans leur fonctionnalité en ce sens qu'ils s'exécutent en fonction de paramètres prédéfinis qui doivent être mis à jour.
Par exemple, un contrat intelligent de protocole de prêt/emprunt est déployé avec des spécifications indiquant quand liquider une position en fonction de certains ratios prêt/valeur. Bien qu’utiles dans un environnement statique, dans une situation dynamique où le risque évolue constamment, ces contrats intelligents doivent être continuellement mis à jour pour tenir compte des changements de tolérance au risque, ce qui crée des défis pour les contrats qui ne sont pas régis par des processus centralisés. Les DAO, par exemple, qui dépendent de processus de gouvernance décentralisés, peuvent ne pas être en mesure de réagir assez rapidement pour répondre aux risques systémiques.
Les contrats intelligents qui intègrent l'IA (c'est-à-dire les modèles d'apprentissage automatique) sont un moyen possible d'améliorer la fonctionnalité, la sécurité et l'efficacité tout en améliorant l'expérience utilisateur globale. Ces intégrations introduisent également des risques supplémentaires, car il est impossible de garantir que les modèles sous-jacents à ces contrats intelligents ne peuvent pas être exploités ou tenir compte de situations longtail (qui sont notoirement difficiles à former des modèles donnés).pénurie d'entrées de donnéespour eux).
L'apprentissage automatique nécessite de grandes quantités de calcul pour exécuter des modèles complexes, ce qui empêche les modèles d'IA d'être directement exécutés à l'intérieur de contrats intelligents en raison des coûts élevés. Un protocole DeFi fournissant aux utilisateurs l'accès à un modèle d'optimisation du rendement, par exemple, aurait du mal à exécuter ce modèle on-chain sans devoir payer des frais de gaz prohibitivement élevés. Une solution consiste à augmenter la puissance de calcul de la blockchain sous-jacente. Cependant, cela augmente également les exigences du jeu de validateurs de la chaîne, sapant potentiellement les propriétés de décentralisation. Au lieu de cela, certains projets explorent l'utilisation de zkML pour vérifier les sorties de manière décentralisée sans nécessiter de calcul intensif on-chain.
Un courammentUn exemple partagé qui illustre l'utilité de zkML est lorsqu'un utilisateur a besoin que quelqu'un d'autre exécute des données à travers un modèle et vérifie également que leur contrepartie a réellement exécuté le bon modèle. Peut-être qu'un développeur utilise un fournisseur de calcul décentralisé pour entraîner ses modèles et craint que le fournisseur essaie de réduire les coûts en utilisant un modèle moins cher avec une différence de sortie presque imperceptible. zkML permet au fournisseur de calcul d'exécuter les données à travers leurs modèles, puis de générer une preuve qui peut être vérifiée sur la chaîne pour prouver que la sortie du modèle pour l'entrée donnée est correcte. Dans ce cas, le fournisseur de modèle aurait l'avantage supplémentaire de pouvoir offrir leurs modèles sans avoir à révéler les poids sous-jacents qui produisent la sortie.
L’inverse pourrait également être fait. Si un utilisateur souhaite exécuter un modèle à l’aide de ses données, mais ne souhaite pas que le projet fournissant le modèle ait accès à ses données pour des raisons de confidentialité (c’est-à-dire dans le cas d’un examen médical ou d’informations commerciales propriétaires), l’utilisateur peut exécuter le modèle sur ses données sans les partager, puis vérifier qu’il a exécuté le modèle correct avec une preuve. Ces possibilités élargissent considérablement l’espace de conception pour l’intégration de l’IA et des fonctionnalités de contrats intelligents en s’attaquant aux restrictions de calcul prohibitives.
Compte tenu du stade précoce de l'espace zkML, le développement est principalement axé sur la construction de l'infrastructure et des outils nécessaires pour permettre aux équipes de convertir leurs modèles et leurs résultats en preuves pouvant être vérifiées on-chain. Ces produits abstraient autant que possible l'aspect de développement de la preuve à connaissance nulle.
EZKLetGizasont deux projets construisant cet outil en fournissant des preuves vérifiables d'exécution de modèle d'apprentissage automatique. Les deux aident les équipes à construire des modèles d'apprentissage automatique pour garantir que ces modèles peuvent ensuite être exécutés de manière à ce que les résultats puissent être vérifiés de manière décentralisée sur la chaîne. Les deux projets utilisent l'Open Neural Network Exchange (ONNX) pour transformer les modèles d'apprentissage automatique écrits dans des langages courants comme TensorFlow et Pytorch en un format standard. Ils produisent ensuite des versions de ces modèles qui produisent également des preuves de connaissance nulle lors de leur exécution. EZKL est open source et produit des zk-SNARKS tandis que Giza est closed source et produit des zk-STARKS. Les deux projets sont actuellement uniquement compatibles avec l'EVM.
EZKL a fait des progrès significatifs au cours des derniers mois dans l'amélioration de leur solution zkML, principalement axée sur réduire les coûts, amélioration de la sécurité, et accélérer la génération de preuves. En novembre 2023, par exemple, EZKL a intégré une nouvelle bibliothèque GPU open-source qui réduit le temps de preuve global de 35% et en janvier EZKL annoncéLilith, une solution logicielle pour l'intégration de clusters de calcul haute performance et l'orchestration de travaux concurrents lors de l'utilisation du système de preuve EZKL. Giza est unique en ce qu'en plus de fournir des outils pour créer des modèles d'apprentissage machine vérifiables, ils prévoient également de mettre en œuvre un équivalent web3 deHugging Face, ouvrant un marché aux utilisateurs pour la collaboration zkML et le partage de modèles ainsi que l'intégration ultérieure d'offres de calcul décentralisé. En janvier, EZKL a publié un évaluation de référence comparaison des performances d’EZKL, de Gizeh et de RiscZero (voir ci-dessous). EZKL a démontré des temps de fermentation et une utilisation de la mémoire plus rapides.
Modulus Labsdéveloppe également une nouvelle technique de preuve zk sur mesure pour les modèles d'IA. Modulus a publié un document intituléLe Coût de l'Intelligence(suggérant les coûts incroyablement élevés pour exécuter des modèles d'IA on-chain), qui a comparé les systèmes existants de preuve zk à l'époque pour identifier les capacités et les goulots d'étranglement pour améliorer les preuves zk des modèles d'IA. Publié en janvier 2023, l'article démontre que les offres existantes sont tout simplement trop chères et inefficaces pour permettre des applications d'IA à grande échelle. S'appuyant sur leurs recherches initiales, en novembre, Modulus@ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">a présenté Remainder, un prouveur spécialisé à connaissance nulle conçu spécifiquement pour réduire les coûts et le temps de preuve des modèles d’IA dans le but de rendre économiquement viable pour les projets d’intégrer des modèles dans leurs contrats intelligents à grande échelle. Leur travail est à source fermée et n’a donc pas pu être comparé aux solutions ci-dessus, mais a récemment été référencé dans le rapport de Vitalik article de blogsur la crypto et l'IA.
Le développement d’outils et d’infrastructures est essentiel à la croissance future de l’espace zkML, car il réduit considérablement les frictions pour les équipes qui doivent déployer les circuits zk nécessaires pour exécuter des calculs hors chaîne vérifiables. La création d’interfaces sécurisées qui permettent aux constructeurs non natifs de la cryptographie travaillant dans le domaine de l’apprentissage automatique d’apporter leurs modèles sur la chaîne permettra une plus grande expérimentation d’applications avec des cas d’utilisation vraiment nouveaux. Les outils s’attaquent également à un obstacle majeur à l’adoption plus large de zkML, à savoir le manque de développeurs compétents et intéressés à travailler à l’intersection de la connaissance zéro, de l’apprentissage automatique et de la cryptographie.
Des solutions supplémentaires en développement, appelées « coprocesseurs », comprennent RiscZero,Axiome, et Rituel. Le terme coprocesseur est principalement sémantique - ces réseaux remplissent de nombreux rôles différents, notamment la vérification du calcul hors chaîne sur la chaîne. Tout comme EZKL, Giza et Modulus, ils visent à abstraire complètement le processus de génération de preuve de connaissance nulle, créant essentiellement des machines virtuelles de connaissance nulle capables d'exécuter des programmes hors chaîne et de générer des preuves pour vérification sur chaîne. RiscZero et Axiom peuvent servicedes modèles d'IA simples car ils sont censés être des coprocesseurs plus polyvalents, tandis que Ritual est conçu spécifiquement pour être utilisé avec des modèles d'IA.
Infernetest la première instantiation de Ritual et comprend un SDK Infernet qui permet aux développeurs de soumettre des demandes d'inférence au réseau et de recevoir en retour une sortie et une preuve (facultativement). Un nœud Infernet reçoit ces demandes et gère le calcul hors chaîne avant de renvoyer une sortie. Par exemple, un DAO pourrait créer un processus pour garantir que toutes les nouvelles propositions de gouvernance répondent à certaines conditions préalables avant d'être soumises. Chaque fois qu'une nouvelle proposition est soumise, le contrat de gouvernance déclenche une demande d'inférence via Infernet en appelant un modèle d'IA formé spécifiquement pour le gouvernance du DAO. Le modèle examine la proposition pour s'assurer que tous les critères nécessaires ont été soumis et renvoie la sortie et la preuve, approuvant ou refusant la soumission de la proposition.
Au cours de l'année à venir, l'équipe Ritual prévoit de déployer des fonctionnalités supplémentaires qui forment une couche d'infrastructure de base appelée le Superchain Ritual. Beaucoup des projets discutés précédemment pourraient se connecter à Ritual en tant que fournisseurs de services. Déjà, l'équipe Ritual s'est intégrée à EZKL pour la génération de preuves et ajoutera probablement bientôt des fonctionnalités d'autres principaux fournisseurs. Les nœuds Infernet sur Ritual pourraient également utiliser les GPU Akash ou io.net et interroger des modèles entraînés sur des sous-réseaux Bittensor. Leur objectif final est de devenir le principal fournisseur d'infrastructure AI ouverte, capable de fournir des services d'apprentissage automatique et d'autres tâches liées à l'IA à partir de n'importe quel réseau, pour n'importe quelle charge de travail.
zkML aideréconcilierla contradiction entre les blockchains et l'IA, où les premières sont intrinsèquement contraintes en ressources et les dernières nécessitent de grandes quantités de calcul et de données. En tant que l'un des fondateurs de GizaMettez-le, « Les cas d'utilisation sont si nombreux... C'est un peu comme demander, à l'époque d'Ethereum, quels sont les cas d'utilisation des contrats intelligents... Ce que nous faisons, c'est simplement étendre les cas d'utilisation des contrats intelligents. » Comme souligné ci-dessus, cependant, le développement aujourd'hui se déroule principalement au niveau des outils et de l'infrastructure. Les applications en sont encore à la phase exploratoire, les équipes étant défiées de démontrer que la valeur générée par la mise en œuvre de modèles utilisant zkML l'emporte sur la complexité et les coûts associés.
Certaines applications aujourd'hui incluent:
zkML est encore à un stade expérimental, la plupart des projets étant axés sur le développement des infrastructures primaires et des preuves de concepts. Les défis d'aujourd'hui incluent les coûts de calcul, les limitations de mémoire, la complexité des modèles, les outils et infrastructures limités, et les compétences des développeurs. En un mot, il y a considérablement plus de travail à faire avant que zkML puisse être mis en œuvre à l'échelle nécessaire pour les produits grand public.
À mesure que le domaine mûrit et que ces limitations sont traitées, zkML deviendra toutefois un composant critique de l'intégration de l'IA et de la crypto. Au cœur de zkML, il promet la capacité d'amener tout calcul hors chaîne de n'importe quelle taille sur chaîne tout en maintenant les mêmes garanties de sécurité ou proches de celles-ci que si le calcul avait été effectué sur chaîne. Jusqu'à ce que cette vision se réalise, cependant, les premiers utilisateurs de la technologie devront continuer à trouver un équilibre entre les compromis entre la confidentialité et la sécurité de zkML et l'efficacité des alternatives.
L'une des intégrations les plus passionnantes de l'IA et de la crypto consiste en une expérimentation continue avec des agents d'IA. Les agents sont des robots autonomes capables de recevoir, d'interpréter et d'exécuter des tâches à l'aide d'un modèle d'IA. Cela pourrait être n'importe quoi, de disposer d'un assistant personnel toujours disponible, parfaitement adapté à vos préférences, à engager un agent financier qui gère et ajuste votre portefeuille selon vos préférences en matière de risque.
Les agents et la crypto s'accordent bien en raison de l'infrastructure de paiement sans permission et sans confiance fournie par la crypto. Une fois formés, les agents peuvent se voir attribuer un portefeuille afin qu'ils puissent effectuer des transactions avec des contrats intelligents par eux-mêmes. Les agents simples d'aujourd'hui, par exemple, peuvent parcourir Internet à la recherche d'informations, puis réaliser des transactions sur des marchés prédictifs sur la base d'un modèle.
Morpheus est l'un des tout nouveaux projets d'agent open-source qui arrive sur le marché d'Ethereum et d'Arbitrum en 2024. Son livre blanc a été publié de manière anonyme en septembre 2023, posant les bases pour la formation d'une communauté et la construction autour (y compris des figures notables comme Erik Vorhees). Le livre blanc comprend un téléchargeable Protocole d'Agent Intelligent, qui est un LLM open source qui peut être exécuté localement, géré par le portefeuille de l'utilisateur et interagir avec des contrats intelligents. Il utilise un Classement des contrats intelligentspour aider l'agent à déterminer quels contrats intelligents sont sûrs d'interagir en fonction de critères tels que le nombre de transactions traitées.
Le livre blanc fournit également un cadre pour développer le réseau Morpheus, tel que les structures d'incitation et l'infrastructure nécessaires pour rendre le protocole Smart Agent opérationnel. Cela inclut l'incitation des contributeurs à développer des interfaces pour interagir avec les agents, des API pour que les développeurs puissent créer des applications pouvant se connecter aux agents afin qu'ils puissent interagir les uns avec les autres, et des solutions cloud pour permettre aux utilisateurs d'accéder aux calculs et au stockage nécessaires pour exécuter un agent sur un appareil périphérique. Le financement initial du projet a été lancé début février avec le lancement complet du protocole prévu au 2e trimestre 2024.
Réseau d'infrastructure autonome décentralisé (DAIN)est un nouveau protocole d'infrastructure d'agent construisant une économie d'agent à agent sur Solana. DAIN vise à permettre aux agents de différentes entreprises d'interagir de manière transparente les uns avec les autres via une API universelle, ouvrant considérablement l'espace de conception pour les agents d'IA en mettant l'accent sur la mise en œuvre d'agents capables d'interagir avec des produits web2 et web3. En janvier, DAIN a annoncé leur premier partenariatavec Asset Shield permettant aux utilisateurs d'ajouter des "agents signataires" à leur multisig capables d'interpréter les transactions et d'approuver/refuser en fonction des règles définies par l'utilisateur.
Fetch.AIa été l'un des premiers protocoles d'Agent d'IA déployés et a développé un écosystème pour la construction, le déploiement et l'utilisation d'Agents on-chain en utilisant son jeton FET et Fetch.AI portefeuille. Le protocole fournit une suite complète d'outils et d'applications pour utiliser Agents, y compris des fonctionnalités dans le portefeuille pour interagir avec et commander des agents.
Autonolas, dont les fondateurs incluent un membre précédent de l'équipe Fetch, est un marché ouvert pour la création et l'utilisation d'agents d'IA décentralisés. Autonolas fournit également un ensemble d'outils aux développeurs pour construire des agents d'IA hébergés hors chaîne et pouvant se connecter à plusieurs blockchains, y compris Polygon, Ethereum, Gnosis Chain et Solana. Ils ont actuellement quelques agents actifs en phase de concept de preuve.produitsy compris pour une utilisation dans les marchés de prédiction et la gouvernance des DAO.
SingularityNetconstruit un marché décentralisé pour les agents d'IA où les gens peuvent déployer des agents d'IA étroitement ciblés qui peuvent être loués par d'autres personnes ou agents pour exécuter des tâches complexes. D'autres, comme AlteredStateMachine, construisent des intégrations d'agents d'IA avec des NFT. Les utilisateurs créent des NFT avec des attributs aléatoires qui leur donnent des forces et des faiblesses pour différentes tâches. Ces agents peuvent ensuite être formés pour améliorer certaines caractéristiques pour des utilisations telles que le jeu, la DeFi, ou en tant qu'assistant virtuel et échangés avec d'autres utilisateurs.
Collectivement, ces projets envisagent un futur écosystème d'agents capables de travailler ensemble non seulement pour exécuter des tâches, mais également pour contribuer à la construction d'une intelligence artificielle générale. Des agents vraiment sophistiqués auront la capacité de remplir toute tâche utilisateur de manière autonome. Par exemple, au lieu de devoir s'assurer qu'un agent a déjà été intégré à une API externe (comme un site de réservation de voyages) avant de l'utiliser, les agents entièrement autonomes auront la capacité de trouver comment embaucher un autre agent pour intégrer l'API, puis exécuter la tâche. Du point de vue de l'utilisateur, il ne sera pas nécessaire de vérifier si un agent peut remplir une tâche car l'agent peut le déterminer lui-même.
En juillet 2023, Lightning Labsa déployé une implémentation de concept de preuve pour utiliser des Agents sur le réseau Lightning appelée LangChain Bitcoin Suite. Le produit est particulièrement intéressant car il vise à résoudre un problème croissant dans le monde du web 2 - gatedetcherClés API pour les applications Web.
LangChain résout ce problème en fournissant aux développeurs un ensemble d'outils permettant aux agents d'acheter, de vendre et de détenir Bitcoin, ainsi que de demander des clés d'API et d'envoyer des micro-paiements. Alors que sur les réseaux de paiement traditionnels, les petits micro-paiements sont prohibitifs en raison des frais, sur le réseau Lightning, les agents peuvent envoyer quotidiennement des micro-paiements illimités avec des frais minimes. Associé au cadre API facturé de LangChain, le L402, cela pourrait permettre aux entreprises d'ajuster les frais d'accès à leur API en fonction de l'augmentation et de la diminution de l'utilisation, plutôt que de fixer un standard prohibitif unique.
Dans un avenir où l'activité on-chain est dominée par des agents interagissant avec des agents, quelque chose comme cela sera nécessaire pour garantir que les agents puissent interagir les uns avec les autres de manière non coûteuse. Il s'agit d'un exemple précoce de la façon dont l'utilisation d'agents sur des rails de paiement sans autorisation et rentables ouvre les possibilités de nouveaux marchés et interactions économiques.
L'espace des agents est encore naissant. Les projets commencent tout juste à déployer des agents fonctionnels capables de gérer des tâches simples à l'aide de leur infrastructure, qui est souvent uniquement accessible aux développeurs et utilisateurs sophistiqués. Cependant, avec le temps, l'un des plus grands impacts des agents d'IA sur la crypto sera les améliorations de l'expérience utilisateur dans tous les domaines. Les transactions commenceront à passer du point-and-click au texte, les utilisateurs ayant la capacité d'interagir avec des agents on-chain via LLMs. Déjà, des équipes comme Portefeuille Dawnintroduisent des portefeuilles de chat-bot pour que les utilisateurs interagissent sur la chaîne.
De plus, il n'est pas clair comment les agents pourraient opérer sur le web 2 où les voies financières dépendent des institutions bancaires réglementées qui ne fonctionnent pas 24/7 et ne peuvent pas effectuer des transactions transfrontalières sans problème. As Lyn Aldencomme souligné, les crypto-rails sont particulièrement attractifs par rapport aux cartes de crédit en raison de l'absence de litiges et de la capacité à traiter des microtransactions. Cependant, si les agents deviennent un moyen plus courant de transaction, il est probable que les fournisseurs de paiement et les applications existants se dépêchent de mettre en place l'infrastructure nécessaire pour qu'ils puissent fonctionner sur les rails financiers existants, atténuant ainsi certains des avantages de l'utilisation de la crypto.
Pour l'instant, il est probable que les agents soient confinés à des transactions cryptographiques déterministes où une sortie donnée est garantie pour une entrée donnée. Les deux modèles, qui dictent la capacité de ces agents à comprendre comment exécuter des tâches complexes, et l'outillage, qui élargit la portée de ce qu'ils peuvent accomplir, nécessitent un développement ultérieur. Pour que les agents cryptographiques deviennent utiles en dehors des nouveaux cas d'utilisation de la cryptographie on-chain, il faudra une intégration plus large et une acceptation plus large de la cryptographie comme moyen de paiement, ainsi qu'une clarté réglementaire. Cependant, à mesure que ces composants se développent, les agents sont prêts à devenir l'un des plus grands consommateurs de calcul décentralisé et de solutions zkML discutées ci-dessus, agissant de manière autonome et non déterministe pour recevoir et résoudre toute tâche.
L’IA introduit dans la crypto les mêmes innovations que celles que nous voyons déjà dans le web2, améliorant tout, du développement de l’infrastructure à l’expérience utilisateur et à l’accessibilité. Cependant, les projets n’en sont qu’au début de leur évolution et l’intégration à court terme de la crypto et de l’IA sera principalement dominée par les intégrations hors chaîne.
Des produits comme Copiloteva“10x”efficacité des développeurs, avec couche 1setDeFiles applications commencent déjà à déployer des plateformes de développement assistées par l'IA en partenariat avec des grandes entreprises comme Microsoft. Des entreprises comme Cub3.aietTest Machinedéveloppent des intégrations d'IA pour l'audit de contrats intelligents et la surveillance des menaces en temps réel afin d'améliorer la sécurité on-chain. Et les chatbots LLM sont formés en utilisant des données on-chain, des documents de protocole et des applications pour offrir aux utilisateurs une accessibilité et une UX améliorées.
Pour des intégrations plus avancées qui tirent vraiment parti des technologies sous-jacentes de la crypto, le défi reste de démontrer que la mise en œuvre de solutions d'IA on-chain est à la fois techniquement possible et économiquement viable à grande échelle. Les développements en calcul décentralisé, zkML et les agents d'IA indiquent des verticales prometteuses qui jettent les bases d'un avenir où la crypto et l'IA sont étroitement liées.