Fusion de l'IA et du DePIN : un réseau GPU décentralisé qui ouvre la voie à une nouvelle tendance en matière de puissance de calcul.

L'intersection de l'IA et du DePIN : L'émergence des réseaux GPU décentralisés

Depuis 2023, l'IA et la Décentralisation des Infrastructures Physiques (DePIN) sont devenues des tendances populaires dans le domaine du Web3, avec une capitalisation boursière atteignant respectivement 30 milliards de dollars et 23 milliards de dollars. Cet article explorera l'intersection des deux et étudiera le développement des protocoles dans ce domaine.

Dans la pile technologique de l'IA, le réseau DePIN fournit une utilité à l'IA par le biais de ressources de calcul. Le développement des grandes entreprises technologiques a entraîné une pénurie de GPU, rendant difficile pour d'autres développeurs d'obtenir suffisamment de GPU pour le calcul. DePIN offre une alternative plus flexible et plus rentable, utilisant des récompenses en tokens pour inciter les contributions de ressources qui correspondent aux objectifs du réseau.

AI DePIN permet de décentraliser les ressources GPU des propriétaires individuels vers des centres de données, formant une offre unifiée pour les utilisateurs ayant besoin d'accéder au matériel. Cela offre non seulement aux développeurs une personnalisation et un accès à la demande, mais également un revenu supplémentaire pour les propriétaires de GPU.

AI et le point de convergence de DePIN

Aperçu du réseau DePIN AI

Rendre

Render est un pionnier du réseau P2P qui fournit des capacités de calcul GPU, se concentrant sur le rendu graphique pour la création de contenu, avant de s'étendre pour inclure des tâches de calcul allant des champs de réflexion neuronale à l'IA générative.

Points forts :

  • Fondée par la société de graphisme en nuage OTOY, qui possède des technologies primées aux Oscars.
  • Le réseau GPU a été utilisé par des grandes entreprises du secteur du divertissement comme Paramount Pictures et PUBG.
  • Collaborer avec Stability AI et Endeavor pour intégrer des modèles d'IA dans le flux de travail de rendu de contenu 3D
  • Approuver plusieurs clients de calcul, intégrer plus de GPU de réseaux DePIN

Akash

Akash se positionne comme une alternative "super cloud" prenant en charge le stockage, le calcul GPU et CPU. Grâce à une plateforme de conteneurs et à des nœuds de calcul gérés par Kubernetes, il est possible de déployer des logiciels de manière transparente à travers les environnements et d'exécuter n'importe quelle application native du cloud.

Points forts:

  • Pour une large gamme de tâches informatiques, allant du calcul général à l'hébergement de réseau.
  • AkashML permet d'exécuter plus de 15 000 modèles sur Hugging Face
  • Applications ayant déposé des modèles de chatbot LLM de Mistral AI, des modèles SDXL de Stability AI, etc.
  • La plateforme de construction du métavers, de déploiement de l'IA et d'apprentissage fédéré utilise Supercloud.

io.net

io.net fournit un accès à des clusters de cloud GPU distribués, spécialement conçus pour des cas d'utilisation en IA et ML. Il agrège les ressources GPU provenant de centres de données, de mineurs de cryptomonnaies et d'autres réseaux décentralisés.

Points forts:

  • L'IO-SDK est compatible avec des frameworks tels que PyTorch et Tensorflow, et l'architecture multicouche peut s'étendre dynamiquement en fonction des besoins de calcul.
  • Prend en charge la création de 3 types différents de clusters, pouvant être démarrés en 2 minutes.
  • Intégration des ressources GPU en collaboration avec Render, Filecoin, Aethir et Exabits

Gensyn

Gensyn fournit une puissance de calcul GPU axée sur l'apprentissage automatique et l'apprentissage profond. Il revendique avoir réalisé un mécanisme de validation plus efficace grâce à des concepts tels que les preuves de travail, les protocoles de localisation précis basés sur des graphes, et des jeux d'incitation impliquant des fournisseurs de calcul par le biais de staking et de réductions.

Points forts:

  • Le coût horaire estimé d'un GPU équivalent V100 est d'environ 0,40 $, ce qui permet d'importantes économies.
  • Peut affiner le modèle de base pré-entraîné pour accomplir des tâches plus spécifiques
  • Ces modèles de base seront décentralisés, détenus à l'échelle mondiale et offriront des fonctionnalités supplémentaires.

Aethir

Aethir est spécialement équipé de GPU d'entreprise, se concentrant sur des domaines nécessitant une intensité de calcul, principalement l'IA, l'apprentissage automatique, le cloud gaming, etc. Les conteneurs dans son réseau agissent comme des points de terminaison virtuels pour exécuter des applications basées sur le cloud, déplaçant les charges de travail des appareils locaux vers les conteneurs, offrant une expérience à faible latence.

Points forts :

  • Élargir aux services de téléphone cloud, lancer un smartphone intelligent décentralisé en collaboration avec APhone
  • Établir une large coopération avec de grandes entreprises Web2 telles que NVIDIA, Super Micro et HPE
  • Dans le domaine du Web3 avec plusieurs partenaires tels que CARV, Magic Eden, Sequence

Phala Network

Phala Network agit en tant que couche d'exécution pour les solutions Web3 AI. Sa blockchain est une solution de cloud computing sans confiance, conçue pour traiter les problèmes de confidentialité grâce à l'utilisation d'environnements d'exécution de confiance (TEE).

Points forts:

  • Agir en tant que protocole de coprocesseur vérifiable, permettant aux agents d'IA d'accéder aux ressources sur la chaîne.
  • Les contrats d'agent AI peuvent être obtenus via Redpill pour accéder aux meilleurs grands modèles de langage tels qu'OpenAI, Llama.
  • L'avenir comprendra des systèmes de preuves multiples tels que les zk-proofs, le calcul multipartite et le chiffrement homomorphe complet.
  • Prévoyez de prendre en charge d'autres GPU TEE tels que H100, pour améliorer la capacité de calcul.

AI et le point de convergence DePIN

Comparaison de projet

| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points d'affaires | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | Intelligence artificielle, cloud gaming et télécommunications | Exécution AI sur la chaîne | | Type de tâche AI | Inférence | Les deux | Les deux | Entraînement | Entraînement | Exécution | | Tarification des travaux | Tarification basée sur la performance | Vente aux enchères inversée | Tarification de marché | Tarification de marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Cryptage&hachage | Authentification mTLS | Chiffrement des données | Cartographie sécurisée | Cryptage | TEE | | Frais de travail | Chaque travail 0,5-5 % | 20 % USDC, 4 % AKT | 2 % USDC, 0,25 % frais de réserve | Frais peu élevés | Chaque session 20 % | Proportionnel au montant staké | | Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais | | Preuve de complétion | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE | | Garantie de qualité | Controverse | - | - | Vérificateurs et dénonciateurs | Nœuds vérificateurs | Preuve à distance | | GPU Cluster | Non | Oui | Oui | Oui | Oui | Non |

AI et le point de convergence de DePIN

Importance

Disponibilité du calcul en parallèle et des clusters

Le cadre de calcul distribué a mis en place un cluster GPU, offrant un entraînement plus efficace tout en renforçant l'évolutivité. L'entraînement de modèles d'IA complexes nécessite une puissance de calcul importante, et il faut généralement s'appuyer sur le calcul distribué pour répondre à cette exigence. Par exemple, le modèle GPT-4 d'OpenAI possède plus de 1,8 billion de paramètres et a été entraîné en 3-4 mois en utilisant environ 25 000 GPU Nvidia A100 répartis sur 128 clusters.

La plupart des projets clés ont désormais intégré des clusters pour réaliser un calcul parallèle. io.net collabore avec d'autres projets pour intégrer davantage de GPU dans son réseau et a déjà déployé plus de 3 800 clusters au premier trimestre de 24. Bien que Render ne supporte pas les clusters, son fonctionnement est similaire, décomposant une seule image en plusieurs nœuds pour être traitée simultanément. Phala ne prend actuellement en charge que les CPU, mais permet de regrouper des travailleurs CPU.

Protection des données

Le développement de modèles d'IA nécessite l'utilisation de grands ensembles de données, qui peuvent contenir des informations sensibles. Par conséquent, il est essentiel de prendre des mesures de sécurité adéquates pour protéger la vie privée des données.

La plupart des projets utilisent une forme de cryptage des données pour protéger la vie privée des données. Render utilise le cryptage et le traitement par hachage lors de la publication des résultats de rendu, io.net et Gensyn adoptent le cryptage des données, Akash utilise l'authentification mTLS.

io.net a récemment collaboré avec Mind Network pour lancer le chiffrement homomorphe complet (FHE), permettant de traiter des données chiffrées sans avoir besoin de les déchiffrer au préalable. Phala Network a introduit un environnement d'exécution de confiance (TEE), empêchant les processus externes d'accéder ou de modifier les données grâce à des mécanismes d'isolement.

Preuve de calcul terminée et contrôle de qualité

En raison de la large gamme de services, allant du rendu graphique au calcul AI, la qualité finale peut ne pas toujours être conforme aux normes des utilisateurs. La réalisation de preuves et de vérifications de qualité est bénéfique pour les utilisateurs.

Gensyn et Aethir génèrent des preuves après l'achèvement des calculs, et la preuve d'io.net indique que la performance GPU louée est pleinement utilisée. Gensyn et Aethir effectuent tous deux des vérifications de qualité sur les calculs terminés. Render recommande d'utiliser le processus de résolution des litiges, et si le comité de révision découvre des problèmes avec un nœud, ce nœud sera réduit. Phala génère une preuve TEE après son achèvement, assurant que l'agent IA exécute les opérations requises sur la chaîne.

AI et le point de convergence de DePIN

Données statistiques matérielles

| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Quantité H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | $1.46 | $1.19 | - | - | - | | Coût A100/heure | - | $1.37 | $1.50 | $0.55 ( prévu ) | $0.33 ( prévu ) | - |

Exigences des GPU haute performance

L'entraînement des modèles d'IA nécessite des GPU offrant des performances optimales, tels que les A100 et H100 de Nvidia. Les performances d'inférence du H100 sont 4 fois plus rapides que celles de l'A100, ce qui en fait le GPU de choix, en particulier pour les grandes entreprises qui entraînent leurs propres LLM.

Les fournisseurs de marché GPU décentralisés doivent non seulement offrir des prix plus bas pour rivaliser avec leurs homologues Web2, mais aussi répondre aux besoins réels du marché. Étant donné la difficulté d'obtenir un matériel équivalent, le nombre de matériels que ces projets peuvent introduire dans le réseau à faible coût est crucial pour l'expansion des services.

Akash n'a en tout que plus de 150 unités H100 et A100, tandis que io.net et Aethir ont respectivement obtenu plus de 2000 unités. En général, préformer un LLM ou un modèle génératif à partir de zéro nécessite au moins 248 à plus de 2000 GPU dans le cluster, donc les deux derniers projets sont plus adaptés au calcul de grands modèles.

Actuellement, le coût de ces services de GPU décentralisés sur le marché est déjà beaucoup plus bas que celui des services de GPU centralisés. Gensyn et Aethir affirment pouvoir louer du matériel équivalent à l'A100 pour moins de 1 dollar de l'heure, mais cela doit encore être prouvé avec le temps.

Les clusters de GPU connectés en réseau disposent d'un grand nombre de GPU à faible coût par heure, mais leur mémoire est limitée par rapport aux GPU connectés via NVLink. NVLink permet une communication directe entre plusieurs GPU, sans avoir besoin de transférer des données entre le CPU et le GPU, offrant ainsi une bande passante élevée et une faible latence.

Néanmoins, pour les utilisateurs ayant des besoins de charges de travail dynamiques ou nécessitant une flexibilité et la capacité de répartir les charges de travail sur plusieurs nœuds, le réseau GPU décentralisé peut toujours offrir une puissance de calcul robuste et une évolutivité pour les tâches de calcul distribuées.

AI et le point de convergence de DePIN

Fournir des GPU/CPU de niveau consommateur

Bien que le GPU soit le principal unité de traitement nécessaire pour le rendu et le calcul, le CPU joue également un rôle important dans l'entraînement des modèles d'IA. Les GPU grand public peuvent également être utilisés pour des tâches moins intensives, telles que le réglage fin de modèles déjà pré-entraînés ou l'entraînement de modèles de plus petite taille sur des ensembles de données plus petits.

Étant donné que plus de 85 % des ressources GPU des consommateurs sont inactives, des projets tels que Render, Akash et io.net peuvent également servir cette partie du marché. Offrir ces options leur permet de développer leur propre créneau, en se concentrant sur le calcul intensif à grande échelle, le rendu à plus petite échelle plus général ou un mélange des deux.

AI et le point de convergence de DePIN

Conclusion

Le domaine de l'AI DePIN est encore relativement nouveau et fait face à ses propres défis. Cependant, le nombre de tâches et de matériel exécutés dans ces réseaux GPU décentralisés continue d'augmenter de manière significative. Cette tendance prouve l'adéquation produit-marché des réseaux AI DePIN, qui répondent efficacement aux défis liés à la demande et à l'offre.

Envisageant l'avenir, la trajectoire de développement de l'intelligence artificielle pointe vers un marché florissant de plusieurs milliers de milliards de dollars. Ces réseaux GPU décentralisés fourniront une économie élevée aux développeurs.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Partager
Commentaire
0/400
retroactive_airdropvip
· 07-30 09:01
bull Web Card peut encore miner
Voir l'originalRépondre0
0xSoullessvip
· 07-30 08:58
Les pigeons ont encore un nouvel endroit où prendre les gens pour des idiots.
Voir l'originalRépondre0
Fren_Not_Foodvip
· 07-30 08:43
Je ne sais pas pour le reste, mais je me demande si on peut encore acheter le dip pour le Rig de minage GPU.
Voir l'originalRépondre0
NeverPresentvip
· 07-30 08:37
Qui va profiter des cartes N ?
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)