io.net: La révolution de la puissance de calcul de l'IA sous-estimée

Intermédiaire7/8/2024, 4:18:53 PM
En tant que nouvelle forme de relation productive, Web3 s'harmonise naturellement avec l'IA, qui représente un nouveau type de productivité. Ce progrès simultané dans la technologie et les relations productives est au cœur de la logique de io.net. En adoptant l'infrastructure économique "Web3 + économie des jetons", io.net vise à transformer les relations de production traditionnelles entre les géants des services cloud, les utilisateurs de puissance de calcul de taille moyenne à longue et les ressources informatiques mondiales inutilisées.

La nature de base de io.net : Comment la voyez-vous ?

Avec 30 millions de dollars de financement et soutenu par un capital de premier ordre tel que Hack VC, Multicoin Capital, Delphi Digital et Solana Lab, io.net ne semble pas très “de base”. Les étiquettes de puissance de calcul GPU et de révolution de l'IA sont loin d'être terre à terre, souvent associées à des connotations haut de gamme.

Cependant, au milieu des discussions animées de la communauté, des indices cruciaux sont souvent négligés, en particulier en ce qui concerne la transformation profonde que io.net pourrait apporter au réseau mondial de puissance de calcul. Contrairement à la position “élite” d'AWS, Azure et GCP, io.net suit essentiellement une voie populiste :

Il vise à compléter la demande de puissance de calcul "milieu de gamme + longue traîne" ignorée en agrégeant les ressources GPU inactives. En créant un réseau informatique distribué décentralisé de qualité entreprise, io.net donne à un plus large éventail de petits et moyens utilisateurs l'innovation en matière d'IA. Il réalise une "ré-libération de productivité" à faible coût et hautement flexible pour l'innovation mondiale en matière d'IA.

Les relations de production sous-jacentes de puissance de calcul négligées derrière la vague d'IA

Quelle est la ressource principale de productivité dans la vague actuelle de l'IA et l'ère future de l'économie numérique ?

Sans aucun doute, c'est la puissance de calcul.

Selon les données de Precedence Research, le marché mondial du matériel d'intelligence artificielle devrait croître à un taux de croissance annuel composé (TCAC) de 24,3%, dépassant 473,53 milliards de dollars d'ici 2033.

Même en mettant de côté ces chiffres prédictifs, tant du point de vue incrémental que du point de vue des stocks, il est évident que deux principales contradictions persisteront dans le développement futur du marché de la puissance de calcul :

  1. Dimension Incrémentielle: La croissance exponentielle de la demande de puissance de calcul dépasse largement la croissance linéaire de l'offre.
  2. Dimension des stocks : En raison de la distribution déséquilibrée, la puissance de calcul est concentrée en haut, laissant aux acteurs de milieu de gamme et de longue traîne des ressources insuffisantes. Pendant ce temps, une grande quantité de ressources GPU distribuées reste inutilisée, entraînant de graves déséquilibres entre l'offre et la demande.

Dimension incrémentielle: la demande de puissance de calcul dépasse largement l'offre

Tout d'abord, dans la dimension incrémentielle, en dehors de l'expansion rapide des modèles de contenu généré par l'IA (AIGC), de nombreux scénarios d'IA à leurs débuts, tels que la santé, l'éducation et la conduite intelligente, se déroulent rapidement. Tous ces scénarios nécessitent d'énormes quantités de ressources informatiques. Par conséquent, la pénurie actuelle sur le marché des ressources de puissance de calcul GPU persistera non seulement mais continuera de s'aggraver.

En d'autres termes, d'un point de vue de l'offre et de la demande, dans un avenir prévisible, la demande du marché en puissance de calcul dépassera sans aucun doute largement l'offre. La courbe de la demande devrait montrer une tendance à la hausse exponentielle à court terme.

Du côté de l'offre, cependant, en raison des lois physiques et des facteurs de production pratiques, qu'il s'agisse d'améliorations de la technologie des processus ou d'expansions d'usines à grande échelle, au mieux, seule une croissance linéaire peut être réalisée. Cela signifie inévitablement que le goulot d'étranglement de la puissance de calcul dans le développement de l'IA persistera pendant longtemps.

Déséquilibre entre l'offre et la demande : Désalignement pour les acteurs de milieu de gamme et de longue traîne

Pendant ce temps, avec des ressources de puissance de calcul limitées faisant face à des goulots d'étranglement de croissance sévères, Amazon Web Services (AWS), Microsoft Azure et Google Cloud Platform (GCP) occupent collectivement plus de 60 % de la part de marché de l'informatique en nuage, créant un marché de vendeurs clair.

Ces entreprises stockent des puces GPU haute performance, monopolisant une vaste quantité de puissance de calcul. Les joueurs de la demande de milieu de gamme et de longue traîne, de petite et moyenne taille, non seulement manquent de pouvoir de négociation, mais doivent aussi faire face à des coûts en capital élevés, des barrières à l'entrée KYC et des modalités de location restrictives. De plus, les géants des services cloud traditionnels, poussés par des considérations de profit, négligent souvent les besoins commerciaux différenciés des utilisateurs « milieu de gamme + longue traîne » (tels que des exigences de location plus courtes, plus immédiates et à plus petite échelle).

En réalité, cependant, une grande quantité de puissance de calcul GPU reste inutilisée en dehors des réseaux informatiques des géants des services cloud. Par exemple, des dizaines de milliers de centres de données Internet (IDC) tiers indépendants gaspillent des ressources sur de petites tâches de formation dans le monde entier. Cela inclut une puissance de calcul considérable étant inutilisée dans les fermes de minage de crypto-monnaie et des projets comme Filecoin, Render et Aethir.

Selon les estimations officielles de io.net, le taux d'inactivité des cartes graphiques dans les centres de données aux États-Unis dépasse 60%. Cela crée un paradoxe ironique de déséquilibre entre l'offre et la demande : plus de la moitié des ressources de puissance de calcul de dizaines de milliers de petits et moyens centres de données et fermes de minage de crypto-monnaies sont gaspillées chaque jour, ne parvenant pas à générer des revenus efficaces, tandis que les entrepreneurs en intelligence artificielle de niveau intermédiaire et de longue traîne endurent des coûts élevés et des barrières à l'entrée élevées des services de calcul des géants du cloud, sans que leurs besoins innovants diversifiés soient satisfaits.

Ce contraste frappant révèle la contradiction fondamentale du développement mondial actuel de l'IA et du marché mondial de la puissance de calcul : d'une part, l'innovation en matière d'IA est répandue et la demande de puissance de calcul ne cesse de croître. D'autre part, les besoins en puissance de calcul des acteurs de milieu de gamme et des petits acteurs ainsi que les ressources GPU inutilisées ne sont pas efficacement satisfaits, restant en dehors du marché actuel de la puissance de calcul.

Ce problème n'est pas seulement le conflit entre les exigences croissantes en puissance de calcul des entrepreneurs en IA et la croissance retardée de la puissance de calcul. Il s'agit également du déséquilibre entre la grande majorité des entrepreneurs en IA de niveau intermédiaire et de longue traîne, les opérateurs de puissance de calcul, et l'offre et la demande déséquilibrées, qui dépassent largement le champ d'action des solutions des fournisseurs de services cloud centralisés.

Par conséquent, le marché réclame de nouvelles solutions. Imaginez si ces opérateurs dotés de puissance de calcul pouvaient louer de manière flexible leur puissance de calcul pendant les périodes d'inactivité. Ne fournirait-il pas un cluster de calcul à faible coût similaire à AWS ?

La construction d'un réseau de calcul à grande échelle est extrêmement coûteuse. Cela a conduit à l'émergence de plateformes spécifiquement conçues pour mettre en correspondance les ressources de calcul inutilisées avec de petites et moyennes startups en intelligence artificielle. Ces plateformes agrègent des ressources de calcul inutilisées dispersées et les mettent en correspondance avec des besoins spécifiques dans des secteurs tels que la santé, le droit et la finance pour la formation de petits et grands modèles.

Non seulement cela peut répondre aux besoins de calcul diversifiés de la moyenne à longue traîne, mais cela complète également les services de calcul des géants du cloud centralisés existants :

Les géants du cloud avec d'énormes ressources de calcul gèrent la formation de modèles volumineux et le calcul haute performance pour des besoins urgents et importants.

Les marchés de l'informatique en nuage décentralisés comme io.net s'adressent aux petites calculs de modèles, à l'ajustement fin de gros modèles, au déploiement de l'inférence et à des besoins plus diversifiés et à faible coût.

En substance, il offre un équilibre dynamique entre la rentabilité et la qualité de calcul, s'alignant sur la logique économique d'optimisation de l'allocation des ressources sur le marché. Ainsi, les réseaux informatiques distribués comme io.net offrent essentiellement une solution "IA+Crypto". Ils utilisent un cadre collaboratif décentralisé combiné à des incitations sous forme de jetons pour répondre à une demande importante mais insatisfaite sur le marché de l'IA à longue traîne. Cela permet aux petites et moyennes équipes d'IA de personnaliser et d'acheter des services de calcul GPU selon leurs besoins, ce que les grands clouds ne peuvent pas fournir, permettant ainsi d'atteindre une "libération de la productivité" sur le marché mondial de la puissance de calcul et du développement de l'IA.

En termes plus simples, io.net n'est pas un concurrent direct d'AWS, d'Azure ou de GCP. Au contraire, c'est un allié complémentaire qui optimise l'allocation mondiale des ressources de calcul et élargit le marché. Ils répondent à différentes couches de besoins en « rentabilité et qualité de calcul ». Il est même possible qu'io.net, en agrégeant les acteurs de l'offre et de la demande de moyenne à longue traîne, puisse créer une part de marché comparable à celle des trois géants du cloud existants.

io.net: Une plateforme mondiale de trading de puissance de calcul GPU correspondante

io.net vise à remodeler les relations de production du marché de la puissance de calcul moyen et long terme grâce à la collaboration distribuée Web3 et aux incitations par jetons. En conséquence, il rappelle les plates-formes d'économie partagée comme Uber et Didi, fonctionnant comme une plate-forme de trading correspondante pour la puissance de calcul GPU.

Avant l'avènement d'Uber et de Didi, l'expérience utilisateur de la "commande de véhicule à la demande" était pratiquement inexistante. Le réseau de voitures privées était vaste mais chaotique, avec des voitures inactives et désorganisées. Pour prendre un taxi, les utilisateurs devaient soit héler un taxi depuis le bord de la route, soit demander un envoi du centre de taxis de la ville, ce qui était long, très incertain et principalement un marché de vendeurs - peu convivial pour la plupart des gens ordinaires.

Ce scénario est semblable à l'état actuel du marché de la puissance de calcul. Comme mentionné précédemment, les demandeurs de puissance de calcul de taille moyenne et longue queue non seulement manquent de pouvoir de négociation mais font aussi face à des coûts en capital élevés, des barrières à l'entrée du KYC et des conditions de location difficiles.

Alors, comment io.net parvient-elle exactement à se positionner en tant que "centre de puissance de calcul GPU mondial et marché correspondant" ? Quel type d'architecture système et de services fonctionnels sont nécessaires pour aider les utilisateurs de taille moyenne et longue à obtenir des ressources de puissance de calcul ?

Plateforme de correspondance flexible et économique

La caractéristique principale de io.net est sa plateforme légère de puissance de calcul. Semblable à Uber ou Didi, elle n'implique pas l'exploitation réelle à haut risque de matériels GPU ou d'autres actifs lourds. Au lieu de cela, elle connecte la puissance de calcul de vente de moyenne à longue traîne (souvent considérée comme une puissance de calcul secondaire par les principaux fournisseurs de cloud comme AWS) avec la demande par le biais de la mise en correspondance, revitalisant ainsi les ressources de calcul précédemment inutilisées (voitures privées) et la demande en puissance de calcul AI de moyenne traîne (passagers).

D'un côté, io.net connecte des dizaines de milliers de GPU inactifs (voitures privées) provenant de petits et moyens IDC, de fermes minières et de projets cryptographiques. De l'autre côté, il relie les besoins de puissance de calcul de millions de petites et moyennes entreprises (passagers). io.net agit comme un intermédiaire, similaire à un courtier qui met en correspondance de nombreuses commandes d'achat et de vente.

En agrégeant la puissance de calcul inutilisée à faible coût et avec des configurations de déploiement plus flexibles, io.net aide les entrepreneurs à former des modèles d'IA petits et moyens plus personnalisés, améliorant considérablement l'utilisation des ressources. Les avantages sont clairs : quelles que soient les conditions du marché, tant qu'il y a un déséquilibre des ressources, la demande d'une plateforme correspondante est robuste.

Côté offre : Du côté de l'offre, les petits et moyens centres de données (IDC), les fermes de minage et les projets cryptographiques peuvent connecter leurs ressources informatiques inutilisées à io.net. Ils n'ont pas besoin de mettre en place un département dédié au développement commercial ou d'être obligés de vendre à un prix réduit à AWS en raison de la puissance de calcul à petite échelle. Au lieu de cela, ils peuvent mettre en correspondance leur puissance de calcul inutilisée avec des clients de petite et moyenne envergure adaptés aux prix du marché, voire plus élevés, avec des coûts de friction minimes, ce qui leur permet de générer des revenus.

Demande latérale:Du côté de la demande, les demandeurs de petite et moyenne puissance de calcul, qui n'avaient auparavant aucun pouvoir de négociation face aux principaux fournisseurs de cloud comme AWS, peuvent se connecter à une puissance de calcul à petite échelle, sans autorisation, sans attente et sans KYC via io.net. Ils peuvent librement choisir et combiner les puces dont ils ont besoin pour former un « cluster » afin d'accomplir des tâches de calcul personnalisées.

Tant l'offre que la demande au niveau intermédiaire ont des points de douleur similaires en matière de faible pouvoir de négociation et de faible autonomie lorsqu'ils sont confrontés à des grands acteurs du cloud comme AWS. io.net revitalise l'offre et la demande du segment intermédiaire à longue traîne, en fournissant une plateforme de mise en relation qui permet aux deux parties de réaliser des transactions à des prix et avec des configurations plus flexibles que les grands acteurs du cloud comme AWS.

De ce point de vue, similaire à des plateformes comme Taobao, l'apparition précoce d'une puissance de calcul de faible qualité est un schéma de développement inévitable de l'économie de plateforme. io.net a également mis en place un système de réputation pour les fournisseurs et les demandeurs, accumulant des scores basés sur les performances de calcul et la participation au réseau pour gagner des récompenses ou des remises.

Cluster GPU décentralisé

En plus d'être une plateforme de correspondance entre l'offre et la demande de détail, io.net répond aux besoins de scénarios de calcul à grande échelle, tels que ceux requis par les modèles modernes, qui impliquent plusieurs GPU travaillant ensemble. L'efficacité de cette plateforme dépend non seulement du nombre de ressources GPU inactives qu'elle peut agréger, mais aussi de la manière dont la puissance de calcul distribuée sur la plateforme est étroitement connectée.

Cela signifie que io.net doit créer une architecture informatique “centralisée et décentralisée” pour son réseau distribué, qui englobe des ressources informatiques de petite et moyenne taille de différentes régions et échelles. Cette architecture doit répondre aux demandes de calcul flexibles en permettant à plusieurs GPU distribués de travailler dans le même cadre pour la formation, tout en veillant à ce que la communication et la coordination entre ces GPU soient rapides et atteignent une latence faible utilisable.

Cette approche est fondamentalement différente de certains projets de cloud computing décentralisés qui sont contraints d'utiliser des GPU dans le même centre de données. La réalisation technique derrière la suite de produits io.net, connue sous le nom des "Trois Chevaux", comprend IO Cloud, IO Worker et IO Explorer.

  1. IO Cloud
    • Le module commercial de base pour les clusters, IO Cloud, est un groupe de GPUs capables de s'auto-coordonner pour accomplir des tâches de calcul. Les ingénieurs en IA peuvent personnaliser les clusters selon leurs besoins. Il s'intègre parfaitement avec l'IO-SDK, offrant une solution complète pour étendre les applications en IA et en Python.
  2. Travailleur IO
    • IO Worker offre une interface utilisateur conviviale, permettant à la fois aux fournisseurs et aux demandeurs de gérer efficacement leurs opérations via une application web. Ses fonctions vont de la gestion du compte utilisateur, au suivi des activités de calcul, à l'affichage de données en temps réel, au suivi de la température et de la consommation électrique, à l'assistance à l'installation, à la gestion des portefeuilles, à la mise en place de mesures de sécurité, au calcul des profits.
  3. IO Explorer
    • IO Explorer fournit aux utilisateurs des statistiques complètes et des visualisations de divers aspects du cloud GPU. En offrant une visibilité complète sur les activités réseau, les statistiques clés, les points de données et les transactions de récompenses, il permet aux utilisateurs de surveiller, d'analyser et de comprendre facilement les détails du réseau io.net.

Grâce à cette architecture fonctionnelle, io.net permet aux fournisseurs de puissance de calcul de partager facilement les ressources inutilisées, abaissant ainsi considérablement la barrière à l'entrée. Les demandeurs peuvent rapidement former des clusters avec les GPU requis sans signer de contrats à long terme ou subir les délais d'attente prolongés généralement associés aux services cloud traditionnels. Ce système leur fournit une puissance de supercalcul et des temps de réponse serveur optimisés.

Scénarios de demande élastique légère

Lorsqu'on discute des scénarios de service uniques de io.net par rapport à AWS et à d'autres grands clouds, l'accent est mis sur la demande élastique légère où les grands clouds peuvent ne pas être rentables. Ces scénarios comprennent des domaines de niche tels que la formation de modèles pour les petites et moyennes startups en intelligence artificielle, l'ajustement de grands modèles et d'autres applications diverses. Un scénario couramment négligé mais largement applicable est l'inférence de modèle.

Il est bien connu que la formation précoce de grands modèles comme GPT nécessite des milliers de GPU haute performance, une puissance de calcul immense et des données massives pendant des périodes prolongées. Il s'agit d'un domaine où AWS, GCP et d'autres grands clouds ont un avantage certain. Cependant, une fois que le modèle est entraîné, la demande principale en calcul se déplace vers l'inférence du modèle. Cette étape, qui consiste à utiliser le modèle entraîné pour faire des prédictions ou des décisions, constitue 80 % à 90 % des charges de travail en calcul IA, comme on le voit dans les interactions quotidiennes avec GPT et des modèles similaires.

De manière intéressante, la puissance de calcul requise pour l'inférence est plus stable et moins intense, nécessitant souvent seulement quelques dizaines de GPU pendant quelques minutes pour obtenir des résultats. Ce processus a également des exigences moindres en termes de latence réseau et de concurrence. De plus, la plupart des entreprises d'IA sont peu susceptibles de former leurs propres grands modèles à partir de zéro; au lieu de cela, elles ont tendance à optimiser et à peaufiner des modèles de premier plan comme GPT. Ces scénarios conviennent naturellement aux ressources informatiques inutilisées distribuées de io.net.

Au-delà des scénarios d’application de haute intensité et de haut niveau, il existe un marché plus large et inexploité pour les scénarios légers de tous les jours. Celles-ci peuvent sembler fragmentées, mais détiennent en réalité une part de marché plus importante. Selon un récent rapport de Bank of America, le calcul haute performance ne représente qu’environ 5 % du marché total adressable (TAM) dans les centres de données.

En résumé, ce n'est pas qu'AWS ou GCP sont inabordables, mais io.net propose une solution plus rentable pour ces besoins spécifiques.

Le Facteur Déterminant dans le Web2 BD

En fin de compte, l'avantage concurrentiel fondamental des plates-formes comme io.net, qui sont axées sur les ressources informatiques distribuées, réside dans leurs capacités de développement commercial (BD). Il s'agit du facteur déterminant critique pour le succès.

Outre le phénomène selon lequel les puces haute performance de Nvidia ont donné naissance à un marché pour les courtiers en GPU, le principal défi pour de nombreux petits et moyens centres de données Internet (IDC) et opérateurs de puissance de calcul est le problème de la "bonne vin craint encore les ruelles profondes," ce qui signifie que même les grands produits ont besoin d'une promotion efficace pour être découverts.

De ce point de vue, io.net détient un avantage concurrentiel unique qu'il est difficile pour d'autres projets dans le même domaine de reproduire - une équipe dédiée de Web2 BD basée directement dans la Silicon Valley. Ces vétérans ont une expérience approfondie dans le marché de la puissance de calcul et comprennent les divers scénarios des petits et moyens clients. De plus, ils ont une compréhension approfondie des besoins des utilisateurs finaux de nombreux clients Web2.

Selon les divulgations officielles de io.net, plus de 20 à 30 entreprises Web2 ont déjà exprimé leur intérêt pour l'achat ou la location de puissance de calcul. Ces entreprises sont prêtes à explorer voire à expérimenter des services informatiques plus économiques et flexibles (certaines ne parviennent peut-être même pas à sécuriser de la puissance de calcul sur AWS). Chacun de ces clients nécessite au moins des centaines à des milliers de GPU, ce qui se traduit par des commandes de puissance de calcul d'une valeur de dizaines de milliers de dollars par mois.

Cette demande réelle des utilisateurs payants attirera essentiellement plus de ressources de puissance de calcul inutilisées pour affluer de manière proactive du côté de l'offre, ce qui conduira facilement à un?

Avertissement:

  1. Cet article est repris de [LFG Labs]. Tous les droits d'auteur appartiennent à l'auteur original [LFG Labs]. If there are objections to this reprint, please contact the Porte Apprendreéquipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, il est interdit de copier, distribuer ou plagier les articles traduits.

io.net: La révolution de la puissance de calcul de l'IA sous-estimée

Intermédiaire7/8/2024, 4:18:53 PM
En tant que nouvelle forme de relation productive, Web3 s'harmonise naturellement avec l'IA, qui représente un nouveau type de productivité. Ce progrès simultané dans la technologie et les relations productives est au cœur de la logique de io.net. En adoptant l'infrastructure économique "Web3 + économie des jetons", io.net vise à transformer les relations de production traditionnelles entre les géants des services cloud, les utilisateurs de puissance de calcul de taille moyenne à longue et les ressources informatiques mondiales inutilisées.

La nature de base de io.net : Comment la voyez-vous ?

Avec 30 millions de dollars de financement et soutenu par un capital de premier ordre tel que Hack VC, Multicoin Capital, Delphi Digital et Solana Lab, io.net ne semble pas très “de base”. Les étiquettes de puissance de calcul GPU et de révolution de l'IA sont loin d'être terre à terre, souvent associées à des connotations haut de gamme.

Cependant, au milieu des discussions animées de la communauté, des indices cruciaux sont souvent négligés, en particulier en ce qui concerne la transformation profonde que io.net pourrait apporter au réseau mondial de puissance de calcul. Contrairement à la position “élite” d'AWS, Azure et GCP, io.net suit essentiellement une voie populiste :

Il vise à compléter la demande de puissance de calcul "milieu de gamme + longue traîne" ignorée en agrégeant les ressources GPU inactives. En créant un réseau informatique distribué décentralisé de qualité entreprise, io.net donne à un plus large éventail de petits et moyens utilisateurs l'innovation en matière d'IA. Il réalise une "ré-libération de productivité" à faible coût et hautement flexible pour l'innovation mondiale en matière d'IA.

Les relations de production sous-jacentes de puissance de calcul négligées derrière la vague d'IA

Quelle est la ressource principale de productivité dans la vague actuelle de l'IA et l'ère future de l'économie numérique ?

Sans aucun doute, c'est la puissance de calcul.

Selon les données de Precedence Research, le marché mondial du matériel d'intelligence artificielle devrait croître à un taux de croissance annuel composé (TCAC) de 24,3%, dépassant 473,53 milliards de dollars d'ici 2033.

Même en mettant de côté ces chiffres prédictifs, tant du point de vue incrémental que du point de vue des stocks, il est évident que deux principales contradictions persisteront dans le développement futur du marché de la puissance de calcul :

  1. Dimension Incrémentielle: La croissance exponentielle de la demande de puissance de calcul dépasse largement la croissance linéaire de l'offre.
  2. Dimension des stocks : En raison de la distribution déséquilibrée, la puissance de calcul est concentrée en haut, laissant aux acteurs de milieu de gamme et de longue traîne des ressources insuffisantes. Pendant ce temps, une grande quantité de ressources GPU distribuées reste inutilisée, entraînant de graves déséquilibres entre l'offre et la demande.

Dimension incrémentielle: la demande de puissance de calcul dépasse largement l'offre

Tout d'abord, dans la dimension incrémentielle, en dehors de l'expansion rapide des modèles de contenu généré par l'IA (AIGC), de nombreux scénarios d'IA à leurs débuts, tels que la santé, l'éducation et la conduite intelligente, se déroulent rapidement. Tous ces scénarios nécessitent d'énormes quantités de ressources informatiques. Par conséquent, la pénurie actuelle sur le marché des ressources de puissance de calcul GPU persistera non seulement mais continuera de s'aggraver.

En d'autres termes, d'un point de vue de l'offre et de la demande, dans un avenir prévisible, la demande du marché en puissance de calcul dépassera sans aucun doute largement l'offre. La courbe de la demande devrait montrer une tendance à la hausse exponentielle à court terme.

Du côté de l'offre, cependant, en raison des lois physiques et des facteurs de production pratiques, qu'il s'agisse d'améliorations de la technologie des processus ou d'expansions d'usines à grande échelle, au mieux, seule une croissance linéaire peut être réalisée. Cela signifie inévitablement que le goulot d'étranglement de la puissance de calcul dans le développement de l'IA persistera pendant longtemps.

Déséquilibre entre l'offre et la demande : Désalignement pour les acteurs de milieu de gamme et de longue traîne

Pendant ce temps, avec des ressources de puissance de calcul limitées faisant face à des goulots d'étranglement de croissance sévères, Amazon Web Services (AWS), Microsoft Azure et Google Cloud Platform (GCP) occupent collectivement plus de 60 % de la part de marché de l'informatique en nuage, créant un marché de vendeurs clair.

Ces entreprises stockent des puces GPU haute performance, monopolisant une vaste quantité de puissance de calcul. Les joueurs de la demande de milieu de gamme et de longue traîne, de petite et moyenne taille, non seulement manquent de pouvoir de négociation, mais doivent aussi faire face à des coûts en capital élevés, des barrières à l'entrée KYC et des modalités de location restrictives. De plus, les géants des services cloud traditionnels, poussés par des considérations de profit, négligent souvent les besoins commerciaux différenciés des utilisateurs « milieu de gamme + longue traîne » (tels que des exigences de location plus courtes, plus immédiates et à plus petite échelle).

En réalité, cependant, une grande quantité de puissance de calcul GPU reste inutilisée en dehors des réseaux informatiques des géants des services cloud. Par exemple, des dizaines de milliers de centres de données Internet (IDC) tiers indépendants gaspillent des ressources sur de petites tâches de formation dans le monde entier. Cela inclut une puissance de calcul considérable étant inutilisée dans les fermes de minage de crypto-monnaie et des projets comme Filecoin, Render et Aethir.

Selon les estimations officielles de io.net, le taux d'inactivité des cartes graphiques dans les centres de données aux États-Unis dépasse 60%. Cela crée un paradoxe ironique de déséquilibre entre l'offre et la demande : plus de la moitié des ressources de puissance de calcul de dizaines de milliers de petits et moyens centres de données et fermes de minage de crypto-monnaies sont gaspillées chaque jour, ne parvenant pas à générer des revenus efficaces, tandis que les entrepreneurs en intelligence artificielle de niveau intermédiaire et de longue traîne endurent des coûts élevés et des barrières à l'entrée élevées des services de calcul des géants du cloud, sans que leurs besoins innovants diversifiés soient satisfaits.

Ce contraste frappant révèle la contradiction fondamentale du développement mondial actuel de l'IA et du marché mondial de la puissance de calcul : d'une part, l'innovation en matière d'IA est répandue et la demande de puissance de calcul ne cesse de croître. D'autre part, les besoins en puissance de calcul des acteurs de milieu de gamme et des petits acteurs ainsi que les ressources GPU inutilisées ne sont pas efficacement satisfaits, restant en dehors du marché actuel de la puissance de calcul.

Ce problème n'est pas seulement le conflit entre les exigences croissantes en puissance de calcul des entrepreneurs en IA et la croissance retardée de la puissance de calcul. Il s'agit également du déséquilibre entre la grande majorité des entrepreneurs en IA de niveau intermédiaire et de longue traîne, les opérateurs de puissance de calcul, et l'offre et la demande déséquilibrées, qui dépassent largement le champ d'action des solutions des fournisseurs de services cloud centralisés.

Par conséquent, le marché réclame de nouvelles solutions. Imaginez si ces opérateurs dotés de puissance de calcul pouvaient louer de manière flexible leur puissance de calcul pendant les périodes d'inactivité. Ne fournirait-il pas un cluster de calcul à faible coût similaire à AWS ?

La construction d'un réseau de calcul à grande échelle est extrêmement coûteuse. Cela a conduit à l'émergence de plateformes spécifiquement conçues pour mettre en correspondance les ressources de calcul inutilisées avec de petites et moyennes startups en intelligence artificielle. Ces plateformes agrègent des ressources de calcul inutilisées dispersées et les mettent en correspondance avec des besoins spécifiques dans des secteurs tels que la santé, le droit et la finance pour la formation de petits et grands modèles.

Non seulement cela peut répondre aux besoins de calcul diversifiés de la moyenne à longue traîne, mais cela complète également les services de calcul des géants du cloud centralisés existants :

Les géants du cloud avec d'énormes ressources de calcul gèrent la formation de modèles volumineux et le calcul haute performance pour des besoins urgents et importants.

Les marchés de l'informatique en nuage décentralisés comme io.net s'adressent aux petites calculs de modèles, à l'ajustement fin de gros modèles, au déploiement de l'inférence et à des besoins plus diversifiés et à faible coût.

En substance, il offre un équilibre dynamique entre la rentabilité et la qualité de calcul, s'alignant sur la logique économique d'optimisation de l'allocation des ressources sur le marché. Ainsi, les réseaux informatiques distribués comme io.net offrent essentiellement une solution "IA+Crypto". Ils utilisent un cadre collaboratif décentralisé combiné à des incitations sous forme de jetons pour répondre à une demande importante mais insatisfaite sur le marché de l'IA à longue traîne. Cela permet aux petites et moyennes équipes d'IA de personnaliser et d'acheter des services de calcul GPU selon leurs besoins, ce que les grands clouds ne peuvent pas fournir, permettant ainsi d'atteindre une "libération de la productivité" sur le marché mondial de la puissance de calcul et du développement de l'IA.

En termes plus simples, io.net n'est pas un concurrent direct d'AWS, d'Azure ou de GCP. Au contraire, c'est un allié complémentaire qui optimise l'allocation mondiale des ressources de calcul et élargit le marché. Ils répondent à différentes couches de besoins en « rentabilité et qualité de calcul ». Il est même possible qu'io.net, en agrégeant les acteurs de l'offre et de la demande de moyenne à longue traîne, puisse créer une part de marché comparable à celle des trois géants du cloud existants.

io.net: Une plateforme mondiale de trading de puissance de calcul GPU correspondante

io.net vise à remodeler les relations de production du marché de la puissance de calcul moyen et long terme grâce à la collaboration distribuée Web3 et aux incitations par jetons. En conséquence, il rappelle les plates-formes d'économie partagée comme Uber et Didi, fonctionnant comme une plate-forme de trading correspondante pour la puissance de calcul GPU.

Avant l'avènement d'Uber et de Didi, l'expérience utilisateur de la "commande de véhicule à la demande" était pratiquement inexistante. Le réseau de voitures privées était vaste mais chaotique, avec des voitures inactives et désorganisées. Pour prendre un taxi, les utilisateurs devaient soit héler un taxi depuis le bord de la route, soit demander un envoi du centre de taxis de la ville, ce qui était long, très incertain et principalement un marché de vendeurs - peu convivial pour la plupart des gens ordinaires.

Ce scénario est semblable à l'état actuel du marché de la puissance de calcul. Comme mentionné précédemment, les demandeurs de puissance de calcul de taille moyenne et longue queue non seulement manquent de pouvoir de négociation mais font aussi face à des coûts en capital élevés, des barrières à l'entrée du KYC et des conditions de location difficiles.

Alors, comment io.net parvient-elle exactement à se positionner en tant que "centre de puissance de calcul GPU mondial et marché correspondant" ? Quel type d'architecture système et de services fonctionnels sont nécessaires pour aider les utilisateurs de taille moyenne et longue à obtenir des ressources de puissance de calcul ?

Plateforme de correspondance flexible et économique

La caractéristique principale de io.net est sa plateforme légère de puissance de calcul. Semblable à Uber ou Didi, elle n'implique pas l'exploitation réelle à haut risque de matériels GPU ou d'autres actifs lourds. Au lieu de cela, elle connecte la puissance de calcul de vente de moyenne à longue traîne (souvent considérée comme une puissance de calcul secondaire par les principaux fournisseurs de cloud comme AWS) avec la demande par le biais de la mise en correspondance, revitalisant ainsi les ressources de calcul précédemment inutilisées (voitures privées) et la demande en puissance de calcul AI de moyenne traîne (passagers).

D'un côté, io.net connecte des dizaines de milliers de GPU inactifs (voitures privées) provenant de petits et moyens IDC, de fermes minières et de projets cryptographiques. De l'autre côté, il relie les besoins de puissance de calcul de millions de petites et moyennes entreprises (passagers). io.net agit comme un intermédiaire, similaire à un courtier qui met en correspondance de nombreuses commandes d'achat et de vente.

En agrégeant la puissance de calcul inutilisée à faible coût et avec des configurations de déploiement plus flexibles, io.net aide les entrepreneurs à former des modèles d'IA petits et moyens plus personnalisés, améliorant considérablement l'utilisation des ressources. Les avantages sont clairs : quelles que soient les conditions du marché, tant qu'il y a un déséquilibre des ressources, la demande d'une plateforme correspondante est robuste.

Côté offre : Du côté de l'offre, les petits et moyens centres de données (IDC), les fermes de minage et les projets cryptographiques peuvent connecter leurs ressources informatiques inutilisées à io.net. Ils n'ont pas besoin de mettre en place un département dédié au développement commercial ou d'être obligés de vendre à un prix réduit à AWS en raison de la puissance de calcul à petite échelle. Au lieu de cela, ils peuvent mettre en correspondance leur puissance de calcul inutilisée avec des clients de petite et moyenne envergure adaptés aux prix du marché, voire plus élevés, avec des coûts de friction minimes, ce qui leur permet de générer des revenus.

Demande latérale:Du côté de la demande, les demandeurs de petite et moyenne puissance de calcul, qui n'avaient auparavant aucun pouvoir de négociation face aux principaux fournisseurs de cloud comme AWS, peuvent se connecter à une puissance de calcul à petite échelle, sans autorisation, sans attente et sans KYC via io.net. Ils peuvent librement choisir et combiner les puces dont ils ont besoin pour former un « cluster » afin d'accomplir des tâches de calcul personnalisées.

Tant l'offre que la demande au niveau intermédiaire ont des points de douleur similaires en matière de faible pouvoir de négociation et de faible autonomie lorsqu'ils sont confrontés à des grands acteurs du cloud comme AWS. io.net revitalise l'offre et la demande du segment intermédiaire à longue traîne, en fournissant une plateforme de mise en relation qui permet aux deux parties de réaliser des transactions à des prix et avec des configurations plus flexibles que les grands acteurs du cloud comme AWS.

De ce point de vue, similaire à des plateformes comme Taobao, l'apparition précoce d'une puissance de calcul de faible qualité est un schéma de développement inévitable de l'économie de plateforme. io.net a également mis en place un système de réputation pour les fournisseurs et les demandeurs, accumulant des scores basés sur les performances de calcul et la participation au réseau pour gagner des récompenses ou des remises.

Cluster GPU décentralisé

En plus d'être une plateforme de correspondance entre l'offre et la demande de détail, io.net répond aux besoins de scénarios de calcul à grande échelle, tels que ceux requis par les modèles modernes, qui impliquent plusieurs GPU travaillant ensemble. L'efficacité de cette plateforme dépend non seulement du nombre de ressources GPU inactives qu'elle peut agréger, mais aussi de la manière dont la puissance de calcul distribuée sur la plateforme est étroitement connectée.

Cela signifie que io.net doit créer une architecture informatique “centralisée et décentralisée” pour son réseau distribué, qui englobe des ressources informatiques de petite et moyenne taille de différentes régions et échelles. Cette architecture doit répondre aux demandes de calcul flexibles en permettant à plusieurs GPU distribués de travailler dans le même cadre pour la formation, tout en veillant à ce que la communication et la coordination entre ces GPU soient rapides et atteignent une latence faible utilisable.

Cette approche est fondamentalement différente de certains projets de cloud computing décentralisés qui sont contraints d'utiliser des GPU dans le même centre de données. La réalisation technique derrière la suite de produits io.net, connue sous le nom des "Trois Chevaux", comprend IO Cloud, IO Worker et IO Explorer.

  1. IO Cloud
    • Le module commercial de base pour les clusters, IO Cloud, est un groupe de GPUs capables de s'auto-coordonner pour accomplir des tâches de calcul. Les ingénieurs en IA peuvent personnaliser les clusters selon leurs besoins. Il s'intègre parfaitement avec l'IO-SDK, offrant une solution complète pour étendre les applications en IA et en Python.
  2. Travailleur IO
    • IO Worker offre une interface utilisateur conviviale, permettant à la fois aux fournisseurs et aux demandeurs de gérer efficacement leurs opérations via une application web. Ses fonctions vont de la gestion du compte utilisateur, au suivi des activités de calcul, à l'affichage de données en temps réel, au suivi de la température et de la consommation électrique, à l'assistance à l'installation, à la gestion des portefeuilles, à la mise en place de mesures de sécurité, au calcul des profits.
  3. IO Explorer
    • IO Explorer fournit aux utilisateurs des statistiques complètes et des visualisations de divers aspects du cloud GPU. En offrant une visibilité complète sur les activités réseau, les statistiques clés, les points de données et les transactions de récompenses, il permet aux utilisateurs de surveiller, d'analyser et de comprendre facilement les détails du réseau io.net.

Grâce à cette architecture fonctionnelle, io.net permet aux fournisseurs de puissance de calcul de partager facilement les ressources inutilisées, abaissant ainsi considérablement la barrière à l'entrée. Les demandeurs peuvent rapidement former des clusters avec les GPU requis sans signer de contrats à long terme ou subir les délais d'attente prolongés généralement associés aux services cloud traditionnels. Ce système leur fournit une puissance de supercalcul et des temps de réponse serveur optimisés.

Scénarios de demande élastique légère

Lorsqu'on discute des scénarios de service uniques de io.net par rapport à AWS et à d'autres grands clouds, l'accent est mis sur la demande élastique légère où les grands clouds peuvent ne pas être rentables. Ces scénarios comprennent des domaines de niche tels que la formation de modèles pour les petites et moyennes startups en intelligence artificielle, l'ajustement de grands modèles et d'autres applications diverses. Un scénario couramment négligé mais largement applicable est l'inférence de modèle.

Il est bien connu que la formation précoce de grands modèles comme GPT nécessite des milliers de GPU haute performance, une puissance de calcul immense et des données massives pendant des périodes prolongées. Il s'agit d'un domaine où AWS, GCP et d'autres grands clouds ont un avantage certain. Cependant, une fois que le modèle est entraîné, la demande principale en calcul se déplace vers l'inférence du modèle. Cette étape, qui consiste à utiliser le modèle entraîné pour faire des prédictions ou des décisions, constitue 80 % à 90 % des charges de travail en calcul IA, comme on le voit dans les interactions quotidiennes avec GPT et des modèles similaires.

De manière intéressante, la puissance de calcul requise pour l'inférence est plus stable et moins intense, nécessitant souvent seulement quelques dizaines de GPU pendant quelques minutes pour obtenir des résultats. Ce processus a également des exigences moindres en termes de latence réseau et de concurrence. De plus, la plupart des entreprises d'IA sont peu susceptibles de former leurs propres grands modèles à partir de zéro; au lieu de cela, elles ont tendance à optimiser et à peaufiner des modèles de premier plan comme GPT. Ces scénarios conviennent naturellement aux ressources informatiques inutilisées distribuées de io.net.

Au-delà des scénarios d’application de haute intensité et de haut niveau, il existe un marché plus large et inexploité pour les scénarios légers de tous les jours. Celles-ci peuvent sembler fragmentées, mais détiennent en réalité une part de marché plus importante. Selon un récent rapport de Bank of America, le calcul haute performance ne représente qu’environ 5 % du marché total adressable (TAM) dans les centres de données.

En résumé, ce n'est pas qu'AWS ou GCP sont inabordables, mais io.net propose une solution plus rentable pour ces besoins spécifiques.

Le Facteur Déterminant dans le Web2 BD

En fin de compte, l'avantage concurrentiel fondamental des plates-formes comme io.net, qui sont axées sur les ressources informatiques distribuées, réside dans leurs capacités de développement commercial (BD). Il s'agit du facteur déterminant critique pour le succès.

Outre le phénomène selon lequel les puces haute performance de Nvidia ont donné naissance à un marché pour les courtiers en GPU, le principal défi pour de nombreux petits et moyens centres de données Internet (IDC) et opérateurs de puissance de calcul est le problème de la "bonne vin craint encore les ruelles profondes," ce qui signifie que même les grands produits ont besoin d'une promotion efficace pour être découverts.

De ce point de vue, io.net détient un avantage concurrentiel unique qu'il est difficile pour d'autres projets dans le même domaine de reproduire - une équipe dédiée de Web2 BD basée directement dans la Silicon Valley. Ces vétérans ont une expérience approfondie dans le marché de la puissance de calcul et comprennent les divers scénarios des petits et moyens clients. De plus, ils ont une compréhension approfondie des besoins des utilisateurs finaux de nombreux clients Web2.

Selon les divulgations officielles de io.net, plus de 20 à 30 entreprises Web2 ont déjà exprimé leur intérêt pour l'achat ou la location de puissance de calcul. Ces entreprises sont prêtes à explorer voire à expérimenter des services informatiques plus économiques et flexibles (certaines ne parviennent peut-être même pas à sécuriser de la puissance de calcul sur AWS). Chacun de ces clients nécessite au moins des centaines à des milliers de GPU, ce qui se traduit par des commandes de puissance de calcul d'une valeur de dizaines de milliers de dollars par mois.

Cette demande réelle des utilisateurs payants attirera essentiellement plus de ressources de puissance de calcul inutilisées pour affluer de manière proactive du côté de l'offre, ce qui conduira facilement à un?

Avertissement:

  1. Cet article est repris de [LFG Labs]. Tous les droits d'auteur appartiennent à l'auteur original [LFG Labs]. If there are objections to this reprint, please contact the Porte Apprendreéquipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, il est interdit de copier, distribuer ou plagier les articles traduits.
即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!