Retournement de la pièce d'IA

Débutant5/6/2024, 12:41:32 PM
L'article explore le potentiel et les défis de combiner l'IA avec Web3. L'auteur souligne qu'en dépit du sentiment optimiste à l'égard de "l'IA + Web3," il existe dans la réalité des obstacles importants liés à l'investissement dans le matériel et la recherche, ce qui conduit à la domination des grandes entreprises technologiques dans le domaine de l'IA. Les projets Web3 utilisent la foule incitative grâce au chiffrement, ce qui rend difficile la concurrence avec le financement substantiel investi par ces entreprises.

TLDR

Il ne s'agit pas d'un autre article rose sur les VC "IA + Web3". Nous sommes optimistes quant à la fusion de ces deux technologies, mais le texte ci-dessous est un appel aux armes. Sinon, l'optimisme ne sera pas justifié.

Pourquoi ? Parce que le développement et l'exécution des meilleurs modèles d'IA nécessitent des dépenses en capital importantes dans le matériel le plus à la pointe et souvent difficile à obtenir ainsi que dans la R&D très spécifique au domaine. Ajouter des incitations crypto pour externaliser ces tâches, comme le font la plupart des projets d'IA Web3, ne suffit pas à compenser les dizaines de milliards de dollars investis par de grandes entreprises qui contrôlent le développement de l'IA de manière ferme. Compte tenu des contraintes matérielles, il s'agit peut-être du premier grand paradigme logiciel que les ingénieurs intelligents et créatifs en dehors des organisations dominantes n'ont pas les ressources pour perturber.

Le logiciel "mange" le monde de plus en plus rapidement, sur le point de décoller de manière exponentielle avec l'accélération de l'IA. Et tout ce "gâteau", tel que les choses se présentent actuellement, revient aux géants de la technologie - tandis que les utilisateurs finaux, y compris les gouvernements et les grandes entreprises, sans parler des consommateurs, deviennent encore plus dépendants de leur pouvoir.

Désalignement des incitations

Tout cela ne pouvait pas se dérouler à un moment plus inapproprié - 90% des participants au web décentralisé occupés à poursuivre l'oie aux œufs d'or des gains faciles en monnaie fiduciaire d'un développement axé sur le récit. Oui, les développeurs suivent les investisseurs de notre industrie et non l'inverse. Cela va de l'admission ouverte à une motivation plus subtile et subconsciente, mais les récits et les marchés qui se forment autour d'eux influencent beaucoup de prises de décision dans le Web3. Les participants sont trop absorbés dans une bulle réflexive classique pour remarquer le monde extérieur, à l'exception des récits qui aident à faire avancer ce cycle davantage. Et l'IA est évidemment le plus grand, car elle connaît également un boom propre.

Nous avons parlé avec des dizaines d'équipes dans l'intersection de l'IA x Crypto et pouvons confirmer que beaucoup d'entre elles sont très capables, orientées vers la mission et passionnées. Mais telle est la nature humaine que lorsque confrontés à des tentations, nous avons tendance à y succomber, puis à rationaliser ces choix postérieurement.

Le chemin facile vers la liquidité a été une malédiction historique de l'industrie de la cryptographie - responsable de ralentir son développement et son adoption utile de plusieurs années à ce stade. Il détourne même les disciples de la cryptographie les plus fidèles vers le "pompage du jeton". La rationalisation est qu'avec plus de capital à portée de main sous forme de jetons, ces constructeurs ont de meilleures chances.

Relatively low sophistication of both institutional and retail capital creates opportunities for builders to make claims detached from reality while still benefiting from valuations as if those claims already came to fruition. The outcome of these processes is an actually entrenched moral hazard and capital destruction, with very few of such strategies working out over the long term. Necessity is the mother of all inventions and when it’s gone, so are the inventions.

Cela ne pouvait pas arriver à un pire moment. Alors que tous les entrepreneurs technologiques les plus intelligents, les acteurs étatiques et les entreprises, grandes et petites, se précipitent pour garantir leur part des avantages découlant de la révolution de l'IA, les fondateurs de cryptomonnaies et les investisseurs optent pour un "quick 10x". Au lieu d'une vie entière de 1000 x, qui est le coût d'opportunité réel ici, à notre avis.

Un bref résumé du paysage de l'IA Web3

Étant donné les incitations mentionnées ci-dessus, la taxonomie du projet Web3 AI se résume en fait à :

  • Légitime (également subdivisé entre réalistes et idéalistes)
  • Semi-légitime, et
  • Faux

Fondamentalement, nous pensons que les constructeurs savent exactement ce qu'il faut pour rivaliser avec leur concurrence Web2 et les secteurs où il est réellement possible de rivaliser et où c'est plus un rêve irréalisable, mais qui est néanmoins vendable aux VC et au public non averti.

L'objectif est de pouvoir rivaliser ici et maintenant. Sinon, la rapidité du développement de l'IA pourrait laisser Web3 derrière alors que le monde passe au Web4 dystopique de l'IA d'entreprise à l'Ouest contre l'IA d'État de la Chine. Ceux qui ne peuvent pas être compétitifs assez rapidement et qui comptent sur la technologie distribuée pour rattraper sur un horizon temporel plus long sont trop optimistes pour être pris au sérieux.

De toute évidence, il s'agit d'une généralisation très approximative et même le groupe Faker contient au moins quelques équipes sérieuses (et peut-être plus de rêveurs simplement illusoires). Mais ce texte est un appel aux armes, nous n'avons donc pas l'intention d'être objectifs, mais plutôt d'appeler au sens de l'urgence du lecteur.[1].

Légitime :

  • Middleware pour "amener l'IA sur la chaîne". Les fondateurs derrière de telles solutions, qui ne sont pas nombreuses, comprennent que l'entraînement décentralisé ou l'inférence de modèles que les utilisateurs veulent réellement (de pointe) est irréalisable, voire impossible pour le moment. Ainsi, trouver un moyen de connecter les meilleurs modèles centralisés à l'environnement on-chain pour lui permettre de bénéficier d'une automatisation sophistiquée est une première étape suffisamment bonne pour eux. Les enclaves matérielles deTEEs Les processeurs (« air-gap ») capables d’héberger des points d’accès à l’API, des oracles bilatéraux (pour indexer les données on-chain et off-chain de manière bidirectionnelle) et fournir des environnements de calcul off-chain vérifiables pour les agents, semblent être la meilleure solution à l’heure actuelle. Il existe également des architectures de coprocesseur qui utilisent des preuves à divulgation nulle de connaissance (ZKP) pour prendre des instantanés des changements d’état (plutôt que de vérifier le calcul complet) que nous jugeons également réalisables à moyen terme.
    L'approche la plus idéaliste du même problème tente de vérifier l'inférence hors chaîne afin de la mettre sur un pied d'égalité avec le calcul sur chaîne en termes d'hypothèses de confiance. L'objectif devrait être de permettre à l'IA d'effectuer des tâches sur et hors chaîne comme dans un environnement d'exécution cohérent unique, selon notre point de vue. Cependant, la plupart des partisans de la vérifiabilité de l'inférence parlent de "faire confiance aux poids du modèle" et d'autres objectifs complexes du même genre qui deviennent en réalité pertinents dans les années à venir, voire jamais. Récemment, les fondateurs de ce camp ont commencé à explorer approches alternativespour la vérifiabilité de l'inférence, mais à l'origine tout était basé sur ZKP. Alors que de nombreuses équipes intelligentes travaillent sur ZKML, comme il est devenu connu, elles prennent un risque trop important en anticipant que les optimisations cryptographiques dépassent la complexité et les exigences de calcul des modèles d'IA. Nous les jugeons donc inadaptés à la concurrence, du moins pour l'instant. Pourtant,@ModulusLabsQuelques progrès récents sont intéressants et ne devraient pas être ignorés.

Semi-légitime :

  • Les applications grand public qui utilisent des enveloppes autour de modèles open source et fermés (par exemple, Stable Diffusion ou Midjourney pour la génération d'images). Certaines de ces équipes sont les premières sur le marché et ont une traction réelle auprès des utilisateurs. Il n'est donc pas juste de les appeler tous des imposteurs, mais seulement quelques-uns réfléchissent profondément à la manière d'évoluer leurs modèles sous-jacents de manière décentralisée et d'innover dans la conception des incitations. Il y a quelques variantes intéressantes de gouvernance/propriété sur la composante jeton ici et là. Mais la majorité des projets de cette catégorie se contentent d'ajouter un jeton à une enveloppe par ailleurs centralisée, par exemple l'API OpenAI, pour obtenir une prime de valorisation ou une liquidité plus rapide pour l'équipe.

Ce que aucun des deux camps ci-dessus n'aborde, c'est la formation et l'inférence pour les grands modèles dans des environnements décentralisés. En ce moment, il n'y a aucun moyen de former un modèle fondamental en temps raisonnable sans compter sur des clusters matériels étroitement connectés. Le facteur clé est le "temps raisonnable" compte tenu du niveau de compétition.

Certains recherches prometteusessur le sujet est récemment sorti et, théoriquement, des approches comme Flux de données différentiellespeut être étendu aux réseaux de calcul distribué pour augmenter leur capacité à l'avenir (à mesure que les capacités de mise en réseau rattrapent les exigences de flux de données). Mais la formation de modèles compétitifs nécessite toujours une communication entre des clusters localisés, plutôt que des appareils distribués uniques, et des calculs de pointe (les GPU grand public deviennent de plus en plus non compétitifs).

La recherche sur la localisation (l'une des deux façons de décentraliser) de l'inférence en réduisant la taille du modèle a également étéprogressant récemment, mais il n'existe aucun protocole existant dans Web3 l'exploitant.

Les problèmes liés à la formation et à l'inférence décentralisées nous amènent logiquement au dernier des trois camps et de loin le plus important et donc si émotionnellement déclencheur pour nous ;-)

Faux :

  • Les applications d'infrastructure sont principalement dans l'espace des serveurs décentralisés, proposant soit du matériel de base soit des environnements d'entraînement/hébergement de modèles décentralisés. Il existe également des projets d'infrastructure logicielle qui poussent des protocoles, par exemple l'apprentissage fédéré (entraînement de modèle décentralisé) ou ceux qui combinent à la fois les composants logiciels et matériels dans une plateforme unique où l'on peut essentiellement entraîner et déployer leur modèle décentralisé de bout en bout. La plupart d'entre eux manquent de la sophistication nécessaire pour résoudre réellement les problèmes énoncés et la pensée naïve de l'incitation par jeton + l'impulsion du marché prévaut ici. Aucune des solutions que nous avons vues tant sur les marchés publics que privés ne se rapproche d'une concurrence significative ici et maintenant. Certaines peuvent évoluer vers des offres fonctionnelles (mais de niche), mais nous avons besoin de quelque chose de nouveau et compétitif ici et maintenant. Et cela ne peut se produire que grâce à une conception innovante qui aborde les goulots d'étranglement des calculs distribués. Dans la formation, non seulement la vitesse, mais aussi la vérifiabilité du travail effectué et la coordination des charges de travail de formation posent un gros problème, ce qui s'ajoute au goulot d'étranglement de la bande passante.

Nous avons besoin d'un ensemble de modèles fondamentaux compétitifs et vraiment décentralisés, et ils nécessitent une formation et une inférence décentralisées pour fonctionner. Perdre l'IA pourrait totalement annuler tous les accomplissements que les “ordinateurs mondiaux décentralisés” ont réalisés depuis l'avènement d'Ethereum. Si les ordinateurs deviennent l'IA et que l'IA est centralisée, il n'y aura pas d'ordinateur mondial à parler, à part une version dystopique de celui-ci.

La formation et l'inférence sont le cœur de l'innovation en IA. Alors que le reste du monde de l'IA se dirige vers des architectures de plus en plus intégrées, Web3 a besoin d'une solution orthogonale pour rivaliser, car la compétition directe devient de moins en moins réalisable très rapidement.

Taille du Problème

Tout est une question de calcul. Plus vous en lancez à la fois pour l'entraînement et l'inférence, meilleurs sont vos résultats. Oui, il y a des ajustements et des optimisations ici et là et le calcul lui-même n'est pas homogène - il existe maintenant toute une variété de nouvelles approches pour surmonter les goulots d'étranglement de l'architecture traditionnelle de Von Neumann pour les unités de traitement - mais tout se résume à combien de multiplications de matrices vous pouvez faire sur quelle taille de bloc mémoire et à quelle vitesse.

C’est pourquoi nous assistons à une telle expansion sur le front des centres de données par les soi-disant « hyperscalers », qui cherchent tous à créer une pile complète avec une centrale de modèle d’IA au sommet et du matériel qui l’alimente en dessous : OpenAI (modèles) + Microsoft (calcul), Anthropic (modèles) + AWS (calcul), Google (les deux) et Meta (de plus en plus en doublant la construction de leur propre centre de données). Il y a plus de nuances, de dynamiques d’interaction et de parties impliquées, mais nous allons les laisser de côté. Dans l’ensemble, les hyperscalers investissent des milliards de dollars, comme jamais auparavant, dans la construction de centres de données et créent des synergies entre leurs offres de calcul et d’IA, qui devraient générer des rendements massifs à mesure que l’IA prolifère dans l’économie mondiale.

Il suffit de regarder le niveau de construction attendu cette année seulement de la part des 4 entreprises :

  • Meta anticipates$30-37bndépenses en capital en 2024, qui devraient être fortement orientées vers les centres de données.
  • Microsoft a dépensé environ 11,5 milliards de dollars en 2023sur CapEx et il est largement entendu qu'il investira encore 40 à 50 milliards de dollars en '24-'25 ! Cela peut être partiellement déduit par les énormes investissements dans les centres de données annoncés dans seulement quelques pays : 3.2 milliards de dollarsau Royaume-Uni, $3.5bnen Australie, $2.1bnen Espagne, €3.2bnen Allemagne, $1bndans l'État américain de Géorgie et$10bnau Wisconsin, respectivement. Et ce ne sont là que quelques-uns des investissements régionaux de leur réseau de 300 centres de données couvrant plus de 60 régions. Il y a aussi discussionsd'un supercalculateur pour OpenAI qui pourrait coûter à Microsoft encore 100 milliards de dollars !
  • Leadership Amazons'attendleur CapEx devrait augmenter de manière significative en 2024 à partir des 48 milliards de dollars dépensés en 2023, principalement en raison de l'expansion de la construction de l'infrastructure AWS pour l'IA.
  • Google dépensé 11 milliards de dollars pour faire évoluer ses serveurs et ses centres de données au cours du seul quatrième trimestre de 2023. Ils admettent que ces investissements ont été faits pour répondre à la demande attendue en matière d’IA et prévoient que le taux et la taille totale de leurs dépenses d’infrastructure augmenteront considérablement en 2024 en raison de l’IA.

Et voici combien a déjà été dépensé pour le matériel NVIDIA AI en 2023 :

Jensen Huang, PDG de NVIDIA, a proposé de verser un total de 1 billion de dollars dans l'accélération de l'IA au cours des prochaines années. Une prédiction qu'il a récemment doubléà 2 billions de dollars, aurait été provoquée par l'intérêt qu'il a constaté de la part des acteurs souverains. Les analystes d'Altimeter prévoient respectivement des dépenses de 160 milliards de dollars et plus de 200 milliards de dollars dans les centres de données liés à l'IA au niveau mondial en '24 et '25.

Maintenant, pour comparer ces chiffres avec ce que Web3 a à offrir aux opérateurs de centres de données indépendants pour les inciter à étendre les dépenses en immobilisations sur le dernier matériel d'IA :

  • La capitalisation boursière totale de tous les projets d'infrastructure physique décentralisée (DePIn) s'élève actuellement à environ 40 milliards de dollars en jetons relativement illiquides et principalement spéculatifs. Essentiellement, les capitalisations boursières de ces réseaux sont égales à l'estimation de la limite supérieure des dépenses en capital totales de leurs contributeurs, étant donné qu'ils incitent cette expansion avec les jetons. Pourtant, la capitalisation boursière actuelle est presque inutile, étant donné qu'elle a déjà été émise.
  • Alors, supposons qu'il y ait encore 80 milliards de dollars (2 fois la valeur actuelle) de capitalisation de jetons DePIn privés et publics arrivant sur le marché sous forme d'incitations au cours des 3 à 5 prochaines années et supposons que cela soit entièrement consacré aux cas d'utilisation de l'IA.

Même si nous prenons cette estimation très approximative divisée par 3 (années) et comparons la valeur en dollars avec l'argent liquide dépensé par les seuls Hyperscalers en 2024, il est clair que d'ajouter des incitations en jetons à un tas de projets de « réseau GPU décentralisé » n'est pas suffisant.

Il faut également des milliards de dollars de demande d'investisseurs pour absorber ces jetons, car les opérateurs de ces réseaux vendent une grande partie des pièces ainsi extraites pour couvrir les coûts importants de Cap- et OpEX. Et quelques milliards de plus pour pousser ces jetons plus haut et stimuler la croissance dans la construction afin de surpasser les Hyperscalers.

Pourtant, quelqu'un ayant une connaissance intime de la façon dont la plupart des serveurs Web3 sont actuellement gérés peut s'attendre à ce qu'une grande partie de l'"infrastructure physique décentralisée" fonctionne en réalité sur les mêmes services cloud des Hyperscalers. Et bien sûr, l'augmentation de la demande en GPU et en autres matériels spécialisés en IA entraîne une offre plus importante, ce qui devrait finalement rendre la location ou l'achat de services cloud beaucoup moins chers. Du moins, c'est ce qui est attendu.

Mais considérez ceci : en ce moment, NVIDIA doit également donner la priorité aux clients pour ses dernières générations de GPU. commencer à rivaliseravec les plus grands fournisseurs de cloud sur leur propre terrain - offrant des services de plateforme IA aux clients d'entreprise déjà verrouillés dans ces Hyperscalers. Cela les incite finalement à construire leurs propres centres de données au fil du temps (ce qui entame essentiellement les marges bénéficiaires grasses dont ils bénéficient actuellement, donc moins probable) ou à limiter considérablement leurs ventes de matériel IA à leur réseau de partenaires fournisseurs cloud.

De plus, les concurrents de NVIDIA qui lancent du matériel supplémentaire spécialisé dans l'IA utilisent principalement les mêmes puces que NVIDIA, produit par TSMC.Donc fondamentalement, toutes les entreprises de matériel informatique AI sont actuellementen compétition pour la capacité de TSMC.TSMC doit également donner la priorité à certains clients par rapport à d'autres. Samsung et potentiellement Intel (qui essaie de revenir à la pointe de la fabrication de puces pour son propre matériel bientôt) pourraient absorber la demande supplémentaire, mais TSMC produit actuellement la majorité des puces liées à l'IA et l'échelle et le calibrage de la fabrication de puces de pointe (3 et 2 nanomètres) prend des années.

En plus de tout cela, toute la fabrication de puces de pointe en ce moment est effectuée près du détroit de Taïwan par TSMC à Taïwan et Samsung en Corée du Sud, où un risque de conflit militaire peut se concrétiser avant que les installations actuellement construites aux États-Unis pour compenser cela (et également pas prévu de produire les puces de nouvelle génération avant quelques années) ne soient lancées.

Et enfin, la Chine, qui est essentiellement coupée du dernier matériel AI de génération en raison des restrictions imposées à NVIDIA et TSMC par les États-Unis, concurrence pour tout calcul restant disponible, tout comme le Réseau DePIn de Web3. Contrairement à Web3, les entreprises chinoises ont en fait leurs propres modèles compétitifs, en particulier les LLMs de par exemple Baidu et Alibaba, qui nécessitent beaucoup des dispositifs de la génération précédente pour fonctionner.

Il existe donc un risque non négligeable que, pour l’une des raisons mentionnées ci-dessus ou la confluence de facteurs, les hyperscalers limitent simplement l’accès à leur matériel d’IA à des parties externes alors que la guerre de domination de l’IA s’intensifie et prend le pas sur les activités de cloud. Fondamentalement, il s’agit d’un scénario dans lequel ils utilisent toute la capacité cloud liée à l’IA pour leur propre usage et ne l’offrent plus à personne d’autre, tout en engloutissant tout le matériel le plus récent. Cela se produit et l’offre de calcul restante est soumise à une demande encore plus élevée de la part d’autres grands acteurs, y compris les États souverains. Pendant ce temps, les GPU grand public sont de moins en moins compétitifs.

De toute évidence, il s'agit d'un scénario extrême, mais le prix est trop important pour que les gros acteurs reculent en cas de maintien des goulots d'étranglement matériels. Cela laisse les opérateurs décentralisés tels que les centres de données de niveau 2 et les propriétaires de matériel de qualité commerciale, qui représentent la majorité des fournisseurs DePIn de Web3, exclus de la compétition.

L'autre côté de la pièce

Pendant que les fondateurs de la crypto dorment au volant, les poids lourds de l'IA surveillent de près la crypto.Pressions gouvernementaleset la concurrence peut les pousser à adopter des cryptomonnaies pour éviter d'être fermées ou fortement réglementées.

Le fondateur de Stability AI récemment démissionnerpour commencer à "décentraliser" son entreprise est l'un des premiers indices publics à ce sujet. Il n'avait auparavant pas caché ses projets de lancer un jeton lors d'apparitions publiques, mais seulement après la réussite de l'IPO de l'entreprise - ce qui révèle un peu les véritables motivations derrière le mouvement anticipé.

Dans le même ordre d'idées, bien que Sam Altman ne soit pas opérationnellement impliqué dans le projet crypto qu'il a cofondé, Worldcoin, son jeton se négocie certainement comme un proxy d'OpenAI. Qu'il y aitchemin pour se connecterle projet de monnaie Internet libre avec le projet de R&D en IA seul le temps nous le dira, mais l'équipe de Worldcoin semble aussireconnaîtreque le marché teste cette hypothèse.

Il nous semble tout à fait logique que les géants de l'IA puissent explorer différentes voies vers la décentralisation. Le problème que nous voyons ici encore est que Web3 n'a pas produit de solutions significatives. Les "jetons de gouvernance" sont principalement un mème, tandis que seuls ceux qui évitent explicitement les liens directs entre les détenteurs d'actifs et le développement et les opérations de leur réseau - $BTC et $ETH - sont vraiment décentralisés pour le moment.

Les mêmes (dés)incitations qui ralentissent le développement technologique affectent également le développement de différentes conceptions de gouvernance des réseaux cryptographiques. Les équipes de start-up se contentent d’apposer un « jeton de gouvernance » sur leur produit dans l’espoir de le comprendre au fur et à mesure qu’elles prennent de l’élan, tout en finissant par s’enraciner dans le « théâtre de la gouvernance » autour de l’allocation des ressources.

Conclusion

La course à l'IA est lancée et tout le monde est très sérieux à ce sujet. Nous ne pouvons pas identifier de faille dans la réflexion des grands acteurs de la technologie lorsqu'il s'agit de mettre à l'échelle leurs calculs à des taux sans précédent - plus de calculs signifie une IA meilleure, une meilleure IA signifie des coûts réduits, l'ajout de nouveaux revenus et l'expansion de la part de marché. Cela signifie pour nous que la bulle est justifiée, mais tous les imposteurs seront quand même évincés dans les inévitables turbulences à venir.

Les grandes entreprises centralisées d'IA dominent le secteur et les start-ups légitimes peinent à suivre. L'espace Web3 a été en retard pour rejoindre la fête mais rejoint également la course. Le marché récompense trop richement les projets d'IA crypto par rapport aux start-ups Web2 dans l'espace, ce qui détourne l'intérêt des fondateurs de la livraison du produit à la pompe du jeton à un moment critique où la fenêtre d'opportunité pour rattraper le retard se referme rapidement. Jusqu'à présent, il n'y a pas eu d'innovation orthogonale ici qui contourne l'expansion du calcul à grande échelle pour concurrencer.

Il existe actuellement un mouvement open source crédible autour des modèles orientés vers les consommateurs, qui a été initialement promu par quelques acteurs centralisés optant pour concurrencer de plus gros rivaux à code source fermé pour la part de marché (par exemple, Meta, Stability AI). Mais maintenant, la communauté rattrape son retard et met la pression sur les principales entreprises d'IA. Ces pressions continueront d'affecter le développement à code source fermé des produits d'IA, mais pas de manière significative tant que le code source ouvert ne sera pas du côté du rattrapage. C'est une autre grande opportunité pour l'espace Web3, mais seulement s'il résout la formation de modèles décentralisée et l'inférence.

Ainsi, bien qu’en surface, des ouvertures « classiques » pour les perturbateurs soient présentes, la réalité ne pourrait pas être plus éloignée de les favoriser. L’IA est principalement liée à l’informatique et rien ne peut être changé à ce sujet en l’absence d’innovations révolutionnaires au cours des 3 à 5 prochaines années, qui sont une période cruciale pour déterminer qui contrôle et dirige le développement de l’IA.

Le marché informatique lui-même, même si la demande stimule les efforts du côté de l'offre, ne peut pas non plus "laisser cent fleurs s'épanouir" avec la concurrence entre les fabricants limitée par des facteurs structurels tels que la fabrication de puces et les économies d'échelle.

Nous restons optimistes quant à l'ingéniosité humaine et sommes certains qu'il y a suffisamment de personnes intelligentes et nobles pour tenter de résoudre le problème de l'IA d'une manière qui favorise le monde libre plutôt que le contrôle corporatif ou gouvernemental. Mais les chances sont très minces et c'est un coup de dés au mieux, mais les fondateurs de Web3 sont trop occupés à lancer la pièce pour un impact financier plutôt que pour un impact réel sur le monde.

Si vous construisez quelque chose de cool pour aider à augmenter les chances de Web3 et que vous ne faites pas que surfer sur la vague de l'engouement, contactez-nous.

Avertissement:

  1. Cet article est repris de [Gategagra.vc], Tous les droits d'auteur appartiennent à l'auteur original [gagra.vc]. Si vous avez des objections à cette réimpression, veuillez contacter le Gate Learnéquipe, et ils s'en chargeront rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont réalisées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.

Retournement de la pièce d'IA

Débutant5/6/2024, 12:41:32 PM
L'article explore le potentiel et les défis de combiner l'IA avec Web3. L'auteur souligne qu'en dépit du sentiment optimiste à l'égard de "l'IA + Web3," il existe dans la réalité des obstacles importants liés à l'investissement dans le matériel et la recherche, ce qui conduit à la domination des grandes entreprises technologiques dans le domaine de l'IA. Les projets Web3 utilisent la foule incitative grâce au chiffrement, ce qui rend difficile la concurrence avec le financement substantiel investi par ces entreprises.

TLDR

Il ne s'agit pas d'un autre article rose sur les VC "IA + Web3". Nous sommes optimistes quant à la fusion de ces deux technologies, mais le texte ci-dessous est un appel aux armes. Sinon, l'optimisme ne sera pas justifié.

Pourquoi ? Parce que le développement et l'exécution des meilleurs modèles d'IA nécessitent des dépenses en capital importantes dans le matériel le plus à la pointe et souvent difficile à obtenir ainsi que dans la R&D très spécifique au domaine. Ajouter des incitations crypto pour externaliser ces tâches, comme le font la plupart des projets d'IA Web3, ne suffit pas à compenser les dizaines de milliards de dollars investis par de grandes entreprises qui contrôlent le développement de l'IA de manière ferme. Compte tenu des contraintes matérielles, il s'agit peut-être du premier grand paradigme logiciel que les ingénieurs intelligents et créatifs en dehors des organisations dominantes n'ont pas les ressources pour perturber.

Le logiciel "mange" le monde de plus en plus rapidement, sur le point de décoller de manière exponentielle avec l'accélération de l'IA. Et tout ce "gâteau", tel que les choses se présentent actuellement, revient aux géants de la technologie - tandis que les utilisateurs finaux, y compris les gouvernements et les grandes entreprises, sans parler des consommateurs, deviennent encore plus dépendants de leur pouvoir.

Désalignement des incitations

Tout cela ne pouvait pas se dérouler à un moment plus inapproprié - 90% des participants au web décentralisé occupés à poursuivre l'oie aux œufs d'or des gains faciles en monnaie fiduciaire d'un développement axé sur le récit. Oui, les développeurs suivent les investisseurs de notre industrie et non l'inverse. Cela va de l'admission ouverte à une motivation plus subtile et subconsciente, mais les récits et les marchés qui se forment autour d'eux influencent beaucoup de prises de décision dans le Web3. Les participants sont trop absorbés dans une bulle réflexive classique pour remarquer le monde extérieur, à l'exception des récits qui aident à faire avancer ce cycle davantage. Et l'IA est évidemment le plus grand, car elle connaît également un boom propre.

Nous avons parlé avec des dizaines d'équipes dans l'intersection de l'IA x Crypto et pouvons confirmer que beaucoup d'entre elles sont très capables, orientées vers la mission et passionnées. Mais telle est la nature humaine que lorsque confrontés à des tentations, nous avons tendance à y succomber, puis à rationaliser ces choix postérieurement.

Le chemin facile vers la liquidité a été une malédiction historique de l'industrie de la cryptographie - responsable de ralentir son développement et son adoption utile de plusieurs années à ce stade. Il détourne même les disciples de la cryptographie les plus fidèles vers le "pompage du jeton". La rationalisation est qu'avec plus de capital à portée de main sous forme de jetons, ces constructeurs ont de meilleures chances.

Relatively low sophistication of both institutional and retail capital creates opportunities for builders to make claims detached from reality while still benefiting from valuations as if those claims already came to fruition. The outcome of these processes is an actually entrenched moral hazard and capital destruction, with very few of such strategies working out over the long term. Necessity is the mother of all inventions and when it’s gone, so are the inventions.

Cela ne pouvait pas arriver à un pire moment. Alors que tous les entrepreneurs technologiques les plus intelligents, les acteurs étatiques et les entreprises, grandes et petites, se précipitent pour garantir leur part des avantages découlant de la révolution de l'IA, les fondateurs de cryptomonnaies et les investisseurs optent pour un "quick 10x". Au lieu d'une vie entière de 1000 x, qui est le coût d'opportunité réel ici, à notre avis.

Un bref résumé du paysage de l'IA Web3

Étant donné les incitations mentionnées ci-dessus, la taxonomie du projet Web3 AI se résume en fait à :

  • Légitime (également subdivisé entre réalistes et idéalistes)
  • Semi-légitime, et
  • Faux

Fondamentalement, nous pensons que les constructeurs savent exactement ce qu'il faut pour rivaliser avec leur concurrence Web2 et les secteurs où il est réellement possible de rivaliser et où c'est plus un rêve irréalisable, mais qui est néanmoins vendable aux VC et au public non averti.

L'objectif est de pouvoir rivaliser ici et maintenant. Sinon, la rapidité du développement de l'IA pourrait laisser Web3 derrière alors que le monde passe au Web4 dystopique de l'IA d'entreprise à l'Ouest contre l'IA d'État de la Chine. Ceux qui ne peuvent pas être compétitifs assez rapidement et qui comptent sur la technologie distribuée pour rattraper sur un horizon temporel plus long sont trop optimistes pour être pris au sérieux.

De toute évidence, il s'agit d'une généralisation très approximative et même le groupe Faker contient au moins quelques équipes sérieuses (et peut-être plus de rêveurs simplement illusoires). Mais ce texte est un appel aux armes, nous n'avons donc pas l'intention d'être objectifs, mais plutôt d'appeler au sens de l'urgence du lecteur.[1].

Légitime :

  • Middleware pour "amener l'IA sur la chaîne". Les fondateurs derrière de telles solutions, qui ne sont pas nombreuses, comprennent que l'entraînement décentralisé ou l'inférence de modèles que les utilisateurs veulent réellement (de pointe) est irréalisable, voire impossible pour le moment. Ainsi, trouver un moyen de connecter les meilleurs modèles centralisés à l'environnement on-chain pour lui permettre de bénéficier d'une automatisation sophistiquée est une première étape suffisamment bonne pour eux. Les enclaves matérielles deTEEs Les processeurs (« air-gap ») capables d’héberger des points d’accès à l’API, des oracles bilatéraux (pour indexer les données on-chain et off-chain de manière bidirectionnelle) et fournir des environnements de calcul off-chain vérifiables pour les agents, semblent être la meilleure solution à l’heure actuelle. Il existe également des architectures de coprocesseur qui utilisent des preuves à divulgation nulle de connaissance (ZKP) pour prendre des instantanés des changements d’état (plutôt que de vérifier le calcul complet) que nous jugeons également réalisables à moyen terme.
    L'approche la plus idéaliste du même problème tente de vérifier l'inférence hors chaîne afin de la mettre sur un pied d'égalité avec le calcul sur chaîne en termes d'hypothèses de confiance. L'objectif devrait être de permettre à l'IA d'effectuer des tâches sur et hors chaîne comme dans un environnement d'exécution cohérent unique, selon notre point de vue. Cependant, la plupart des partisans de la vérifiabilité de l'inférence parlent de "faire confiance aux poids du modèle" et d'autres objectifs complexes du même genre qui deviennent en réalité pertinents dans les années à venir, voire jamais. Récemment, les fondateurs de ce camp ont commencé à explorer approches alternativespour la vérifiabilité de l'inférence, mais à l'origine tout était basé sur ZKP. Alors que de nombreuses équipes intelligentes travaillent sur ZKML, comme il est devenu connu, elles prennent un risque trop important en anticipant que les optimisations cryptographiques dépassent la complexité et les exigences de calcul des modèles d'IA. Nous les jugeons donc inadaptés à la concurrence, du moins pour l'instant. Pourtant,@ModulusLabsQuelques progrès récents sont intéressants et ne devraient pas être ignorés.

Semi-légitime :

  • Les applications grand public qui utilisent des enveloppes autour de modèles open source et fermés (par exemple, Stable Diffusion ou Midjourney pour la génération d'images). Certaines de ces équipes sont les premières sur le marché et ont une traction réelle auprès des utilisateurs. Il n'est donc pas juste de les appeler tous des imposteurs, mais seulement quelques-uns réfléchissent profondément à la manière d'évoluer leurs modèles sous-jacents de manière décentralisée et d'innover dans la conception des incitations. Il y a quelques variantes intéressantes de gouvernance/propriété sur la composante jeton ici et là. Mais la majorité des projets de cette catégorie se contentent d'ajouter un jeton à une enveloppe par ailleurs centralisée, par exemple l'API OpenAI, pour obtenir une prime de valorisation ou une liquidité plus rapide pour l'équipe.

Ce que aucun des deux camps ci-dessus n'aborde, c'est la formation et l'inférence pour les grands modèles dans des environnements décentralisés. En ce moment, il n'y a aucun moyen de former un modèle fondamental en temps raisonnable sans compter sur des clusters matériels étroitement connectés. Le facteur clé est le "temps raisonnable" compte tenu du niveau de compétition.

Certains recherches prometteusessur le sujet est récemment sorti et, théoriquement, des approches comme Flux de données différentiellespeut être étendu aux réseaux de calcul distribué pour augmenter leur capacité à l'avenir (à mesure que les capacités de mise en réseau rattrapent les exigences de flux de données). Mais la formation de modèles compétitifs nécessite toujours une communication entre des clusters localisés, plutôt que des appareils distribués uniques, et des calculs de pointe (les GPU grand public deviennent de plus en plus non compétitifs).

La recherche sur la localisation (l'une des deux façons de décentraliser) de l'inférence en réduisant la taille du modèle a également étéprogressant récemment, mais il n'existe aucun protocole existant dans Web3 l'exploitant.

Les problèmes liés à la formation et à l'inférence décentralisées nous amènent logiquement au dernier des trois camps et de loin le plus important et donc si émotionnellement déclencheur pour nous ;-)

Faux :

  • Les applications d'infrastructure sont principalement dans l'espace des serveurs décentralisés, proposant soit du matériel de base soit des environnements d'entraînement/hébergement de modèles décentralisés. Il existe également des projets d'infrastructure logicielle qui poussent des protocoles, par exemple l'apprentissage fédéré (entraînement de modèle décentralisé) ou ceux qui combinent à la fois les composants logiciels et matériels dans une plateforme unique où l'on peut essentiellement entraîner et déployer leur modèle décentralisé de bout en bout. La plupart d'entre eux manquent de la sophistication nécessaire pour résoudre réellement les problèmes énoncés et la pensée naïve de l'incitation par jeton + l'impulsion du marché prévaut ici. Aucune des solutions que nous avons vues tant sur les marchés publics que privés ne se rapproche d'une concurrence significative ici et maintenant. Certaines peuvent évoluer vers des offres fonctionnelles (mais de niche), mais nous avons besoin de quelque chose de nouveau et compétitif ici et maintenant. Et cela ne peut se produire que grâce à une conception innovante qui aborde les goulots d'étranglement des calculs distribués. Dans la formation, non seulement la vitesse, mais aussi la vérifiabilité du travail effectué et la coordination des charges de travail de formation posent un gros problème, ce qui s'ajoute au goulot d'étranglement de la bande passante.

Nous avons besoin d'un ensemble de modèles fondamentaux compétitifs et vraiment décentralisés, et ils nécessitent une formation et une inférence décentralisées pour fonctionner. Perdre l'IA pourrait totalement annuler tous les accomplissements que les “ordinateurs mondiaux décentralisés” ont réalisés depuis l'avènement d'Ethereum. Si les ordinateurs deviennent l'IA et que l'IA est centralisée, il n'y aura pas d'ordinateur mondial à parler, à part une version dystopique de celui-ci.

La formation et l'inférence sont le cœur de l'innovation en IA. Alors que le reste du monde de l'IA se dirige vers des architectures de plus en plus intégrées, Web3 a besoin d'une solution orthogonale pour rivaliser, car la compétition directe devient de moins en moins réalisable très rapidement.

Taille du Problème

Tout est une question de calcul. Plus vous en lancez à la fois pour l'entraînement et l'inférence, meilleurs sont vos résultats. Oui, il y a des ajustements et des optimisations ici et là et le calcul lui-même n'est pas homogène - il existe maintenant toute une variété de nouvelles approches pour surmonter les goulots d'étranglement de l'architecture traditionnelle de Von Neumann pour les unités de traitement - mais tout se résume à combien de multiplications de matrices vous pouvez faire sur quelle taille de bloc mémoire et à quelle vitesse.

C’est pourquoi nous assistons à une telle expansion sur le front des centres de données par les soi-disant « hyperscalers », qui cherchent tous à créer une pile complète avec une centrale de modèle d’IA au sommet et du matériel qui l’alimente en dessous : OpenAI (modèles) + Microsoft (calcul), Anthropic (modèles) + AWS (calcul), Google (les deux) et Meta (de plus en plus en doublant la construction de leur propre centre de données). Il y a plus de nuances, de dynamiques d’interaction et de parties impliquées, mais nous allons les laisser de côté. Dans l’ensemble, les hyperscalers investissent des milliards de dollars, comme jamais auparavant, dans la construction de centres de données et créent des synergies entre leurs offres de calcul et d’IA, qui devraient générer des rendements massifs à mesure que l’IA prolifère dans l’économie mondiale.

Il suffit de regarder le niveau de construction attendu cette année seulement de la part des 4 entreprises :

  • Meta anticipates$30-37bndépenses en capital en 2024, qui devraient être fortement orientées vers les centres de données.
  • Microsoft a dépensé environ 11,5 milliards de dollars en 2023sur CapEx et il est largement entendu qu'il investira encore 40 à 50 milliards de dollars en '24-'25 ! Cela peut être partiellement déduit par les énormes investissements dans les centres de données annoncés dans seulement quelques pays : 3.2 milliards de dollarsau Royaume-Uni, $3.5bnen Australie, $2.1bnen Espagne, €3.2bnen Allemagne, $1bndans l'État américain de Géorgie et$10bnau Wisconsin, respectivement. Et ce ne sont là que quelques-uns des investissements régionaux de leur réseau de 300 centres de données couvrant plus de 60 régions. Il y a aussi discussionsd'un supercalculateur pour OpenAI qui pourrait coûter à Microsoft encore 100 milliards de dollars !
  • Leadership Amazons'attendleur CapEx devrait augmenter de manière significative en 2024 à partir des 48 milliards de dollars dépensés en 2023, principalement en raison de l'expansion de la construction de l'infrastructure AWS pour l'IA.
  • Google dépensé 11 milliards de dollars pour faire évoluer ses serveurs et ses centres de données au cours du seul quatrième trimestre de 2023. Ils admettent que ces investissements ont été faits pour répondre à la demande attendue en matière d’IA et prévoient que le taux et la taille totale de leurs dépenses d’infrastructure augmenteront considérablement en 2024 en raison de l’IA.

Et voici combien a déjà été dépensé pour le matériel NVIDIA AI en 2023 :

Jensen Huang, PDG de NVIDIA, a proposé de verser un total de 1 billion de dollars dans l'accélération de l'IA au cours des prochaines années. Une prédiction qu'il a récemment doubléà 2 billions de dollars, aurait été provoquée par l'intérêt qu'il a constaté de la part des acteurs souverains. Les analystes d'Altimeter prévoient respectivement des dépenses de 160 milliards de dollars et plus de 200 milliards de dollars dans les centres de données liés à l'IA au niveau mondial en '24 et '25.

Maintenant, pour comparer ces chiffres avec ce que Web3 a à offrir aux opérateurs de centres de données indépendants pour les inciter à étendre les dépenses en immobilisations sur le dernier matériel d'IA :

  • La capitalisation boursière totale de tous les projets d'infrastructure physique décentralisée (DePIn) s'élève actuellement à environ 40 milliards de dollars en jetons relativement illiquides et principalement spéculatifs. Essentiellement, les capitalisations boursières de ces réseaux sont égales à l'estimation de la limite supérieure des dépenses en capital totales de leurs contributeurs, étant donné qu'ils incitent cette expansion avec les jetons. Pourtant, la capitalisation boursière actuelle est presque inutile, étant donné qu'elle a déjà été émise.
  • Alors, supposons qu'il y ait encore 80 milliards de dollars (2 fois la valeur actuelle) de capitalisation de jetons DePIn privés et publics arrivant sur le marché sous forme d'incitations au cours des 3 à 5 prochaines années et supposons que cela soit entièrement consacré aux cas d'utilisation de l'IA.

Même si nous prenons cette estimation très approximative divisée par 3 (années) et comparons la valeur en dollars avec l'argent liquide dépensé par les seuls Hyperscalers en 2024, il est clair que d'ajouter des incitations en jetons à un tas de projets de « réseau GPU décentralisé » n'est pas suffisant.

Il faut également des milliards de dollars de demande d'investisseurs pour absorber ces jetons, car les opérateurs de ces réseaux vendent une grande partie des pièces ainsi extraites pour couvrir les coûts importants de Cap- et OpEX. Et quelques milliards de plus pour pousser ces jetons plus haut et stimuler la croissance dans la construction afin de surpasser les Hyperscalers.

Pourtant, quelqu'un ayant une connaissance intime de la façon dont la plupart des serveurs Web3 sont actuellement gérés peut s'attendre à ce qu'une grande partie de l'"infrastructure physique décentralisée" fonctionne en réalité sur les mêmes services cloud des Hyperscalers. Et bien sûr, l'augmentation de la demande en GPU et en autres matériels spécialisés en IA entraîne une offre plus importante, ce qui devrait finalement rendre la location ou l'achat de services cloud beaucoup moins chers. Du moins, c'est ce qui est attendu.

Mais considérez ceci : en ce moment, NVIDIA doit également donner la priorité aux clients pour ses dernières générations de GPU. commencer à rivaliseravec les plus grands fournisseurs de cloud sur leur propre terrain - offrant des services de plateforme IA aux clients d'entreprise déjà verrouillés dans ces Hyperscalers. Cela les incite finalement à construire leurs propres centres de données au fil du temps (ce qui entame essentiellement les marges bénéficiaires grasses dont ils bénéficient actuellement, donc moins probable) ou à limiter considérablement leurs ventes de matériel IA à leur réseau de partenaires fournisseurs cloud.

De plus, les concurrents de NVIDIA qui lancent du matériel supplémentaire spécialisé dans l'IA utilisent principalement les mêmes puces que NVIDIA, produit par TSMC.Donc fondamentalement, toutes les entreprises de matériel informatique AI sont actuellementen compétition pour la capacité de TSMC.TSMC doit également donner la priorité à certains clients par rapport à d'autres. Samsung et potentiellement Intel (qui essaie de revenir à la pointe de la fabrication de puces pour son propre matériel bientôt) pourraient absorber la demande supplémentaire, mais TSMC produit actuellement la majorité des puces liées à l'IA et l'échelle et le calibrage de la fabrication de puces de pointe (3 et 2 nanomètres) prend des années.

En plus de tout cela, toute la fabrication de puces de pointe en ce moment est effectuée près du détroit de Taïwan par TSMC à Taïwan et Samsung en Corée du Sud, où un risque de conflit militaire peut se concrétiser avant que les installations actuellement construites aux États-Unis pour compenser cela (et également pas prévu de produire les puces de nouvelle génération avant quelques années) ne soient lancées.

Et enfin, la Chine, qui est essentiellement coupée du dernier matériel AI de génération en raison des restrictions imposées à NVIDIA et TSMC par les États-Unis, concurrence pour tout calcul restant disponible, tout comme le Réseau DePIn de Web3. Contrairement à Web3, les entreprises chinoises ont en fait leurs propres modèles compétitifs, en particulier les LLMs de par exemple Baidu et Alibaba, qui nécessitent beaucoup des dispositifs de la génération précédente pour fonctionner.

Il existe donc un risque non négligeable que, pour l’une des raisons mentionnées ci-dessus ou la confluence de facteurs, les hyperscalers limitent simplement l’accès à leur matériel d’IA à des parties externes alors que la guerre de domination de l’IA s’intensifie et prend le pas sur les activités de cloud. Fondamentalement, il s’agit d’un scénario dans lequel ils utilisent toute la capacité cloud liée à l’IA pour leur propre usage et ne l’offrent plus à personne d’autre, tout en engloutissant tout le matériel le plus récent. Cela se produit et l’offre de calcul restante est soumise à une demande encore plus élevée de la part d’autres grands acteurs, y compris les États souverains. Pendant ce temps, les GPU grand public sont de moins en moins compétitifs.

De toute évidence, il s'agit d'un scénario extrême, mais le prix est trop important pour que les gros acteurs reculent en cas de maintien des goulots d'étranglement matériels. Cela laisse les opérateurs décentralisés tels que les centres de données de niveau 2 et les propriétaires de matériel de qualité commerciale, qui représentent la majorité des fournisseurs DePIn de Web3, exclus de la compétition.

L'autre côté de la pièce

Pendant que les fondateurs de la crypto dorment au volant, les poids lourds de l'IA surveillent de près la crypto.Pressions gouvernementaleset la concurrence peut les pousser à adopter des cryptomonnaies pour éviter d'être fermées ou fortement réglementées.

Le fondateur de Stability AI récemment démissionnerpour commencer à "décentraliser" son entreprise est l'un des premiers indices publics à ce sujet. Il n'avait auparavant pas caché ses projets de lancer un jeton lors d'apparitions publiques, mais seulement après la réussite de l'IPO de l'entreprise - ce qui révèle un peu les véritables motivations derrière le mouvement anticipé.

Dans le même ordre d'idées, bien que Sam Altman ne soit pas opérationnellement impliqué dans le projet crypto qu'il a cofondé, Worldcoin, son jeton se négocie certainement comme un proxy d'OpenAI. Qu'il y aitchemin pour se connecterle projet de monnaie Internet libre avec le projet de R&D en IA seul le temps nous le dira, mais l'équipe de Worldcoin semble aussireconnaîtreque le marché teste cette hypothèse.

Il nous semble tout à fait logique que les géants de l'IA puissent explorer différentes voies vers la décentralisation. Le problème que nous voyons ici encore est que Web3 n'a pas produit de solutions significatives. Les "jetons de gouvernance" sont principalement un mème, tandis que seuls ceux qui évitent explicitement les liens directs entre les détenteurs d'actifs et le développement et les opérations de leur réseau - $BTC et $ETH - sont vraiment décentralisés pour le moment.

Les mêmes (dés)incitations qui ralentissent le développement technologique affectent également le développement de différentes conceptions de gouvernance des réseaux cryptographiques. Les équipes de start-up se contentent d’apposer un « jeton de gouvernance » sur leur produit dans l’espoir de le comprendre au fur et à mesure qu’elles prennent de l’élan, tout en finissant par s’enraciner dans le « théâtre de la gouvernance » autour de l’allocation des ressources.

Conclusion

La course à l'IA est lancée et tout le monde est très sérieux à ce sujet. Nous ne pouvons pas identifier de faille dans la réflexion des grands acteurs de la technologie lorsqu'il s'agit de mettre à l'échelle leurs calculs à des taux sans précédent - plus de calculs signifie une IA meilleure, une meilleure IA signifie des coûts réduits, l'ajout de nouveaux revenus et l'expansion de la part de marché. Cela signifie pour nous que la bulle est justifiée, mais tous les imposteurs seront quand même évincés dans les inévitables turbulences à venir.

Les grandes entreprises centralisées d'IA dominent le secteur et les start-ups légitimes peinent à suivre. L'espace Web3 a été en retard pour rejoindre la fête mais rejoint également la course. Le marché récompense trop richement les projets d'IA crypto par rapport aux start-ups Web2 dans l'espace, ce qui détourne l'intérêt des fondateurs de la livraison du produit à la pompe du jeton à un moment critique où la fenêtre d'opportunité pour rattraper le retard se referme rapidement. Jusqu'à présent, il n'y a pas eu d'innovation orthogonale ici qui contourne l'expansion du calcul à grande échelle pour concurrencer.

Il existe actuellement un mouvement open source crédible autour des modèles orientés vers les consommateurs, qui a été initialement promu par quelques acteurs centralisés optant pour concurrencer de plus gros rivaux à code source fermé pour la part de marché (par exemple, Meta, Stability AI). Mais maintenant, la communauté rattrape son retard et met la pression sur les principales entreprises d'IA. Ces pressions continueront d'affecter le développement à code source fermé des produits d'IA, mais pas de manière significative tant que le code source ouvert ne sera pas du côté du rattrapage. C'est une autre grande opportunité pour l'espace Web3, mais seulement s'il résout la formation de modèles décentralisée et l'inférence.

Ainsi, bien qu’en surface, des ouvertures « classiques » pour les perturbateurs soient présentes, la réalité ne pourrait pas être plus éloignée de les favoriser. L’IA est principalement liée à l’informatique et rien ne peut être changé à ce sujet en l’absence d’innovations révolutionnaires au cours des 3 à 5 prochaines années, qui sont une période cruciale pour déterminer qui contrôle et dirige le développement de l’IA.

Le marché informatique lui-même, même si la demande stimule les efforts du côté de l'offre, ne peut pas non plus "laisser cent fleurs s'épanouir" avec la concurrence entre les fabricants limitée par des facteurs structurels tels que la fabrication de puces et les économies d'échelle.

Nous restons optimistes quant à l'ingéniosité humaine et sommes certains qu'il y a suffisamment de personnes intelligentes et nobles pour tenter de résoudre le problème de l'IA d'une manière qui favorise le monde libre plutôt que le contrôle corporatif ou gouvernemental. Mais les chances sont très minces et c'est un coup de dés au mieux, mais les fondateurs de Web3 sont trop occupés à lancer la pièce pour un impact financier plutôt que pour un impact réel sur le monde.

Si vous construisez quelque chose de cool pour aider à augmenter les chances de Web3 et que vous ne faites pas que surfer sur la vague de l'engouement, contactez-nous.

Avertissement:

  1. Cet article est repris de [Gategagra.vc], Tous les droits d'auteur appartiennent à l'auteur original [gagra.vc]. Si vous avez des objections à cette réimpression, veuillez contacter le Gate Learnéquipe, et ils s'en chargeront rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont réalisées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.
即刻开始交易
注册并交易即可获得
$100
和价值
$5500
理财体验金奖励!