Triple Halo del Ecosistema AI/DePIN/Sol: Analizando el Lanzamiento del Token IO.NET

Avanzado4/17/2024, 6:40:46 AM
Este artículo organizará la información clave del proyecto de computación descentralizada de IA: el proyecto IO.NET, incluyendo la lógica del producto, la situación competitiva y el trasfondo del proyecto. También proporciona estimaciones de valoración, analizando la valoración desde diferentes perspectivas a través del análisis de datos y ofreciendo un cálculo de referencia para la valoración.

Introducción

En mi artículo anterior, mencioné que en comparación con los dos ciclos anteriores, este ciclo de mercado alcista de criptomonedas carece de nuevas narrativas empresariales y de activos influyentes. La IA es una de las pocas nuevas narrativas en esta ronda del campo Web3. En este artículo, combinaré el proyecto de IA destacado de este año, IO.NET, para reflexionar sobre los siguientes dos problemas:

  1. La necesidad de AI+Web3 en los negocios

  2. La necesidad y desafíos de los servicios de computación distribuida

Además, organizaré la información clave del proyecto representativo en computación distribuida de IA: el proyecto IO.NET, incluyendo la lógica del producto, la situación competitiva y el trasfondo del proyecto. También profundizaré en la valoración del proyecto.

La parte de este artículo sobre la combinación de IA y Web3 fue inspirada por “The Real Merge” escrito por el investigador de Delphi Digital Michael Rinko. Algunas opiniones en este artículo resumen y citan ese documento, y recomiendo a los lectores que se refieran al original.

Este artículo representa mis pensamientos provisionales en el momento de su publicación. La situación puede cambiar en el futuro y los puntos de vista tienen una fuerte naturaleza subjetiva. También pueden contener errores factuales, de datos o de razonamiento. Por favor, no utilice esto como consejo de inversión, y agradezco las críticas y discusiones de mis colegas.

El siguiente es el texto principal.

1. Lógica empresarial: la intersección de la inteligencia artificial y Web3

1.1 2023: El Nuevo "Año Milagroso" Creado por AI

Mirando hacia atrás en la historia humana, una vez que hay un avance en la tecnología, todo, desde la vida diaria individual, hasta varios paisajes industriales, e incluso toda la civilización de la humanidad, experimenta cambios revolucionarios.

Hay dos años significativos en la historia de la humanidad, a saber, 1666 y 1905, que ahora se conocen como los dos grandes “años milagrosos” en la historia de la tecnología.

El año 1666 se considera un año milagroso porque los logros científicos de Newton surgieron prominentemente durante este tiempo. En ese año, fue pionero en la rama de la física conocida como óptica, fundó la rama matemática del cálculo y derivó la ley de la gravedad, una ley fundamental de la ciencia natural moderna. Cada uno de estos logros fue una contribución fundamental al desarrollo científico de la humanidad para el próximo siglo, acelerando significativamente el progreso general de la ciencia.

El segundo año milagroso fue 1905, cuando Einstein, con solo 26 años, publicó cuatro artículos seguidos en los "Annals of Physics", que cubrían el efecto fotoeléctrico (sentando las bases para la mecánica cuántica), el movimiento browniano (convirtiéndose en una referencia crucial para analizar procesos estocásticos), la teoría de la relatividad especial y la ecuación masa-energía (la famosa fórmula E=mc^2). En evaluaciones posteriores, cada uno de estos artículos se consideró que superaba el nivel medio del Premio Nobel de Física (Einstein también recibió el Premio Nobel por su artículo sobre el efecto fotoeléctrico), y una vez más, la progresión histórica de la civilización humana dio varios saltos gigantescos hacia adelante.

El año recién pasado de 2023 probablemente será llamado otro "año milagroso" debido a ChatGPT.

Consideramos el 2023 como otro "año milagroso" en la historia de la tecnología humana, no solo por los avances significativos que ha logrado GPT en la comprensión y generación de lenguaje natural, sino también porque la humanidad ha descifrado el patrón de crecimiento de los modelos de lenguaje grandes a partir de la evolución de GPT, es decir, al expandir los parámetros del modelo y los datos de entrenamiento, las capacidades del modelo pueden ser mejoradas de forma exponencial, y este proceso aún no muestra un cuello de botella a corto plazo (siempre y cuando haya suficiente potencia computacional).

Esta capacidad va mucho más allá de entender el lenguaje y generar diálogo, y se utiliza ampliamente en varios campos tecnológicos. Por ejemplo, en el campo biológico en 2018, la premio Nobel de Química, Frances Arnold, dijo durante la ceremonia de premiación: 'Hoy, en aplicaciones prácticas, podemos leer, escribir y editar cualquier secuencia de ADN, pero aún no podemos componerla'. Tan solo cinco años después de su discurso, en 2023, investigadores de la Universidad de Stanford y Salesforce Research en Silicon Valley publicaron un artículo en 'Nature Biotechnology'. Crearon 1 millón de nuevas proteínas desde cero utilizando un gran modelo de lenguaje ajustado de GPT3 e identificaron dos proteínas con estructuras distintas, ambas con capacidades antibacterianas, que podrían convertirse en una nueva solución para combatir las bacterias más allá de los antibióticos. Esto significa que el cuello de botella en la 'creación' de proteínas se ha roto con la ayuda de la inteligencia artificial.

Además, el algoritmo de IA AlphaFold predijo las estructuras de casi los 214 millones de proteínas en la Tierra en 18 meses, un logro que supera por cientos de veces los resultados colectivos de todos los biólogos estructurales en la historia.

Con modelos basados en IA en biotecnología, ciencia de materiales, desarrollo de medicamentos y otras ciencias duras, así como en humanidades como la ley y el arte, una transformación revolucionaria es inevitable, y 2023 es de hecho el año inaugural para todos estos avances.

Como todos sabemos, en el siglo pasado, la creación de riqueza humana ha crecido exponencialmente, y la rápida maduración de la tecnología de IA sin duda acelerará este proceso aún más.

Gráfico de tendencia del PIB mundial, fuente de datos: Banco Mundial

1.2 La Integración de IA y Cripto

Para comprender fundamentalmente la necesidad de integrar AI y Crypto, podemos comenzar desde sus características complementarias.

Características complementarias de IA y criptografía

AI posee tres atributos:

  1. Aleatoriedad: La IA muestra aleatoriedad; el mecanismo detrás de su producción de contenido es una caja negra que es difícil de replicar e inspeccionar, por lo tanto, los resultados también son aleatorios.

  2. Intensivo en recursos: AI es una industria intensiva en recursos que requiere cantidades significativas de energía, chips y potencia de cálculo.

  3. Inteligencia similar a la humana: AI pronto podrá pasar la prueba de Turing, lo que hará que sea difícil distinguir entre humanos y máquinas.

El 30 de octubre de 2023, un equipo de investigación de la Universidad de California, San Diego, publicó los resultados de la prueba de Turing para GPT-3.5 y GPT-4.0. GPT-4.0 obtuvo un puntaje del 41%, solo un 9% por debajo de la marca de aprobación del 50%, mientras que los participantes humanos obtuvieron un 63%. El significado de esta prueba de Turing es el porcentaje de personas que creen que su interlocutor en la conversación es humano. Si más del 50% lo cree, indica que al menos la mitad de las personas consideran que la entidad conversacional es humana, no una máquina, por lo que se considera que pasa la prueba de Turing.

Mientras que la IA crea una nueva productividad revolucionaria para la humanidad, sus tres atributos también plantean desafíos significativos para la sociedad humana, incluyendo:

  • Cómo verificar y controlar la aleatoriedad de la IA, convirtiendo la aleatoriedad de una falla en una ventaja.

  • Cómo satisfacer las importantes necesidades de energía y potencia computacional de la IA.

  • Cómo diferenciar entre humanos y máquinas.

La economía de la criptografía y la cadena de bloques bien podrían ser el remedio a los desafíos planteados por la inteligencia artificial. La economía criptográfica tiene las siguientes tres características:

  1. Determinismo: Las operaciones comerciales se basan en la cadena de bloques, el código y los contratos inteligentes, con reglas y límites claros; la entrada dicta el resultado, asegurando una alta determinación.

  2. Asignación eficiente de recursos: La economía criptográfica ha construido un gran mercado global libre donde la fijación de precios, recaudación de fondos y circulación de recursos son muy rápidas. Debido a la presencia de tokens, los incentivos pueden acelerar la coincidencia entre la oferta y la demanda del mercado, alcanzando puntos críticos más rápidamente.

  3. Sin confianza: Con libros de contabilidad públicos y código abierto, cualquiera puede verificar fácilmente las operaciones, lo que lleva a un sistema “sin confianza”. Además, la tecnología ZK (Zero-Knowledge) evita la exposición de la privacidad durante la verificación.

Ilustremos la complementariedad entre la IA y la economía cripto con tres ejemplos.

Ejemplo A: Abordando la Aleatoriedad, Agentes de IA Basados en la Economía Cripto

Los agentes de inteligencia artificial, como los de Fetch.AI, están diseñados para actuar según la voluntad humana y realizar tareas en nombre de los humanos. Si queremos que nuestro agente de inteligencia artificial maneje una transacción financiera, como "comprar $1000 de BTC", podría enfrentar dos escenarios:

  • Escenario Uno: Necesita interactuar con instituciones financieras tradicionales (como BlackRock) para comprar ETF de BTC, enfrentando numerosos problemas de compatibilidad con agentes de IA e instituciones centralizadas, como KYC, revisión de documentación, inicio de sesión y verificación de identidad, que actualmente son bastante engorrosos.

  • Escenario Dos: Opera basado en la economía cripto nativa, mucho más simple; podría ejecutar transacciones directamente a través de Uniswap o una plataforma de trading agregada similar utilizando la firma de su cuenta, completando la transacción de manera rápida y sencilla para recibir WBTC (u otra forma envuelta de BTC). Básicamente, esto es lo que varios bots de trading ya están haciendo, aunque enfocados únicamente en el trading por ahora. A medida que la IA se integra y evoluciona, sin duda los futuros bots de trading serán capaces de ejecutar intenciones de trading más complejas, como rastrear las estrategias de trading y tasas de éxito de 100 direcciones de dinero inteligente en la blockchain, ejecutar transacciones similares con el 10% de mis fondos durante una semana, y detenerse y resumir las razones del fracaso si los resultados no son satisfactorios.

La IA funciona mejor dentro de los sistemas blockchain principalmente debido a la claridad de las reglas criptoeconómicas y el acceso no restringido al sistema. Dentro de estas reglas definidas, los posibles riesgos que trae la aleatoriedad de la IA se minimizan. Por ejemplo, la IA ya ha superado a los humanos en juegos de cartas y videojuegos debido al claro y cerrado sandbox de reglas. Sin embargo, el progreso en la conducción autónoma es relativamente lento debido a los desafíos del entorno externo abierto, y somos menos tolerantes a la aleatoriedad en la resolución de problemas de la IA en tales entornos.

Ejemplo B: Dar forma a los recursos a través de incentivos de Token**

La red global detrás de BTC, con una tasa total de hash actual de 576.70 EH/s, supera la potencia computacional combinada de cualquier supercomputadora de un país. Su desarrollo está impulsado por un incentivo de red simple y justo.

Tendencia de la potencia informática de la red BTC, fuente:https://www.coinwarz.com/

Además, proyectos como DePIN de Mobile intentan dar forma a un mercado de oferta y demanda a través de incentivos con tokens, con el objetivo de lograr efectos de red. El enfoque de la siguiente discusión en este artículo, IO.NET, es una plataforma diseñada para agregar potencia computacional de IA, con la esperanza de liberar más potencial de IA a través de un modelo de tokens.

Ejemplo C: código de código abierto, introducción de Pruebas de Conocimiento Cero (ZK) para diferenciar humanos de máquinas mientras se protege la privacidad

Como proyecto Web3 que implica al fundador de OpenAI, Sam Altman, Worldcoin utiliza un dispositivo de hardware llamado Orb, que genera un valor hash único y anónimo basado en la biometría del iris humano a través de la tecnología ZK para verificar la identidad y diferenciar humanos de máquinas. A principios de marzo de este año, el proyecto de arte Web3 Drip comenzó a utilizar la identificación de Worldcoin para verificar usuarios humanos reales y distribuir recompensas.

Además, Worldcoin ha abierto recientemente el código del programa de su hardware de reconocimiento de iris Orb, asegurando la seguridad y privacidad de los datos biométricos del usuario.

En general, la economía criptográfica se ha convertido en una solución potencial significativa a los desafíos planteados por la IA a la sociedad humana, debido a la certeza del código y la criptografía, las ventajas de la circulación de recursos y la recaudación de fondos aportados por los mecanismos de token, y la naturaleza sin confianza basada en el código fuente abierto y los libros mayores públicos.

El desafío más urgente y comercialmente exigente es el hambre extrema de recursos computacionales por parte de los productos de IA, que gira en torno a la enorme demanda de chips y potencia computacional.

Esta es también la razón principal por la cual los proyectos de cómputo distribuido han liderado la pista general de IA en este ciclo de mercado alcista.

La necesidad comercial de la informática descentralizada

La inteligencia artificial requiere recursos computacionales sustanciales, tanto para entrenar modelos como para inferencia.

En la práctica de entrenar grandes modelos de lenguaje, se ha confirmado que siempre que la escala de los parámetros de datos sea suficientemente grande, surgen nuevas capacidades que no estaban presentes antes. Cada generación de GPT muestra un salto exponencial en capacidades en comparación con su predecesor, respaldado por un crecimiento exponencial en el volumen computacional necesario para el entrenamiento del modelo.

La investigación realizada por DeepMind y la Universidad de Stanford muestra que diferentes modelos de lenguaje grandes, al enfrentarse a diversas tareas (cálculo, preguntas y respuestas en persa, comprensión del lenguaje natural, etc.), tienen un rendimiento similar a respuestas aleatorias hasta que el entrenamiento alcanza menos de 10^22 FLOPs (FLOPs denota operaciones de punto flotante por segundo, una medida del rendimiento computacional); sin embargo, una vez que la escala de parámetros supera ese umbral crítico, el rendimiento de cualquier tarea mejora drásticamente, independientemente del modelo de lenguaje.

Origen: Habilidades emergentes de modelos de lenguaje grandes

Habilidades emergentes de modelos de lenguaje grandes

Es precisamente el principio de "lograr milagros con gran poder de cálculo" y su verificación práctica lo que llevó a Sam Altman, fundador de OpenAI, a proponer recaudar 7 billones de dólares estadounidenses para construir una fábrica de chips avanzada que sea diez veces más grande que la actual TSMC. Se espera que se gasten 1,5 billones de dólares en esta parte, con los fondos restantes utilizados para la producción de chips y el entrenamiento del modelo.

Además del entrenamiento de modelos de IA, el proceso de inferencia de los propios modelos también requiere una gran potencia de cálculo, aunque menos que la necesaria para el entrenamiento. Por lo tanto, el deseo de chips y potencia de cálculo se ha convertido en una norma entre los competidores de IA.

En comparación con proveedores centralizados de computación de IA como Amazon Web Services, Google Cloud Platform y Azure de Microsoft, las principales propuestas de valor de la computación de IA distribuida incluyen:

  • Acceder a chips de computación a través de servicios en la nube como AWS, GCP o Azure suele llevar semanas, y los modelos populares de GPU a menudo están agotados. Además, para obtener potencia de cómputo, los consumidores a menudo necesitan firmar contratos a largo plazo e inflexibles con estas grandes empresas. En contraste, las plataformas de computación distribuida pueden proporcionar opciones de hardware flexibles con una mayor accesibilidad.
  • Precios más bajos: Al utilizar chips inactivos, combinados con subsidios de tokens del protocolo de red para proveedores de chips y potencia informática, las redes de computación distribuida pueden ofrecer una potencia informática más asequible.
  • Resistencia a la censura: Actualmente, los chips de computación de vanguardia y los suministros están monopolizados por grandes empresas tecnológicas. Además, los gobiernos liderados por Estados Unidos están intensificando la vigilancia sobre los servicios de computación de inteligencia artificial. La capacidad de adquirir potencia de cálculo de manera distribuida, flexible y gratuita está convirtiéndose en una demanda clara, que también es una propuesta de valor fundamental de las plataformas de servicios informáticos basados en web3.

Si los combustibles fósiles fueron la sangre vital de la era industrial, entonces es probable que el poder informático sea la sangre vital de la nueva era digital inaugurada por la inteligencia artificial, con el suministro de poder informático convirtiéndose en la infraestructura de la era de la inteligencia artificial. Así como las stablecoins se han convertido en un sólido producto derivado de la moneda fiduciaria en la era Web3, ¿podría el mercado de computación distribuida convertirse en un producto derivado de rápido crecimiento del mercado de computación de inteligencia artificial?

Dado que este mercado todavía está en una etapa relativamente temprana, todo sigue bajo observación. Sin embargo, los siguientes factores podrían potencialmente estimular la narrativa o la adopción del mercado de la computación distribuida:

  • La continua tensión entre la oferta y la demanda de GPU. La tensión continua en la oferta de GPU podría animar a algunos desarrolladores a recurrir a plataformas de computación distribuida.
  • Expansión regulatoria. Acceder a los servicios de computación AI de las grandes plataformas de computación en la nube requiere KYC y un escrutinio exhaustivo. Esto podría en cambio fomentar la adopción de plataformas de computación distribuida, especialmente en regiones que enfrentan restricciones y sanciones.
  • Incentivos de precio del Token. Los ciclos alcistas del mercado y el aumento de los precios de los tokens aumentan el valor de la subvención para el lado de la oferta de GPU, atrayendo a más proveedores al mercado, aumentando el tamaño del mercado y reduciendo el precio de compra real para los consumidores.

Sin embargo, los desafíos a los que se enfrentan las plataformas de cómputo distribuido también son bastante evidentes:

  • Desafíos técnicos e ingenieriles
  • Problemas de Prueba de Trabajo: La computación para modelos de aprendizaje profundo, debido a su estructura jerárquica donde la salida de cada capa sirve como entrada para la siguiente, requiere ejecutar todo el trabajo previo para verificar la validez de la computación. Esto no puede ser verificado de manera simple y efectiva. Para abordar este problema, las plataformas de computación distribuida necesitan desarrollar nuevos algoritmos o utilizar técnicas de verificación aproximada, que pueden proporcionar garantías probabilísticas de la corrección de los resultados, en lugar de certeza absoluta.
  • Desafíos de la paralelización: Las plataformas de computación distribuida recopilan la larga cola de suministro de chips, lo que significa que los dispositivos individuales solo pueden ofrecer una potencia de cálculo limitada. Un único proveedor de chips difícilmente puede completar las tareas de entrenamiento o inferencia de un modelo de IA de forma independiente en un corto período de tiempo, por lo que las tareas deben descomponerse y distribuirse a través de la paralelización para acortar el tiempo total de finalización. La paralelización también enfrenta inevitablemente problemas como la descomposición de tareas (especialmente tareas complejas de aprendizaje profundo), la dependencia de datos y costos de comunicación adicionales entre dispositivos.
  • Protección de la privacidad: ¿Cómo asegurar que los datos y modelos de la parte compradora no se expongan a los destinatarios de la tarea?

Desafíos de cumplimiento normativo

  • Debido a la naturaleza no autorizada de los mercados duales de suministro y adquisición de plataformas de computación distribuida, pueden atraer a ciertos clientes como puntos de venta. Por otro lado, pueden convertirse en objetivos de la regulación gubernamental a medida que se perfeccionen los estándares regulatorios de la inteligencia artificial. Además, algunos proveedores de GPU pueden preocuparse por si sus recursos informáticos arrendados se están proporcionando a empresas o individuos sancionados.

En general, los consumidores de plataformas de computación distribuida son principalmente desarrolladores profesionales o instituciones pequeñas a medianas, a diferencia de los inversores en criptomonedas y NFT que difieren en sus expectativas sobre la estabilidad y continuidad de los servicios ofrecidos por el protocolo. El precio puede no ser su principal motivo en la toma de decisiones. Por ahora, parece que las plataformas de computación distribuida aún tienen un largo camino por recorrer para ganarse la aprobación de dichos usuarios.

A continuación, organizaremos y analizaremos la información del proyecto para un nuevo proyecto de computación distribuida en este ciclo, IO.NET, y estimaremos su posible valoración de mercado después de la lista, basándonos en los competidores actuales del mercado en los sectores de IA y computación distribuida.

2. Plataforma de Computación de IA Distribuida: IO.NETPlataforma de Computación de IA Distribuida: IO.NET

2.1 Posicionamiento del Proyecto

IO.NET es una red informática descentralizada que ha establecido un mercado bilateral centrado en chips. El lado de la oferta está compuesto por chips (principalmente GPUs, pero también CPUs y iGPUs de Apple) distribuidos a nivel mundial, mientras que el lado de la demanda está formado por ingenieros de inteligencia artificial que buscan realizar tareas de entrenamiento o inferencia de modelos de IA.

Como se indica en el sitio web oficial de IO.NET:

Nuestra Misión

Reuniendo un millón de GPU en un DePIN - red de infraestructura física descentralizada.

La misión es integrar millones de GPUs en su red DePIN.

En comparación con los proveedores de servicios de computación en la nube de IA existentes, IO.NET enfatiza los siguientes puntos clave de venta:

  • Combinación flexible: los ingenieros de IA pueden seleccionar y combinar libremente los chips que necesitan para formar "Clusters" y completar sus tareas de cómputo.
  • Implementación rápida: La implementación puede completarse en segundos, sin las semanas de aprobación y espera típicamente requeridas por proveedores centralizados como AWS.
  • Servicio rentable: El costo de los servicios es un 90% menor que el de los proveedores principales.

Además, IO.NET planea lanzar servicios como una tienda de modelos de IA en el futuro.

Mecanismo del producto y datos comerciales 2.2

Mecanismo del producto y experiencia de implementación

Similar to Amazon Cloud, Google Cloud, and Alibaba Cloud, the computing service provided by IO.NET is called IO Cloud. IO Cloud is a distributed, decentralized network of chips capable of executing Python-based machine learning code and running AI and machine learning programs.

El módulo básico de negocios de IO Cloud se llama "Clusters". Los Clusters son grupos de GPUs que pueden coordinarse de forma autónoma para completar tareas de computación. Los ingenieros de inteligencia artificial pueden personalizar sus Clusters deseados según sus necesidades.

La interfaz de productos de IO.NET es muy fácil de usar. Si necesita implementar sus propios clústeres de chips para completar tareas de computación de IA, puede comenzar a configurar sus clústeres de chips deseados tan pronto como ingrese a la página de productos de Clústeres en su sitio web.

Información de la página: https://cloud.io.net/cloud/clusters/create-cluster, lo mismo abajo

Primero, necesitas seleccionar tu escenario de proyecto, y actualmente, hay tres tipos disponibles:

  1. General (tipo genérico): Proporciona un entorno más genérico, adecuado para las primeras etapas del proyecto cuando las necesidades de recursos específicos son inciertas.

  2. Train (Tipo de entrenamiento): Diseñado para el entrenamiento y ajuste fino de modelos de aprendizaje automático. Esta opción ofrece recursos adicionales de GPU, mayor capacidad de memoria y/o conexiones de red más rápidas para manejar estas tareas computacionales intensivas.

  3. Inferencia (tipo de inferencia): Diseñado para inferencia de baja latencia y tareas de alta carga. En el contexto del aprendizaje automático, la inferencia se refiere al uso de modelos entrenados para predecir o analizar nuevos datos y proporcionar retroalimentación. Por lo tanto, esta opción se centra en optimizar la latencia y el rendimiento para respaldar las necesidades de procesamiento de datos en tiempo real o casi en tiempo real.

A continuación, necesitas elegir al proveedor para los Clústeres de chips. Actualmente, IO.NET tiene asociaciones con Render Network y la red minera de Filecoin, lo que permite a los usuarios elegir chips de IO.NET o de las otras dos redes como proveedor de sus clústeres de computación. IO.NET actúa como un agregador (aunque, en el momento de escribir esto, el servicio de Filecoin está temporalmente fuera de línea). Es importante destacar que, según la página de visualización, la cantidad de GPU disponibles en línea para IO.NET es de más de 200,000, mientras que para Render Network es de más de 3,700.

Finalmente, ingresas a la fase de selección de hardware de chips para los Clusters. Actualmente, IO.NET solo enumera GPUs para selección, excluyendo CPUs o iGPUs de Apple (M1, M2, etc.), y las GPUs principalmente presentan productos NVIDIA.

En la lista oficial de opciones de hardware de GPU disponibles, según los datos probados por el autor en ese día, el número total de GPU disponibles en línea en la red IO.NET es de 206,001. De estos, la GeForce RTX 4090 tiene la mayor disponibilidad con 45,250 unidades, seguida de la GeForce RTX 3090 Ti con 30,779 unidades.

Además, el chip A100-SXM4-80GB, que es más eficiente para tareas de computación de inteligencia artificial como aprendizaje automático, aprendizaje profundo y computación científica (precio de mercado superior a $15,000), tiene 7,965 unidades en línea.

La tarjeta gráfica NVIDIA H100 80GB HBM3, diseñada específicamente desde cero para la inteligencia artificial (precio de mercado de más de $40,000), tiene un rendimiento de entrenamiento 3.3 veces superior al de la A100 y un rendimiento de inferencia 4.5 veces superior al de la A100, con un total de 86 unidades en línea.

Después de seleccionar el tipo de hardware para los Clústeres, los usuarios también necesitan elegir la región, la velocidad de comunicación, la cantidad de GPUs alquiladas y la duración del alquiler, entre otros parámetros.

Finalmente, IO.NET proporcionará una factura basada en la selección integral. Por ejemplo, en la configuración de Clusters del autor:

  • Escenario general de tarea
  • 16 chips A100-SXM4-80GB
  • Conexión ultrarrápida
  • Ubicado en los Estados Unidos
  • Período de alquiler de 1 semana

La factura total es $3311.6, con un precio por hora por tarjeta de $1.232

En comparación, los precios de alquiler por hora del A100-SXM4-80GB en Amazon Cloud, Google Cloud y Microsoft Azure son de $5.12, $5.07 y $3.67, respectivamente (fuente de datos: https://cloud-gpus.com/, los precios reales pueden variar según los detalles del contrato).

Por lo tanto, en términos puramente de precio, la potencia informática de IO.NET es significativamente más barata que la de los fabricantes principales, y las opciones de suministro y adquisición son muy flexibles, lo que facilita el inicio.

Condiciones comerciales

Situation de la oferta

A partir del 4 de abril de este año, según datos oficiales, IO.NET tiene un suministro total de 371,027 GPUs y 42,321 CPUs en el lado del suministro. Además, Render Network, como su socio, también ha conectado 9,997 GPUs y 776 CPUs al suministro de la red.

Fuente de datos: https://cloud.io.net/explorer/home, lo mismo abajo

A la fecha de la redacción de este artículo, 214,387 de las GPUs conectadas por IO.NET están en línea, con una tasa de conexión de 57.8%. La tasa de conexión en línea para las GPUs de Render Network es del 45.1%.

¿Qué implican los datos de la oferta mencionados anteriormente?

Para proporcionar una comparación, introduzcamos otro proyecto de computación distribuida más antiguo, Akash Network, para contrastar. Akash Network lanzó su mainnet tan temprano como en 2020, enfocándose inicialmente en servicios distribuidos para CPUs y almacenamiento. En junio de 2023, lanzó un testnet para servicios de GPU y puso en funcionamiento su mainnet para potencia de cómputo de GPU distribuido en septiembre del mismo año.

Fuente de datos: https://stats.akash.network/provider-graph/graphics-gpu

Según datos oficiales de Akash, aunque el lado de la oferta ha seguido creciendo, el número total de GPUs conectadas a su red solo ha alcanzado 365 hasta la fecha.

En términos de volumen de suministro de GPU, IO.NET es varias órdenes de magnitud mayor que Akash Network, lo que la convierte en la red de suministro más grande en la carrera de potencia informática distribuida de GPU.

Situation del lado de la demanda

Sin embargo, al observar el lado de la demanda, IO.NET todavía se encuentra en las primeras etapas de cultivo del mercado, y el volumen real de tareas de computación realizadas utilizando IO.NET no es grande. La mayoría de las GPU en línea tienen una carga de trabajo del 0%, con solo cuatro tipos de chips: A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S y H100 80GB HBM3, manejando tareas. Excepto por el A100 PCIe 80GB K8S, la carga de trabajo de los otros tres chips es inferior al 20%.

El valor oficial del estrés de la red divulgado el día de hoy es del 0%, lo que indica que la mayor parte del suministro de chips está en un estado de espera en línea. Mientras tanto, IO.NET ha generado un total de $586,029 en tarifas de servicio, con un costo en el último día que asciende a $3,200.

Fuente de datos: https://cloud.io.net/explorer/clusters

La escala de estas tarifas de liquidación de red, tanto en total como en volumen diario de transacciones, es del mismo orden de magnitud que Akash, aunque la mayor parte de los ingresos de la red de Akash provienen del segmento de CPU, con más de 20,000 CPUs suministradas.

Fuente de datos: https://stats.akash.network/

Además, IO.NET ha revelado datos sobre tareas de inferencia de IA procesadas por la red; hasta la fecha, ha procesado y verificado más de 230,000 tareas de inferencia, aunque la mayor parte de este volumen ha sido generado por proyectos patrocinados por IO.NET, como BC8.AI.

Fuente de datos: https://cloud.io.net/explorer/inferences

Basándose en los datos comerciales actuales, la expansión del lado de la oferta de IO.NET está progresando sin problemas, impulsada por la anticipación de las entregas gratuitas y un evento comunitario denominado 'Ignition', que ha acumulado rápidamente una cantidad significativa de potencia de cálculo de chips de inteligencia artificial. Sin embargo, la expansión del lado de la demanda todavía está en sus primeras etapas, con una demanda orgánica actualmente insuficiente. Queda por evaluar si la falta actual de demanda se debe a que la divulgación al consumidor aún no ha comenzado, o porque la experiencia de servicio actual no es lo suficientemente estable, careciendo así de una adopción generalizada.

Considerando la dificultad a corto plazo para cerrar la brecha en la potencia informática de la inteligencia artificial, muchos ingenieros y proyectos de IA están buscando soluciones alternativas, lo que puede despertar interés en proveedores de servicios descentralizados. Además, dado que IO.NET aún no ha iniciado incentivos económicos y de actividad para el lado de la demanda, junto con la mejora gradual de la experiencia del producto, todavía se espera con optimismo la eventual coincidencia de la oferta y la demanda.

2.3 Antecedentes del equipo y financiamiento

Equipo situación

El equipo principal de IO.NET inicialmente se centró en el trading cuantitativo, desarrollando sistemas de trading cuantitativo a nivel institucional para acciones y activos de criptomonedas hasta junio de 2022. Impulsado por la necesidad de potencia informática del sistema backend, el equipo comenzó a explorar las posibilidades de la computación descentralizada, centrándose en última instancia en la reducción del costo de los servicios de computación GPU.

Fundador y CEO: Ahmad Shadid, quien tiene experiencia en finanzas cuantitativas e ingeniería y también ha trabajado como voluntario en la Fundación Ethereum.

CMO y Director de Estrategia: Garrison Yang, quien se unió a IO.NET en marzo de este año. Anteriormente fue VP de Estrategia y Crecimiento en Avalanche y se graduó de la Universidad de California, Santa Bárbara.

COO: Tory Green, anteriormente COO en Hum Capital y Director de Desarrollo Corporativo y Estrategia en Fox Mobile Group, se graduó de Stanford.

Según la información de LinkedIn, IO.NET tiene su sede en Nueva York, EE. UU., con una sucursal en San Francisco, y el tamaño del equipo supera los 50 miembros.

Situation de financiamiento

Hasta ahora, IO.NET solo ha revelado una ronda de financiación, que es la Serie A completada en marzo de este año, valorada en 1 mil millones de dólares estadounidenses. Recaudó 30 millones de dólares liderados por Hack VC, con otros participantes que incluyen Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures y ArkStream Capital.

Vale la pena mencionar que quizás debido a la inversión de la Fundación Aptos, el proyecto BC8.AI, que originalmente liquidaba cuentas en Solana, ha cambiado a la cadena de bloques L1 de alto rendimiento Aptos.

2.4 Estimación de Valoración

Según el fundador y CEO de IO.NET, Ahmad Shadid, la empresa lanzará su token a finales de abril.

IO.NET tiene dos proyectos comparables para referencia de valoración: Render Network y Akash Network, ambos representativos de proyectos de computación distribuida.

Hay dos formas de extrapolar el rango de capitalización de mercado de IO.NET: 1. Relación precio-ventas (relación P/S), es decir, ratio de capitalización de mercado/ingresos; 2. Ratio de capitalización de mercado por chip de red.

Primero, veamos la extrapolación de valoración basada en la relación P/S:

Desde la perspectiva de la relación P/S, Akash puede servir como el límite inferior del rango de valoración de IO.NET, mientras que Render actúa como una referencia para la fijación de precios de alta valoración. Su rango de FDV (Valoración Diluida Total) oscila entre 1.67 mil millones de dólares y 5.93 mil millones de dólares.

Sin embargo, considerando las actualizaciones del proyecto IO.NET, su narrativa más candente, su menor capitalización de mercado circulante temprana y su escala actualmente más grande en el lado de la oferta, la probabilidad de que su FDV supere la de Render no es pequeña.

A continuación, veamos otra perspectiva de valoración, la "relación mercado-núcleo".

En un mercado donde la demanda de potencia informática de IA supera la oferta, el elemento más crucial de las redes distribuidas de potencia informática de IA es la escala de la oferta de GPU. Por lo tanto, podemos usar la "relación mercado-núcleo", la relación entre la capitalización total del proyecto y el número de chips en la red, para extrapolar el posible rango de valoración de IO.NET para los lectores como referencia del valor de mercado.

)

Si se calcula en función de la relación mercado-núcleo, con Render Network como límite superior y Akash Network como límite inferior, el rango de FDV para IO.NET está entre USD 20.6 mil millones y USD 197.5 mil millones.

Los lectores que son optimistas sobre el proyecto IO.NET considerarían esta una estimación de valor de mercado muy optimista.

Además, debemos considerar que el recuento actual de fichas en línea de IO.NET puede estar estimulado por las expectativas de airdrop y actividades de incentivos, y el recuento real en línea en el lado de la oferta aún necesita ser observado después de que el proyecto sea lanzado oficialmente.

Por lo tanto, en general, la estimación de valoración desde la perspectiva de la relación P/S puede ser más referencial.

IO.NET, como un proyecto que combina IA, DePIN y el ecosistema Solana, espera con gran anticipación su rendimiento en el mercado después del lanzamiento.

3. Información de referencia

Descargo de responsabilidad:

  1. Este artículo ha sido reimpreso de [ mintventures]. Todos los derechos de autor pertenecen al autor originalIO.NET. Si hay objeciones a esta reimpresión, por favor contacte al Gate Learnequipo, y lo resolverán rápidamente.
  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente las del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, copiar, distribuir o plagiar los artículos traducidos está prohibido.

Triple Halo del Ecosistema AI/DePIN/Sol: Analizando el Lanzamiento del Token IO.NET

Avanzado4/17/2024, 6:40:46 AM
Este artículo organizará la información clave del proyecto de computación descentralizada de IA: el proyecto IO.NET, incluyendo la lógica del producto, la situación competitiva y el trasfondo del proyecto. También proporciona estimaciones de valoración, analizando la valoración desde diferentes perspectivas a través del análisis de datos y ofreciendo un cálculo de referencia para la valoración.

Introducción

En mi artículo anterior, mencioné que en comparación con los dos ciclos anteriores, este ciclo de mercado alcista de criptomonedas carece de nuevas narrativas empresariales y de activos influyentes. La IA es una de las pocas nuevas narrativas en esta ronda del campo Web3. En este artículo, combinaré el proyecto de IA destacado de este año, IO.NET, para reflexionar sobre los siguientes dos problemas:

  1. La necesidad de AI+Web3 en los negocios

  2. La necesidad y desafíos de los servicios de computación distribuida

Además, organizaré la información clave del proyecto representativo en computación distribuida de IA: el proyecto IO.NET, incluyendo la lógica del producto, la situación competitiva y el trasfondo del proyecto. También profundizaré en la valoración del proyecto.

La parte de este artículo sobre la combinación de IA y Web3 fue inspirada por “The Real Merge” escrito por el investigador de Delphi Digital Michael Rinko. Algunas opiniones en este artículo resumen y citan ese documento, y recomiendo a los lectores que se refieran al original.

Este artículo representa mis pensamientos provisionales en el momento de su publicación. La situación puede cambiar en el futuro y los puntos de vista tienen una fuerte naturaleza subjetiva. También pueden contener errores factuales, de datos o de razonamiento. Por favor, no utilice esto como consejo de inversión, y agradezco las críticas y discusiones de mis colegas.

El siguiente es el texto principal.

1. Lógica empresarial: la intersección de la inteligencia artificial y Web3

1.1 2023: El Nuevo "Año Milagroso" Creado por AI

Mirando hacia atrás en la historia humana, una vez que hay un avance en la tecnología, todo, desde la vida diaria individual, hasta varios paisajes industriales, e incluso toda la civilización de la humanidad, experimenta cambios revolucionarios.

Hay dos años significativos en la historia de la humanidad, a saber, 1666 y 1905, que ahora se conocen como los dos grandes “años milagrosos” en la historia de la tecnología.

El año 1666 se considera un año milagroso porque los logros científicos de Newton surgieron prominentemente durante este tiempo. En ese año, fue pionero en la rama de la física conocida como óptica, fundó la rama matemática del cálculo y derivó la ley de la gravedad, una ley fundamental de la ciencia natural moderna. Cada uno de estos logros fue una contribución fundamental al desarrollo científico de la humanidad para el próximo siglo, acelerando significativamente el progreso general de la ciencia.

El segundo año milagroso fue 1905, cuando Einstein, con solo 26 años, publicó cuatro artículos seguidos en los "Annals of Physics", que cubrían el efecto fotoeléctrico (sentando las bases para la mecánica cuántica), el movimiento browniano (convirtiéndose en una referencia crucial para analizar procesos estocásticos), la teoría de la relatividad especial y la ecuación masa-energía (la famosa fórmula E=mc^2). En evaluaciones posteriores, cada uno de estos artículos se consideró que superaba el nivel medio del Premio Nobel de Física (Einstein también recibió el Premio Nobel por su artículo sobre el efecto fotoeléctrico), y una vez más, la progresión histórica de la civilización humana dio varios saltos gigantescos hacia adelante.

El año recién pasado de 2023 probablemente será llamado otro "año milagroso" debido a ChatGPT.

Consideramos el 2023 como otro "año milagroso" en la historia de la tecnología humana, no solo por los avances significativos que ha logrado GPT en la comprensión y generación de lenguaje natural, sino también porque la humanidad ha descifrado el patrón de crecimiento de los modelos de lenguaje grandes a partir de la evolución de GPT, es decir, al expandir los parámetros del modelo y los datos de entrenamiento, las capacidades del modelo pueden ser mejoradas de forma exponencial, y este proceso aún no muestra un cuello de botella a corto plazo (siempre y cuando haya suficiente potencia computacional).

Esta capacidad va mucho más allá de entender el lenguaje y generar diálogo, y se utiliza ampliamente en varios campos tecnológicos. Por ejemplo, en el campo biológico en 2018, la premio Nobel de Química, Frances Arnold, dijo durante la ceremonia de premiación: 'Hoy, en aplicaciones prácticas, podemos leer, escribir y editar cualquier secuencia de ADN, pero aún no podemos componerla'. Tan solo cinco años después de su discurso, en 2023, investigadores de la Universidad de Stanford y Salesforce Research en Silicon Valley publicaron un artículo en 'Nature Biotechnology'. Crearon 1 millón de nuevas proteínas desde cero utilizando un gran modelo de lenguaje ajustado de GPT3 e identificaron dos proteínas con estructuras distintas, ambas con capacidades antibacterianas, que podrían convertirse en una nueva solución para combatir las bacterias más allá de los antibióticos. Esto significa que el cuello de botella en la 'creación' de proteínas se ha roto con la ayuda de la inteligencia artificial.

Además, el algoritmo de IA AlphaFold predijo las estructuras de casi los 214 millones de proteínas en la Tierra en 18 meses, un logro que supera por cientos de veces los resultados colectivos de todos los biólogos estructurales en la historia.

Con modelos basados en IA en biotecnología, ciencia de materiales, desarrollo de medicamentos y otras ciencias duras, así como en humanidades como la ley y el arte, una transformación revolucionaria es inevitable, y 2023 es de hecho el año inaugural para todos estos avances.

Como todos sabemos, en el siglo pasado, la creación de riqueza humana ha crecido exponencialmente, y la rápida maduración de la tecnología de IA sin duda acelerará este proceso aún más.

Gráfico de tendencia del PIB mundial, fuente de datos: Banco Mundial

1.2 La Integración de IA y Cripto

Para comprender fundamentalmente la necesidad de integrar AI y Crypto, podemos comenzar desde sus características complementarias.

Características complementarias de IA y criptografía

AI posee tres atributos:

  1. Aleatoriedad: La IA muestra aleatoriedad; el mecanismo detrás de su producción de contenido es una caja negra que es difícil de replicar e inspeccionar, por lo tanto, los resultados también son aleatorios.

  2. Intensivo en recursos: AI es una industria intensiva en recursos que requiere cantidades significativas de energía, chips y potencia de cálculo.

  3. Inteligencia similar a la humana: AI pronto podrá pasar la prueba de Turing, lo que hará que sea difícil distinguir entre humanos y máquinas.

El 30 de octubre de 2023, un equipo de investigación de la Universidad de California, San Diego, publicó los resultados de la prueba de Turing para GPT-3.5 y GPT-4.0. GPT-4.0 obtuvo un puntaje del 41%, solo un 9% por debajo de la marca de aprobación del 50%, mientras que los participantes humanos obtuvieron un 63%. El significado de esta prueba de Turing es el porcentaje de personas que creen que su interlocutor en la conversación es humano. Si más del 50% lo cree, indica que al menos la mitad de las personas consideran que la entidad conversacional es humana, no una máquina, por lo que se considera que pasa la prueba de Turing.

Mientras que la IA crea una nueva productividad revolucionaria para la humanidad, sus tres atributos también plantean desafíos significativos para la sociedad humana, incluyendo:

  • Cómo verificar y controlar la aleatoriedad de la IA, convirtiendo la aleatoriedad de una falla en una ventaja.

  • Cómo satisfacer las importantes necesidades de energía y potencia computacional de la IA.

  • Cómo diferenciar entre humanos y máquinas.

La economía de la criptografía y la cadena de bloques bien podrían ser el remedio a los desafíos planteados por la inteligencia artificial. La economía criptográfica tiene las siguientes tres características:

  1. Determinismo: Las operaciones comerciales se basan en la cadena de bloques, el código y los contratos inteligentes, con reglas y límites claros; la entrada dicta el resultado, asegurando una alta determinación.

  2. Asignación eficiente de recursos: La economía criptográfica ha construido un gran mercado global libre donde la fijación de precios, recaudación de fondos y circulación de recursos son muy rápidas. Debido a la presencia de tokens, los incentivos pueden acelerar la coincidencia entre la oferta y la demanda del mercado, alcanzando puntos críticos más rápidamente.

  3. Sin confianza: Con libros de contabilidad públicos y código abierto, cualquiera puede verificar fácilmente las operaciones, lo que lleva a un sistema “sin confianza”. Además, la tecnología ZK (Zero-Knowledge) evita la exposición de la privacidad durante la verificación.

Ilustremos la complementariedad entre la IA y la economía cripto con tres ejemplos.

Ejemplo A: Abordando la Aleatoriedad, Agentes de IA Basados en la Economía Cripto

Los agentes de inteligencia artificial, como los de Fetch.AI, están diseñados para actuar según la voluntad humana y realizar tareas en nombre de los humanos. Si queremos que nuestro agente de inteligencia artificial maneje una transacción financiera, como "comprar $1000 de BTC", podría enfrentar dos escenarios:

  • Escenario Uno: Necesita interactuar con instituciones financieras tradicionales (como BlackRock) para comprar ETF de BTC, enfrentando numerosos problemas de compatibilidad con agentes de IA e instituciones centralizadas, como KYC, revisión de documentación, inicio de sesión y verificación de identidad, que actualmente son bastante engorrosos.

  • Escenario Dos: Opera basado en la economía cripto nativa, mucho más simple; podría ejecutar transacciones directamente a través de Uniswap o una plataforma de trading agregada similar utilizando la firma de su cuenta, completando la transacción de manera rápida y sencilla para recibir WBTC (u otra forma envuelta de BTC). Básicamente, esto es lo que varios bots de trading ya están haciendo, aunque enfocados únicamente en el trading por ahora. A medida que la IA se integra y evoluciona, sin duda los futuros bots de trading serán capaces de ejecutar intenciones de trading más complejas, como rastrear las estrategias de trading y tasas de éxito de 100 direcciones de dinero inteligente en la blockchain, ejecutar transacciones similares con el 10% de mis fondos durante una semana, y detenerse y resumir las razones del fracaso si los resultados no son satisfactorios.

La IA funciona mejor dentro de los sistemas blockchain principalmente debido a la claridad de las reglas criptoeconómicas y el acceso no restringido al sistema. Dentro de estas reglas definidas, los posibles riesgos que trae la aleatoriedad de la IA se minimizan. Por ejemplo, la IA ya ha superado a los humanos en juegos de cartas y videojuegos debido al claro y cerrado sandbox de reglas. Sin embargo, el progreso en la conducción autónoma es relativamente lento debido a los desafíos del entorno externo abierto, y somos menos tolerantes a la aleatoriedad en la resolución de problemas de la IA en tales entornos.

Ejemplo B: Dar forma a los recursos a través de incentivos de Token**

La red global detrás de BTC, con una tasa total de hash actual de 576.70 EH/s, supera la potencia computacional combinada de cualquier supercomputadora de un país. Su desarrollo está impulsado por un incentivo de red simple y justo.

Tendencia de la potencia informática de la red BTC, fuente:https://www.coinwarz.com/

Además, proyectos como DePIN de Mobile intentan dar forma a un mercado de oferta y demanda a través de incentivos con tokens, con el objetivo de lograr efectos de red. El enfoque de la siguiente discusión en este artículo, IO.NET, es una plataforma diseñada para agregar potencia computacional de IA, con la esperanza de liberar más potencial de IA a través de un modelo de tokens.

Ejemplo C: código de código abierto, introducción de Pruebas de Conocimiento Cero (ZK) para diferenciar humanos de máquinas mientras se protege la privacidad

Como proyecto Web3 que implica al fundador de OpenAI, Sam Altman, Worldcoin utiliza un dispositivo de hardware llamado Orb, que genera un valor hash único y anónimo basado en la biometría del iris humano a través de la tecnología ZK para verificar la identidad y diferenciar humanos de máquinas. A principios de marzo de este año, el proyecto de arte Web3 Drip comenzó a utilizar la identificación de Worldcoin para verificar usuarios humanos reales y distribuir recompensas.

Además, Worldcoin ha abierto recientemente el código del programa de su hardware de reconocimiento de iris Orb, asegurando la seguridad y privacidad de los datos biométricos del usuario.

En general, la economía criptográfica se ha convertido en una solución potencial significativa a los desafíos planteados por la IA a la sociedad humana, debido a la certeza del código y la criptografía, las ventajas de la circulación de recursos y la recaudación de fondos aportados por los mecanismos de token, y la naturaleza sin confianza basada en el código fuente abierto y los libros mayores públicos.

El desafío más urgente y comercialmente exigente es el hambre extrema de recursos computacionales por parte de los productos de IA, que gira en torno a la enorme demanda de chips y potencia computacional.

Esta es también la razón principal por la cual los proyectos de cómputo distribuido han liderado la pista general de IA en este ciclo de mercado alcista.

La necesidad comercial de la informática descentralizada

La inteligencia artificial requiere recursos computacionales sustanciales, tanto para entrenar modelos como para inferencia.

En la práctica de entrenar grandes modelos de lenguaje, se ha confirmado que siempre que la escala de los parámetros de datos sea suficientemente grande, surgen nuevas capacidades que no estaban presentes antes. Cada generación de GPT muestra un salto exponencial en capacidades en comparación con su predecesor, respaldado por un crecimiento exponencial en el volumen computacional necesario para el entrenamiento del modelo.

La investigación realizada por DeepMind y la Universidad de Stanford muestra que diferentes modelos de lenguaje grandes, al enfrentarse a diversas tareas (cálculo, preguntas y respuestas en persa, comprensión del lenguaje natural, etc.), tienen un rendimiento similar a respuestas aleatorias hasta que el entrenamiento alcanza menos de 10^22 FLOPs (FLOPs denota operaciones de punto flotante por segundo, una medida del rendimiento computacional); sin embargo, una vez que la escala de parámetros supera ese umbral crítico, el rendimiento de cualquier tarea mejora drásticamente, independientemente del modelo de lenguaje.

Origen: Habilidades emergentes de modelos de lenguaje grandes

Habilidades emergentes de modelos de lenguaje grandes

Es precisamente el principio de "lograr milagros con gran poder de cálculo" y su verificación práctica lo que llevó a Sam Altman, fundador de OpenAI, a proponer recaudar 7 billones de dólares estadounidenses para construir una fábrica de chips avanzada que sea diez veces más grande que la actual TSMC. Se espera que se gasten 1,5 billones de dólares en esta parte, con los fondos restantes utilizados para la producción de chips y el entrenamiento del modelo.

Además del entrenamiento de modelos de IA, el proceso de inferencia de los propios modelos también requiere una gran potencia de cálculo, aunque menos que la necesaria para el entrenamiento. Por lo tanto, el deseo de chips y potencia de cálculo se ha convertido en una norma entre los competidores de IA.

En comparación con proveedores centralizados de computación de IA como Amazon Web Services, Google Cloud Platform y Azure de Microsoft, las principales propuestas de valor de la computación de IA distribuida incluyen:

  • Acceder a chips de computación a través de servicios en la nube como AWS, GCP o Azure suele llevar semanas, y los modelos populares de GPU a menudo están agotados. Además, para obtener potencia de cómputo, los consumidores a menudo necesitan firmar contratos a largo plazo e inflexibles con estas grandes empresas. En contraste, las plataformas de computación distribuida pueden proporcionar opciones de hardware flexibles con una mayor accesibilidad.
  • Precios más bajos: Al utilizar chips inactivos, combinados con subsidios de tokens del protocolo de red para proveedores de chips y potencia informática, las redes de computación distribuida pueden ofrecer una potencia informática más asequible.
  • Resistencia a la censura: Actualmente, los chips de computación de vanguardia y los suministros están monopolizados por grandes empresas tecnológicas. Además, los gobiernos liderados por Estados Unidos están intensificando la vigilancia sobre los servicios de computación de inteligencia artificial. La capacidad de adquirir potencia de cálculo de manera distribuida, flexible y gratuita está convirtiéndose en una demanda clara, que también es una propuesta de valor fundamental de las plataformas de servicios informáticos basados en web3.

Si los combustibles fósiles fueron la sangre vital de la era industrial, entonces es probable que el poder informático sea la sangre vital de la nueva era digital inaugurada por la inteligencia artificial, con el suministro de poder informático convirtiéndose en la infraestructura de la era de la inteligencia artificial. Así como las stablecoins se han convertido en un sólido producto derivado de la moneda fiduciaria en la era Web3, ¿podría el mercado de computación distribuida convertirse en un producto derivado de rápido crecimiento del mercado de computación de inteligencia artificial?

Dado que este mercado todavía está en una etapa relativamente temprana, todo sigue bajo observación. Sin embargo, los siguientes factores podrían potencialmente estimular la narrativa o la adopción del mercado de la computación distribuida:

  • La continua tensión entre la oferta y la demanda de GPU. La tensión continua en la oferta de GPU podría animar a algunos desarrolladores a recurrir a plataformas de computación distribuida.
  • Expansión regulatoria. Acceder a los servicios de computación AI de las grandes plataformas de computación en la nube requiere KYC y un escrutinio exhaustivo. Esto podría en cambio fomentar la adopción de plataformas de computación distribuida, especialmente en regiones que enfrentan restricciones y sanciones.
  • Incentivos de precio del Token. Los ciclos alcistas del mercado y el aumento de los precios de los tokens aumentan el valor de la subvención para el lado de la oferta de GPU, atrayendo a más proveedores al mercado, aumentando el tamaño del mercado y reduciendo el precio de compra real para los consumidores.

Sin embargo, los desafíos a los que se enfrentan las plataformas de cómputo distribuido también son bastante evidentes:

  • Desafíos técnicos e ingenieriles
  • Problemas de Prueba de Trabajo: La computación para modelos de aprendizaje profundo, debido a su estructura jerárquica donde la salida de cada capa sirve como entrada para la siguiente, requiere ejecutar todo el trabajo previo para verificar la validez de la computación. Esto no puede ser verificado de manera simple y efectiva. Para abordar este problema, las plataformas de computación distribuida necesitan desarrollar nuevos algoritmos o utilizar técnicas de verificación aproximada, que pueden proporcionar garantías probabilísticas de la corrección de los resultados, en lugar de certeza absoluta.
  • Desafíos de la paralelización: Las plataformas de computación distribuida recopilan la larga cola de suministro de chips, lo que significa que los dispositivos individuales solo pueden ofrecer una potencia de cálculo limitada. Un único proveedor de chips difícilmente puede completar las tareas de entrenamiento o inferencia de un modelo de IA de forma independiente en un corto período de tiempo, por lo que las tareas deben descomponerse y distribuirse a través de la paralelización para acortar el tiempo total de finalización. La paralelización también enfrenta inevitablemente problemas como la descomposición de tareas (especialmente tareas complejas de aprendizaje profundo), la dependencia de datos y costos de comunicación adicionales entre dispositivos.
  • Protección de la privacidad: ¿Cómo asegurar que los datos y modelos de la parte compradora no se expongan a los destinatarios de la tarea?

Desafíos de cumplimiento normativo

  • Debido a la naturaleza no autorizada de los mercados duales de suministro y adquisición de plataformas de computación distribuida, pueden atraer a ciertos clientes como puntos de venta. Por otro lado, pueden convertirse en objetivos de la regulación gubernamental a medida que se perfeccionen los estándares regulatorios de la inteligencia artificial. Además, algunos proveedores de GPU pueden preocuparse por si sus recursos informáticos arrendados se están proporcionando a empresas o individuos sancionados.

En general, los consumidores de plataformas de computación distribuida son principalmente desarrolladores profesionales o instituciones pequeñas a medianas, a diferencia de los inversores en criptomonedas y NFT que difieren en sus expectativas sobre la estabilidad y continuidad de los servicios ofrecidos por el protocolo. El precio puede no ser su principal motivo en la toma de decisiones. Por ahora, parece que las plataformas de computación distribuida aún tienen un largo camino por recorrer para ganarse la aprobación de dichos usuarios.

A continuación, organizaremos y analizaremos la información del proyecto para un nuevo proyecto de computación distribuida en este ciclo, IO.NET, y estimaremos su posible valoración de mercado después de la lista, basándonos en los competidores actuales del mercado en los sectores de IA y computación distribuida.

2. Plataforma de Computación de IA Distribuida: IO.NETPlataforma de Computación de IA Distribuida: IO.NET

2.1 Posicionamiento del Proyecto

IO.NET es una red informática descentralizada que ha establecido un mercado bilateral centrado en chips. El lado de la oferta está compuesto por chips (principalmente GPUs, pero también CPUs y iGPUs de Apple) distribuidos a nivel mundial, mientras que el lado de la demanda está formado por ingenieros de inteligencia artificial que buscan realizar tareas de entrenamiento o inferencia de modelos de IA.

Como se indica en el sitio web oficial de IO.NET:

Nuestra Misión

Reuniendo un millón de GPU en un DePIN - red de infraestructura física descentralizada.

La misión es integrar millones de GPUs en su red DePIN.

En comparación con los proveedores de servicios de computación en la nube de IA existentes, IO.NET enfatiza los siguientes puntos clave de venta:

  • Combinación flexible: los ingenieros de IA pueden seleccionar y combinar libremente los chips que necesitan para formar "Clusters" y completar sus tareas de cómputo.
  • Implementación rápida: La implementación puede completarse en segundos, sin las semanas de aprobación y espera típicamente requeridas por proveedores centralizados como AWS.
  • Servicio rentable: El costo de los servicios es un 90% menor que el de los proveedores principales.

Además, IO.NET planea lanzar servicios como una tienda de modelos de IA en el futuro.

Mecanismo del producto y datos comerciales 2.2

Mecanismo del producto y experiencia de implementación

Similar to Amazon Cloud, Google Cloud, and Alibaba Cloud, the computing service provided by IO.NET is called IO Cloud. IO Cloud is a distributed, decentralized network of chips capable of executing Python-based machine learning code and running AI and machine learning programs.

El módulo básico de negocios de IO Cloud se llama "Clusters". Los Clusters son grupos de GPUs que pueden coordinarse de forma autónoma para completar tareas de computación. Los ingenieros de inteligencia artificial pueden personalizar sus Clusters deseados según sus necesidades.

La interfaz de productos de IO.NET es muy fácil de usar. Si necesita implementar sus propios clústeres de chips para completar tareas de computación de IA, puede comenzar a configurar sus clústeres de chips deseados tan pronto como ingrese a la página de productos de Clústeres en su sitio web.

Información de la página: https://cloud.io.net/cloud/clusters/create-cluster, lo mismo abajo

Primero, necesitas seleccionar tu escenario de proyecto, y actualmente, hay tres tipos disponibles:

  1. General (tipo genérico): Proporciona un entorno más genérico, adecuado para las primeras etapas del proyecto cuando las necesidades de recursos específicos son inciertas.

  2. Train (Tipo de entrenamiento): Diseñado para el entrenamiento y ajuste fino de modelos de aprendizaje automático. Esta opción ofrece recursos adicionales de GPU, mayor capacidad de memoria y/o conexiones de red más rápidas para manejar estas tareas computacionales intensivas.

  3. Inferencia (tipo de inferencia): Diseñado para inferencia de baja latencia y tareas de alta carga. En el contexto del aprendizaje automático, la inferencia se refiere al uso de modelos entrenados para predecir o analizar nuevos datos y proporcionar retroalimentación. Por lo tanto, esta opción se centra en optimizar la latencia y el rendimiento para respaldar las necesidades de procesamiento de datos en tiempo real o casi en tiempo real.

A continuación, necesitas elegir al proveedor para los Clústeres de chips. Actualmente, IO.NET tiene asociaciones con Render Network y la red minera de Filecoin, lo que permite a los usuarios elegir chips de IO.NET o de las otras dos redes como proveedor de sus clústeres de computación. IO.NET actúa como un agregador (aunque, en el momento de escribir esto, el servicio de Filecoin está temporalmente fuera de línea). Es importante destacar que, según la página de visualización, la cantidad de GPU disponibles en línea para IO.NET es de más de 200,000, mientras que para Render Network es de más de 3,700.

Finalmente, ingresas a la fase de selección de hardware de chips para los Clusters. Actualmente, IO.NET solo enumera GPUs para selección, excluyendo CPUs o iGPUs de Apple (M1, M2, etc.), y las GPUs principalmente presentan productos NVIDIA.

En la lista oficial de opciones de hardware de GPU disponibles, según los datos probados por el autor en ese día, el número total de GPU disponibles en línea en la red IO.NET es de 206,001. De estos, la GeForce RTX 4090 tiene la mayor disponibilidad con 45,250 unidades, seguida de la GeForce RTX 3090 Ti con 30,779 unidades.

Además, el chip A100-SXM4-80GB, que es más eficiente para tareas de computación de inteligencia artificial como aprendizaje automático, aprendizaje profundo y computación científica (precio de mercado superior a $15,000), tiene 7,965 unidades en línea.

La tarjeta gráfica NVIDIA H100 80GB HBM3, diseñada específicamente desde cero para la inteligencia artificial (precio de mercado de más de $40,000), tiene un rendimiento de entrenamiento 3.3 veces superior al de la A100 y un rendimiento de inferencia 4.5 veces superior al de la A100, con un total de 86 unidades en línea.

Después de seleccionar el tipo de hardware para los Clústeres, los usuarios también necesitan elegir la región, la velocidad de comunicación, la cantidad de GPUs alquiladas y la duración del alquiler, entre otros parámetros.

Finalmente, IO.NET proporcionará una factura basada en la selección integral. Por ejemplo, en la configuración de Clusters del autor:

  • Escenario general de tarea
  • 16 chips A100-SXM4-80GB
  • Conexión ultrarrápida
  • Ubicado en los Estados Unidos
  • Período de alquiler de 1 semana

La factura total es $3311.6, con un precio por hora por tarjeta de $1.232

En comparación, los precios de alquiler por hora del A100-SXM4-80GB en Amazon Cloud, Google Cloud y Microsoft Azure son de $5.12, $5.07 y $3.67, respectivamente (fuente de datos: https://cloud-gpus.com/, los precios reales pueden variar según los detalles del contrato).

Por lo tanto, en términos puramente de precio, la potencia informática de IO.NET es significativamente más barata que la de los fabricantes principales, y las opciones de suministro y adquisición son muy flexibles, lo que facilita el inicio.

Condiciones comerciales

Situation de la oferta

A partir del 4 de abril de este año, según datos oficiales, IO.NET tiene un suministro total de 371,027 GPUs y 42,321 CPUs en el lado del suministro. Además, Render Network, como su socio, también ha conectado 9,997 GPUs y 776 CPUs al suministro de la red.

Fuente de datos: https://cloud.io.net/explorer/home, lo mismo abajo

A la fecha de la redacción de este artículo, 214,387 de las GPUs conectadas por IO.NET están en línea, con una tasa de conexión de 57.8%. La tasa de conexión en línea para las GPUs de Render Network es del 45.1%.

¿Qué implican los datos de la oferta mencionados anteriormente?

Para proporcionar una comparación, introduzcamos otro proyecto de computación distribuida más antiguo, Akash Network, para contrastar. Akash Network lanzó su mainnet tan temprano como en 2020, enfocándose inicialmente en servicios distribuidos para CPUs y almacenamiento. En junio de 2023, lanzó un testnet para servicios de GPU y puso en funcionamiento su mainnet para potencia de cómputo de GPU distribuido en septiembre del mismo año.

Fuente de datos: https://stats.akash.network/provider-graph/graphics-gpu

Según datos oficiales de Akash, aunque el lado de la oferta ha seguido creciendo, el número total de GPUs conectadas a su red solo ha alcanzado 365 hasta la fecha.

En términos de volumen de suministro de GPU, IO.NET es varias órdenes de magnitud mayor que Akash Network, lo que la convierte en la red de suministro más grande en la carrera de potencia informática distribuida de GPU.

Situation del lado de la demanda

Sin embargo, al observar el lado de la demanda, IO.NET todavía se encuentra en las primeras etapas de cultivo del mercado, y el volumen real de tareas de computación realizadas utilizando IO.NET no es grande. La mayoría de las GPU en línea tienen una carga de trabajo del 0%, con solo cuatro tipos de chips: A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S y H100 80GB HBM3, manejando tareas. Excepto por el A100 PCIe 80GB K8S, la carga de trabajo de los otros tres chips es inferior al 20%.

El valor oficial del estrés de la red divulgado el día de hoy es del 0%, lo que indica que la mayor parte del suministro de chips está en un estado de espera en línea. Mientras tanto, IO.NET ha generado un total de $586,029 en tarifas de servicio, con un costo en el último día que asciende a $3,200.

Fuente de datos: https://cloud.io.net/explorer/clusters

La escala de estas tarifas de liquidación de red, tanto en total como en volumen diario de transacciones, es del mismo orden de magnitud que Akash, aunque la mayor parte de los ingresos de la red de Akash provienen del segmento de CPU, con más de 20,000 CPUs suministradas.

Fuente de datos: https://stats.akash.network/

Además, IO.NET ha revelado datos sobre tareas de inferencia de IA procesadas por la red; hasta la fecha, ha procesado y verificado más de 230,000 tareas de inferencia, aunque la mayor parte de este volumen ha sido generado por proyectos patrocinados por IO.NET, como BC8.AI.

Fuente de datos: https://cloud.io.net/explorer/inferences

Basándose en los datos comerciales actuales, la expansión del lado de la oferta de IO.NET está progresando sin problemas, impulsada por la anticipación de las entregas gratuitas y un evento comunitario denominado 'Ignition', que ha acumulado rápidamente una cantidad significativa de potencia de cálculo de chips de inteligencia artificial. Sin embargo, la expansión del lado de la demanda todavía está en sus primeras etapas, con una demanda orgánica actualmente insuficiente. Queda por evaluar si la falta actual de demanda se debe a que la divulgación al consumidor aún no ha comenzado, o porque la experiencia de servicio actual no es lo suficientemente estable, careciendo así de una adopción generalizada.

Considerando la dificultad a corto plazo para cerrar la brecha en la potencia informática de la inteligencia artificial, muchos ingenieros y proyectos de IA están buscando soluciones alternativas, lo que puede despertar interés en proveedores de servicios descentralizados. Además, dado que IO.NET aún no ha iniciado incentivos económicos y de actividad para el lado de la demanda, junto con la mejora gradual de la experiencia del producto, todavía se espera con optimismo la eventual coincidencia de la oferta y la demanda.

2.3 Antecedentes del equipo y financiamiento

Equipo situación

El equipo principal de IO.NET inicialmente se centró en el trading cuantitativo, desarrollando sistemas de trading cuantitativo a nivel institucional para acciones y activos de criptomonedas hasta junio de 2022. Impulsado por la necesidad de potencia informática del sistema backend, el equipo comenzó a explorar las posibilidades de la computación descentralizada, centrándose en última instancia en la reducción del costo de los servicios de computación GPU.

Fundador y CEO: Ahmad Shadid, quien tiene experiencia en finanzas cuantitativas e ingeniería y también ha trabajado como voluntario en la Fundación Ethereum.

CMO y Director de Estrategia: Garrison Yang, quien se unió a IO.NET en marzo de este año. Anteriormente fue VP de Estrategia y Crecimiento en Avalanche y se graduó de la Universidad de California, Santa Bárbara.

COO: Tory Green, anteriormente COO en Hum Capital y Director de Desarrollo Corporativo y Estrategia en Fox Mobile Group, se graduó de Stanford.

Según la información de LinkedIn, IO.NET tiene su sede en Nueva York, EE. UU., con una sucursal en San Francisco, y el tamaño del equipo supera los 50 miembros.

Situation de financiamiento

Hasta ahora, IO.NET solo ha revelado una ronda de financiación, que es la Serie A completada en marzo de este año, valorada en 1 mil millones de dólares estadounidenses. Recaudó 30 millones de dólares liderados por Hack VC, con otros participantes que incluyen Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures y ArkStream Capital.

Vale la pena mencionar que quizás debido a la inversión de la Fundación Aptos, el proyecto BC8.AI, que originalmente liquidaba cuentas en Solana, ha cambiado a la cadena de bloques L1 de alto rendimiento Aptos.

2.4 Estimación de Valoración

Según el fundador y CEO de IO.NET, Ahmad Shadid, la empresa lanzará su token a finales de abril.

IO.NET tiene dos proyectos comparables para referencia de valoración: Render Network y Akash Network, ambos representativos de proyectos de computación distribuida.

Hay dos formas de extrapolar el rango de capitalización de mercado de IO.NET: 1. Relación precio-ventas (relación P/S), es decir, ratio de capitalización de mercado/ingresos; 2. Ratio de capitalización de mercado por chip de red.

Primero, veamos la extrapolación de valoración basada en la relación P/S:

Desde la perspectiva de la relación P/S, Akash puede servir como el límite inferior del rango de valoración de IO.NET, mientras que Render actúa como una referencia para la fijación de precios de alta valoración. Su rango de FDV (Valoración Diluida Total) oscila entre 1.67 mil millones de dólares y 5.93 mil millones de dólares.

Sin embargo, considerando las actualizaciones del proyecto IO.NET, su narrativa más candente, su menor capitalización de mercado circulante temprana y su escala actualmente más grande en el lado de la oferta, la probabilidad de que su FDV supere la de Render no es pequeña.

A continuación, veamos otra perspectiva de valoración, la "relación mercado-núcleo".

En un mercado donde la demanda de potencia informática de IA supera la oferta, el elemento más crucial de las redes distribuidas de potencia informática de IA es la escala de la oferta de GPU. Por lo tanto, podemos usar la "relación mercado-núcleo", la relación entre la capitalización total del proyecto y el número de chips en la red, para extrapolar el posible rango de valoración de IO.NET para los lectores como referencia del valor de mercado.

)

Si se calcula en función de la relación mercado-núcleo, con Render Network como límite superior y Akash Network como límite inferior, el rango de FDV para IO.NET está entre USD 20.6 mil millones y USD 197.5 mil millones.

Los lectores que son optimistas sobre el proyecto IO.NET considerarían esta una estimación de valor de mercado muy optimista.

Además, debemos considerar que el recuento actual de fichas en línea de IO.NET puede estar estimulado por las expectativas de airdrop y actividades de incentivos, y el recuento real en línea en el lado de la oferta aún necesita ser observado después de que el proyecto sea lanzado oficialmente.

Por lo tanto, en general, la estimación de valoración desde la perspectiva de la relación P/S puede ser más referencial.

IO.NET, como un proyecto que combina IA, DePIN y el ecosistema Solana, espera con gran anticipación su rendimiento en el mercado después del lanzamiento.

3. Información de referencia

Descargo de responsabilidad:

  1. Este artículo ha sido reimpreso de [ mintventures]. Todos los derechos de autor pertenecen al autor originalIO.NET. Si hay objeciones a esta reimpresión, por favor contacte al Gate Learnequipo, y lo resolverán rápidamente.
  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente las del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, copiar, distribuir o plagiar los artículos traducidos está prohibido.
ابدأ التداول الآن
اشترك وتداول لتحصل على جوائز ذهبية بقيمة
100 دولار أمريكي
و
5500 دولارًا أمريكيًا
لتجربة الإدارة المالية الذهبية!