A medida que Nvidia toma la delantera en la ocupación del mercado de chips de potencia informática de modelos grandes de IA, su valor de mercado supera el billón. Al mismo tiempo, Intel, AMD y las empresas chinas de chips GPU también compiten en secreto con la esperanza de obtener una parte del mercado de chips de potencia de computación de IA.
**El 19 de septiembre, en la conferencia de innovación tecnológica Intel On celebrada en San José, Estados Unidos, **Pat Gelsinger, director ejecutivo de Intel, de 62 años, estaba "lleno de energía" y comenzó su discurso con flexiones.
En esta reunión, Gelsinger lanzó una serie de nuevos productos tecnológicos de una sola vez: el procesador Intel Core Ultra basado en el proceso Intel 4 (5 nm), con nombre en código "Meteor Lake"; presentó una vista previa del chip de servidor Xeon de quinta generación y la hoja de ruta de los productos Xeon posteriores. ; reveló el chip AI de 5 nm Gaudí 3, etc.
El CEO de Intel, Pat Gelsinger, hace flexiones en el acto
En comparación con sesiones anteriores, esta vez Kissinger "se transformó en un anciano vestido de cuero" y habló sobre el papel de la potencia informática de la IA en la economía durante casi dos horas. Según las estadísticas de la aplicación TMTpost, Kissinger mencionó términos relacionados con "inteligencia artificial" y "aprendizaje profundo" unas 200 veces en este discurso.
Casi al mismo tiempo, Intel y el competidor de Nvidia, AMD, lanzaron el último chip de CPU (unidad central de procesamiento) EPYC 8004 y esperaban enviar chips de IA de la serie MI300 antes de fin de año para competir con Nvidia. Además, en China, los fabricantes de chips de IA, incluidos Huawei y Tianshu Zhixin, también están implementando activamente productos de potencia informática de IA y inferencia de entrenamiento de modelos grandes.
"Competimos muy ferozmente con NVIDIA, el líder del mercado en chips de potencia informática de IA. Pero tanto Gaudi2 como Gaudi3 son un gran paso adelante que ellos. Estamos ganando impulso y el mercado está empezando a darse cuenta de que entre los líderes en IA. La industria de chips tiene otra oportunidad", dijo Kissinger a CNBC el 20 de septiembre.
La competencia en el mercado se intensifica y es difícil para el "Viejo Huang" monopolizar billones de potencia informática de IA
Desde 2023 hasta ahora, la "locura" de los grandes modelos de IA representados por ChatGPT se ha extendido por todo el mundo, y los grandes modelos están promoviendo el desarrollo de la IA en una dirección más general.
Al mismo tiempo, la escasez y el coste de la potencia informática se han convertido en factores fundamentales que restringen el desarrollo de la IA. La potencia informática también se ha convertido en una piedra angular importante de la transformación digital e inteligente de toda la sociedad, impulsando así un aumento en la demanda de potencia informática inteligente.
Según los datos proporcionados por Lisa Su, directora ejecutiva de AMD, el mercado potencial total para los aceleradores de IA de centros de datos globales alcanzará aproximadamente los 30 mil millones de dólares en 2023, y se espera que esta cifra supere los 150 mil millones de dólares para 2027 (aproximadamente 1,095 billones de RMB), con una tasa de crecimiento anual compuesta de más del 50%.
Manuvir Das, vicepresidente de informática empresarial de Nvidia, proporcionó otro conjunto de datos que muestran que se espera que el mercado potencial (TAM) para la IA crezca hasta los 600 mil millones de dólares. Entre ellos, los chips y sistemas pueden obtener 300 mil millones de dólares, el software de inteligencia artificial generativa puede obtener 150 mil millones de dólares y los otros 150 mil millones de dólares serán aportados por el software empresarial de NVIDIA.
**Obviamente, el mercado de chips de potencia informática de IA es un gran "pastel". **
Pero actualmente, NVIDIA ocupa el 82% del mercado global de aceleración de IA de centros de datos y monopoliza el mercado global de entrenamiento de IA con una participación de mercado del 95%, convirtiéndose en el mayor ganador en esta ronda de lucha cuerpo a cuerpo de IA. Huang Renxun y su empresa Nvidia están ganando mucho dinero, con un valor de mercado de más de 1 billón de dólares estadounidenses.
Al mismo tiempo, el aumento en la demanda de potencia informática ha provocado directamente que la GPU (unidad de procesamiento de gráficos) NVIDIA sea "difícil de encontrar". La cantidad de tarjetas gráficas Nvidia A100 se ha convertido en un estándar para medir la potencia informática de una empresa.
** De hecho, si una empresa quiere desarrollar un modelo grande de uso general, primero debe prestar atención a dos puntos en términos de potencia informática: la cantidad y el precio de las tarjetas gráficas. **
**Entre ellos, en términos de cantidad de tarjetas gráficas, **OpenAI utiliza entre 10.000 y 30.000 GPU NVIDIA para entrenar el modelo GPT-3.5. Según el último informe de TrendForce, si se calcula en función de la potencia de procesamiento de las tarjetas gráficas NVIDIA A100, ejecutar ChatGPT puede requerir el uso de 30.000 tarjetas gráficas GPU NVIDIA. Además, en términos de modelos de código abierto, el modelo Llama se entrena en 2048 A100 de 80 GB, y toda la potencia informática de entrenamiento se acerca a 2000 PTOPS.
En términos de precio, el precio del H800 actualmente disponible en China ha llegado a 200.000/pieza, mientras que el precio del A100/A800 ha aumentado a alrededor de 150.000 y 100.000/pieza. Tomando como ejemplo el requisito de potencia informática de 2000P, la GPU H800 tiene una potencia informática de una sola tarjeta de 2P y requiere 1.000 tarjetas gráficas. El precio estimado de la tarjeta completa es de 200 millones de yuanes, la potencia informática de una sola tarjeta A800 es de aproximadamente 0,625P y la cantidad requerida es 3200 tarjetas gráficas y el precio estimado de la tarjeta gráfica completa es de hasta 320 millones de yuanes.
Además de comprar una tarjeta gráfica GPU, el servidor también debe considerar la configuración y el cálculo de toda la máquina, incluida la CPU, el almacenamiento, las conexiones de comunicación NV-Link, etc., así como factores como el consumo de energía, el alquiler del sitio, y costos de operación y mantenimiento.
En la actualidad, los servidores A800 y H800 son principalmente modelos de 8 tarjetas. Para alcanzar la potencia informática de 2000 P, es necesario configurar 125 servidores H800 de 8 tarjetas o 400 servidores A800 de 8 tarjetas. Los precios son 300 millones de yuanes. y 560 millones de yuanes respectivamente. Además, como el H800 también admite PCIe 5.0, una nueva generación de CPU y memoria, es necesario aumentar el precio para lograr un rendimiento informático óptimo.
Por lo tanto, desde la perspectiva del entrenamiento de modelos grandes, el costo total de comprar H800 es menor que el de A800, que es más rentable y menor que el costo de construir una CPU, esto es lo que solía decir el CEO de Nvidia, Jen-Hsun Huang. Recientemente: "Cuanto más compre, más rentable será" y más ahorrará.
Por supuesto, no importa si realmente no puedes permitírtelo. NVIDIA también ha lanzado cuidadosamente un servicio de arrendamiento en línea, el sistema informático DGX super AI, que está abierto a las empresas mediante arrendamiento. Está equipado con 8 GPU H100 o A100, cada nodo tiene 640 GB de memoria y el alquiler mensual es de 37.000 dólares estadounidenses. por lo que no es necesario crear sus propios datos. El centro compra una gran cantidad de tarjetas gráficas GPU. Este tipo de método de arrendamiento tiene un alto margen de beneficio bruto. Según un informe sobre el servicio "Cloud Computing Power Leasing" de Microsoft, el margen de beneficio bruto de este negocio llega al 42%, lo que lo convierte en una nueva "vaca de ingresos" para Microsoft. .
En el mercado nacional, InBev Digital, SenseTime AIDC y más de 11 otros proveedores de centros de computación inteligentes/nube también ofrecen servicios similares. Para los modelos grandes, el precio total es más de un 20% más bajo que el precio de fabricación propia.
**Además, hay tiempo de formación para modelos grandes. **La GPU NVIDIA L40S recientemente lanzada de NVIDIA es más eficiente en el entrenamiento que el modelo A800/H800. Un modelo con 7 mil millones de parámetros tarda 17 horas en ejecutarse en el HGX A800, mientras que el L40S es 1,3 veces más rápido y se puede ejecutar en sólo medio día. Sin mencionar que un modelo con 175 mil millones de parámetros se puede entrenar en un fin de semana con el L40S. .
En general, si una empresa quiere construir un modelo grande, necesitará gastar cientos de millones de yuanes en costos de energía informática, y esto es sólo el "boleto".
Anteriormente se informó que Baidu, ByteDance, Tencent y Alibaba habían realizado pedidos de chips a Nvidia por valor de 5 mil millones de dólares. Sumando el número de tarjetas gráficas previamente acumuladas, el número total de tarjetas gráficas GPU de Nvidia en China supera los 100 mil millones de yuanes. La organización de investigación de mercado Counterpoint publicó un informe en el que se afirma que, a pesar de la desaceleración cíclica de la industria de los semiconductores, empresas chinas como Tencent y Baidu siguen comprando chips Nvidia A800 en grandes cantidades.
**Por lo tanto, en un mercado tan importante a nivel de un billón, ni las empresas de chips ni los clientes intermedios quieren que "NVIDIA" domine. Por lo tanto, AMD, Intel y las empresas chinas de chips GPU han intentado desafiar el dominio de Nvidia en el mercado de chips de IA. **
**AMD ataca primero. **
En términos de chips de IA, en el Consumer Electronics Show (CES) de 2023 en enero de este año, la presidenta y directora ejecutiva de AMD, Lisa Su, lanzó oficialmente el producto APU (procesador acelerado) de próxima generación Instinct MI300 para centros de datos, utilizando TSMC 5 nm + 6 nm combinados. Diseño de arquitectura chiplet, CPU y GPU integradas, con 13 chips pequeños, con una cantidad de transistores de hasta 146 mil millones, el rendimiento de IA y el rendimiento por vatio son 8 y 5 veces mayores que los del MI250 de la generación anterior (utilizando la prueba comparativa de escasez FP8). Se producirá y suministrará en masa en la segunda mitad de 2023.
Luego, en junio, AMD también anunció nuevos chips de aceleración de IA Instinct MI300X, Instinct MI300A y otros productos especialmente diseñados para IA generativa con 153 mil millones de transistores, que han mejorado en términos de capacidad de almacenamiento y ancho de banda de interconexión. MI300X tiene más transistores que H100. La memoria de gran ancho de banda del HBM3 es 2,4 veces mayor que la del H100. Un modelo grande con 80 mil millones de parámetros se puede ejecutar en un solo chip y se espera que se envíe antes de finales de este año.
Esto no solo demuestra plenamente las capacidades de la tecnología de IA del centro de datos después de la adquisición de Xilinx, sino que también desafía el dominio de Nvidia en los chips informáticos de IA.
Por supuesto, no se trata sólo de GPU y chips de IA. Lo que AMD hace mejor es fabricar chips de CPU (unidad central de procesamiento), después de todo, los centros de datos necesitan la potencia informática general de las CPU. En noviembre del año pasado, AMD lanzó el centro de datos de cuarta generación de la serie EPYC 9004 utilizando la arquitectura Zen 4, cuyo nombre en código es "Génova", y Su Zifeng no solo actualizó la arquitectura, sino que también acumuló materiales en este chip al extremo: el proceso TSMC de 5 nm. , 96 núcleos, 192 subprocesos, caché L3 de 384 M y admite PCle5.0.
En comparación con los procesadores de ocho núcleos de Intel, las series de CPU para centros de datos y computación de vanguardia de AMD han mejorado enormemente en términos de consumo de energía y rendimiento, incluida una reducción del 40 % en el área del chip Genoa y una mejora del 48 % en la eficiencia energética.
En septiembre de este año, AMD lanzó la última serie EPYC 8004 de cuarta generación, introduciendo el núcleo "Zen 4c" en CPU dedicadas, brindando servicios que van desde bordes inteligentes (como comercio minorista, fabricación y telecomunicaciones) hasta centros de datos, computación en la nube y otros. campos.
De hecho, Amazon Cloud AWS lanzó una instancia informática general basada en Genoa M7A. Los resultados finales mostraron que el rendimiento mejoró en un 50% en comparación con la generación anterior. En comparación con la versión Intel Xeon Platinum Edition 8490H de cuarta generación, el rendimiento de Genoa en múltiples escenarios de aplicación, la mejora es de 1,7 a 1,9 veces y la eficiencia energética general se mejora en 1,8 veces.Se utiliza plenamente en campos de la informática de alto rendimiento, como el modelado financiero, la simulación meteorológica y la investigación y el desarrollo de fármacos. Además, en la carga de trabajo de la puerta de enlace IoT Edge, el último servidor con tecnología EPYC 8024P de ocho núcleos también proporciona aproximadamente 1,8 veces el rendimiento total por rack de 8 kW.
En general, ya sea CPU, GPU, FPGA, procesador de centro de datos DPU o sistema AMD ROCm de herramientas de pila de software, AMD está listo y está "afilando su espada" para desafiar los productos de Nvidia.
**Como gigante de los chips establecido desde hace más de 60 años, Intel no quiere "ceder el mercado a otros". **
El 11 de julio de este año, el gigante de chips Intel Corporation (Intel) lanzó el chip de IA Habana Gaudi2 para el mercado chino en Beijing, utilizando un proceso de 7 nm, que puede ejecutar grandes modelos de lenguaje, acelerar el entrenamiento y la inferencia de IA y tiene un rendimiento por vatio de aproximadamente el 100 % cuando se ejecuta ResNet-50. Es 2 veces mayor que el de NVIDIA A100, y su relación precio/rendimiento es un 40 % mayor que las soluciones basadas en NVIDIA en la nube de AWS. Se espera que supere al último H100 de NVIDIA en precio/rendimiento en septiembre de este año.
Sandra Rivera, vicepresidenta ejecutiva de Intel, dijo a TMTpost en julio de este año que es imposible que una empresa domine el mercado de chips de IA. Porque el mercado necesita diversidad y los clientes también quieren ver más empresas de chips asumiendo un papel de liderazgo en el campo de la IA.
Pat Gelsinger, director ejecutivo de Intel
En septiembre, en la conferencia de innovación tecnológica Intel On celebrada en San José, EE. UU., Gelsinger anunció que el próximo año se lanzará el chip AI Gaudi 3 que utiliza el proceso de 5 nm y que, para entonces, su potencia informática será el doble que la del Gaudi 2. Y su ancho de banda de red, HBM La capacidad será 1,5 veces.
Al mismo tiempo, Gelsinger también presentó una vista previa del procesador de servidor escalable Intel Xeon de quinta generación, diciendo que el Xeon de próxima generación tendrá 288 núcleos, lo que se espera que aumente la densidad del rack en 2,5 veces y el rendimiento por vatio en 2,4 veces. Además, Intel también lanzó Sierra Forest y Granite Rapids, que se espera que aumenten el rendimiento de la IA entre 2 y 3 veces en comparación con el Xeon de cuarta generación.
El director de tecnología de Alibaba Cloud, Zhou Jingren, dijo que Alibaba utiliza procesadores Intel Xeon de cuarta generación para su IA generativa y sus grandes modelos de lenguaje, a saber, el "Alibaba Cloud Tongyi Qianwen Large Model", y la tecnología Intel ha acortado significativamente el tiempo de respuesta del modelo. La aceleración puede alcanzar 3 veces.
Además, para el entrenamiento de modelos grandes de IA, lo que es más importante es el ecosistema de software. Intel anunció su cooperación con Arm para implementar sus productos Xeon en CPU Arm y también lanzó el conjunto de herramientas de tiempo de ejecución de implementación e inferencia de IA OpenVINO, que no solo admite modelos previamente entrenados, sino que también solo necesita escribirse una vez para implementar cualquier Soporte multiplataforma clave disponible, el modelo Llama 2 de Meta ha sido compatible.
Al mismo tiempo, la Fundación Linux también anunció esta semana el establecimiento de la Fundación Unified Acceleration (UXL) para proporcionar un modelo de programación de acelerador estándar abierto para simplificar el desarrollo de aplicaciones multiplataforma de alto rendimiento. evolución del programa Intel oneAPI. Los miembros fundadores incluyen Arm, Google Cloud, Intel, Qualcomm, Samsung y otros; Nvidia no se encuentra entre ellos.
Wang Rui, vicepresidente senior de Intel Corporation y presidente de Intel China, dijo a TMTpost App y otros que Intel lanzará un procesador con 288 núcleos en el futuro. Habrá cada vez más centros de datos en el futuro. Intel lanzará productos como Gaudi3 y Falcon Shores. La matriz de productos formará una hoja de ruta para el futuro desarrollo de aceleradores e informática de IA.
"Hemos incorporado capacidades de IA en el chip. Según las diferentes necesidades, las capacidades de IA integradas utilizarán diferentes potencias informáticas y diferentes arquitecturas para brindar soporte", dijo Wang Rui, en términos de centros de datos, desde el cliente hasta el borde. a la nube, la IA ha penetrado en varios escenarios de aplicación: desde el entrenamiento de modelos de lenguaje a gran escala hasta el entrenamiento de modelos de lenguaje inclusivos a pequeña escala, la influencia de la IA está en todas partes.
A finales de agosto de este año, Kissinger dijo que creía que Intel estaba avanzando hacia el logro de sus ambiciosos objetivos de reestructuración y hacia la restauración de su posición de liderazgo en la industria. Al hablar de Nvidia, Gelsinger admitió que Nvidia tiene un buen diseño y puede capturar la demanda de sistemas necesarios para respaldar la expansión del software de inteligencia artificial, pero dijo que Intel pronto comenzará a ganar pedidos en estos mercados de chips aceleradores.
"Han hecho un gran trabajo y todos los elogiamos. Pero estamos a punto de mostrar nuestra fuerza", dijo Kissinger.
El valor de mercado de Nvidia se ha evaporado en cientos de miles de millones de dólares ¿Podrán los chips nacionales aprovechar la oportunidad?
El brillante desempeño de Nvidia en 2023 parece haberse debilitado en los últimos dos meses.
Según datos de Refinitiv, aunque el precio de las acciones de Nvidia ha subido alrededor de un 190% este año y su desempeño es muy impresionante, el precio de sus acciones tuvo un mal desempeño en septiembre: desde el 31 de agosto, el precio de las acciones de Nvidia ha caído más de un 10%, y su El valor total de mercado se ha evaporado: más de 176 mil millones de dólares.
**De hecho, hay muchos factores que contribuyen a la caída del precio de las acciones de Nvidia. **
En primer lugar, se han intensificado las preocupaciones del mercado acerca de que la Reserva Federal mantenga las tasas de interés en niveles más altos durante más tiempo para frenar la inflación. Todo el mercado de valores se ha visto bajo presión, con el índice S&P 500 cayendo un promedio de 0,7% en septiembre. y casi el 4% hasta ahora.
En segundo lugar, los modelos de código abierto representados por LIama 2 se han lanzado uno tras otro, y más empresas han comenzado a utilizar estos modelos directamente, requiriendo solo la aplicación de chips de inferencia de IA, lo que ha llevado a una reducción en la demanda de informática. chips de entrenamiento de potencia.
Finalmente, según The Information, NVIDIA ha estado prestando mucha atención al suministro de tarjetas gráficas a algunas pequeñas y medianas empresas de computación en la nube en los Estados Unidos. En la situación actual de "es difícil encontrar una tarjeta". , NVIDIA ha estado muy preocupada por el suministro de tarjetas gráficas a grandes empresas como Google y Meta, así como a empresas chinas. Los servicios de seguimiento y el suministro de tarjetas gráficas ya no parecen ser la máxima prioridad, y esto lleva directamente al mercado. dudas sobre las capacidades de suministro de productos de Nvidia.
Por supuesto, a pesar de sus defectos, NVIDIA tiene una enorme ventaja como pionero en el mercado de potencia de computación de IA. Además del rendimiento líder de su chip GPU, su enorme ecosistema de software de inteligencia artificial CUDA está fuera del alcance de muchas personas. Además, la tecnología de interconexión de GPU de alta velocidad NVLink de NVIDIA también se ha convertido en un "arma mágica clave" para mejorar la tecnología de modelos grandes, y su función es mucho más importante que la de la propia tarjeta GPU.
El fundador y director ejecutivo de Baichuan Intelligence, Wang Xiaochuan, mencionó una vez que en esta industria, los costos de energía informática de la GPU representan aproximadamente entre el 40% y el 70%, y la relación entre los costos de conexión de red y los costos de la tarjeta gráfica GPU es de aproximadamente 3:1.
"Si evolucionamos hacia modelos superiores en el futuro, la reserva de energía informática es muy crítica. Desde la perspectiva del entrenamiento y el razonamiento, el razonamiento requiere chips de IA nacionales, no solo NVIDIA, pero el entrenamiento actualmente solo lo realiza mejor NVIDIA. Este 'cálculo Para Si luchamos duro, los chips de IA nacionales de China deben poder competir", dijo Wang Xiaochuan.
** De hecho, además de los dos grandes gigantes de los chips, con la "Guerra de los 100 modos" nacional, la demanda de potencia informática de IA ha aumentado. Sin embargo, muchos chips de IA como Nvidia AI00/H100 han restringido las exportaciones a China. lo que hace cada vez más difícil para las empresas nacionales obtener chips de alta gama de Estados Unidos. **
En octubre de 2022, la Oficina de Industria y Seguridad (BIS) del Departamento de Comercio de EE. UU. emitió nuevas regulaciones de control de exportaciones para cuantificar la potencia informática de varios chips, el ancho de banda, los procesos de fabricación y otros indicadores, y restringir las exportaciones de empresas estadounidenses a China, incluidas restricciones a los chips de alta potencia informática, lo que afecta directamente el desarrollo de la inteligencia artificial, la supercomputación, los centros de datos y otras industrias relacionadas de China. NVIDIA, un fabricante de GPU (procesadores gráficos) que satisface principalmente las necesidades de IA y otras aplicaciones, recibió en agosto un aviso del gobierno de EE. UU. para restringir la exportación de chips avanzados.
Nvidia respondió rápidamente y puso en producción el chip A800 en el tercer trimestre de 2022 para reemplazar el A100 que ya no se puede enviar a China. Se trata también del primer producto de "oferta especial" lanzado por una empresa estadounidense con este fin. Nvidia no ha anunciado los parámetros detallados del A800. Sin embargo, el manual del producto proporcionado por sus distribuidores muestra que la potencia informática máxima del A800 es consistente con el A100, cuya exportación está restringida, pero la velocidad de transmisión está limitada a dos tercios de el A100 para cumplir con los requisitos gubernamentales pertinentes de EE. UU. La potencia informática de entrenamiento del último H800 "Edición especial de China" es aproximadamente un 40% peor que la del H100. Sin el módulo de interconexión proporcionado por NVIDIA, la brecha en la potencia informática puede alcanzar más del 60%.
Intel lanzará una versión china de su producto Gaudi 2 en julio de 2023. Gaudi 2 es un chip ASIC (circuito integrado de aplicación específica) diseñado principalmente para el entrenamiento de IA de aprendizaje profundo de alto rendimiento. En comparación con la versión internacional anunciada en mayo de 2022, el número de puertos Ethernet integrados en la versión china de Gaudi 2 se ha reducido de 24 a 21. Intel dijo en ese momento que se trataba de un cambio relativamente menor con un impacto limitado en el rendimiento real. Kissinger declaró recientemente que la compañía está vendiendo actualmente la versión china de Gaudí 2 en China y espera continuar haciéndolo en el futuro.
** Entonces, bajo la influencia de las restricciones de chips extranjeros, las empresas nacionales de potencia informática de IA, como Huawei, Tianshu Zhixin, Cambrian y Denglin Technology, se están desplegando activamente para llenar la vacante en la potencia informática de IA nacional. **
En la actualidad, el mercado nacional de potencia informática de IA se divide principalmente en tres facciones principales: una es la solución de potencia informática de Huawei Kunpeng y el ecosistema Ascend AI, que no implica la participación de la GPU NVIDIA; la otra es el soporte de potencia informática híbrida, que utiliza una gran cantidad de chips NVIDIA A100 y, en algunos entornos, se agregan AMD, Intel, Tianshu Intelligent Core, Cambrian, Haiguang y otros chips para respaldar el entrenamiento de modelos grandes; en tercer lugar, se alquila potencia de computación en la nube de servidor más rentable a complementar la escasez de potencia informática.
En la 19.ª Cumbre de Verano del Foro de Empresarios de China Yabuli 2023 celebrada en agosto de este año, Liu Qingfeng, fundador y presidente de iFlytek, dijo que las capacidades técnicas de la GPU de Huawei ahora son equivalentes a las de Nvidia A100, y ahora se ha comparado con Nvidia A100.
El 20 de septiembre, la vicepresidenta, presidenta rotativa y directora financiera de Huawei, Meng Wanzhou, dijo que Huawei lanzó el clúster informático Ascend AI con una nueva arquitectura que puede admitir el entrenamiento de modelos grandes con más de un billón de parámetros. Huawei seguirá construyendo una base sólida de potencia informática.
Gai Lujiang, presidente y director ejecutivo de Tianshu Zhixin, reveló que en la actualidad, muchas empresas nacionales de modelos a gran escala han comenzado a utilizar tarjetas gráficas GPU nacionales y la empresa ha apoyado la finalización del entrenamiento de modelos a gran escala con 7 mil millones de parámetros. Además, la mayoría de las demás empresas nacionales de GPU se encuentran en la etapa de capacitación en inferencia de IA.
Galujiang cree que en China, la participación de mercado de Nvidia en el campo de la capacitación supera el 95%, y algunas alcanzan el 99%, y básicamente ha logrado un monopolio, principalmente debido a su arquitectura de hardware y su ecosistema CUDA ampliamente utilizado. Tiene más de 300 millones de usuarios en todo el mundo. Actualmente, las empresas nacionales de GPU se enfrentan a problemas de migración ecológica. Debido a la gran cantidad de códigos basados en CUDA, cambiar a un nuevo ecosistema requerirá mucho tiempo y costo.
En una mesa redonda reciente, Wang Ping, cofundador y arquitecto jefe de Denglin Technology, mencionó que los clientes de AIGC no solo necesitan soluciones como generación de texto y generación de imágenes, sino, lo que es más importante, productos prácticos. Por lo tanto, es necesario implementar productos de potencia informática con gran potencia informática y gran versatilidad para crear valor para los clientes. Se informa que los productos de chips AI de nueva generación de Denglin Technology tienen una ventaja de consumo de energía más de tres veces mayor que los productos GPU de uso general convencionales a nivel internacional.
Galujiang dijo que para Tianshu Zhixin, el siguiente paso es optimizar la iteración del producto, lo que requiere confiar en los datos, los comentarios de los clientes y la innovación tecnológica, y hacer ajustes para satisfacer las necesidades nacionales especiales. Al mismo tiempo, la empresa mejorará activamente el ecosistema y la pila de software para garantizar que los usuarios obtengan la mejor experiencia en términos de eficiencia, costo, rendimiento y relación precio-rendimiento, a fin de promover una mayor comercialización de productos.
Wang Ping cree que debido a la creciente dificultad para obtener chips de alta gama de los Estados Unidos, aunque ninguna empresa nacional puede producir chips que realmente puedan reemplazarlos, cree que la potencia informática nacional seguirá creciendo. Los chips deben iterarse continuamente: cuantos más usuarios haya y más comentarios sobre los problemas, más empresas nacionales de chips de IA podrán mejorar y mejorar la experiencia del usuario en iteraciones posteriores.
"Esta es una gran oportunidad para las empresas nacionales de GPU de uso general", dijo Galujiang a la aplicación TMTpost Media.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
China y Estados Unidos "rodean y reprimen" a Nvidia, es difícil dominar el mercado de chips de IA de un billón de dólares
Autor: Lin Zhijia
Fuente: TMTpost Media
A medida que Nvidia toma la delantera en la ocupación del mercado de chips de potencia informática de modelos grandes de IA, su valor de mercado supera el billón. Al mismo tiempo, Intel, AMD y las empresas chinas de chips GPU también compiten en secreto con la esperanza de obtener una parte del mercado de chips de potencia de computación de IA.
**El 19 de septiembre, en la conferencia de innovación tecnológica Intel On celebrada en San José, Estados Unidos, **Pat Gelsinger, director ejecutivo de Intel, de 62 años, estaba "lleno de energía" y comenzó su discurso con flexiones.
En esta reunión, Gelsinger lanzó una serie de nuevos productos tecnológicos de una sola vez: el procesador Intel Core Ultra basado en el proceso Intel 4 (5 nm), con nombre en código "Meteor Lake"; presentó una vista previa del chip de servidor Xeon de quinta generación y la hoja de ruta de los productos Xeon posteriores. ; reveló el chip AI de 5 nm Gaudí 3, etc.
En comparación con sesiones anteriores, esta vez Kissinger "se transformó en un anciano vestido de cuero" y habló sobre el papel de la potencia informática de la IA en la economía durante casi dos horas. Según las estadísticas de la aplicación TMTpost, Kissinger mencionó términos relacionados con "inteligencia artificial" y "aprendizaje profundo" unas 200 veces en este discurso.
Casi al mismo tiempo, Intel y el competidor de Nvidia, AMD, lanzaron el último chip de CPU (unidad central de procesamiento) EPYC 8004 y esperaban enviar chips de IA de la serie MI300 antes de fin de año para competir con Nvidia. Además, en China, los fabricantes de chips de IA, incluidos Huawei y Tianshu Zhixin, también están implementando activamente productos de potencia informática de IA y inferencia de entrenamiento de modelos grandes.
"Competimos muy ferozmente con NVIDIA, el líder del mercado en chips de potencia informática de IA. Pero tanto Gaudi2 como Gaudi3 son un gran paso adelante que ellos. Estamos ganando impulso y el mercado está empezando a darse cuenta de que entre los líderes en IA. La industria de chips tiene otra oportunidad", dijo Kissinger a CNBC el 20 de septiembre.
La competencia en el mercado se intensifica y es difícil para el "Viejo Huang" monopolizar billones de potencia informática de IA
Desde 2023 hasta ahora, la "locura" de los grandes modelos de IA representados por ChatGPT se ha extendido por todo el mundo, y los grandes modelos están promoviendo el desarrollo de la IA en una dirección más general.
Al mismo tiempo, la escasez y el coste de la potencia informática se han convertido en factores fundamentales que restringen el desarrollo de la IA. La potencia informática también se ha convertido en una piedra angular importante de la transformación digital e inteligente de toda la sociedad, impulsando así un aumento en la demanda de potencia informática inteligente.
Según los datos proporcionados por Lisa Su, directora ejecutiva de AMD, el mercado potencial total para los aceleradores de IA de centros de datos globales alcanzará aproximadamente los 30 mil millones de dólares en 2023, y se espera que esta cifra supere los 150 mil millones de dólares para 2027 (aproximadamente 1,095 billones de RMB), con una tasa de crecimiento anual compuesta de más del 50%.
Manuvir Das, vicepresidente de informática empresarial de Nvidia, proporcionó otro conjunto de datos que muestran que se espera que el mercado potencial (TAM) para la IA crezca hasta los 600 mil millones de dólares. Entre ellos, los chips y sistemas pueden obtener 300 mil millones de dólares, el software de inteligencia artificial generativa puede obtener 150 mil millones de dólares y los otros 150 mil millones de dólares serán aportados por el software empresarial de NVIDIA.
**Obviamente, el mercado de chips de potencia informática de IA es un gran "pastel". **
Pero actualmente, NVIDIA ocupa el 82% del mercado global de aceleración de IA de centros de datos y monopoliza el mercado global de entrenamiento de IA con una participación de mercado del 95%, convirtiéndose en el mayor ganador en esta ronda de lucha cuerpo a cuerpo de IA. Huang Renxun y su empresa Nvidia están ganando mucho dinero, con un valor de mercado de más de 1 billón de dólares estadounidenses.
Al mismo tiempo, el aumento en la demanda de potencia informática ha provocado directamente que la GPU (unidad de procesamiento de gráficos) NVIDIA sea "difícil de encontrar". La cantidad de tarjetas gráficas Nvidia A100 se ha convertido en un estándar para medir la potencia informática de una empresa.
** De hecho, si una empresa quiere desarrollar un modelo grande de uso general, primero debe prestar atención a dos puntos en términos de potencia informática: la cantidad y el precio de las tarjetas gráficas. **
**Entre ellos, en términos de cantidad de tarjetas gráficas, **OpenAI utiliza entre 10.000 y 30.000 GPU NVIDIA para entrenar el modelo GPT-3.5. Según el último informe de TrendForce, si se calcula en función de la potencia de procesamiento de las tarjetas gráficas NVIDIA A100, ejecutar ChatGPT puede requerir el uso de 30.000 tarjetas gráficas GPU NVIDIA. Además, en términos de modelos de código abierto, el modelo Llama se entrena en 2048 A100 de 80 GB, y toda la potencia informática de entrenamiento se acerca a 2000 PTOPS.
En términos de precio, el precio del H800 actualmente disponible en China ha llegado a 200.000/pieza, mientras que el precio del A100/A800 ha aumentado a alrededor de 150.000 y 100.000/pieza. Tomando como ejemplo el requisito de potencia informática de 2000P, la GPU H800 tiene una potencia informática de una sola tarjeta de 2P y requiere 1.000 tarjetas gráficas. El precio estimado de la tarjeta completa es de 200 millones de yuanes, la potencia informática de una sola tarjeta A800 es de aproximadamente 0,625P y la cantidad requerida es 3200 tarjetas gráficas y el precio estimado de la tarjeta gráfica completa es de hasta 320 millones de yuanes.
Además de comprar una tarjeta gráfica GPU, el servidor también debe considerar la configuración y el cálculo de toda la máquina, incluida la CPU, el almacenamiento, las conexiones de comunicación NV-Link, etc., así como factores como el consumo de energía, el alquiler del sitio, y costos de operación y mantenimiento.
En la actualidad, los servidores A800 y H800 son principalmente modelos de 8 tarjetas. Para alcanzar la potencia informática de 2000 P, es necesario configurar 125 servidores H800 de 8 tarjetas o 400 servidores A800 de 8 tarjetas. Los precios son 300 millones de yuanes. y 560 millones de yuanes respectivamente. Además, como el H800 también admite PCIe 5.0, una nueva generación de CPU y memoria, es necesario aumentar el precio para lograr un rendimiento informático óptimo.
Por lo tanto, desde la perspectiva del entrenamiento de modelos grandes, el costo total de comprar H800 es menor que el de A800, que es más rentable y menor que el costo de construir una CPU, esto es lo que solía decir el CEO de Nvidia, Jen-Hsun Huang. Recientemente: "Cuanto más compre, más rentable será" y más ahorrará.
Por supuesto, no importa si realmente no puedes permitírtelo. NVIDIA también ha lanzado cuidadosamente un servicio de arrendamiento en línea, el sistema informático DGX super AI, que está abierto a las empresas mediante arrendamiento. Está equipado con 8 GPU H100 o A100, cada nodo tiene 640 GB de memoria y el alquiler mensual es de 37.000 dólares estadounidenses. por lo que no es necesario crear sus propios datos. El centro compra una gran cantidad de tarjetas gráficas GPU. Este tipo de método de arrendamiento tiene un alto margen de beneficio bruto. Según un informe sobre el servicio "Cloud Computing Power Leasing" de Microsoft, el margen de beneficio bruto de este negocio llega al 42%, lo que lo convierte en una nueva "vaca de ingresos" para Microsoft. .
En el mercado nacional, InBev Digital, SenseTime AIDC y más de 11 otros proveedores de centros de computación inteligentes/nube también ofrecen servicios similares. Para los modelos grandes, el precio total es más de un 20% más bajo que el precio de fabricación propia.
**Además, hay tiempo de formación para modelos grandes. **La GPU NVIDIA L40S recientemente lanzada de NVIDIA es más eficiente en el entrenamiento que el modelo A800/H800. Un modelo con 7 mil millones de parámetros tarda 17 horas en ejecutarse en el HGX A800, mientras que el L40S es 1,3 veces más rápido y se puede ejecutar en sólo medio día. Sin mencionar que un modelo con 175 mil millones de parámetros se puede entrenar en un fin de semana con el L40S. .
Anteriormente se informó que Baidu, ByteDance, Tencent y Alibaba habían realizado pedidos de chips a Nvidia por valor de 5 mil millones de dólares. Sumando el número de tarjetas gráficas previamente acumuladas, el número total de tarjetas gráficas GPU de Nvidia en China supera los 100 mil millones de yuanes. La organización de investigación de mercado Counterpoint publicó un informe en el que se afirma que, a pesar de la desaceleración cíclica de la industria de los semiconductores, empresas chinas como Tencent y Baidu siguen comprando chips Nvidia A800 en grandes cantidades.
**Por lo tanto, en un mercado tan importante a nivel de un billón, ni las empresas de chips ni los clientes intermedios quieren que "NVIDIA" domine. Por lo tanto, AMD, Intel y las empresas chinas de chips GPU han intentado desafiar el dominio de Nvidia en el mercado de chips de IA. **
En términos de chips de IA, en el Consumer Electronics Show (CES) de 2023 en enero de este año, la presidenta y directora ejecutiva de AMD, Lisa Su, lanzó oficialmente el producto APU (procesador acelerado) de próxima generación Instinct MI300 para centros de datos, utilizando TSMC 5 nm + 6 nm combinados. Diseño de arquitectura chiplet, CPU y GPU integradas, con 13 chips pequeños, con una cantidad de transistores de hasta 146 mil millones, el rendimiento de IA y el rendimiento por vatio son 8 y 5 veces mayores que los del MI250 de la generación anterior (utilizando la prueba comparativa de escasez FP8). Se producirá y suministrará en masa en la segunda mitad de 2023.
Luego, en junio, AMD también anunció nuevos chips de aceleración de IA Instinct MI300X, Instinct MI300A y otros productos especialmente diseñados para IA generativa con 153 mil millones de transistores, que han mejorado en términos de capacidad de almacenamiento y ancho de banda de interconexión. MI300X tiene más transistores que H100. La memoria de gran ancho de banda del HBM3 es 2,4 veces mayor que la del H100. Un modelo grande con 80 mil millones de parámetros se puede ejecutar en un solo chip y se espera que se envíe antes de finales de este año.
Esto no solo demuestra plenamente las capacidades de la tecnología de IA del centro de datos después de la adquisición de Xilinx, sino que también desafía el dominio de Nvidia en los chips informáticos de IA.
Por supuesto, no se trata sólo de GPU y chips de IA. Lo que AMD hace mejor es fabricar chips de CPU (unidad central de procesamiento), después de todo, los centros de datos necesitan la potencia informática general de las CPU. En noviembre del año pasado, AMD lanzó el centro de datos de cuarta generación de la serie EPYC 9004 utilizando la arquitectura Zen 4, cuyo nombre en código es "Génova", y Su Zifeng no solo actualizó la arquitectura, sino que también acumuló materiales en este chip al extremo: el proceso TSMC de 5 nm. , 96 núcleos, 192 subprocesos, caché L3 de 384 M y admite PCle5.0.
En comparación con los procesadores de ocho núcleos de Intel, las series de CPU para centros de datos y computación de vanguardia de AMD han mejorado enormemente en términos de consumo de energía y rendimiento, incluida una reducción del 40 % en el área del chip Genoa y una mejora del 48 % en la eficiencia energética.
En septiembre de este año, AMD lanzó la última serie EPYC 8004 de cuarta generación, introduciendo el núcleo "Zen 4c" en CPU dedicadas, brindando servicios que van desde bordes inteligentes (como comercio minorista, fabricación y telecomunicaciones) hasta centros de datos, computación en la nube y otros. campos.
De hecho, Amazon Cloud AWS lanzó una instancia informática general basada en Genoa M7A. Los resultados finales mostraron que el rendimiento mejoró en un 50% en comparación con la generación anterior. En comparación con la versión Intel Xeon Platinum Edition 8490H de cuarta generación, el rendimiento de Genoa en múltiples escenarios de aplicación, la mejora es de 1,7 a 1,9 veces y la eficiencia energética general se mejora en 1,8 veces.Se utiliza plenamente en campos de la informática de alto rendimiento, como el modelado financiero, la simulación meteorológica y la investigación y el desarrollo de fármacos. Además, en la carga de trabajo de la puerta de enlace IoT Edge, el último servidor con tecnología EPYC 8024P de ocho núcleos también proporciona aproximadamente 1,8 veces el rendimiento total por rack de 8 kW.
En general, ya sea CPU, GPU, FPGA, procesador de centro de datos DPU o sistema AMD ROCm de herramientas de pila de software, AMD está listo y está "afilando su espada" para desafiar los productos de Nvidia.
**Como gigante de los chips establecido desde hace más de 60 años, Intel no quiere "ceder el mercado a otros". **
El 11 de julio de este año, el gigante de chips Intel Corporation (Intel) lanzó el chip de IA Habana Gaudi2 para el mercado chino en Beijing, utilizando un proceso de 7 nm, que puede ejecutar grandes modelos de lenguaje, acelerar el entrenamiento y la inferencia de IA y tiene un rendimiento por vatio de aproximadamente el 100 % cuando se ejecuta ResNet-50. Es 2 veces mayor que el de NVIDIA A100, y su relación precio/rendimiento es un 40 % mayor que las soluciones basadas en NVIDIA en la nube de AWS. Se espera que supere al último H100 de NVIDIA en precio/rendimiento en septiembre de este año.
Sandra Rivera, vicepresidenta ejecutiva de Intel, dijo a TMTpost en julio de este año que es imposible que una empresa domine el mercado de chips de IA. Porque el mercado necesita diversidad y los clientes también quieren ver más empresas de chips asumiendo un papel de liderazgo en el campo de la IA.
En septiembre, en la conferencia de innovación tecnológica Intel On celebrada en San José, EE. UU., Gelsinger anunció que el próximo año se lanzará el chip AI Gaudi 3 que utiliza el proceso de 5 nm y que, para entonces, su potencia informática será el doble que la del Gaudi 2. Y su ancho de banda de red, HBM La capacidad será 1,5 veces.
Al mismo tiempo, Gelsinger también presentó una vista previa del procesador de servidor escalable Intel Xeon de quinta generación, diciendo que el Xeon de próxima generación tendrá 288 núcleos, lo que se espera que aumente la densidad del rack en 2,5 veces y el rendimiento por vatio en 2,4 veces. Además, Intel también lanzó Sierra Forest y Granite Rapids, que se espera que aumenten el rendimiento de la IA entre 2 y 3 veces en comparación con el Xeon de cuarta generación.
El director de tecnología de Alibaba Cloud, Zhou Jingren, dijo que Alibaba utiliza procesadores Intel Xeon de cuarta generación para su IA generativa y sus grandes modelos de lenguaje, a saber, el "Alibaba Cloud Tongyi Qianwen Large Model", y la tecnología Intel ha acortado significativamente el tiempo de respuesta del modelo. La aceleración puede alcanzar 3 veces.
Además, para el entrenamiento de modelos grandes de IA, lo que es más importante es el ecosistema de software. Intel anunció su cooperación con Arm para implementar sus productos Xeon en CPU Arm y también lanzó el conjunto de herramientas de tiempo de ejecución de implementación e inferencia de IA OpenVINO, que no solo admite modelos previamente entrenados, sino que también solo necesita escribirse una vez para implementar cualquier Soporte multiplataforma clave disponible, el modelo Llama 2 de Meta ha sido compatible.
Al mismo tiempo, la Fundación Linux también anunció esta semana el establecimiento de la Fundación Unified Acceleration (UXL) para proporcionar un modelo de programación de acelerador estándar abierto para simplificar el desarrollo de aplicaciones multiplataforma de alto rendimiento. evolución del programa Intel oneAPI. Los miembros fundadores incluyen Arm, Google Cloud, Intel, Qualcomm, Samsung y otros; Nvidia no se encuentra entre ellos.
Wang Rui, vicepresidente senior de Intel Corporation y presidente de Intel China, dijo a TMTpost App y otros que Intel lanzará un procesador con 288 núcleos en el futuro. Habrá cada vez más centros de datos en el futuro. Intel lanzará productos como Gaudi3 y Falcon Shores. La matriz de productos formará una hoja de ruta para el futuro desarrollo de aceleradores e informática de IA.
"Hemos incorporado capacidades de IA en el chip. Según las diferentes necesidades, las capacidades de IA integradas utilizarán diferentes potencias informáticas y diferentes arquitecturas para brindar soporte", dijo Wang Rui, en términos de centros de datos, desde el cliente hasta el borde. a la nube, la IA ha penetrado en varios escenarios de aplicación: desde el entrenamiento de modelos de lenguaje a gran escala hasta el entrenamiento de modelos de lenguaje inclusivos a pequeña escala, la influencia de la IA está en todas partes.
A finales de agosto de este año, Kissinger dijo que creía que Intel estaba avanzando hacia el logro de sus ambiciosos objetivos de reestructuración y hacia la restauración de su posición de liderazgo en la industria. Al hablar de Nvidia, Gelsinger admitió que Nvidia tiene un buen diseño y puede capturar la demanda de sistemas necesarios para respaldar la expansión del software de inteligencia artificial, pero dijo que Intel pronto comenzará a ganar pedidos en estos mercados de chips aceleradores.
"Han hecho un gran trabajo y todos los elogiamos. Pero estamos a punto de mostrar nuestra fuerza", dijo Kissinger.
El valor de mercado de Nvidia se ha evaporado en cientos de miles de millones de dólares ¿Podrán los chips nacionales aprovechar la oportunidad?
El brillante desempeño de Nvidia en 2023 parece haberse debilitado en los últimos dos meses.
Según datos de Refinitiv, aunque el precio de las acciones de Nvidia ha subido alrededor de un 190% este año y su desempeño es muy impresionante, el precio de sus acciones tuvo un mal desempeño en septiembre: desde el 31 de agosto, el precio de las acciones de Nvidia ha caído más de un 10%, y su El valor total de mercado se ha evaporado: más de 176 mil millones de dólares.
**De hecho, hay muchos factores que contribuyen a la caída del precio de las acciones de Nvidia. **
En primer lugar, se han intensificado las preocupaciones del mercado acerca de que la Reserva Federal mantenga las tasas de interés en niveles más altos durante más tiempo para frenar la inflación. Todo el mercado de valores se ha visto bajo presión, con el índice S&P 500 cayendo un promedio de 0,7% en septiembre. y casi el 4% hasta ahora.
En segundo lugar, los modelos de código abierto representados por LIama 2 se han lanzado uno tras otro, y más empresas han comenzado a utilizar estos modelos directamente, requiriendo solo la aplicación de chips de inferencia de IA, lo que ha llevado a una reducción en la demanda de informática. chips de entrenamiento de potencia.
Finalmente, según The Information, NVIDIA ha estado prestando mucha atención al suministro de tarjetas gráficas a algunas pequeñas y medianas empresas de computación en la nube en los Estados Unidos. En la situación actual de "es difícil encontrar una tarjeta". , NVIDIA ha estado muy preocupada por el suministro de tarjetas gráficas a grandes empresas como Google y Meta, así como a empresas chinas. Los servicios de seguimiento y el suministro de tarjetas gráficas ya no parecen ser la máxima prioridad, y esto lleva directamente al mercado. dudas sobre las capacidades de suministro de productos de Nvidia.
Por supuesto, a pesar de sus defectos, NVIDIA tiene una enorme ventaja como pionero en el mercado de potencia de computación de IA. Además del rendimiento líder de su chip GPU, su enorme ecosistema de software de inteligencia artificial CUDA está fuera del alcance de muchas personas. Además, la tecnología de interconexión de GPU de alta velocidad NVLink de NVIDIA también se ha convertido en un "arma mágica clave" para mejorar la tecnología de modelos grandes, y su función es mucho más importante que la de la propia tarjeta GPU.
El fundador y director ejecutivo de Baichuan Intelligence, Wang Xiaochuan, mencionó una vez que en esta industria, los costos de energía informática de la GPU representan aproximadamente entre el 40% y el 70%, y la relación entre los costos de conexión de red y los costos de la tarjeta gráfica GPU es de aproximadamente 3:1.
"Si evolucionamos hacia modelos superiores en el futuro, la reserva de energía informática es muy crítica. Desde la perspectiva del entrenamiento y el razonamiento, el razonamiento requiere chips de IA nacionales, no solo NVIDIA, pero el entrenamiento actualmente solo lo realiza mejor NVIDIA. Este 'cálculo Para Si luchamos duro, los chips de IA nacionales de China deben poder competir", dijo Wang Xiaochuan.
** De hecho, además de los dos grandes gigantes de los chips, con la "Guerra de los 100 modos" nacional, la demanda de potencia informática de IA ha aumentado. Sin embargo, muchos chips de IA como Nvidia AI00/H100 han restringido las exportaciones a China. lo que hace cada vez más difícil para las empresas nacionales obtener chips de alta gama de Estados Unidos. **
En octubre de 2022, la Oficina de Industria y Seguridad (BIS) del Departamento de Comercio de EE. UU. emitió nuevas regulaciones de control de exportaciones para cuantificar la potencia informática de varios chips, el ancho de banda, los procesos de fabricación y otros indicadores, y restringir las exportaciones de empresas estadounidenses a China, incluidas restricciones a los chips de alta potencia informática, lo que afecta directamente el desarrollo de la inteligencia artificial, la supercomputación, los centros de datos y otras industrias relacionadas de China. NVIDIA, un fabricante de GPU (procesadores gráficos) que satisface principalmente las necesidades de IA y otras aplicaciones, recibió en agosto un aviso del gobierno de EE. UU. para restringir la exportación de chips avanzados.
Nvidia respondió rápidamente y puso en producción el chip A800 en el tercer trimestre de 2022 para reemplazar el A100 que ya no se puede enviar a China. Se trata también del primer producto de "oferta especial" lanzado por una empresa estadounidense con este fin. Nvidia no ha anunciado los parámetros detallados del A800. Sin embargo, el manual del producto proporcionado por sus distribuidores muestra que la potencia informática máxima del A800 es consistente con el A100, cuya exportación está restringida, pero la velocidad de transmisión está limitada a dos tercios de el A100 para cumplir con los requisitos gubernamentales pertinentes de EE. UU. La potencia informática de entrenamiento del último H800 "Edición especial de China" es aproximadamente un 40% peor que la del H100. Sin el módulo de interconexión proporcionado por NVIDIA, la brecha en la potencia informática puede alcanzar más del 60%.
Intel lanzará una versión china de su producto Gaudi 2 en julio de 2023. Gaudi 2 es un chip ASIC (circuito integrado de aplicación específica) diseñado principalmente para el entrenamiento de IA de aprendizaje profundo de alto rendimiento. En comparación con la versión internacional anunciada en mayo de 2022, el número de puertos Ethernet integrados en la versión china de Gaudi 2 se ha reducido de 24 a 21. Intel dijo en ese momento que se trataba de un cambio relativamente menor con un impacto limitado en el rendimiento real. Kissinger declaró recientemente que la compañía está vendiendo actualmente la versión china de Gaudí 2 en China y espera continuar haciéndolo en el futuro.
** Entonces, bajo la influencia de las restricciones de chips extranjeros, las empresas nacionales de potencia informática de IA, como Huawei, Tianshu Zhixin, Cambrian y Denglin Technology, se están desplegando activamente para llenar la vacante en la potencia informática de IA nacional. **
En la actualidad, el mercado nacional de potencia informática de IA se divide principalmente en tres facciones principales: una es la solución de potencia informática de Huawei Kunpeng y el ecosistema Ascend AI, que no implica la participación de la GPU NVIDIA; la otra es el soporte de potencia informática híbrida, que utiliza una gran cantidad de chips NVIDIA A100 y, en algunos entornos, se agregan AMD, Intel, Tianshu Intelligent Core, Cambrian, Haiguang y otros chips para respaldar el entrenamiento de modelos grandes; en tercer lugar, se alquila potencia de computación en la nube de servidor más rentable a complementar la escasez de potencia informática.
En la 19.ª Cumbre de Verano del Foro de Empresarios de China Yabuli 2023 celebrada en agosto de este año, Liu Qingfeng, fundador y presidente de iFlytek, dijo que las capacidades técnicas de la GPU de Huawei ahora son equivalentes a las de Nvidia A100, y ahora se ha comparado con Nvidia A100.
El 20 de septiembre, la vicepresidenta, presidenta rotativa y directora financiera de Huawei, Meng Wanzhou, dijo que Huawei lanzó el clúster informático Ascend AI con una nueva arquitectura que puede admitir el entrenamiento de modelos grandes con más de un billón de parámetros. Huawei seguirá construyendo una base sólida de potencia informática.
Gai Lujiang, presidente y director ejecutivo de Tianshu Zhixin, reveló que en la actualidad, muchas empresas nacionales de modelos a gran escala han comenzado a utilizar tarjetas gráficas GPU nacionales y la empresa ha apoyado la finalización del entrenamiento de modelos a gran escala con 7 mil millones de parámetros. Además, la mayoría de las demás empresas nacionales de GPU se encuentran en la etapa de capacitación en inferencia de IA.
Galujiang cree que en China, la participación de mercado de Nvidia en el campo de la capacitación supera el 95%, y algunas alcanzan el 99%, y básicamente ha logrado un monopolio, principalmente debido a su arquitectura de hardware y su ecosistema CUDA ampliamente utilizado. Tiene más de 300 millones de usuarios en todo el mundo. Actualmente, las empresas nacionales de GPU se enfrentan a problemas de migración ecológica. Debido a la gran cantidad de códigos basados en CUDA, cambiar a un nuevo ecosistema requerirá mucho tiempo y costo.
En una mesa redonda reciente, Wang Ping, cofundador y arquitecto jefe de Denglin Technology, mencionó que los clientes de AIGC no solo necesitan soluciones como generación de texto y generación de imágenes, sino, lo que es más importante, productos prácticos. Por lo tanto, es necesario implementar productos de potencia informática con gran potencia informática y gran versatilidad para crear valor para los clientes. Se informa que los productos de chips AI de nueva generación de Denglin Technology tienen una ventaja de consumo de energía más de tres veces mayor que los productos GPU de uso general convencionales a nivel internacional.
Galujiang dijo que para Tianshu Zhixin, el siguiente paso es optimizar la iteración del producto, lo que requiere confiar en los datos, los comentarios de los clientes y la innovación tecnológica, y hacer ajustes para satisfacer las necesidades nacionales especiales. Al mismo tiempo, la empresa mejorará activamente el ecosistema y la pila de software para garantizar que los usuarios obtengan la mejor experiencia en términos de eficiencia, costo, rendimiento y relación precio-rendimiento, a fin de promover una mayor comercialización de productos.
Wang Ping cree que debido a la creciente dificultad para obtener chips de alta gama de los Estados Unidos, aunque ninguna empresa nacional puede producir chips que realmente puedan reemplazarlos, cree que la potencia informática nacional seguirá creciendo. Los chips deben iterarse continuamente: cuantos más usuarios haya y más comentarios sobre los problemas, más empresas nacionales de chips de IA podrán mejorar y mejorar la experiencia del usuario en iteraciones posteriores.
"Esta es una gran oportunidad para las empresas nacionales de GPU de uso general", dijo Galujiang a la aplicación TMTpost Media.