Hoy en día, si bien el gran modelo de IA representado por ChatGPT ha traído grandes cambios a la sociedad humana, también es controvertido debido al consumo de energía.
La última publicación de The Economist decía: Las instalaciones informáticas de alto rendimiento, incluidas las supercomputadoras, se están convirtiendo en grandes consumidores de energía. **Según la Agencia Internacional de Energía, los centros de datos representan entre el 1,5% y el 2% del consumo mundial de electricidad, aproximadamente el equivalente al consumo de electricidad de toda la economía del Reino Unido. **Se espera que aumente al 4% para 2030.
**La inteligencia artificial no sólo consume electricidad, sino también agua. ** Según el informe medioambiental de 2023 publicado por Google, se consumirán 5.600 millones de galones (unos 21.200 millones de litros) de agua en 2022, lo que equivale al agua de 37 campos de golf. De eso, 5,2 mil millones de galones se destinaron a los centros de datos de la compañía, un aumento del 20% con respecto a 2021.
Ante los enormes costes del consumo de energía, la inteligencia artificial (IA) quiere avanzar hacia el futuro, y la economía se ha convertido en un problema real que ChatGPT debe resolver con urgencia. Y si se quiere resolver el problema del consumo de energía, cualquier medida de optimización basada en la tecnología y la arquitectura existentes detendrá el agua hirviendo. En este contexto, el avance de la tecnología de punta puede ser la solución definitiva al consumo de energía de la IA. dilema. .
La IA está consumiendo energía
Desde la esencia de la informática, la informática es el proceso de cambiar datos del desorden al orden, y este proceso requiere una cierta cantidad de energía.
Solo desde la perspectiva de la cantidad, según estadísticas incompletas, alrededor del 5% de la generación mundial de energía en 2020 se utilizará para el consumo de energía informática, y esta cifra puede aumentar a alrededor del 15% al 25% para 2030, es decir, se dice que la proporción del consumo de electricidad en la industria informática estará a la par de las grandes industrias consumidoras de energía, como la industria.
En 2020, el consumo de energía de los centros de datos de China superará los 200 mil millones de kWh, lo que representa el doble de la generación de energía combinada de la presa de las Tres Gargantas y la central eléctrica de Gezhouba (alrededor de 100 mil millones de kWh).
De hecho, para la industria informática, el costo de la electricidad es también el costo principal además del costo del chip.
**Si la electricidad consumida no se genera con energía renovable, habrá emisiones de carbono. Es por eso que los modelos de aprendizaje automático también generan emisiones de carbono. ChatGPT no es una excepción. **
Los datos muestran que el entrenamiento del GPT-3 consume 1287MWh (megavatios hora), lo que equivale a emitir 552 toneladas de carbono. Al respecto, el investigador de datos sostenibles Caspar Ludwigsen también analizó: "Las grandes emisiones de GPT-3 pueden explicarse en parte por el hecho de que fue entrenado en hardware más antiguo y menos eficiente, pero debido a que no existe una forma estandarizada de medir las emisiones de CO2, estas cifras Se basan en estimaciones. Además, el estándar de cuánto de esta parte del valor de las emisiones de carbono debe asignarse al entrenamiento ChatGPT también es relativamente vago. Cabe señalar que debido a que el aprendizaje por refuerzo en sí requiere electricidad adicional, por lo que el carbono Las emisiones generadas por ChatGPT durante la fase de entrenamiento del modelo deberían ser mayores que este valor”. Calculadas solo en 552 toneladas de emisiones, estas equivalen al consumo anual de energía de 126 hogares daneses.
** En la fase de operación, aunque el consumo de energía de las acciones de las personas al operar ChatGPT es muy pequeño, también puede convertirse en la segunda fuente más grande de emisiones de carbono debido al hecho de que puede haber mil millones de veces al día en el mundo. **
El cofundador de Databoxer, Chris Bolton, explicó un método de cálculo: "Primero, estimamos que cada palabra de respuesta tarda 0,35 segundos en la GPU A100, suponiendo 1 millón de usuarios con 10 preguntas por usuario, generando 1000 10 000 respuestas y 300 millones de palabras por día, cada una. palabra es 0,35 segundos, se puede calcular que la GPU A100 funciona durante 29167 horas por día."
Cloud Carbon Footprint enumera el consumo de energía mínimo de la GPU A100 en el centro de datos de Azure de 46 W y el consumo de energía máximo de 407 W. Dado que es probable que no haya muchos procesadores ChatGPT inactivos, el consumo de energía diario alcanzará los 11870 kWh en la parte superior del el rango.
Chris Bolton dijo: "El factor de emisión en el oeste de Estados Unidos es 0,000322167 toneladas/kWh, por lo que se producirán 3,82 toneladas de dióxido de carbono equivalente por día. El estadounidense promedio produce aproximadamente 15 toneladas de dióxido de carbono equivalente por año. En otras palabras, "Esto equivale a las emisiones anuales de dióxido de carbono de 93 estadounidenses. La tasa es comparable".
Aunque el atributo "virtual" facilita que la gente ignore los libros de carbono de los productos digitales, de hecho, Internet ha sido durante mucho tiempo una de las máquinas alimentadas por carbón más grandes del planeta. **Un estudio de Berkeley sobre el tema del consumo de energía y la inteligencia artificial sostiene que la inteligencia artificial casi consume energía. **
Por ejemplo, el modelo de lenguaje T5 previamente entrenado de Google usó 86 megavatios de electricidad y generó 47 toneladas métricas de emisiones de CO2; el chatbot de campo abierto de múltiples rondas de Google, Meena, usó 232 megavatios de electricidad y generó 96 toneladas métricas de emisiones de CO2; la traducción del idioma marco desarrollado por Google: GShard utilizó 24 megavatios de electricidad y produjo 4,3 toneladas métricas de emisiones de dióxido de carbono; el algoritmo de enrutamiento Switch Transformer desarrollado por Google utilizó 179 megavatios de electricidad y produjo 59 toneladas métricas de emisiones de dióxido de carbono.
La potencia informática utilizada en el aprendizaje profundo se ha multiplicado por 300.000 entre 2012 y 2018, lo que hace que GPT-3 parezca el que tiene el mayor impacto climático. Sin embargo, cuando funciona simultáneamente con el cerebro humano, el consumo de energía del cerebro humano es sólo el 0,002% del de la máquina.
No solo consume electricidad, sino que también consume agua
Además del asombroso consumo de energía, la inteligencia artificial también consume mucha agua.
De hecho, ya sea el consumo de energía o de agua, es inseparable del centro digital, el pilar del mundo digital. Como servidores y equipos de red que alimentan Internet y almacenan grandes cantidades de datos, los centros de datos globales requieren mucha energía para funcionar, y los sistemas de refrigeración son uno de los principales impulsores del consumo de energía. **
La verdad es que un centro de datos de gran tamaño consume casi 100 millones de kilovatios-hora de electricidad cada año, y el desarrollo de la IA generativa ha aumentado aún más el consumo de energía del centro de datos. Debido a que los modelos a gran escala a menudo requieren decenas de miles de GPU, el período de entrenamiento puede variar desde unas pocas semanas hasta varios meses, y se requiere una gran cantidad de energía en el proceso.
Los servidores de los centros de datos generan mucha energía térmica durante su funcionamiento y la refrigeración por agua es el método más común para los servidores, lo que a su vez genera un enorme consumo de energía hidráulica. Los datos muestran que GPT-3 consume casi 700 toneladas de agua durante el entrenamiento y luego consume 500 mililitros de agua por cada 20 a 50 preguntas respondidas.
Según un estudio de Virginia Tech, los centros de datos consumen una media de 401 toneladas de agua al día para refrigeración, lo que equivale al consumo de agua de 100.000 hogares. Meta utilizó más de 2,6 millones de metros cúbicos (alrededor de 697 millones de galones) de agua en 2022, principalmente para centros de datos. Su último modelo de lenguaje a gran escala, "Llama 2", también requiere mucha agua para entrenarse. Aun así, en 2022, una quinta parte de los centros de datos de Meta experimentarán "escasez de agua".
Además, otro chip de infraestructura importante para la inteligencia artificial, su proceso de fabricación también es un proceso que consume mucha energía y recursos hídricos. En términos de energía, el proceso de fabricación de chips requiere mucha energía, especialmente los chips de proceso avanzado. El informe "Pronóstico de emisiones de carbono y consumo de energía de la cadena de suministro de productos electrónicos de consumo de la División de Asia Oriental de Greenpeace" de la organización ambiental internacional estudió las emisiones de carbono de 13 empresas líderes de fabricación de productos electrónicos en Asia Oriental, incluidas Samsung Electronics y TSMC, y dijo que la industria de fabricación de productos electrónicos, especialmente la Industria de semiconductores Las emisiones de carbono están aumentando y el consumo de electricidad de la industria mundial de semiconductores se disparará a 237 teravatios hora para 2030.
En términos de consumo de recursos hídricos, el proceso de oblea de silicio requiere una limpieza con "agua ultrapura", y cuanto mayor es el proceso de fabricación del chip, mayor es el consumo de agua. Se necesitan unos 32 kilogramos de agua para producir un chip de computadora de 2 gramos. La fabricación de obleas de 8 pulgadas consume alrededor de 250 toneladas de agua por hora, y las de 12 pulgadas pueden alcanzar las 500 toneladas.
**TSMC tiene una capacidad de producción anual de obleas de aproximadamente 30 millones de obleas y la producción de chips consume alrededor de 80 millones de toneladas de agua. Disponer de recursos hídricos adecuados se ha convertido en una condición necesaria para el desarrollo de la industria de los chips. **En julio de 2023, el Ministerio de Economía, Comercio e Industria de Japón decidió establecer un nuevo sistema para otorgar subsidios para la construcción de instalaciones que suministren agua industrial a las fábricas de semiconductores para garantizar el agua industrial necesaria para la producción de semiconductores.
A largo plazo, la promoción y aplicación de la IA generativa y la conducción no tripulada conducirán a un mayor crecimiento de la industria de fabricación de chips, seguido de un gran consumo de recursos energéticos.
**¿Quién puede salvar a la IA del consumo de energía? **
Se puede decir que hoy en día, el consumo de energía se ha convertido en una debilidad que restringe el desarrollo de la IA. Según la ruta técnica y el modelo de desarrollo actuales, el progreso de la IA causará dos problemas:
** Por un lado, la escala del centro de datos será cada vez mayor, y su consumo de energía también aumentará en consecuencia, y la operación será cada vez más lenta. **
Obviamente, con la popularización de las aplicaciones de IA, la demanda de recursos del centro de datos por parte de la IA aumentará drásticamente. Los centros de datos a gran escala requieren grandes cantidades de electricidad para hacer funcionar servidores, dispositivos de almacenamiento y sistemas de refrigeración. Esto conduce a un mayor consumo de energía, al tiempo que plantea problemas de estabilidad del suministro de energía y de impacto ambiental. El crecimiento continuo de los centros de datos también puede ejercer presión sobre el suministro de energía, y la dependencia de fuentes de energía tradicionales para satisfacer las necesidades energéticas de los centros de datos puede resultar en un aumento de los precios de la energía y la inestabilidad del suministro. Por supuesto, el alto consumo de energía de los centros de datos también tiene impactos ambientales, incluidas las emisiones de CO2 y el consumo de energía.
**Por otro lado, los chips de IA están evolucionando hacia una alta potencia informática y una alta integración, confiando en procesos de fabricación para respaldar el crecimiento de la potencia informática máxima. A medida que los procesos de fabricación se vuelven más avanzados, su consumo de energía y agua también están aumentando. **
Entonces, ante un consumo de energía tan enorme por parte de la IA, ¿tenemos una mejor manera? De hecho, la mejor manera de resolver el dilema técnico es desarrollar nuevas tecnologías.
Por un lado, el progreso de la IA en la era posterior a Moore requiere encontrar paradigmas y métodos nuevos y más creíbles.
De hecho, hoy en día, la razón por la que la inteligencia artificial traerá enormes problemas de consumo de energía está estrechamente relacionada con la forma en que la inteligencia artificial realiza la inteligencia.
Podemos comparar la construcción y operación de redes neuronales artificiales en esta etapa con un grupo de "neuronas" artificiales independientes que trabajan juntas. Cada neurona es como una pequeña unidad computacional que recibe información, realiza algunos cálculos y produce una salida. Las redes neuronales artificiales actuales se construyen diseñando inteligentemente cómo se conectan estas unidades informáticas para que, una vez entrenadas, puedan realizar tareas específicas.
Pero las redes neuronales artificiales también tienen sus limitaciones. Por ejemplo, si necesitamos utilizar una red neuronal para distinguir un círculo de un cuadrado. Un enfoque consiste en colocar dos neuronas en la capa de salida, una para el círculo y otra para el cuadrado. Sin embargo, si queremos que la red neuronal también pueda distinguir el color de las formas, como el azul y el rojo, entonces necesitamos cuatro neuronas de salida: círculo azul, cuadrado azul, círculo rojo y cuadrado rojo.
Es decir, a medida que aumenta la complejidad de la tarea, la estructura de la red neuronal también requiere más neuronas para procesar más información. La razón es que la forma en que las redes neuronales artificiales logran inteligencia no es la forma en que el cerebro humano percibe el mundo natural, sino que "para todas las combinaciones, el sistema nervioso de la inteligencia artificial debe tener una neurona correspondiente".
Por el contrario, el cerebro humano puede realizar la mayor parte del aprendizaje sin esfuerzo, porque la información en el cerebro está representada por la actividad de una gran cantidad de neuronas. Es decir, la percepción del cuadrado rojo por parte del cerebro humano no está codificada como la actividad de una sola neurona, sino como la actividad de miles de neuronas. El mismo conjunto de neuronas, que se activan de diferentes maneras, puede representar un concepto completamente diferente.
**Como puede ver, la computación del cerebro humano es un método informático completamente diferente. Y si este método de cálculo se aplica a la tecnología de inteligencia artificial, reducirá en gran medida el consumo de energía de la inteligencia artificial. **Y este método de cálculo es el llamado "cálculo superdimensional". Eso es imitar el método de cálculo del cerebro humano y utilizar el espacio matemático de alta dimensión para realizar cálculos y lograr un proceso de cálculo más eficiente e inteligente.
Por ejemplo, el modelo de diseño arquitectónico tradicional es bidimensional. Sólo podemos dibujar dibujos en un plano. Cada dibujo representa un aspecto diferente del edificio, como la distribución del piso y el tendido de cables. Pero a medida que los edificios se vuelven cada vez más complejos, necesitamos cada vez más dibujos para representar todos los detalles, lo que consume mucho tiempo y papel.
Y la computación hiperdimensional parece proporcionarnos un nuevo método de diseño. Podemos diseñar edificios en tres dimensiones, donde cada dimensión representa una propiedad como largo, ancho, alto, material, color, etc. Además, también podemos diseñar en un espacio de dimensiones superiores, como la cuarta dimensión que representa los cambios de los edificios en diferentes momentos. Esto nos permite completar todos los diseños en un súper dibujo, eliminando la necesidad de un montón de dibujos 2D, lo que mejora enormemente la eficiencia.
Asimismo, el consumo de energía en la formación de IA se puede comparar con el diseño de edificios. El aprendizaje profundo tradicional requiere una gran cantidad de recursos informáticos para procesar cada característica o atributo, mientras que la computación hiperdimensional coloca todas las características en un espacio de alta dimensión para su procesamiento. De esta manera, la IA puede percibir múltiples funciones al mismo tiempo solo realizando cálculos una vez, ahorrando así mucho tiempo de cálculo y consumo de energía.
** Por otro lado, encontrar nuevas soluciones de recursos energéticos, por ejemplo, la tecnología de fusión nuclear. **La tecnología de generación de energía de fusión nuclear se considera una de las soluciones definitivas al problema global de las emisiones de carbono porque básicamente no genera desechos nucleares y no genera contaminación por emisiones de carbono durante el proceso de producción.
En mayo de 2023, Microsoft firmó un acuerdo de compra con Helion Energy, una nueva empresa de fusión nuclear, convirtiéndose en el primer cliente de la empresa y comprará su electricidad cuando la empresa construya la primera planta de energía de fusión nuclear del mundo en 2028. Además, a largo plazo, incluso si la IA logra una reducción en el consumo de energía por unidad de potencia informática a través de lámparas informáticas ultradimensionales, los avances en la tecnología de fusión nuclear u otras tecnologías energéticas bajas en carbono aún pueden hacer que el desarrollo de la IA ya no esté restringido por el carbono. emisiones Todavía tiene un gran apoyo y importancia de promoción.
Al fin y al cabo, el problema del consumo de energía y recursos provocado por la tecnología sólo puede resolverse fundamentalmente a nivel técnico. La tecnología restringe el desarrollo de la tecnología y también promueve el desarrollo de la tecnología, como ha sido el caso desde la antigüedad.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Consumo de energía y consumo de agua, ¿quién puede ahorrar el consumo de energía de la IA?
Fuente original: Chen Gen habla sobre tecnología.
Hoy en día, si bien el gran modelo de IA representado por ChatGPT ha traído grandes cambios a la sociedad humana, también es controvertido debido al consumo de energía.
La última publicación de The Economist decía: Las instalaciones informáticas de alto rendimiento, incluidas las supercomputadoras, se están convirtiendo en grandes consumidores de energía. **Según la Agencia Internacional de Energía, los centros de datos representan entre el 1,5% y el 2% del consumo mundial de electricidad, aproximadamente el equivalente al consumo de electricidad de toda la economía del Reino Unido. **Se espera que aumente al 4% para 2030.
**La inteligencia artificial no sólo consume electricidad, sino también agua. ** Según el informe medioambiental de 2023 publicado por Google, se consumirán 5.600 millones de galones (unos 21.200 millones de litros) de agua en 2022, lo que equivale al agua de 37 campos de golf. De eso, 5,2 mil millones de galones se destinaron a los centros de datos de la compañía, un aumento del 20% con respecto a 2021.
Ante los enormes costes del consumo de energía, la inteligencia artificial (IA) quiere avanzar hacia el futuro, y la economía se ha convertido en un problema real que ChatGPT debe resolver con urgencia. Y si se quiere resolver el problema del consumo de energía, cualquier medida de optimización basada en la tecnología y la arquitectura existentes detendrá el agua hirviendo. En este contexto, el avance de la tecnología de punta puede ser la solución definitiva al consumo de energía de la IA. dilema. .
La IA está consumiendo energía
Desde la esencia de la informática, la informática es el proceso de cambiar datos del desorden al orden, y este proceso requiere una cierta cantidad de energía.
Solo desde la perspectiva de la cantidad, según estadísticas incompletas, alrededor del 5% de la generación mundial de energía en 2020 se utilizará para el consumo de energía informática, y esta cifra puede aumentar a alrededor del 15% al 25% para 2030, es decir, se dice que la proporción del consumo de electricidad en la industria informática estará a la par de las grandes industrias consumidoras de energía, como la industria.
En 2020, el consumo de energía de los centros de datos de China superará los 200 mil millones de kWh, lo que representa el doble de la generación de energía combinada de la presa de las Tres Gargantas y la central eléctrica de Gezhouba (alrededor de 100 mil millones de kWh).
De hecho, para la industria informática, el costo de la electricidad es también el costo principal además del costo del chip.
**Si la electricidad consumida no se genera con energía renovable, habrá emisiones de carbono. Es por eso que los modelos de aprendizaje automático también generan emisiones de carbono. ChatGPT no es una excepción. **
Los datos muestran que el entrenamiento del GPT-3 consume 1287MWh (megavatios hora), lo que equivale a emitir 552 toneladas de carbono. Al respecto, el investigador de datos sostenibles Caspar Ludwigsen también analizó: "Las grandes emisiones de GPT-3 pueden explicarse en parte por el hecho de que fue entrenado en hardware más antiguo y menos eficiente, pero debido a que no existe una forma estandarizada de medir las emisiones de CO2, estas cifras Se basan en estimaciones. Además, el estándar de cuánto de esta parte del valor de las emisiones de carbono debe asignarse al entrenamiento ChatGPT también es relativamente vago. Cabe señalar que debido a que el aprendizaje por refuerzo en sí requiere electricidad adicional, por lo que el carbono Las emisiones generadas por ChatGPT durante la fase de entrenamiento del modelo deberían ser mayores que este valor”. Calculadas solo en 552 toneladas de emisiones, estas equivalen al consumo anual de energía de 126 hogares daneses.
** En la fase de operación, aunque el consumo de energía de las acciones de las personas al operar ChatGPT es muy pequeño, también puede convertirse en la segunda fuente más grande de emisiones de carbono debido al hecho de que puede haber mil millones de veces al día en el mundo. **
El cofundador de Databoxer, Chris Bolton, explicó un método de cálculo: "Primero, estimamos que cada palabra de respuesta tarda 0,35 segundos en la GPU A100, suponiendo 1 millón de usuarios con 10 preguntas por usuario, generando 1000 10 000 respuestas y 300 millones de palabras por día, cada una. palabra es 0,35 segundos, se puede calcular que la GPU A100 funciona durante 29167 horas por día."
Cloud Carbon Footprint enumera el consumo de energía mínimo de la GPU A100 en el centro de datos de Azure de 46 W y el consumo de energía máximo de 407 W. Dado que es probable que no haya muchos procesadores ChatGPT inactivos, el consumo de energía diario alcanzará los 11870 kWh en la parte superior del el rango.
Chris Bolton dijo: "El factor de emisión en el oeste de Estados Unidos es 0,000322167 toneladas/kWh, por lo que se producirán 3,82 toneladas de dióxido de carbono equivalente por día. El estadounidense promedio produce aproximadamente 15 toneladas de dióxido de carbono equivalente por año. En otras palabras, "Esto equivale a las emisiones anuales de dióxido de carbono de 93 estadounidenses. La tasa es comparable".
Aunque el atributo "virtual" facilita que la gente ignore los libros de carbono de los productos digitales, de hecho, Internet ha sido durante mucho tiempo una de las máquinas alimentadas por carbón más grandes del planeta. **Un estudio de Berkeley sobre el tema del consumo de energía y la inteligencia artificial sostiene que la inteligencia artificial casi consume energía. **
Por ejemplo, el modelo de lenguaje T5 previamente entrenado de Google usó 86 megavatios de electricidad y generó 47 toneladas métricas de emisiones de CO2; el chatbot de campo abierto de múltiples rondas de Google, Meena, usó 232 megavatios de electricidad y generó 96 toneladas métricas de emisiones de CO2; la traducción del idioma marco desarrollado por Google: GShard utilizó 24 megavatios de electricidad y produjo 4,3 toneladas métricas de emisiones de dióxido de carbono; el algoritmo de enrutamiento Switch Transformer desarrollado por Google utilizó 179 megavatios de electricidad y produjo 59 toneladas métricas de emisiones de dióxido de carbono.
La potencia informática utilizada en el aprendizaje profundo se ha multiplicado por 300.000 entre 2012 y 2018, lo que hace que GPT-3 parezca el que tiene el mayor impacto climático. Sin embargo, cuando funciona simultáneamente con el cerebro humano, el consumo de energía del cerebro humano es sólo el 0,002% del de la máquina.
No solo consume electricidad, sino que también consume agua
Además del asombroso consumo de energía, la inteligencia artificial también consume mucha agua.
De hecho, ya sea el consumo de energía o de agua, es inseparable del centro digital, el pilar del mundo digital. Como servidores y equipos de red que alimentan Internet y almacenan grandes cantidades de datos, los centros de datos globales requieren mucha energía para funcionar, y los sistemas de refrigeración son uno de los principales impulsores del consumo de energía. **
La verdad es que un centro de datos de gran tamaño consume casi 100 millones de kilovatios-hora de electricidad cada año, y el desarrollo de la IA generativa ha aumentado aún más el consumo de energía del centro de datos. Debido a que los modelos a gran escala a menudo requieren decenas de miles de GPU, el período de entrenamiento puede variar desde unas pocas semanas hasta varios meses, y se requiere una gran cantidad de energía en el proceso.
Los servidores de los centros de datos generan mucha energía térmica durante su funcionamiento y la refrigeración por agua es el método más común para los servidores, lo que a su vez genera un enorme consumo de energía hidráulica. Los datos muestran que GPT-3 consume casi 700 toneladas de agua durante el entrenamiento y luego consume 500 mililitros de agua por cada 20 a 50 preguntas respondidas.
Según un estudio de Virginia Tech, los centros de datos consumen una media de 401 toneladas de agua al día para refrigeración, lo que equivale al consumo de agua de 100.000 hogares. Meta utilizó más de 2,6 millones de metros cúbicos (alrededor de 697 millones de galones) de agua en 2022, principalmente para centros de datos. Su último modelo de lenguaje a gran escala, "Llama 2", también requiere mucha agua para entrenarse. Aun así, en 2022, una quinta parte de los centros de datos de Meta experimentarán "escasez de agua".
Además, otro chip de infraestructura importante para la inteligencia artificial, su proceso de fabricación también es un proceso que consume mucha energía y recursos hídricos. En términos de energía, el proceso de fabricación de chips requiere mucha energía, especialmente los chips de proceso avanzado. El informe "Pronóstico de emisiones de carbono y consumo de energía de la cadena de suministro de productos electrónicos de consumo de la División de Asia Oriental de Greenpeace" de la organización ambiental internacional estudió las emisiones de carbono de 13 empresas líderes de fabricación de productos electrónicos en Asia Oriental, incluidas Samsung Electronics y TSMC, y dijo que la industria de fabricación de productos electrónicos, especialmente la Industria de semiconductores Las emisiones de carbono están aumentando y el consumo de electricidad de la industria mundial de semiconductores se disparará a 237 teravatios hora para 2030.
En términos de consumo de recursos hídricos, el proceso de oblea de silicio requiere una limpieza con "agua ultrapura", y cuanto mayor es el proceso de fabricación del chip, mayor es el consumo de agua. Se necesitan unos 32 kilogramos de agua para producir un chip de computadora de 2 gramos. La fabricación de obleas de 8 pulgadas consume alrededor de 250 toneladas de agua por hora, y las de 12 pulgadas pueden alcanzar las 500 toneladas.
**TSMC tiene una capacidad de producción anual de obleas de aproximadamente 30 millones de obleas y la producción de chips consume alrededor de 80 millones de toneladas de agua. Disponer de recursos hídricos adecuados se ha convertido en una condición necesaria para el desarrollo de la industria de los chips. **En julio de 2023, el Ministerio de Economía, Comercio e Industria de Japón decidió establecer un nuevo sistema para otorgar subsidios para la construcción de instalaciones que suministren agua industrial a las fábricas de semiconductores para garantizar el agua industrial necesaria para la producción de semiconductores.
A largo plazo, la promoción y aplicación de la IA generativa y la conducción no tripulada conducirán a un mayor crecimiento de la industria de fabricación de chips, seguido de un gran consumo de recursos energéticos.
**¿Quién puede salvar a la IA del consumo de energía? **
Se puede decir que hoy en día, el consumo de energía se ha convertido en una debilidad que restringe el desarrollo de la IA. Según la ruta técnica y el modelo de desarrollo actuales, el progreso de la IA causará dos problemas:
** Por un lado, la escala del centro de datos será cada vez mayor, y su consumo de energía también aumentará en consecuencia, y la operación será cada vez más lenta. **
Obviamente, con la popularización de las aplicaciones de IA, la demanda de recursos del centro de datos por parte de la IA aumentará drásticamente. Los centros de datos a gran escala requieren grandes cantidades de electricidad para hacer funcionar servidores, dispositivos de almacenamiento y sistemas de refrigeración. Esto conduce a un mayor consumo de energía, al tiempo que plantea problemas de estabilidad del suministro de energía y de impacto ambiental. El crecimiento continuo de los centros de datos también puede ejercer presión sobre el suministro de energía, y la dependencia de fuentes de energía tradicionales para satisfacer las necesidades energéticas de los centros de datos puede resultar en un aumento de los precios de la energía y la inestabilidad del suministro. Por supuesto, el alto consumo de energía de los centros de datos también tiene impactos ambientales, incluidas las emisiones de CO2 y el consumo de energía.
**Por otro lado, los chips de IA están evolucionando hacia una alta potencia informática y una alta integración, confiando en procesos de fabricación para respaldar el crecimiento de la potencia informática máxima. A medida que los procesos de fabricación se vuelven más avanzados, su consumo de energía y agua también están aumentando. **
Entonces, ante un consumo de energía tan enorme por parte de la IA, ¿tenemos una mejor manera? De hecho, la mejor manera de resolver el dilema técnico es desarrollar nuevas tecnologías.
Por un lado, el progreso de la IA en la era posterior a Moore requiere encontrar paradigmas y métodos nuevos y más creíbles.
De hecho, hoy en día, la razón por la que la inteligencia artificial traerá enormes problemas de consumo de energía está estrechamente relacionada con la forma en que la inteligencia artificial realiza la inteligencia.
Podemos comparar la construcción y operación de redes neuronales artificiales en esta etapa con un grupo de "neuronas" artificiales independientes que trabajan juntas. Cada neurona es como una pequeña unidad computacional que recibe información, realiza algunos cálculos y produce una salida. Las redes neuronales artificiales actuales se construyen diseñando inteligentemente cómo se conectan estas unidades informáticas para que, una vez entrenadas, puedan realizar tareas específicas.
Pero las redes neuronales artificiales también tienen sus limitaciones. Por ejemplo, si necesitamos utilizar una red neuronal para distinguir un círculo de un cuadrado. Un enfoque consiste en colocar dos neuronas en la capa de salida, una para el círculo y otra para el cuadrado. Sin embargo, si queremos que la red neuronal también pueda distinguir el color de las formas, como el azul y el rojo, entonces necesitamos cuatro neuronas de salida: círculo azul, cuadrado azul, círculo rojo y cuadrado rojo.
Es decir, a medida que aumenta la complejidad de la tarea, la estructura de la red neuronal también requiere más neuronas para procesar más información. La razón es que la forma en que las redes neuronales artificiales logran inteligencia no es la forma en que el cerebro humano percibe el mundo natural, sino que "para todas las combinaciones, el sistema nervioso de la inteligencia artificial debe tener una neurona correspondiente".
Por el contrario, el cerebro humano puede realizar la mayor parte del aprendizaje sin esfuerzo, porque la información en el cerebro está representada por la actividad de una gran cantidad de neuronas. Es decir, la percepción del cuadrado rojo por parte del cerebro humano no está codificada como la actividad de una sola neurona, sino como la actividad de miles de neuronas. El mismo conjunto de neuronas, que se activan de diferentes maneras, puede representar un concepto completamente diferente.
**Como puede ver, la computación del cerebro humano es un método informático completamente diferente. Y si este método de cálculo se aplica a la tecnología de inteligencia artificial, reducirá en gran medida el consumo de energía de la inteligencia artificial. **Y este método de cálculo es el llamado "cálculo superdimensional". Eso es imitar el método de cálculo del cerebro humano y utilizar el espacio matemático de alta dimensión para realizar cálculos y lograr un proceso de cálculo más eficiente e inteligente.
Por ejemplo, el modelo de diseño arquitectónico tradicional es bidimensional. Sólo podemos dibujar dibujos en un plano. Cada dibujo representa un aspecto diferente del edificio, como la distribución del piso y el tendido de cables. Pero a medida que los edificios se vuelven cada vez más complejos, necesitamos cada vez más dibujos para representar todos los detalles, lo que consume mucho tiempo y papel.
Y la computación hiperdimensional parece proporcionarnos un nuevo método de diseño. Podemos diseñar edificios en tres dimensiones, donde cada dimensión representa una propiedad como largo, ancho, alto, material, color, etc. Además, también podemos diseñar en un espacio de dimensiones superiores, como la cuarta dimensión que representa los cambios de los edificios en diferentes momentos. Esto nos permite completar todos los diseños en un súper dibujo, eliminando la necesidad de un montón de dibujos 2D, lo que mejora enormemente la eficiencia.
Asimismo, el consumo de energía en la formación de IA se puede comparar con el diseño de edificios. El aprendizaje profundo tradicional requiere una gran cantidad de recursos informáticos para procesar cada característica o atributo, mientras que la computación hiperdimensional coloca todas las características en un espacio de alta dimensión para su procesamiento. De esta manera, la IA puede percibir múltiples funciones al mismo tiempo solo realizando cálculos una vez, ahorrando así mucho tiempo de cálculo y consumo de energía.
** Por otro lado, encontrar nuevas soluciones de recursos energéticos, por ejemplo, la tecnología de fusión nuclear. **La tecnología de generación de energía de fusión nuclear se considera una de las soluciones definitivas al problema global de las emisiones de carbono porque básicamente no genera desechos nucleares y no genera contaminación por emisiones de carbono durante el proceso de producción.
En mayo de 2023, Microsoft firmó un acuerdo de compra con Helion Energy, una nueva empresa de fusión nuclear, convirtiéndose en el primer cliente de la empresa y comprará su electricidad cuando la empresa construya la primera planta de energía de fusión nuclear del mundo en 2028. Además, a largo plazo, incluso si la IA logra una reducción en el consumo de energía por unidad de potencia informática a través de lámparas informáticas ultradimensionales, los avances en la tecnología de fusión nuclear u otras tecnologías energéticas bajas en carbono aún pueden hacer que el desarrollo de la IA ya no esté restringido por el carbono. emisiones Todavía tiene un gran apoyo y importancia de promoción.
Al fin y al cabo, el problema del consumo de energía y recursos provocado por la tecnología sólo puede resolverse fundamentalmente a nivel técnico. La tecnología restringe el desarrollo de la tecnología y también promueve el desarrollo de la tecnología, como ha sido el caso desde la antigüedad.