Aujourd’hui, si le grand modèle d’IA représenté par ChatGPT a apporté de grands changements à la société humaine, il est également controversé en raison de sa consommation d’énergie.
La dernière publication de The Economist disait : Les installations de calcul haute performance, y compris les supercalculateurs, deviennent de grands consommateurs d'énergie. **Selon l'Agence internationale de l'énergie, les centres de données représentent 1,5 % à 2 % de la consommation mondiale d'électricité, soit à peu près l'équivalent de la consommation électrique de l'ensemble de l'économie britannique. **Ce chiffre devrait atteindre 4 % d'ici 2030.
**L'intelligence artificielle consomme non seulement de l'électricité, mais aussi de l'eau. ** Selon le rapport environnemental 2023 publié par Google, il consommera 5,6 milliards de gallons (environ 21,2 milliards de litres) d'eau en 2022, ce qui équivaut à l'eau de 37 terrains de golf. Sur ce montant, 5,2 milliards de gallons ont été destinés aux centres de données de l'entreprise, soit une augmentation de 20 % par rapport à 2021.
Face aux coûts énormes de consommation d’énergie, l’intelligence artificielle (IA) veut aller vers l’avenir, et l’économie est devenue un véritable problème que ChatGPT doit résoudre de toute urgence. Et si le problème de la consommation d'énergie doit être résolu, toute mesure d'optimisation basée sur la technologie et l'architecture existantes arrêtera l'eau bouillante. Dans ce contexte, la percée de la technologie de pointe pourrait être la solution ultime à la consommation d'énergie de l'IA. dilemme. .
L'IA mange de l'énergie
De l'essence de l'informatique, l'informatique est le processus de transformation des données du désordre en ordre, et ce processus nécessite une certaine quantité d'énergie.
Du seul point de vue de la quantité, selon des statistiques incomplètes, environ 5 % de la production mondiale d'électricité en 2020 sera utilisée pour la consommation d'énergie de calcul, et ce chiffre pourrait atteindre environ 15 à 25 % d'ici 2030, c'est-à-dire qu'il est dit que la proportion de consommation d'électricité dans l'industrie informatique sera comparable à celle des grandes industries consommatrices d'énergie telles que l'industrie.
En 2020, la consommation électrique des centres de données chinois dépassera 200 milliards de kWh, soit le double de la production électrique combinée du barrage des Trois Gorges et de la centrale électrique de Gezhouba (environ 100 milliards de kWh).
En fait, pour l’industrie informatique, le coût de l’électricité constitue également le coût principal, outre le coût des puces.
**Si l'électricité consommée n'est pas produite par des énergies renouvelables, il y aura alors des émissions de carbone. C’est pourquoi les modèles d’apprentissage automatique génèrent également des émissions de carbone. ChatGPT ne fait pas exception. **
Les données montrent que la formation GPT-3 consomme 1 287 MWh (mégawattheures), ce qui équivaut à l'émission de 552 tonnes de carbone. À cet égard, le chercheur en données durables Caspar Ludwigsen a également analysé : « Les émissions importantes de GPT-3 peuvent s'expliquer en partie par le fait qu'il a été formé sur du matériel plus ancien et moins efficace, mais comme il n'existe pas de moyen standardisé de mesurer les émissions de CO2, ces chiffres sont basés sur des estimations. En outre, la norme quant à la part de cette partie de la valeur des émissions de carbone qui devrait être allouée à la formation ChatGPT est également relativement vague. Il convient de noter que, parce que l'apprentissage par renforcement lui-même nécessite des coûts supplémentaires, il consomme de l'électricité, donc le carbone les émissions générées par ChatGPT pendant la phase de formation du modèle devraient être supérieures à cette valeur. » Calculées seulement par 552 tonnes d'émissions, celles-ci équivalent à la consommation d'énergie annuelle de 126 ménages danois.
**En phase d'exploitation, bien que la consommation d'énergie des actions des personnes lors du fonctionnement de ChatGPT soit très faible, elle peut également devenir la deuxième plus grande source d'émissions de carbone en raison du fait qu'il pourrait y avoir un milliard de fois par jour dans le monde. **
Le co-fondateur de Databoxer, Chris Bolton, a expliqué une méthode de calcul : « Premièrement, nous estimons que chaque mot de réponse prend 0,35 seconde sur le GPU A100, en supposant 1 million d'utilisateurs avec 10 questions par utilisateur, générant 1 000 10 000 réponses et 300 millions de mots par jour, chacun mot est de 0,35 seconde, on peut calculer que le GPU A100 fonctionne 29 167 heures par jour.
Cloud Carbon Footprint indique la consommation électrique minimale du GPU A100 dans le centre de données Azure de 46 W et la consommation électrique maximale de 407 W. Comme il est probable que peu de processeurs ChatGPT soient inactifs, la consommation électrique quotidienne atteindra 11 870 kWh au sommet de la gamme.
Chris Bolton a déclaré : « Le facteur d'émission dans l'ouest des États-Unis est de 0,000322167 tonnes/kWh, ce qui produira 3,82 tonnes d'équivalent dioxyde de carbone par jour. L'Américain moyen consomme environ 15 tonnes d'équivalent dioxyde de carbone par an. En d'autres termes, cela équivaut aux émissions annuelles de dioxyde de carbone de 93 Américains. Le taux est comparable.
Bien que l'attribut « virtuel » permette aux gens d'ignorer facilement les livres de carbone des produits numériques, en fait, Internet est depuis longtemps l'une des plus grandes machines alimentées au charbon de la planète. **Une étude de Berkeley sur le thème de la consommation d'énergie et de l'intelligence artificielle affirme que l'intelligence artificielle consomme presque de l'énergie. **
Par exemple, le modèle linguistique pré-entraîné T5 de Google a utilisé 86 mégawatts d'électricité et a généré 47 tonnes d'émissions de CO2 ; le chatbot multi-tours en champ ouvert de Google, Meena, a utilisé 232 mégawatts d'électricité et a généré 96 tonnes d'émissions de CO2 ; La traduction linguistique framework développé par Google - GShard a utilisé 24 mégawatts d'électricité et produit 4,3 tonnes d'émissions de dioxyde de carbone ; l'algorithme de routage Switch Transformer développé par Google a utilisé 179 mégawatts d'électricité et a produit 59 tonnes d'émissions de dioxyde de carbone.
La puissance de calcul utilisée dans l’apprentissage profond a été multipliée par 300 000 entre 2012 et 2018, ce qui fait que GPT-3 apparaît comme celui ayant le plus grand impact climatique. Or, lorsqu’il travaille simultanément avec le cerveau humain, la consommation énergétique du cerveau humain ne représente que 0,002 % de celle de la machine.
Consomme non seulement de l'électricité, mais aussi de l'eau
En plus d’une consommation électrique faramineuse, l’intelligence artificielle est également très consommatrice d’eau.
En effet, qu’il s’agisse de consommation électrique ou d’eau, elle est indissociable du centre numérique, pilier du monde numérique. En tant que serveurs et équipements réseau qui alimentent Internet et stockent de grandes quantités de données, les centres de données mondiaux nécessitent beaucoup d'énergie pour fonctionner, et les systèmes de refroidissement sont l'un des principaux moteurs de la consommation d'énergie. **
La vérité est qu'un très grand centre de données consomme près de 100 millions de kilowattheures d'électricité chaque année, et le développement de l'IA générative a encore augmenté la consommation d'énergie du centre de données. Étant donné que les modèles à grande échelle nécessitent souvent des dizaines de milliers de GPU, la période de formation peut varier de quelques semaines à plusieurs mois, et le processus nécessite une grande quantité d'énergie.
Les serveurs des centres de données génèrent beaucoup d'énergie thermique pendant leur fonctionnement et le refroidissement par eau est la méthode la plus courante pour les serveurs, ce qui entraîne une énorme consommation d'énergie hydraulique. Les données montrent que GPT-3 consomme près de 700 tonnes d'eau pendant l'entraînement, puis 500 millilitres d'eau pour 20 à 50 questions répondues.
Selon une étude de Virginia Tech, les centres de données consomment en moyenne 401 tonnes d'eau par jour pour leur refroidissement, ce qui équivaut à la consommation d'eau de 100 000 foyers. Meta a utilisé plus de 2,6 millions de mètres cubes (environ 697 millions de gallons) d'eau en 2022, principalement pour les centres de données. Son dernier modèle linguistique à grande échelle, "Llama 2", nécessite également beaucoup d'eau pour s'entraîner. Pourtant, en 2022, un cinquième des centres de données de Meta connaîtront une « pénurie d’eau ».
De plus, autre puce d'infrastructure importante pour l'intelligence artificielle, son processus de fabrication est également un processus qui consomme beaucoup de ressources en énergie et en eau. En termes d'énergie, le processus de fabrication des puces nécessite beaucoup d'énergie, en particulier les puces de processus avancés. Le rapport « Consumer Electronics Supply Chain Power Consumption and Carbon Emissions Forecast » de l'organisation environnementale internationale Greenpeace East Asia Division a étudié les émissions de carbone de 13 grandes entreprises de fabrication de produits électroniques en Asie de l'Est, dont Samsung Electronics et TSMC, et a déclaré que l'industrie de fabrication de produits électroniques, en particulier la industrie des semi-conducteurs Les émissions de carbone montent en flèche et la consommation électrique de l'industrie mondiale des semi-conducteurs atteindra 237 térawattheures d'ici 2030.
En termes de consommation de ressources en eau, le processus de fabrication des plaquettes de silicium nécessite un nettoyage à « l'eau ultra pure », et plus le processus de fabrication des puces est élevé, plus la consommation d'eau est importante. Il faut environ 32 kilogrammes d’eau pour produire une puce informatique de 2 grammes. La fabrication de tranches de 8 pouces consomme environ 250 tonnes d’eau par heure, et celle de 12 pouces peut atteindre 500 tonnes.
** TSMC a une capacité de production annuelle de plaquettes d'environ 30 millions de plaquettes et la production de puces consomme environ 80 millions de tonnes d'eau. Des ressources en eau adéquates sont devenues une condition nécessaire au développement de l’industrie des puces. **En juillet 2023, le ministère de l'Économie, du Commerce et de l'Industrie du Japon a décidé d'établir un nouveau système visant à accorder des subventions pour la construction d'installations fournissant de l'eau industrielle aux usines de semi-conducteurs afin de garantir l'eau industrielle nécessaire à la production de semi-conducteurs.
À long terme, la promotion et l'application de l'IA générative et de la conduite sans pilote entraîneront une nouvelle croissance de l'industrie de fabrication de puces, suivie d'une forte consommation de ressources énergétiques.
**Qui peut économiser l'IA de la consommation d'énergie ? **
On peut dire qu’aujourd’hui, la consommation énergétique est devenue une faiblesse limitant le développement de l’IA. Selon l’itinéraire technique et le modèle de développement actuels, les progrès de l’IA poseront deux problèmes :
** D'une part, l'échelle du centre de données deviendra de plus en plus grande, et sa consommation d'énergie augmentera également en conséquence, et le fonctionnement deviendra de plus en plus lent. **
De toute évidence, avec la vulgarisation des applications d'IA, la demande d'IA en ressources pour les centres de données va augmenter considérablement. Les centres de données à grande échelle nécessitent de grandes quantités d'électricité pour faire fonctionner les serveurs, les périphériques de stockage et les systèmes de refroidissement. Cela entraîne une augmentation de la consommation d’énergie, tout en soulevant des problèmes de stabilité de l’approvisionnement énergétique et d’impact environnemental. La croissance continue des centres de données peut également exercer une pression sur l'approvisionnement en énergie, et le recours aux sources d'énergie traditionnelles pour répondre aux besoins énergétiques des centres de données peut entraîner une hausse des prix de l'énergie et une instabilité de l'approvisionnement. Bien entendu, la forte consommation énergétique des centres de données a également des impacts environnementaux, notamment les émissions de CO2 et la consommation d’énergie.
**D'un autre côté, les puces d'IA évoluent vers une puissance de calcul élevée et une intégration élevée, en s'appuyant sur des processus de fabrication pour soutenir la croissance de la puissance de calcul maximale. À mesure que les processus de fabrication deviennent plus avancés, leur consommation d'énergie et d'eau augmente également. **
Alors, face à une consommation d’énergie aussi énorme de l’IA, avons-nous une meilleure solution ? En fait, la meilleure façon de résoudre le dilemme technique est de développer de nouvelles technologies.
D'une part, les progrès de l'IA dans l'ère post-Moore nécessitent de trouver de nouveaux paradigmes et méthodes plus crédibles.
En fait, aujourd'hui, la raison pour laquelle l'intelligence artificielle entraînera d'énormes problèmes de consommation d'énergie est étroitement liée à la manière dont l'intelligence artificielle réalise l'intelligence.
On peut comparer la construction et le fonctionnement des réseaux de neurones artificiels à ce stade à un groupe de « neurones » artificiels indépendants travaillant ensemble. Chaque neurone est comme une petite unité de calcul qui collecte des informations, effectue des calculs et produit un résultat. Les réseaux de neurones artificiels d'aujourd'hui sont construits en concevant intelligemment la manière dont ces unités informatiques sont connectées afin que, une fois entraînées, elles puissent effectuer des tâches spécifiques.
Mais les réseaux de neurones artificiels ont aussi leurs limites. Par exemple, si nous devons utiliser un réseau de neurones pour distinguer un cercle d’un carré. Une approche consiste à placer deux neurones dans la couche de sortie, un pour le cercle et un pour le carré. Cependant, si nous voulons que le réseau neuronal soit également capable de distinguer la couleur des formes, comme le bleu et le rouge, alors nous avons besoin de quatre neurones de sortie : un cercle bleu, un carré bleu, un cercle rouge et un carré rouge.
Autrement dit, à mesure que la complexité de la tâche augmente, la structure du réseau neuronal nécessite également davantage de neurones pour traiter davantage d’informations. La raison en est que la manière dont les réseaux de neurones artificiels atteignent l'intelligence n'est pas la façon dont le cerveau humain perçoit le monde naturel, mais « pour toutes les combinaisons, le système nerveux de l'intelligence artificielle doit avoir un neurone correspondant ».
En revanche, le cerveau humain peut effectuer la majeure partie de l'apprentissage sans effort, car les informations contenues dans le cerveau sont représentées par l'activité d'un grand nombre de neurones. Autrement dit, la perception du carré rouge par le cerveau humain n’est pas codée comme l’activité d’un seul neurone, mais comme l’activité de milliers de neurones. Le même ensemble de neurones, fonctionnant de différentes manières, peut représenter un concept complètement différent.
** Comme vous pouvez le constater, l’informatique du cerveau humain est une méthode informatique complètement différente. Et si cette méthode de calcul est appliquée à la technologie de l’intelligence artificielle, elle réduira considérablement la consommation énergétique de l’intelligence artificielle. **Et cette méthode de calcul est ce qu'on appelle le « calcul super-dimensionnel ». Il s'agit d'imiter la méthode de calcul du cerveau humain et d'utiliser l'espace mathématique de grande dimension pour effectuer des calculs afin d'obtenir un processus de calcul plus efficace et plus intelligent.
Par exemple, le modèle de conception architecturale traditionnelle est bidimensionnel. Nous ne pouvons dessiner que des dessins sur un plan. Chaque dessin représente un aspect différent du bâtiment, comme la disposition des étages et le cheminement des câbles. Mais à mesure que les bâtiments deviennent de plus en plus complexes, nous avons besoin de plus en plus de dessins pour représenter tous les détails, ce qui prend beaucoup de temps et de papier.
Et l’informatique hyperdimensionnelle semble nous offrir une nouvelle méthode de conception. Nous pouvons concevoir des bâtiments en trois dimensions, chaque dimension représentant une propriété telle que la longueur, la largeur, la hauteur, le matériau, la couleur, etc. De plus, nous pouvons également concevoir dans un espace de dimension supérieure, comme la quatrième dimension représentant les changements de bâtiments à différents moments. Cela nous permet de réaliser toutes les conceptions sur un seul super dessin, éliminant ainsi le besoin de plusieurs dessins 2D, ce qui améliore considérablement l'efficacité.
De même, la consommation d’énergie dans la formation en IA peut être comparée à la conception des bâtiments. L'apprentissage profond traditionnel nécessite une grande quantité de ressources informatiques pour traiter chaque caractéristique ou attribut, tandis que l'informatique hyperdimensionnelle place toutes les fonctionnalités dans un espace de traitement de grande dimension. De cette façon, l'IA peut percevoir plusieurs caractéristiques en même temps en effectuant des calculs une seule fois, économisant ainsi beaucoup de temps de calcul et de consommation d'énergie.
** D'autre part, trouver de nouvelles solutions en matière de ressources énergétiques, par exemple la technologie de fusion nucléaire. **La technologie de production d'énergie par fusion nucléaire est considérée comme l'une des solutions ultimes au problème mondial des émissions de carbone, car elle ne génère fondamentalement pas de déchets nucléaires et n'entraîne aucune pollution par les émissions de carbone pendant le processus de production.
En mai 2023, Microsoft a signé un accord d'achat avec Helion Energy, une start-up de fusion nucléaire, devenant ainsi le premier client de l'entreprise et achètera son électricité lorsque l'entreprise construira la première centrale nucléaire à fusion nucléaire au monde en 2028. De plus, à long terme, même si l’IA parvient à réduire la consommation d’énergie par unité de puissance de calcul grâce à des lampes informatiques ultra-dimensionnelles, les avancées dans la technologie de fusion nucléaire ou d’autres technologies énergétiques à faible émission de carbone peuvent encore permettre au développement de l’IA de ne plus être limité par le carbone. émissions. Il a toujours une grande importance en matière de soutien et de promotion.
Après tout, le problème de la consommation d’énergie et de ressources provoqué par la technologie ne peut encore être résolu fondamentalement qu’au niveau technique. La technologie restreint le développement de la technologie et favorise également le développement de la technologie, ce qui est le cas depuis l'Antiquité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Consommation d'énergie et consommation d'eau, qui peut économiser la consommation d'énergie de l'IA ?
Source originale : Chen Gen parle de technologie
Aujourd’hui, si le grand modèle d’IA représenté par ChatGPT a apporté de grands changements à la société humaine, il est également controversé en raison de sa consommation d’énergie.
La dernière publication de The Economist disait : Les installations de calcul haute performance, y compris les supercalculateurs, deviennent de grands consommateurs d'énergie. **Selon l'Agence internationale de l'énergie, les centres de données représentent 1,5 % à 2 % de la consommation mondiale d'électricité, soit à peu près l'équivalent de la consommation électrique de l'ensemble de l'économie britannique. **Ce chiffre devrait atteindre 4 % d'ici 2030.
**L'intelligence artificielle consomme non seulement de l'électricité, mais aussi de l'eau. ** Selon le rapport environnemental 2023 publié par Google, il consommera 5,6 milliards de gallons (environ 21,2 milliards de litres) d'eau en 2022, ce qui équivaut à l'eau de 37 terrains de golf. Sur ce montant, 5,2 milliards de gallons ont été destinés aux centres de données de l'entreprise, soit une augmentation de 20 % par rapport à 2021.
Face aux coûts énormes de consommation d’énergie, l’intelligence artificielle (IA) veut aller vers l’avenir, et l’économie est devenue un véritable problème que ChatGPT doit résoudre de toute urgence. Et si le problème de la consommation d'énergie doit être résolu, toute mesure d'optimisation basée sur la technologie et l'architecture existantes arrêtera l'eau bouillante. Dans ce contexte, la percée de la technologie de pointe pourrait être la solution ultime à la consommation d'énergie de l'IA. dilemme. .
L'IA mange de l'énergie
De l'essence de l'informatique, l'informatique est le processus de transformation des données du désordre en ordre, et ce processus nécessite une certaine quantité d'énergie.
Du seul point de vue de la quantité, selon des statistiques incomplètes, environ 5 % de la production mondiale d'électricité en 2020 sera utilisée pour la consommation d'énergie de calcul, et ce chiffre pourrait atteindre environ 15 à 25 % d'ici 2030, c'est-à-dire qu'il est dit que la proportion de consommation d'électricité dans l'industrie informatique sera comparable à celle des grandes industries consommatrices d'énergie telles que l'industrie.
En 2020, la consommation électrique des centres de données chinois dépassera 200 milliards de kWh, soit le double de la production électrique combinée du barrage des Trois Gorges et de la centrale électrique de Gezhouba (environ 100 milliards de kWh).
En fait, pour l’industrie informatique, le coût de l’électricité constitue également le coût principal, outre le coût des puces.
**Si l'électricité consommée n'est pas produite par des énergies renouvelables, il y aura alors des émissions de carbone. C’est pourquoi les modèles d’apprentissage automatique génèrent également des émissions de carbone. ChatGPT ne fait pas exception. **
Les données montrent que la formation GPT-3 consomme 1 287 MWh (mégawattheures), ce qui équivaut à l'émission de 552 tonnes de carbone. À cet égard, le chercheur en données durables Caspar Ludwigsen a également analysé : « Les émissions importantes de GPT-3 peuvent s'expliquer en partie par le fait qu'il a été formé sur du matériel plus ancien et moins efficace, mais comme il n'existe pas de moyen standardisé de mesurer les émissions de CO2, ces chiffres sont basés sur des estimations. En outre, la norme quant à la part de cette partie de la valeur des émissions de carbone qui devrait être allouée à la formation ChatGPT est également relativement vague. Il convient de noter que, parce que l'apprentissage par renforcement lui-même nécessite des coûts supplémentaires, il consomme de l'électricité, donc le carbone les émissions générées par ChatGPT pendant la phase de formation du modèle devraient être supérieures à cette valeur. » Calculées seulement par 552 tonnes d'émissions, celles-ci équivalent à la consommation d'énergie annuelle de 126 ménages danois.
**En phase d'exploitation, bien que la consommation d'énergie des actions des personnes lors du fonctionnement de ChatGPT soit très faible, elle peut également devenir la deuxième plus grande source d'émissions de carbone en raison du fait qu'il pourrait y avoir un milliard de fois par jour dans le monde. **
Le co-fondateur de Databoxer, Chris Bolton, a expliqué une méthode de calcul : « Premièrement, nous estimons que chaque mot de réponse prend 0,35 seconde sur le GPU A100, en supposant 1 million d'utilisateurs avec 10 questions par utilisateur, générant 1 000 10 000 réponses et 300 millions de mots par jour, chacun mot est de 0,35 seconde, on peut calculer que le GPU A100 fonctionne 29 167 heures par jour.
Cloud Carbon Footprint indique la consommation électrique minimale du GPU A100 dans le centre de données Azure de 46 W et la consommation électrique maximale de 407 W. Comme il est probable que peu de processeurs ChatGPT soient inactifs, la consommation électrique quotidienne atteindra 11 870 kWh au sommet de la gamme.
Chris Bolton a déclaré : « Le facteur d'émission dans l'ouest des États-Unis est de 0,000322167 tonnes/kWh, ce qui produira 3,82 tonnes d'équivalent dioxyde de carbone par jour. L'Américain moyen consomme environ 15 tonnes d'équivalent dioxyde de carbone par an. En d'autres termes, cela équivaut aux émissions annuelles de dioxyde de carbone de 93 Américains. Le taux est comparable.
Bien que l'attribut « virtuel » permette aux gens d'ignorer facilement les livres de carbone des produits numériques, en fait, Internet est depuis longtemps l'une des plus grandes machines alimentées au charbon de la planète. **Une étude de Berkeley sur le thème de la consommation d'énergie et de l'intelligence artificielle affirme que l'intelligence artificielle consomme presque de l'énergie. **
Par exemple, le modèle linguistique pré-entraîné T5 de Google a utilisé 86 mégawatts d'électricité et a généré 47 tonnes d'émissions de CO2 ; le chatbot multi-tours en champ ouvert de Google, Meena, a utilisé 232 mégawatts d'électricité et a généré 96 tonnes d'émissions de CO2 ; La traduction linguistique framework développé par Google - GShard a utilisé 24 mégawatts d'électricité et produit 4,3 tonnes d'émissions de dioxyde de carbone ; l'algorithme de routage Switch Transformer développé par Google a utilisé 179 mégawatts d'électricité et a produit 59 tonnes d'émissions de dioxyde de carbone.
La puissance de calcul utilisée dans l’apprentissage profond a été multipliée par 300 000 entre 2012 et 2018, ce qui fait que GPT-3 apparaît comme celui ayant le plus grand impact climatique. Or, lorsqu’il travaille simultanément avec le cerveau humain, la consommation énergétique du cerveau humain ne représente que 0,002 % de celle de la machine.
Consomme non seulement de l'électricité, mais aussi de l'eau
En plus d’une consommation électrique faramineuse, l’intelligence artificielle est également très consommatrice d’eau.
En effet, qu’il s’agisse de consommation électrique ou d’eau, elle est indissociable du centre numérique, pilier du monde numérique. En tant que serveurs et équipements réseau qui alimentent Internet et stockent de grandes quantités de données, les centres de données mondiaux nécessitent beaucoup d'énergie pour fonctionner, et les systèmes de refroidissement sont l'un des principaux moteurs de la consommation d'énergie. **
La vérité est qu'un très grand centre de données consomme près de 100 millions de kilowattheures d'électricité chaque année, et le développement de l'IA générative a encore augmenté la consommation d'énergie du centre de données. Étant donné que les modèles à grande échelle nécessitent souvent des dizaines de milliers de GPU, la période de formation peut varier de quelques semaines à plusieurs mois, et le processus nécessite une grande quantité d'énergie.
Les serveurs des centres de données génèrent beaucoup d'énergie thermique pendant leur fonctionnement et le refroidissement par eau est la méthode la plus courante pour les serveurs, ce qui entraîne une énorme consommation d'énergie hydraulique. Les données montrent que GPT-3 consomme près de 700 tonnes d'eau pendant l'entraînement, puis 500 millilitres d'eau pour 20 à 50 questions répondues.
Selon une étude de Virginia Tech, les centres de données consomment en moyenne 401 tonnes d'eau par jour pour leur refroidissement, ce qui équivaut à la consommation d'eau de 100 000 foyers. Meta a utilisé plus de 2,6 millions de mètres cubes (environ 697 millions de gallons) d'eau en 2022, principalement pour les centres de données. Son dernier modèle linguistique à grande échelle, "Llama 2", nécessite également beaucoup d'eau pour s'entraîner. Pourtant, en 2022, un cinquième des centres de données de Meta connaîtront une « pénurie d’eau ».
De plus, autre puce d'infrastructure importante pour l'intelligence artificielle, son processus de fabrication est également un processus qui consomme beaucoup de ressources en énergie et en eau. En termes d'énergie, le processus de fabrication des puces nécessite beaucoup d'énergie, en particulier les puces de processus avancés. Le rapport « Consumer Electronics Supply Chain Power Consumption and Carbon Emissions Forecast » de l'organisation environnementale internationale Greenpeace East Asia Division a étudié les émissions de carbone de 13 grandes entreprises de fabrication de produits électroniques en Asie de l'Est, dont Samsung Electronics et TSMC, et a déclaré que l'industrie de fabrication de produits électroniques, en particulier la industrie des semi-conducteurs Les émissions de carbone montent en flèche et la consommation électrique de l'industrie mondiale des semi-conducteurs atteindra 237 térawattheures d'ici 2030.
En termes de consommation de ressources en eau, le processus de fabrication des plaquettes de silicium nécessite un nettoyage à « l'eau ultra pure », et plus le processus de fabrication des puces est élevé, plus la consommation d'eau est importante. Il faut environ 32 kilogrammes d’eau pour produire une puce informatique de 2 grammes. La fabrication de tranches de 8 pouces consomme environ 250 tonnes d’eau par heure, et celle de 12 pouces peut atteindre 500 tonnes.
** TSMC a une capacité de production annuelle de plaquettes d'environ 30 millions de plaquettes et la production de puces consomme environ 80 millions de tonnes d'eau. Des ressources en eau adéquates sont devenues une condition nécessaire au développement de l’industrie des puces. **En juillet 2023, le ministère de l'Économie, du Commerce et de l'Industrie du Japon a décidé d'établir un nouveau système visant à accorder des subventions pour la construction d'installations fournissant de l'eau industrielle aux usines de semi-conducteurs afin de garantir l'eau industrielle nécessaire à la production de semi-conducteurs.
À long terme, la promotion et l'application de l'IA générative et de la conduite sans pilote entraîneront une nouvelle croissance de l'industrie de fabrication de puces, suivie d'une forte consommation de ressources énergétiques.
**Qui peut économiser l'IA de la consommation d'énergie ? **
On peut dire qu’aujourd’hui, la consommation énergétique est devenue une faiblesse limitant le développement de l’IA. Selon l’itinéraire technique et le modèle de développement actuels, les progrès de l’IA poseront deux problèmes :
** D'une part, l'échelle du centre de données deviendra de plus en plus grande, et sa consommation d'énergie augmentera également en conséquence, et le fonctionnement deviendra de plus en plus lent. **
De toute évidence, avec la vulgarisation des applications d'IA, la demande d'IA en ressources pour les centres de données va augmenter considérablement. Les centres de données à grande échelle nécessitent de grandes quantités d'électricité pour faire fonctionner les serveurs, les périphériques de stockage et les systèmes de refroidissement. Cela entraîne une augmentation de la consommation d’énergie, tout en soulevant des problèmes de stabilité de l’approvisionnement énergétique et d’impact environnemental. La croissance continue des centres de données peut également exercer une pression sur l'approvisionnement en énergie, et le recours aux sources d'énergie traditionnelles pour répondre aux besoins énergétiques des centres de données peut entraîner une hausse des prix de l'énergie et une instabilité de l'approvisionnement. Bien entendu, la forte consommation énergétique des centres de données a également des impacts environnementaux, notamment les émissions de CO2 et la consommation d’énergie.
**D'un autre côté, les puces d'IA évoluent vers une puissance de calcul élevée et une intégration élevée, en s'appuyant sur des processus de fabrication pour soutenir la croissance de la puissance de calcul maximale. À mesure que les processus de fabrication deviennent plus avancés, leur consommation d'énergie et d'eau augmente également. **
Alors, face à une consommation d’énergie aussi énorme de l’IA, avons-nous une meilleure solution ? En fait, la meilleure façon de résoudre le dilemme technique est de développer de nouvelles technologies.
D'une part, les progrès de l'IA dans l'ère post-Moore nécessitent de trouver de nouveaux paradigmes et méthodes plus crédibles.
En fait, aujourd'hui, la raison pour laquelle l'intelligence artificielle entraînera d'énormes problèmes de consommation d'énergie est étroitement liée à la manière dont l'intelligence artificielle réalise l'intelligence.
On peut comparer la construction et le fonctionnement des réseaux de neurones artificiels à ce stade à un groupe de « neurones » artificiels indépendants travaillant ensemble. Chaque neurone est comme une petite unité de calcul qui collecte des informations, effectue des calculs et produit un résultat. Les réseaux de neurones artificiels d'aujourd'hui sont construits en concevant intelligemment la manière dont ces unités informatiques sont connectées afin que, une fois entraînées, elles puissent effectuer des tâches spécifiques.
Mais les réseaux de neurones artificiels ont aussi leurs limites. Par exemple, si nous devons utiliser un réseau de neurones pour distinguer un cercle d’un carré. Une approche consiste à placer deux neurones dans la couche de sortie, un pour le cercle et un pour le carré. Cependant, si nous voulons que le réseau neuronal soit également capable de distinguer la couleur des formes, comme le bleu et le rouge, alors nous avons besoin de quatre neurones de sortie : un cercle bleu, un carré bleu, un cercle rouge et un carré rouge.
Autrement dit, à mesure que la complexité de la tâche augmente, la structure du réseau neuronal nécessite également davantage de neurones pour traiter davantage d’informations. La raison en est que la manière dont les réseaux de neurones artificiels atteignent l'intelligence n'est pas la façon dont le cerveau humain perçoit le monde naturel, mais « pour toutes les combinaisons, le système nerveux de l'intelligence artificielle doit avoir un neurone correspondant ».
En revanche, le cerveau humain peut effectuer la majeure partie de l'apprentissage sans effort, car les informations contenues dans le cerveau sont représentées par l'activité d'un grand nombre de neurones. Autrement dit, la perception du carré rouge par le cerveau humain n’est pas codée comme l’activité d’un seul neurone, mais comme l’activité de milliers de neurones. Le même ensemble de neurones, fonctionnant de différentes manières, peut représenter un concept complètement différent.
** Comme vous pouvez le constater, l’informatique du cerveau humain est une méthode informatique complètement différente. Et si cette méthode de calcul est appliquée à la technologie de l’intelligence artificielle, elle réduira considérablement la consommation énergétique de l’intelligence artificielle. **Et cette méthode de calcul est ce qu'on appelle le « calcul super-dimensionnel ». Il s'agit d'imiter la méthode de calcul du cerveau humain et d'utiliser l'espace mathématique de grande dimension pour effectuer des calculs afin d'obtenir un processus de calcul plus efficace et plus intelligent.
Par exemple, le modèle de conception architecturale traditionnelle est bidimensionnel. Nous ne pouvons dessiner que des dessins sur un plan. Chaque dessin représente un aspect différent du bâtiment, comme la disposition des étages et le cheminement des câbles. Mais à mesure que les bâtiments deviennent de plus en plus complexes, nous avons besoin de plus en plus de dessins pour représenter tous les détails, ce qui prend beaucoup de temps et de papier.
Et l’informatique hyperdimensionnelle semble nous offrir une nouvelle méthode de conception. Nous pouvons concevoir des bâtiments en trois dimensions, chaque dimension représentant une propriété telle que la longueur, la largeur, la hauteur, le matériau, la couleur, etc. De plus, nous pouvons également concevoir dans un espace de dimension supérieure, comme la quatrième dimension représentant les changements de bâtiments à différents moments. Cela nous permet de réaliser toutes les conceptions sur un seul super dessin, éliminant ainsi le besoin de plusieurs dessins 2D, ce qui améliore considérablement l'efficacité.
De même, la consommation d’énergie dans la formation en IA peut être comparée à la conception des bâtiments. L'apprentissage profond traditionnel nécessite une grande quantité de ressources informatiques pour traiter chaque caractéristique ou attribut, tandis que l'informatique hyperdimensionnelle place toutes les fonctionnalités dans un espace de traitement de grande dimension. De cette façon, l'IA peut percevoir plusieurs caractéristiques en même temps en effectuant des calculs une seule fois, économisant ainsi beaucoup de temps de calcul et de consommation d'énergie.
** D'autre part, trouver de nouvelles solutions en matière de ressources énergétiques, par exemple la technologie de fusion nucléaire. **La technologie de production d'énergie par fusion nucléaire est considérée comme l'une des solutions ultimes au problème mondial des émissions de carbone, car elle ne génère fondamentalement pas de déchets nucléaires et n'entraîne aucune pollution par les émissions de carbone pendant le processus de production.
En mai 2023, Microsoft a signé un accord d'achat avec Helion Energy, une start-up de fusion nucléaire, devenant ainsi le premier client de l'entreprise et achètera son électricité lorsque l'entreprise construira la première centrale nucléaire à fusion nucléaire au monde en 2028. De plus, à long terme, même si l’IA parvient à réduire la consommation d’énergie par unité de puissance de calcul grâce à des lampes informatiques ultra-dimensionnelles, les avancées dans la technologie de fusion nucléaire ou d’autres technologies énergétiques à faible émission de carbone peuvent encore permettre au développement de l’IA de ne plus être limité par le carbone. émissions. Il a toujours une grande importance en matière de soutien et de promotion.
Après tout, le problème de la consommation d’énergie et de ressources provoqué par la technologie ne peut encore être résolu fondamentalement qu’au niveau technique. La technologie restreint le développement de la technologie et favorise également le développement de la technologie, ce qui est le cas depuis l'Antiquité.