Hoje, embora o grande modelo de IA representado pelo ChatGPT tenha trazido grandes mudanças à sociedade humana, também é controverso devido ao consumo de energia.
A última publicação do The Economist dizia: As instalações de computação de alto desempenho, incluindo os supercomputadores, estão a tornar-se grandes consumidores de energia. **De acordo com a Agência Internacional de Energia, os data centers representam 1,5% a 2% do consumo global de eletricidade, aproximadamente equivalente ao consumo de eletricidade de toda a economia do Reino Unido. **Espera-se que este valor aumente para 4% até 2030.
**A inteligência artificial consome não só eletricidade, mas também água. **De acordo com o relatório ambiental de 2023 divulgado pelo Google, serão consumidos 5,6 bilhões de galões (cerca de 21,2 bilhões de litros) de água em 2022, o que equivale à água de 37 campos de golfe. Desse total, 5,2 bilhões de galões foram para os data centers da empresa, um aumento de 20% em relação a 2021.
Face aos enormes custos de consumo de energia, a inteligência artificial (IA) quer avançar para o futuro, e a economia tornou-se um problema real que o ChatGPT precisa de resolver urgentemente. E se o problema do consumo de energia for resolvido, quaisquer medidas de otimização baseadas na tecnologia e arquitetura existentes irão parar a fervura da água.Neste contexto, o avanço da tecnologia de ponta pode ser a solução definitiva para o consumo de energia da IA. dilema. .
IA está consumindo energia
Da essência da computação, a computação é o processo de transformar dados de desordem em ordem, e esse processo requer uma certa quantidade de energia.
Apenas do ponto de vista da quantidade, de acordo com estatísticas incompletas, cerca de 5% da geração global de energia em 2020 será usada para computar o consumo de energia, e este número pode aumentar para cerca de 15% a 25% até 2030, ou seja, diz-se que a proporção do consumo de eletricidade na indústria da computação estará no mesmo nível das grandes indústrias consumidoras de energia, como a indústria.
Em 2020, o consumo de energia dos centros de dados da China excederá 200 mil milhões de kWh, o que representa o dobro da geração combinada de energia da Barragem das Três Gargantas e da Central Elétrica de Gezhouba (cerca de 100 mil milhões de kWh).
Na verdade, para a indústria da computação, o custo da eletricidade também é o custo principal, além do custo do chip.
**Se a eletricidade consumida não for gerada por energia renovável, haverá emissões de carbono. É por isso que os modelos de aprendizado de máquina também geram emissões de carbono. ChatGPT não é exceção. **
Os dados mostram que o treinamento do GPT-3 consome 1.287 MWh (megawatts-hora), o que equivale à emissão de 552 toneladas de carbono. A este respeito, o investigador de dados sustentáveis Caspar Ludwigsen também analisou: “As grandes emissões do GPT-3 podem ser parcialmente explicadas pelo facto de ter sido treinado em hardware mais antigo e menos eficiente, mas porque não existe uma forma padronizada de medir as emissões de CO2, estes números são baseados em estimativas. Além disso, o padrão de quanto desta parte do valor das emissões de carbono deve ser alocado para o treinamento ChatGPT também é relativamente vago. Deve-se notar que, como o aprendizado por reforço em si requer adicional. Ele consome eletricidade, então o carbono as emissões geradas pelo ChatGPT durante a fase de formação do modelo devem ser superiores a este valor.” Calculadas apenas por 552 toneladas de emissões, estas são equivalentes ao consumo anual de energia de 126 famílias dinamarquesas.
**Na fase de operação, embora o consumo de energia das ações das pessoas durante a operação do ChatGPT seja muito pequeno, ele também pode se tornar a segunda maior fonte de emissões de carbono devido ao fato de poder ocorrer um bilhão de vezes por dia no mundo. **
O cofundador da Databoxer, Chris Bolton, explicou um método de cálculo: "Primeiro, estimamos que cada palavra de resposta leva 0,35 segundos na GPU A100, assumindo 1 milhão de usuários com 10 perguntas por usuário, gerando 1.000 10.000 respostas e 300 milhões de palavras por dia, cada palavra é 0,35 segundos, pode-se calcular que a GPU A100 funciona 29.167 horas por dia."
Cloud Carbon Footprint lista o consumo mínimo de energia da GPU A100 no data center Azure de 46 W e o consumo máximo de energia de 407 W. Como é provável que poucos processadores ChatGPT estejam ociosos, o consumo diário de energia atingirá 11.870 kWh no topo de o intervalo.
Chris Bolton disse: "O fator de emissão no oeste dos Estados Unidos é de 0,000322167 toneladas/kWh, então produzirá 3,82 toneladas de equivalente de dióxido de carbono por dia. O americano médio tem cerca de 15 toneladas de equivalente de dióxido de carbono por ano. Em outras palavras, isto é equivalente às emissões anuais de dióxido de carbono de 93 americanos. A taxa é comparável.”
Embora o atributo “virtual” torne mais fácil para as pessoas ignorarem os livros de carbono dos produtos digitais, na verdade, a Internet tem sido há muito tempo uma das maiores máquinas movidas a carvão do planeta. **Um estudo de Berkeley sobre o tema consumo de energia e inteligência artificial argumenta que a inteligência artificial quase consome energia. **
Por exemplo, o modelo de linguagem pré-treinado T5 do Google usou 86 megawatts de eletricidade e gerou 47 toneladas métricas de emissões de CO2; o chatbot multi-round de campo aberto do Google, Meena, usou 232 megawatts de eletricidade e gerou 96 toneladas métricas de emissões de CO2; A tradução do idioma estrutura desenvolvida pelo Google - GShard usou 24 megawatts de eletricidade e produziu 4,3 toneladas métricas de emissões de dióxido de carbono; o algoritmo de roteamento Switch Transformer desenvolvido pelo Google usou 179 megawatts de eletricidade e produziu 59 toneladas métricas de emissões de dióxido de carbono.
O poder computacional utilizado na aprendizagem profunda cresceu 300.000 vezes entre 2012 e 2018, fazendo com que o GPT-3 pareça aquele com o maior impacto climático. Porém, quando funciona simultaneamente com o cérebro humano, o consumo de energia do cérebro humano é de apenas 0,002% do da máquina.
Não só consome eletricidade, mas também consome água
Além do impressionante consumo de energia, a inteligência artificial também consome muita água.
Na verdade, seja o consumo de energia ou o consumo de água, é indissociável do centro digital, o pilar do mundo digital. Como servidores e equipamentos de rede que alimentam a Internet e armazenam grandes quantidades de dados, os data centers globais requerem muita energia para funcionar, e os sistemas de refrigeração são um dos principais impulsionadores do consumo de energia. **
A verdade é que um data center supergrande consome quase 100 milhões de quilowatts-hora de eletricidade todos os anos, e o desenvolvimento da IA generativa aumentou ainda mais o consumo de energia do data center. Como os modelos de grande escala geralmente exigem dezenas de milhares de GPUs, o período de treinamento pode variar de algumas semanas a vários meses, e uma grande quantidade de energia é necessária no processo.
Os servidores de data center geram muita energia térmica durante a operação, e o resfriamento a água é o método mais comum para servidores, o que, por sua vez, leva a um enorme consumo de energia hídrica. Os dados mostram que o GPT-3 consome quase 700 toneladas de água durante o treinamento e depois consome 500 mililitros de água para cada 20 a 50 perguntas respondidas.
De acordo com um estudo da Virginia Tech, os data centers consomem em média 401 toneladas de água por dia para refrigeração, o que equivale ao consumo de água de 100 mil residências. A Meta utilizou mais de 2,6 milhões de metros cúbicos (cerca de 697 milhões de galões) de água em 2022, principalmente para data centers. Seu mais recente modelo de linguagem em grande escala, “Llama 2”, também requer muita água para ser treinado. Mesmo assim, em 2022, um quinto dos data centers da Meta sofrerão “escassez de água”.
Além de outro importante chip de infraestrutura para inteligência artificial, seu processo de fabricação também é um processo que consome muita energia e recursos hídricos. Em termos de energia, o processo de fabricação de chips requer muita energia, especialmente chips de processo avançado. O relatório "Previsão de consumo de energia e emissões de carbono da cadeia de suprimentos de eletrônicos de consumo" da organização ambiental internacional Greenpeace East Asia Division estudou as emissões de carbono de 13 empresas líderes de fabricação de eletrônicos no Leste Asiático, incluindo Samsung Electronics e TSMC, e disse que a indústria de fabricação de eletrônicos, especialmente o indústria de semicondutores As emissões de carbono estão a aumentar e o consumo de electricidade da indústria global de semicondutores aumentará para 237 terawatts-hora até 2030.
Em termos de consumo de recursos hídricos, o processo do wafer de silício requer limpeza com “água ultrapura” e, quanto maior o processo de fabricação do chip, maior o consumo de água. São necessários cerca de 32 quilos de água para produzir um chip de computador de 2 gramas. A fabricação de wafers de 8 polegadas consome cerca de 250 toneladas de água por hora, e os wafers de 12 polegadas podem chegar a 500 toneladas.
**A TSMC tem uma capacidade anual de produção de wafers de cerca de 30 milhões de wafers, e a produção de chips consome cerca de 80 milhões de toneladas de água. Recursos hídricos adequados tornaram-se uma condição necessária para o desenvolvimento da indústria de chips. **Em julho de 2023, o Ministério da Economia, Comércio e Indústria do Japão decidiu estabelecer um novo sistema para fornecer subsídios para a construção de instalações que fornecem água industrial a fábricas de semicondutores para garantir a água industrial necessária para a produção de semicondutores.
A longo prazo, a promoção e aplicação da IA generativa e da condução não tripulada conduzirão a um maior crescimento da indústria de fabrico de chips, seguido de um grande consumo de recursos energéticos.
**Quem pode salvar a IA do consumo de energia? **
Pode-se dizer que hoje o consumo de energia tornou-se um ponto fraco que restringe o desenvolvimento da IA. De acordo com a rota técnica e o modelo de desenvolvimento atuais, o progresso da IA causará dois problemas:
**Por um lado, a escala do data center se tornará cada vez maior, e seu consumo de energia também aumentará proporcionalmente, e a operação se tornará cada vez mais lenta. **
Obviamente, com a popularização das aplicações de IA, a demanda da IA por recursos de data center aumentará dramaticamente. Os data centers de grande escala exigem grandes quantidades de eletricidade para operar servidores, dispositivos de armazenamento e sistemas de refrigeração. Isto leva ao aumento do consumo de energia, ao mesmo tempo que levanta questões de estabilidade do fornecimento de energia e impacto ambiental. O crescimento contínuo dos centros de dados também pode exercer pressão sobre o fornecimento de energia, e a dependência de fontes de energia tradicionais para satisfazer as necessidades energéticas dos centros de dados pode resultar no aumento dos preços da energia e na instabilidade do fornecimento. É claro que o elevado consumo de energia dos data centers também tem impactos ambientais, incluindo emissões de CO2 e consumo de energia.
**Por outro lado, os chips de IA estão evoluindo em direção a alto poder de computação e alta integração, contando com processos de fabricação para apoiar o crescimento do pico de poder de computação. À medida que os processos de fabricação se tornam mais avançados, seu consumo de energia e de água também aumenta. **
Então, diante de um consumo tão grande de energia da IA, temos uma maneira melhor? Na verdade, a melhor forma de resolver o dilema técnico é desenvolver novas tecnologias.
Por um lado, o progresso da IA na era pós-Moore exige a descoberta de paradigmas e métodos novos e mais credíveis.
Na verdade, hoje, a razão pela qual a inteligência artificial trará enormes problemas de consumo de energia está intimamente relacionada com a forma como a inteligência artificial realiza a inteligência.
Podemos comparar a construção e operação de redes neurais artificiais, nesta fase, a um grupo de “neurônios” artificiais independentes trabalhando juntos. Cada neurônio é como uma pequena unidade computacional que recebe informações, faz alguns cálculos e produz uma saída. As redes neurais artificiais de hoje são construídas através do design inteligente de como essas unidades de computação são conectadas para que, uma vez treinadas, possam executar tarefas específicas.
Mas as redes neurais artificiais também têm suas limitações. Por exemplo, se precisarmos usar uma rede neural para distinguir um círculo de um quadrado. Uma abordagem é colocar dois neurônios na camada de saída, um para o círculo e outro para o quadrado. No entanto, se quisermos que a rede neural também seja capaz de distinguir a cor das formas, como azul e vermelho, precisaremos de quatro neurônios de saída: círculo azul, quadrado azul, círculo vermelho e quadrado vermelho.
Ou seja, à medida que a complexidade da tarefa aumenta, a estrutura da rede neural também exige mais neurônios para processar mais informações. A razão é que a forma como as redes neurais artificiais alcançam a inteligência não é a forma como o cérebro humano percebe o mundo natural, mas "para todas as combinações, o sistema nervoso da inteligência artificial deve ter um neurônio correspondente".
Por outro lado, o cérebro humano pode realizar a maior parte do aprendizado sem esforço, porque a informação no cérebro é representada pela atividade de um grande número de neurônios. Ou seja, a percepção do quadrado vermelho pelo cérebro humano não é codificada como a atividade de um único neurônio, mas como a atividade de milhares de neurônios. O mesmo conjunto de neurônios, disparando de maneiras diferentes, pode representar um conceito completamente diferente.
**Como você pode ver, a computação do cérebro humano é um método de computação completamente diferente. E se este método de cálculo for aplicado à tecnologia de inteligência artificial, reduzirá bastante o consumo de energia da inteligência artificial. **E este método de cálculo é o chamado “cálculo superdimensional”. Isso é imitar o método de cálculo do cérebro humano e usar o espaço matemático de alta dimensão para realizar cálculos e alcançar um processo de cálculo mais eficiente e inteligente.
Por exemplo, o modelo de projeto arquitetônico tradicional é bidimensional. Só podemos desenhar desenhos em um plano. Cada desenho representa um aspecto diferente do edifício, como o layout do piso e a passagem dos fios. Mas à medida que os edifícios se tornam cada vez mais complexos, precisamos cada vez mais de desenhos para representar todos os detalhes, o que consome muito tempo e papel.
E a computação hiperdimensional parece nos fornecer um novo método de design. Podemos projetar edifícios em três dimensões, com cada dimensão representando uma propriedade como comprimento, largura, altura, material, cor, etc. Além disso, também podemos projetar num espaço de dimensão superior, como a quarta dimensão que representa as mudanças dos edifícios em diferentes momentos. Isso nos permite concluir todos os projetos em um superdesenho, eliminando a necessidade de vários desenhos 2D, o que melhora muito a eficiência.
Da mesma forma, o consumo de energia no treinamento em IA pode ser comparado ao projeto de edifícios. O aprendizado profundo tradicional requer uma grande quantidade de recursos de computação para processar cada recurso ou atributo, enquanto a computação hiperdimensional coloca todos os recursos em um espaço de alta dimensão para processamento. Dessa forma, a IA pode perceber vários recursos ao mesmo tempo, realizando cálculos apenas uma vez, economizando muito tempo de cálculo e consumo de energia.
** Por outro lado, encontrar novas soluções de recursos energéticos, por exemplo, tecnologia de fusão nuclear. **A tecnologia de geração de energia por fusão nuclear é considerada uma das soluções definitivas para o problema global de emissão de carbono porque basicamente não gera resíduos nucleares e não tem poluição por emissões de carbono durante o processo de produção.
Em maio de 2023, a Microsoft assinou um acordo de compra com a Helion Energy, uma empresa start-up de fusão nuclear, tornando-se o primeiro cliente da empresa e comprará a sua eletricidade quando a empresa construir a primeira central de fusão nuclear do mundo em 2028. Além disso, a longo prazo, mesmo que a IA consiga uma redução no consumo de energia por unidade de potência computacional através de lâmpadas de computação ultradimensionais, os avanços na tecnologia de fusão nuclear ou outras tecnologias energéticas de baixo carbono ainda podem fazer com que o desenvolvimento da IA não fique mais restrito ao carbono. emissões.Ainda tem grande significado de apoio e promoção.
Afinal, o problema do consumo de energia e de recursos provocado pela tecnologia ainda só pode ser resolvido fundamentalmente a nível técnico. A tecnologia restringe o desenvolvimento da tecnologia e também promove o desenvolvimento da tecnologia, o que acontece desde os tempos antigos.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Consumo de energia e consumo de água, quem pode economizar no consumo de energia da IA?
Fonte original: Chen Gen fala sobre tecnologia
Hoje, embora o grande modelo de IA representado pelo ChatGPT tenha trazido grandes mudanças à sociedade humana, também é controverso devido ao consumo de energia.
A última publicação do The Economist dizia: As instalações de computação de alto desempenho, incluindo os supercomputadores, estão a tornar-se grandes consumidores de energia. **De acordo com a Agência Internacional de Energia, os data centers representam 1,5% a 2% do consumo global de eletricidade, aproximadamente equivalente ao consumo de eletricidade de toda a economia do Reino Unido. **Espera-se que este valor aumente para 4% até 2030.
**A inteligência artificial consome não só eletricidade, mas também água. **De acordo com o relatório ambiental de 2023 divulgado pelo Google, serão consumidos 5,6 bilhões de galões (cerca de 21,2 bilhões de litros) de água em 2022, o que equivale à água de 37 campos de golfe. Desse total, 5,2 bilhões de galões foram para os data centers da empresa, um aumento de 20% em relação a 2021.
Face aos enormes custos de consumo de energia, a inteligência artificial (IA) quer avançar para o futuro, e a economia tornou-se um problema real que o ChatGPT precisa de resolver urgentemente. E se o problema do consumo de energia for resolvido, quaisquer medidas de otimização baseadas na tecnologia e arquitetura existentes irão parar a fervura da água.Neste contexto, o avanço da tecnologia de ponta pode ser a solução definitiva para o consumo de energia da IA. dilema. .
IA está consumindo energia
Da essência da computação, a computação é o processo de transformar dados de desordem em ordem, e esse processo requer uma certa quantidade de energia.
Apenas do ponto de vista da quantidade, de acordo com estatísticas incompletas, cerca de 5% da geração global de energia em 2020 será usada para computar o consumo de energia, e este número pode aumentar para cerca de 15% a 25% até 2030, ou seja, diz-se que a proporção do consumo de eletricidade na indústria da computação estará no mesmo nível das grandes indústrias consumidoras de energia, como a indústria.
Em 2020, o consumo de energia dos centros de dados da China excederá 200 mil milhões de kWh, o que representa o dobro da geração combinada de energia da Barragem das Três Gargantas e da Central Elétrica de Gezhouba (cerca de 100 mil milhões de kWh).
Na verdade, para a indústria da computação, o custo da eletricidade também é o custo principal, além do custo do chip.
**Se a eletricidade consumida não for gerada por energia renovável, haverá emissões de carbono. É por isso que os modelos de aprendizado de máquina também geram emissões de carbono. ChatGPT não é exceção. **
Os dados mostram que o treinamento do GPT-3 consome 1.287 MWh (megawatts-hora), o que equivale à emissão de 552 toneladas de carbono. A este respeito, o investigador de dados sustentáveis Caspar Ludwigsen também analisou: “As grandes emissões do GPT-3 podem ser parcialmente explicadas pelo facto de ter sido treinado em hardware mais antigo e menos eficiente, mas porque não existe uma forma padronizada de medir as emissões de CO2, estes números são baseados em estimativas. Além disso, o padrão de quanto desta parte do valor das emissões de carbono deve ser alocado para o treinamento ChatGPT também é relativamente vago. Deve-se notar que, como o aprendizado por reforço em si requer adicional. Ele consome eletricidade, então o carbono as emissões geradas pelo ChatGPT durante a fase de formação do modelo devem ser superiores a este valor.” Calculadas apenas por 552 toneladas de emissões, estas são equivalentes ao consumo anual de energia de 126 famílias dinamarquesas.
**Na fase de operação, embora o consumo de energia das ações das pessoas durante a operação do ChatGPT seja muito pequeno, ele também pode se tornar a segunda maior fonte de emissões de carbono devido ao fato de poder ocorrer um bilhão de vezes por dia no mundo. **
O cofundador da Databoxer, Chris Bolton, explicou um método de cálculo: "Primeiro, estimamos que cada palavra de resposta leva 0,35 segundos na GPU A100, assumindo 1 milhão de usuários com 10 perguntas por usuário, gerando 1.000 10.000 respostas e 300 milhões de palavras por dia, cada palavra é 0,35 segundos, pode-se calcular que a GPU A100 funciona 29.167 horas por dia."
Cloud Carbon Footprint lista o consumo mínimo de energia da GPU A100 no data center Azure de 46 W e o consumo máximo de energia de 407 W. Como é provável que poucos processadores ChatGPT estejam ociosos, o consumo diário de energia atingirá 11.870 kWh no topo de o intervalo.
Chris Bolton disse: "O fator de emissão no oeste dos Estados Unidos é de 0,000322167 toneladas/kWh, então produzirá 3,82 toneladas de equivalente de dióxido de carbono por dia. O americano médio tem cerca de 15 toneladas de equivalente de dióxido de carbono por ano. Em outras palavras, isto é equivalente às emissões anuais de dióxido de carbono de 93 americanos. A taxa é comparável.”
Embora o atributo “virtual” torne mais fácil para as pessoas ignorarem os livros de carbono dos produtos digitais, na verdade, a Internet tem sido há muito tempo uma das maiores máquinas movidas a carvão do planeta. **Um estudo de Berkeley sobre o tema consumo de energia e inteligência artificial argumenta que a inteligência artificial quase consome energia. **
Por exemplo, o modelo de linguagem pré-treinado T5 do Google usou 86 megawatts de eletricidade e gerou 47 toneladas métricas de emissões de CO2; o chatbot multi-round de campo aberto do Google, Meena, usou 232 megawatts de eletricidade e gerou 96 toneladas métricas de emissões de CO2; A tradução do idioma estrutura desenvolvida pelo Google - GShard usou 24 megawatts de eletricidade e produziu 4,3 toneladas métricas de emissões de dióxido de carbono; o algoritmo de roteamento Switch Transformer desenvolvido pelo Google usou 179 megawatts de eletricidade e produziu 59 toneladas métricas de emissões de dióxido de carbono.
O poder computacional utilizado na aprendizagem profunda cresceu 300.000 vezes entre 2012 e 2018, fazendo com que o GPT-3 pareça aquele com o maior impacto climático. Porém, quando funciona simultaneamente com o cérebro humano, o consumo de energia do cérebro humano é de apenas 0,002% do da máquina.
Não só consome eletricidade, mas também consome água
Além do impressionante consumo de energia, a inteligência artificial também consome muita água.
Na verdade, seja o consumo de energia ou o consumo de água, é indissociável do centro digital, o pilar do mundo digital. Como servidores e equipamentos de rede que alimentam a Internet e armazenam grandes quantidades de dados, os data centers globais requerem muita energia para funcionar, e os sistemas de refrigeração são um dos principais impulsionadores do consumo de energia. **
A verdade é que um data center supergrande consome quase 100 milhões de quilowatts-hora de eletricidade todos os anos, e o desenvolvimento da IA generativa aumentou ainda mais o consumo de energia do data center. Como os modelos de grande escala geralmente exigem dezenas de milhares de GPUs, o período de treinamento pode variar de algumas semanas a vários meses, e uma grande quantidade de energia é necessária no processo.
Os servidores de data center geram muita energia térmica durante a operação, e o resfriamento a água é o método mais comum para servidores, o que, por sua vez, leva a um enorme consumo de energia hídrica. Os dados mostram que o GPT-3 consome quase 700 toneladas de água durante o treinamento e depois consome 500 mililitros de água para cada 20 a 50 perguntas respondidas.
De acordo com um estudo da Virginia Tech, os data centers consomem em média 401 toneladas de água por dia para refrigeração, o que equivale ao consumo de água de 100 mil residências. A Meta utilizou mais de 2,6 milhões de metros cúbicos (cerca de 697 milhões de galões) de água em 2022, principalmente para data centers. Seu mais recente modelo de linguagem em grande escala, “Llama 2”, também requer muita água para ser treinado. Mesmo assim, em 2022, um quinto dos data centers da Meta sofrerão “escassez de água”.
Além de outro importante chip de infraestrutura para inteligência artificial, seu processo de fabricação também é um processo que consome muita energia e recursos hídricos. Em termos de energia, o processo de fabricação de chips requer muita energia, especialmente chips de processo avançado. O relatório "Previsão de consumo de energia e emissões de carbono da cadeia de suprimentos de eletrônicos de consumo" da organização ambiental internacional Greenpeace East Asia Division estudou as emissões de carbono de 13 empresas líderes de fabricação de eletrônicos no Leste Asiático, incluindo Samsung Electronics e TSMC, e disse que a indústria de fabricação de eletrônicos, especialmente o indústria de semicondutores As emissões de carbono estão a aumentar e o consumo de electricidade da indústria global de semicondutores aumentará para 237 terawatts-hora até 2030.
Em termos de consumo de recursos hídricos, o processo do wafer de silício requer limpeza com “água ultrapura” e, quanto maior o processo de fabricação do chip, maior o consumo de água. São necessários cerca de 32 quilos de água para produzir um chip de computador de 2 gramas. A fabricação de wafers de 8 polegadas consome cerca de 250 toneladas de água por hora, e os wafers de 12 polegadas podem chegar a 500 toneladas.
**A TSMC tem uma capacidade anual de produção de wafers de cerca de 30 milhões de wafers, e a produção de chips consome cerca de 80 milhões de toneladas de água. Recursos hídricos adequados tornaram-se uma condição necessária para o desenvolvimento da indústria de chips. **Em julho de 2023, o Ministério da Economia, Comércio e Indústria do Japão decidiu estabelecer um novo sistema para fornecer subsídios para a construção de instalações que fornecem água industrial a fábricas de semicondutores para garantir a água industrial necessária para a produção de semicondutores.
A longo prazo, a promoção e aplicação da IA generativa e da condução não tripulada conduzirão a um maior crescimento da indústria de fabrico de chips, seguido de um grande consumo de recursos energéticos.
**Quem pode salvar a IA do consumo de energia? **
Pode-se dizer que hoje o consumo de energia tornou-se um ponto fraco que restringe o desenvolvimento da IA. De acordo com a rota técnica e o modelo de desenvolvimento atuais, o progresso da IA causará dois problemas:
**Por um lado, a escala do data center se tornará cada vez maior, e seu consumo de energia também aumentará proporcionalmente, e a operação se tornará cada vez mais lenta. **
Obviamente, com a popularização das aplicações de IA, a demanda da IA por recursos de data center aumentará dramaticamente. Os data centers de grande escala exigem grandes quantidades de eletricidade para operar servidores, dispositivos de armazenamento e sistemas de refrigeração. Isto leva ao aumento do consumo de energia, ao mesmo tempo que levanta questões de estabilidade do fornecimento de energia e impacto ambiental. O crescimento contínuo dos centros de dados também pode exercer pressão sobre o fornecimento de energia, e a dependência de fontes de energia tradicionais para satisfazer as necessidades energéticas dos centros de dados pode resultar no aumento dos preços da energia e na instabilidade do fornecimento. É claro que o elevado consumo de energia dos data centers também tem impactos ambientais, incluindo emissões de CO2 e consumo de energia.
**Por outro lado, os chips de IA estão evoluindo em direção a alto poder de computação e alta integração, contando com processos de fabricação para apoiar o crescimento do pico de poder de computação. À medida que os processos de fabricação se tornam mais avançados, seu consumo de energia e de água também aumenta. **
Então, diante de um consumo tão grande de energia da IA, temos uma maneira melhor? Na verdade, a melhor forma de resolver o dilema técnico é desenvolver novas tecnologias.
Por um lado, o progresso da IA na era pós-Moore exige a descoberta de paradigmas e métodos novos e mais credíveis.
Na verdade, hoje, a razão pela qual a inteligência artificial trará enormes problemas de consumo de energia está intimamente relacionada com a forma como a inteligência artificial realiza a inteligência.
Podemos comparar a construção e operação de redes neurais artificiais, nesta fase, a um grupo de “neurônios” artificiais independentes trabalhando juntos. Cada neurônio é como uma pequena unidade computacional que recebe informações, faz alguns cálculos e produz uma saída. As redes neurais artificiais de hoje são construídas através do design inteligente de como essas unidades de computação são conectadas para que, uma vez treinadas, possam executar tarefas específicas.
Mas as redes neurais artificiais também têm suas limitações. Por exemplo, se precisarmos usar uma rede neural para distinguir um círculo de um quadrado. Uma abordagem é colocar dois neurônios na camada de saída, um para o círculo e outro para o quadrado. No entanto, se quisermos que a rede neural também seja capaz de distinguir a cor das formas, como azul e vermelho, precisaremos de quatro neurônios de saída: círculo azul, quadrado azul, círculo vermelho e quadrado vermelho.
Ou seja, à medida que a complexidade da tarefa aumenta, a estrutura da rede neural também exige mais neurônios para processar mais informações. A razão é que a forma como as redes neurais artificiais alcançam a inteligência não é a forma como o cérebro humano percebe o mundo natural, mas "para todas as combinações, o sistema nervoso da inteligência artificial deve ter um neurônio correspondente".
Por outro lado, o cérebro humano pode realizar a maior parte do aprendizado sem esforço, porque a informação no cérebro é representada pela atividade de um grande número de neurônios. Ou seja, a percepção do quadrado vermelho pelo cérebro humano não é codificada como a atividade de um único neurônio, mas como a atividade de milhares de neurônios. O mesmo conjunto de neurônios, disparando de maneiras diferentes, pode representar um conceito completamente diferente.
**Como você pode ver, a computação do cérebro humano é um método de computação completamente diferente. E se este método de cálculo for aplicado à tecnologia de inteligência artificial, reduzirá bastante o consumo de energia da inteligência artificial. **E este método de cálculo é o chamado “cálculo superdimensional”. Isso é imitar o método de cálculo do cérebro humano e usar o espaço matemático de alta dimensão para realizar cálculos e alcançar um processo de cálculo mais eficiente e inteligente.
Por exemplo, o modelo de projeto arquitetônico tradicional é bidimensional. Só podemos desenhar desenhos em um plano. Cada desenho representa um aspecto diferente do edifício, como o layout do piso e a passagem dos fios. Mas à medida que os edifícios se tornam cada vez mais complexos, precisamos cada vez mais de desenhos para representar todos os detalhes, o que consome muito tempo e papel.
E a computação hiperdimensional parece nos fornecer um novo método de design. Podemos projetar edifícios em três dimensões, com cada dimensão representando uma propriedade como comprimento, largura, altura, material, cor, etc. Além disso, também podemos projetar num espaço de dimensão superior, como a quarta dimensão que representa as mudanças dos edifícios em diferentes momentos. Isso nos permite concluir todos os projetos em um superdesenho, eliminando a necessidade de vários desenhos 2D, o que melhora muito a eficiência.
Da mesma forma, o consumo de energia no treinamento em IA pode ser comparado ao projeto de edifícios. O aprendizado profundo tradicional requer uma grande quantidade de recursos de computação para processar cada recurso ou atributo, enquanto a computação hiperdimensional coloca todos os recursos em um espaço de alta dimensão para processamento. Dessa forma, a IA pode perceber vários recursos ao mesmo tempo, realizando cálculos apenas uma vez, economizando muito tempo de cálculo e consumo de energia.
** Por outro lado, encontrar novas soluções de recursos energéticos, por exemplo, tecnologia de fusão nuclear. **A tecnologia de geração de energia por fusão nuclear é considerada uma das soluções definitivas para o problema global de emissão de carbono porque basicamente não gera resíduos nucleares e não tem poluição por emissões de carbono durante o processo de produção.
Em maio de 2023, a Microsoft assinou um acordo de compra com a Helion Energy, uma empresa start-up de fusão nuclear, tornando-se o primeiro cliente da empresa e comprará a sua eletricidade quando a empresa construir a primeira central de fusão nuclear do mundo em 2028. Além disso, a longo prazo, mesmo que a IA consiga uma redução no consumo de energia por unidade de potência computacional através de lâmpadas de computação ultradimensionais, os avanços na tecnologia de fusão nuclear ou outras tecnologias energéticas de baixo carbono ainda podem fazer com que o desenvolvimento da IA não fique mais restrito ao carbono. emissões.Ainda tem grande significado de apoio e promoção.
Afinal, o problema do consumo de energia e de recursos provocado pela tecnologia ainda só pode ser resolvido fundamentalmente a nível técnico. A tecnologia restringe o desenvolvimento da tecnologia e também promove o desenvolvimento da tecnologia, o que acontece desde os tempos antigos.