Сьогодні, хоча велика модель штучного інтелекту, представлена ChatGPT, принесла великі зміни людському суспільству, вона також викликає суперечки через споживання енергії.
В останній публікації The Economist говориться: високопродуктивні обчислювальні засоби, включаючи суперкомп’ютери, стають основними споживачами енергії. **За даними Міжнародного енергетичного агентства, на центри обробки даних припадає від 1,5% до 2% світового споживання електроенергії, що приблизно дорівнює споживанню електроенергії всієї економіки Великобританії. **Очікується, що до 2030 року цей показник зросте до 4%.
**Штучний інтелект споживає не лише електроенергію, а й воду. ** Відповідно до екологічного звіту Google за 2023 рік, у 2022 році споживатиметься 5,6 мільярда галонів (приблизно 21,2 мільярда літрів), що еквівалентно воді 37 полів для гольфу. З них 5,2 мільярда галонів пішло на центри обробки даних компанії, що на 20% більше, ніж у 2021 році.
З огляду на величезні витрати на енергоспоживання, штучний інтелект (ШІ) хоче рухатися в майбутнє, а економіка стала справжньою проблемою, яку ChatGPT має терміново вирішити. І якщо проблема споживання енергії має бути вирішена, будь-які заходи з оптимізації, засновані на існуючих технологіях та архітектурі, зупинять кипіння.У цьому контексті прорив передових технологій може стати остаточним рішенням споживання енергії ШІ дилема..
ШІ поїдає енергію
З огляду на суть обчислювальної техніки, обчислення — це процес зміни порядку в даних, і цей процес вимагає певної кількості енергії.
Лише з точки зору кількості, згідно з неповною статистикою, близько 5% світового виробництва електроенергії в 2020 році буде використовуватися для споживання обчислювальної енергії, і ця цифра може зрости приблизно до 15%-25% до 2030 року, тобто, Кажуть, що частка споживання електроенергії в обчислювальній галузі буде на одному рівні з такими великими енергоємними галузями, як промисловість.
У 2020 році енергоспоживання центрів обробки даних у Китаї перевищить 200 мільярдів кВт-год, що вдвічі перевищує сукупне виробництво електроенергії дамбою «Три ущелини» та електростанцією Gezhouba (близько 100 мільярдів кВт-год).
Фактично, для обчислювальної індустрії вартість електроенергії також є основною вартістю, окрім вартості чіпа.
**Якщо споживана електроенергія не виробляється за допомогою відновлюваних джерел енергії, то будуть викиди вуглецю. Ось чому моделі машинного навчання також створюють викиди вуглецю. ChatGPT не є винятком. **
Дані показують, що навчання GPT-3 споживає 1287 МВт-год (мегават-годин), що еквівалентно викидам 552 тонн вуглецю. У зв’язку з цим дослідник стійких даних Каспар Людвігсен також проаналізував: «Великі викиди GPT-3 можна частково пояснити тим, що він був навчений на старішому, менш ефективному обладнанні, але оскільки не існує стандартизованого способу вимірювання викидів CO2, ці цифри базуються на оцінках. Крім того, стандарт щодо того, скільки цієї частини значення викидів вуглецю має бути виділено на навчання ChatGPT, також є відносно розпливчастим. Слід зазначити, що, оскільки підкріплююче навчання саме по собі вимагає додаткового споживання електроенергії, тому вуглець викиди, створені ChatGPT під час фази навчання моделі, повинні бути більшими, ніж це значення». Розраховані лише на 552 тонни викидів, це еквівалентно річному споживанню енергії 126 домогосподарствами Данії.
**На етапі експлуатації, хоча енергоспоживання дій людей під час роботи ChatGPT дуже мало, воно також може стати другим за величиною джерелом викидів вуглецю через те, що у світі може бути один мільярд разів на день. **
Співзасновник Databoxer Кріс Болтон пояснив один із методів обчислення: «По-перше, ми оцінюємо, що кожне слово відповіді займає 0,35 секунди на графічному процесорі A100, припускаючи, що 1 мільйон користувачів із 10 запитаннями на користувача генерує 1000 10 000 відповідей і 300 мільйонів слів на день, кожен Слово становить 0,35 секунди, можна підрахувати, що графічний процесор A100 працює 29167 годин на день».
Cloud Carbon Footprint перераховує мінімальне енергоспоживання графічного процесора A100 у центрі обробки даних Azure 46 Вт і максимальне енергоспоживання 407 Вт. Оскільки ймовірно, що небагато процесорів ChatGPT простоюють, щоденне енергоспоживання досягне 11870 кВт-год у верхній частині діапазон.
Кріс Болтон сказав: «Коефіцієнт викидів на заході Сполучених Штатів становить 0,000322167 тонни/кВт-год, тож вони вироблятимуть 3,82 тонни еквіваленту вуглекислого газу на день. Середній американець становить приблизно 15 тонн еквівалента вуглекислого газу на рік. Іншими словами, це еквівалентно річним викидам вуглекислого газу 93 американців. Показник можна порівняти».
Хоча атрибут «віртуальний» дозволяє людям легко ігнорувати вуглецеві книги цифрових продуктів, насправді Інтернет вже давно є однією з найбільших машин на планеті, що працюють на вугіллі. **Дослідження Берклі на тему енергоспоживання та штучного інтелекту стверджує, що штучний інтелект майже з’їдає енергію. **
Наприклад, попередньо навчена мовна модель Google T5 споживала 86 мегават електроенергії та генерувала 47 метричних тонн викидів CO2; багатораундовий відкритий чат-бот Google Meena використовував 232 мегавати електроенергії та генерував 96 метричних тонн викидів CO2; Переклад мови фреймворк, розроблений Google - GShard споживав 24 мегават електроенергії та створював 4,3 метричних тонн викидів вуглекислого газу; розроблений Google алгоритм маршрутизації Switch Transformer використовував 179 мегават електроенергії та створював 59 метричних тонн викидів вуглекислого газу.
Обчислювальна потужність, яка використовується для глибокого навчання, зросла в 300 000 разів між 2012 і 2018 роками, що робить GPT-3 схожим на той, який найбільше впливає на клімат. Однак, коли він працює одночасно з людським мозком, енергоспоживання людського мозку становить лише 0,002% від енергоспоживання машини.
Не тільки електроенергію, а й воду споживає
Крім приголомшливого енергоспоживання, штучний інтелект також дуже споживає воду.
Насправді, незалежно від споживання електроенергії чи споживання води, він невіддільний від цифрового центру, стовпа цифрового світу. Як сервери та мережеве обладнання, які живлять Інтернет і зберігають величезні обсяги даних, глобальні центри обробки даних вимагають багато енергії для роботи, а системи охолодження є одним із основних факторів споживання енергії. **
Правда полягає в тому, що надвеликий центр обробки даних споживає майже 100 мільйонів кіловат-годин електроенергії щороку, а розробка генеративного штучного інтелекту ще більше збільшила споживання енергії центром обробки даних. Оскільки для великомасштабних моделей часто потрібні десятки тисяч графічних процесорів, період навчання може становити від кількох тижнів до кількох місяців, а процес вимагає великої кількості енергії.
Сервери центрів обробки даних виділяють багато тепла під час роботи, а водяне охолодження є найпоширенішим методом для серверів, що, у свою чергу, призводить до величезного споживання води. Дані показують, що GPT-3 споживає майже 700 тонн води під час навчання, а потім споживає 500 мілілітрів води на кожні 20-50 запитань.
Згідно з дослідженням Virginia Tech, центри обробки даних споживають в середньому 401 тонну води на день для охолодження, що еквівалентно споживанню води 100 000 домогосподарствами. У 2022 році компанія Meta використала понад 2,6 мільйона кубічних метрів (приблизно 697 мільйонів галонів) води, в основному для центрів обробки даних. Його остання широкомасштабна мовна модель «Лала 2» також вимагає багато води для навчання. Незважаючи на це, у 2022 році одна п’ята дата-центрів Meta відчуватиме «дефіцит води».
Крім того, ще один важливий інфраструктурний чіп для штучного інтелекту, процес його виробництва також споживає багато енергії та водних ресурсів. З точки зору енергії, процес виробництва чіпів потребує багато енергії, особливо чіпів із вдосконаленим процесом. У звіті міжнародної екологічної організації Greenpeace East Asia Division «Енергоспоживання ланцюга споживчої електроніки та прогноз викидів вуглецю» досліджено викиди вуглецю 13 провідними компаніями-виробниками електроніки в Східній Азії, включаючи Samsung Electronics і TSMC, і зазначено, що галузь виробництва електроніки, особливо напівпровідникова промисловість Викиди вуглецю стрімко зростають, а споживання електроенергії у світовій напівпровідниковій промисловості зросте до 237 терават-годин до 2030 року.
З точки зору споживання водних ресурсів, процес виготовлення кремнієвих пластин вимагає очищення «надчистою водою», і чим вище процес виробництва мікросхем, тим більше споживання води. Щоб виготовити 2-грамовий комп'ютерний чіп, потрібно близько 32 кілограмів води. Виробництво 8-дюймових пластин споживає близько 250 тонн води на годину, а 12-дюймових пластин може досягати 500 тонн.
**Річна потужність виробництва пластин TSMC становить близько 30 мільйонів пластин, а виробництво мікросхем споживає близько 80 мільйонів тонн води. Достатні водні ресурси стали необхідною умовою для розвитку індустрії чіпсів. **У липні 2023 року Міністерство економіки, торгівлі та промисловості Японії вирішило запровадити нову систему надання субсидій на будівництво об’єктів, що постачають промислову воду на заводи з виробництва напівпровідників, щоб забезпечити промислову воду, необхідну для виробництва напівпровідників.
У довгостроковій перспективі просування та застосування генеративного штучного інтелекту та безпілотного водіння призведе до подальшого зростання індустрії виробництва чіпів, що супроводжується великим споживанням енергоресурсів.
**Хто може врятувати ШІ від споживання енергії? **
Можна сказати, що сьогодні споживання енергії стало слабкою стороною, яка обмежує розвиток ШІ. Згідно з поточним технічним маршрутом і моделлю розробки, розвиток ШІ спричинить дві проблеми:
**З одного боку, масштаб дата-центру буде ставати все більшим і більшим, і його енергоспоживання також буде відповідно зростати, а робота ставатиме все повільнішою і повільнішою. **
Очевидно, що з популяризацією додатків штучного інтелекту потреба ШІ в ресурсах центрів обробки даних різко зросте. Великі центри обробки даних вимагають великої кількості електроенергії для роботи серверів, пристроїв зберігання даних і систем охолодження. Це призводить до збільшення споживання енергії, а також піднімає питання стабільності енергопостачання та впливу на навколишнє середовище. Постійне зростання центрів обробки даних також може чинити тиск на енергопостачання, а залежність від традиційних джерел енергії для задоволення енергетичних потреб центрів обробки даних може призвести до зростання цін на енергію та нестабільності постачання. Звичайно, високе енергоспоживання центрів обробки даних також впливає на навколишнє середовище, включаючи викиди CO2 та споживання енергії.
**З іншого боку, мікросхеми штучного інтелекту розвиваються в напрямку високої обчислювальної потужності та високої інтеграції, покладаючись на виробничі процеси для підтримки зростання максимальної обчислювальної потужності. Оскільки виробничі процеси стають все більш досконалими, їх енергоспоживання та споживання води також зростає. **
Отже, зважаючи на таке величезне споживання енергії ШІ, чи є у нас кращий спосіб? Насправді, найкращий спосіб вирішити технічну дилему – розробити нові технології.
З одного боку, розвиток ШІ в епоху після Мура вимагає пошуку нових, більш надійних парадигм і методів.
Насправді сьогодні причина, чому штучний інтелект принесе величезні проблеми зі споживанням енергії, тісно пов’язана з тим, як штучний інтелект реалізує інтелект.
Ми можемо порівняти побудову та роботу штучних нейронних мереж на цьому етапі з групою незалежних штучних «нейронів», які працюють разом. Кожен нейрон схожий на маленьку обчислювальну одиницю, яка приймає інформацію, виконує певні обчислення та видає результат. Сучасні штучні нейронні мережі будуються шляхом вмілого проектування зв’язку цих обчислювальних блоків, щоб після навчання вони могли виконувати певні завдання.
Але штучні нейронні мережі також мають свої обмеження. Наприклад, якщо нам потрібно за допомогою нейронної мережі відрізнити коло від квадрата. Один підхід полягає в тому, щоб розмістити два нейрони у вихідному шарі, один для кола, а інший для квадрата. Однак, якщо ми хочемо, щоб нейронна мережа також могла розрізняти кольори фігур, наприклад синій і червоний, тоді нам потрібні чотири вихідні нейрони: синє коло, синій квадрат, червоне коло та червоний квадрат.
Тобто зі збільшенням складності завдання структура нейронної мережі також вимагає більшої кількості нейронів для обробки більшої кількості інформації. Причина полягає в тому, що штучні нейронні мережі досягають інтелекту не так, як людський мозок сприймає природний світ, але «для всіх комбінацій нервова система штучного інтелекту повинна мати відповідний нейрон».
Натомість людський мозок може виконувати більшу частину навчання без зусиль, оскільки інформація в мозку представлена діяльністю великої кількості нейронів. Тобто сприйняття червоного квадрата людським мозком кодується не як активність одного нейрона, а як активність тисяч нейронів. Той самий набір нейронів, що працюють по-різному, може представляти абсолютно різні концепції.
**Як бачите, обчислення людського мозку — це зовсім інший метод обчислення. І якщо цей метод розрахунку застосувати до технології штучного інтелекту, це значно зменшить енергоспоживання штучного інтелекту. **Цей метод розрахунку є так званим «надвимірним розрахунком». Це імітація методу обчислення людського мозку та використання високовимірного математичного простору для виконання обчислень для досягнення більш ефективного та інтелектуального процесу обчислення.
Наприклад, традиційна архітектурна модель є двовимірною. Ми можемо малювати лише креслення на площині. Кожне креслення представляє окремий аспект будівлі, наприклад планування підлоги та прокладання проводів. Але оскільки будівлі стають дедалі складнішими, нам потрібно все більше креслень, щоб відобразити всі деталі, що займає багато часу та паперу.
І гіпервимірне обчислення, здається, надає нам новий метод проектування. Ми можемо проектувати будівлі в трьох вимірах, де кожен вимір представляє такі властивості, як довжина, ширина, висота, матеріал, колір тощо. Крім того, ми також можемо проектувати у просторі вищих вимірів, наприклад у четвертому вимірі, що представляє зміни будівель у різні моменти часу. Це дозволяє нам завершити всі проекти на одному суперкресленні, усуваючи потребу в купі 2D-креслень, що значно підвищує ефективність.
Так само споживання енергії під час навчання ШІ можна порівняти з проектуванням будівлі. Традиційне глибоке навчання вимагає великої кількості обчислювальних ресурсів для обробки кожної функції чи атрибута, тоді як гіпервимірне обчислення поміщає всі функції у високовимірний простір для обробки. Таким чином, штучний інтелект може сприймати кілька функцій одночасно, лише виконавши обчислення один раз, таким чином заощаджуючи багато часу на обчислення та споживання енергії.
** З іншого боку, знайти нові рішення щодо енергетичних ресурсів, наприклад, технологію ядерного синтезу. **Технологія виробництва електроенергії за допомогою ядерного синтезу вважається одним із найкращих рішень глобальної проблеми викидів вуглецю, оскільки вона в основному не створює ядерних відходів і не забруднює викиди вуглецю під час виробничого процесу.
У травні 2023 року Microsoft підписала угоду про купівлю-продаж із Helion Energy, стартап-компанією з ядерного синтезу, ставши першим клієнтом компанії та купуватиме її електроенергію, коли компанія побудує першу в світі електростанцію з ядерного синтезу у 2028 році. Більше того, у довгостроковій перспективі, навіть якщо штучний інтелект досягає зниження споживання енергії на одиницю обчислювальної потужності за допомогою надвимірних обчислювальних ламп, прорив у технології ядерного синтезу чи інших технологіях з низьким вмістом вуглецю в енергетиці може зробити розвиток ШІ більше не обмеженим вуглецем Все ще має велике значення підтримки та просування.
Зрештою, проблема споживання енергії та ресурсів, породжена технологіями, поки що може бути фундаментально вирішена лише на технічному рівні. Техніка стримує розвиток техніки, а також сприяє розвитку техніки, що було з давніх часів.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Споживання електроенергії та споживання води, хто може заощадити споживання енергії ШІ?
Перше джерело: Чен Ген розповідає про технології
Сьогодні, хоча велика модель штучного інтелекту, представлена ChatGPT, принесла великі зміни людському суспільству, вона також викликає суперечки через споживання енергії.
В останній публікації The Economist говориться: високопродуктивні обчислювальні засоби, включаючи суперкомп’ютери, стають основними споживачами енергії. **За даними Міжнародного енергетичного агентства, на центри обробки даних припадає від 1,5% до 2% світового споживання електроенергії, що приблизно дорівнює споживанню електроенергії всієї економіки Великобританії. **Очікується, що до 2030 року цей показник зросте до 4%.
**Штучний інтелект споживає не лише електроенергію, а й воду. ** Відповідно до екологічного звіту Google за 2023 рік, у 2022 році споживатиметься 5,6 мільярда галонів (приблизно 21,2 мільярда літрів), що еквівалентно воді 37 полів для гольфу. З них 5,2 мільярда галонів пішло на центри обробки даних компанії, що на 20% більше, ніж у 2021 році.
З огляду на величезні витрати на енергоспоживання, штучний інтелект (ШІ) хоче рухатися в майбутнє, а економіка стала справжньою проблемою, яку ChatGPT має терміново вирішити. І якщо проблема споживання енергії має бути вирішена, будь-які заходи з оптимізації, засновані на існуючих технологіях та архітектурі, зупинять кипіння.У цьому контексті прорив передових технологій може стати остаточним рішенням споживання енергії ШІ дилема..
ШІ поїдає енергію
З огляду на суть обчислювальної техніки, обчислення — це процес зміни порядку в даних, і цей процес вимагає певної кількості енергії.
Лише з точки зору кількості, згідно з неповною статистикою, близько 5% світового виробництва електроенергії в 2020 році буде використовуватися для споживання обчислювальної енергії, і ця цифра може зрости приблизно до 15%-25% до 2030 року, тобто, Кажуть, що частка споживання електроенергії в обчислювальній галузі буде на одному рівні з такими великими енергоємними галузями, як промисловість.
У 2020 році енергоспоживання центрів обробки даних у Китаї перевищить 200 мільярдів кВт-год, що вдвічі перевищує сукупне виробництво електроенергії дамбою «Три ущелини» та електростанцією Gezhouba (близько 100 мільярдів кВт-год).
Фактично, для обчислювальної індустрії вартість електроенергії також є основною вартістю, окрім вартості чіпа.
**Якщо споживана електроенергія не виробляється за допомогою відновлюваних джерел енергії, то будуть викиди вуглецю. Ось чому моделі машинного навчання також створюють викиди вуглецю. ChatGPT не є винятком. **
Дані показують, що навчання GPT-3 споживає 1287 МВт-год (мегават-годин), що еквівалентно викидам 552 тонн вуглецю. У зв’язку з цим дослідник стійких даних Каспар Людвігсен також проаналізував: «Великі викиди GPT-3 можна частково пояснити тим, що він був навчений на старішому, менш ефективному обладнанні, але оскільки не існує стандартизованого способу вимірювання викидів CO2, ці цифри базуються на оцінках. Крім того, стандарт щодо того, скільки цієї частини значення викидів вуглецю має бути виділено на навчання ChatGPT, також є відносно розпливчастим. Слід зазначити, що, оскільки підкріплююче навчання саме по собі вимагає додаткового споживання електроенергії, тому вуглець викиди, створені ChatGPT під час фази навчання моделі, повинні бути більшими, ніж це значення». Розраховані лише на 552 тонни викидів, це еквівалентно річному споживанню енергії 126 домогосподарствами Данії.
**На етапі експлуатації, хоча енергоспоживання дій людей під час роботи ChatGPT дуже мало, воно також може стати другим за величиною джерелом викидів вуглецю через те, що у світі може бути один мільярд разів на день. **
Співзасновник Databoxer Кріс Болтон пояснив один із методів обчислення: «По-перше, ми оцінюємо, що кожне слово відповіді займає 0,35 секунди на графічному процесорі A100, припускаючи, що 1 мільйон користувачів із 10 запитаннями на користувача генерує 1000 10 000 відповідей і 300 мільйонів слів на день, кожен Слово становить 0,35 секунди, можна підрахувати, що графічний процесор A100 працює 29167 годин на день».
Cloud Carbon Footprint перераховує мінімальне енергоспоживання графічного процесора A100 у центрі обробки даних Azure 46 Вт і максимальне енергоспоживання 407 Вт. Оскільки ймовірно, що небагато процесорів ChatGPT простоюють, щоденне енергоспоживання досягне 11870 кВт-год у верхній частині діапазон.
Кріс Болтон сказав: «Коефіцієнт викидів на заході Сполучених Штатів становить 0,000322167 тонни/кВт-год, тож вони вироблятимуть 3,82 тонни еквіваленту вуглекислого газу на день. Середній американець становить приблизно 15 тонн еквівалента вуглекислого газу на рік. Іншими словами, це еквівалентно річним викидам вуглекислого газу 93 американців. Показник можна порівняти».
Хоча атрибут «віртуальний» дозволяє людям легко ігнорувати вуглецеві книги цифрових продуктів, насправді Інтернет вже давно є однією з найбільших машин на планеті, що працюють на вугіллі. **Дослідження Берклі на тему енергоспоживання та штучного інтелекту стверджує, що штучний інтелект майже з’їдає енергію. **
Наприклад, попередньо навчена мовна модель Google T5 споживала 86 мегават електроенергії та генерувала 47 метричних тонн викидів CO2; багатораундовий відкритий чат-бот Google Meena використовував 232 мегавати електроенергії та генерував 96 метричних тонн викидів CO2; Переклад мови фреймворк, розроблений Google - GShard споживав 24 мегават електроенергії та створював 4,3 метричних тонн викидів вуглекислого газу; розроблений Google алгоритм маршрутизації Switch Transformer використовував 179 мегават електроенергії та створював 59 метричних тонн викидів вуглекислого газу.
Обчислювальна потужність, яка використовується для глибокого навчання, зросла в 300 000 разів між 2012 і 2018 роками, що робить GPT-3 схожим на той, який найбільше впливає на клімат. Однак, коли він працює одночасно з людським мозком, енергоспоживання людського мозку становить лише 0,002% від енергоспоживання машини.
Не тільки електроенергію, а й воду споживає
Крім приголомшливого енергоспоживання, штучний інтелект також дуже споживає воду.
Насправді, незалежно від споживання електроенергії чи споживання води, він невіддільний від цифрового центру, стовпа цифрового світу. Як сервери та мережеве обладнання, які живлять Інтернет і зберігають величезні обсяги даних, глобальні центри обробки даних вимагають багато енергії для роботи, а системи охолодження є одним із основних факторів споживання енергії. **
Правда полягає в тому, що надвеликий центр обробки даних споживає майже 100 мільйонів кіловат-годин електроенергії щороку, а розробка генеративного штучного інтелекту ще більше збільшила споживання енергії центром обробки даних. Оскільки для великомасштабних моделей часто потрібні десятки тисяч графічних процесорів, період навчання може становити від кількох тижнів до кількох місяців, а процес вимагає великої кількості енергії.
Сервери центрів обробки даних виділяють багато тепла під час роботи, а водяне охолодження є найпоширенішим методом для серверів, що, у свою чергу, призводить до величезного споживання води. Дані показують, що GPT-3 споживає майже 700 тонн води під час навчання, а потім споживає 500 мілілітрів води на кожні 20-50 запитань.
Згідно з дослідженням Virginia Tech, центри обробки даних споживають в середньому 401 тонну води на день для охолодження, що еквівалентно споживанню води 100 000 домогосподарствами. У 2022 році компанія Meta використала понад 2,6 мільйона кубічних метрів (приблизно 697 мільйонів галонів) води, в основному для центрів обробки даних. Його остання широкомасштабна мовна модель «Лала 2» також вимагає багато води для навчання. Незважаючи на це, у 2022 році одна п’ята дата-центрів Meta відчуватиме «дефіцит води».
Крім того, ще один важливий інфраструктурний чіп для штучного інтелекту, процес його виробництва також споживає багато енергії та водних ресурсів. З точки зору енергії, процес виробництва чіпів потребує багато енергії, особливо чіпів із вдосконаленим процесом. У звіті міжнародної екологічної організації Greenpeace East Asia Division «Енергоспоживання ланцюга споживчої електроніки та прогноз викидів вуглецю» досліджено викиди вуглецю 13 провідними компаніями-виробниками електроніки в Східній Азії, включаючи Samsung Electronics і TSMC, і зазначено, що галузь виробництва електроніки, особливо напівпровідникова промисловість Викиди вуглецю стрімко зростають, а споживання електроенергії у світовій напівпровідниковій промисловості зросте до 237 терават-годин до 2030 року.
З точки зору споживання водних ресурсів, процес виготовлення кремнієвих пластин вимагає очищення «надчистою водою», і чим вище процес виробництва мікросхем, тим більше споживання води. Щоб виготовити 2-грамовий комп'ютерний чіп, потрібно близько 32 кілограмів води. Виробництво 8-дюймових пластин споживає близько 250 тонн води на годину, а 12-дюймових пластин може досягати 500 тонн.
**Річна потужність виробництва пластин TSMC становить близько 30 мільйонів пластин, а виробництво мікросхем споживає близько 80 мільйонів тонн води. Достатні водні ресурси стали необхідною умовою для розвитку індустрії чіпсів. **У липні 2023 року Міністерство економіки, торгівлі та промисловості Японії вирішило запровадити нову систему надання субсидій на будівництво об’єктів, що постачають промислову воду на заводи з виробництва напівпровідників, щоб забезпечити промислову воду, необхідну для виробництва напівпровідників.
У довгостроковій перспективі просування та застосування генеративного штучного інтелекту та безпілотного водіння призведе до подальшого зростання індустрії виробництва чіпів, що супроводжується великим споживанням енергоресурсів.
**Хто може врятувати ШІ від споживання енергії? **
Можна сказати, що сьогодні споживання енергії стало слабкою стороною, яка обмежує розвиток ШІ. Згідно з поточним технічним маршрутом і моделлю розробки, розвиток ШІ спричинить дві проблеми:
**З одного боку, масштаб дата-центру буде ставати все більшим і більшим, і його енергоспоживання також буде відповідно зростати, а робота ставатиме все повільнішою і повільнішою. **
Очевидно, що з популяризацією додатків штучного інтелекту потреба ШІ в ресурсах центрів обробки даних різко зросте. Великі центри обробки даних вимагають великої кількості електроенергії для роботи серверів, пристроїв зберігання даних і систем охолодження. Це призводить до збільшення споживання енергії, а також піднімає питання стабільності енергопостачання та впливу на навколишнє середовище. Постійне зростання центрів обробки даних також може чинити тиск на енергопостачання, а залежність від традиційних джерел енергії для задоволення енергетичних потреб центрів обробки даних може призвести до зростання цін на енергію та нестабільності постачання. Звичайно, високе енергоспоживання центрів обробки даних також впливає на навколишнє середовище, включаючи викиди CO2 та споживання енергії.
**З іншого боку, мікросхеми штучного інтелекту розвиваються в напрямку високої обчислювальної потужності та високої інтеграції, покладаючись на виробничі процеси для підтримки зростання максимальної обчислювальної потужності. Оскільки виробничі процеси стають все більш досконалими, їх енергоспоживання та споживання води також зростає. **
Отже, зважаючи на таке величезне споживання енергії ШІ, чи є у нас кращий спосіб? Насправді, найкращий спосіб вирішити технічну дилему – розробити нові технології.
З одного боку, розвиток ШІ в епоху після Мура вимагає пошуку нових, більш надійних парадигм і методів.
Насправді сьогодні причина, чому штучний інтелект принесе величезні проблеми зі споживанням енергії, тісно пов’язана з тим, як штучний інтелект реалізує інтелект.
Ми можемо порівняти побудову та роботу штучних нейронних мереж на цьому етапі з групою незалежних штучних «нейронів», які працюють разом. Кожен нейрон схожий на маленьку обчислювальну одиницю, яка приймає інформацію, виконує певні обчислення та видає результат. Сучасні штучні нейронні мережі будуються шляхом вмілого проектування зв’язку цих обчислювальних блоків, щоб після навчання вони могли виконувати певні завдання.
Але штучні нейронні мережі також мають свої обмеження. Наприклад, якщо нам потрібно за допомогою нейронної мережі відрізнити коло від квадрата. Один підхід полягає в тому, щоб розмістити два нейрони у вихідному шарі, один для кола, а інший для квадрата. Однак, якщо ми хочемо, щоб нейронна мережа також могла розрізняти кольори фігур, наприклад синій і червоний, тоді нам потрібні чотири вихідні нейрони: синє коло, синій квадрат, червоне коло та червоний квадрат.
Тобто зі збільшенням складності завдання структура нейронної мережі також вимагає більшої кількості нейронів для обробки більшої кількості інформації. Причина полягає в тому, що штучні нейронні мережі досягають інтелекту не так, як людський мозок сприймає природний світ, але «для всіх комбінацій нервова система штучного інтелекту повинна мати відповідний нейрон».
Натомість людський мозок може виконувати більшу частину навчання без зусиль, оскільки інформація в мозку представлена діяльністю великої кількості нейронів. Тобто сприйняття червоного квадрата людським мозком кодується не як активність одного нейрона, а як активність тисяч нейронів. Той самий набір нейронів, що працюють по-різному, може представляти абсолютно різні концепції.
**Як бачите, обчислення людського мозку — це зовсім інший метод обчислення. І якщо цей метод розрахунку застосувати до технології штучного інтелекту, це значно зменшить енергоспоживання штучного інтелекту. **Цей метод розрахунку є так званим «надвимірним розрахунком». Це імітація методу обчислення людського мозку та використання високовимірного математичного простору для виконання обчислень для досягнення більш ефективного та інтелектуального процесу обчислення.
Наприклад, традиційна архітектурна модель є двовимірною. Ми можемо малювати лише креслення на площині. Кожне креслення представляє окремий аспект будівлі, наприклад планування підлоги та прокладання проводів. Але оскільки будівлі стають дедалі складнішими, нам потрібно все більше креслень, щоб відобразити всі деталі, що займає багато часу та паперу.
І гіпервимірне обчислення, здається, надає нам новий метод проектування. Ми можемо проектувати будівлі в трьох вимірах, де кожен вимір представляє такі властивості, як довжина, ширина, висота, матеріал, колір тощо. Крім того, ми також можемо проектувати у просторі вищих вимірів, наприклад у четвертому вимірі, що представляє зміни будівель у різні моменти часу. Це дозволяє нам завершити всі проекти на одному суперкресленні, усуваючи потребу в купі 2D-креслень, що значно підвищує ефективність.
Так само споживання енергії під час навчання ШІ можна порівняти з проектуванням будівлі. Традиційне глибоке навчання вимагає великої кількості обчислювальних ресурсів для обробки кожної функції чи атрибута, тоді як гіпервимірне обчислення поміщає всі функції у високовимірний простір для обробки. Таким чином, штучний інтелект може сприймати кілька функцій одночасно, лише виконавши обчислення один раз, таким чином заощаджуючи багато часу на обчислення та споживання енергії.
** З іншого боку, знайти нові рішення щодо енергетичних ресурсів, наприклад, технологію ядерного синтезу. **Технологія виробництва електроенергії за допомогою ядерного синтезу вважається одним із найкращих рішень глобальної проблеми викидів вуглецю, оскільки вона в основному не створює ядерних відходів і не забруднює викиди вуглецю під час виробничого процесу.
У травні 2023 року Microsoft підписала угоду про купівлю-продаж із Helion Energy, стартап-компанією з ядерного синтезу, ставши першим клієнтом компанії та купуватиме її електроенергію, коли компанія побудує першу в світі електростанцію з ядерного синтезу у 2028 році. Більше того, у довгостроковій перспективі, навіть якщо штучний інтелект досягає зниження споживання енергії на одиницю обчислювальної потужності за допомогою надвимірних обчислювальних ламп, прорив у технології ядерного синтезу чи інших технологіях з низьким вмістом вуглецю в енергетиці може зробити розвиток ШІ більше не обмеженим вуглецем Все ще має велике значення підтримки та просування.
Зрештою, проблема споживання енергії та ресурсів, породжена технологіями, поки що може бути фундаментально вирішена лише на технічному рівні. Техніка стримує розвиток техніки, а також сприяє розвитку техніки, що було з давніх часів.