Переслано оригінальний заголовок: Шлях майбутнього розвитку AI+Web3 (2): Розділ інфраструктури
У останні роки попит на обчислювальну потужність стрімко зростав, особливо після появи великого моделі LLM. Цей вибух попиту на обчислювальну потужність для штучного інтелекту значно позначився на ринку високопродуктивних обчислень. Дані від OpenAI показують помітну тенденцію з 2012 року, коли потужність, використана для навчання найбільших моделей штучного інтелекту, зростала експоненційно, подвоюючись кожні 3-4 місяці в середньому, перевищуючи темп приросту, передбачений Законом Мура. Зростаючий попит на додатки зі штучним інтелектом призвів до стрімкого зростання потреби в обчислювальному обладнанні. Прогнози показують, що до 2025 року попит на обчислювальне обладнання, диктований додатками зі штучним інтелектом, очікується зрости на приблизно 10% до 15%.
За допомогою попиту на обчислювальну потужність штучного інтелекту виробник апаратного забезпечення GPU NVIDIA спостерігав постійний ріст доходів від центру обробки даних. У другому кварталі 2023 року доходи від центру обробки даних склали 10,32 мільярда доларів, що позначає зростання на 141% від другого кварталу 2023 року та помітний стрибок на 171% порівняно з аналогічним періодом попереднього року. Кінець кінцем, до четвертого кварталу фінансового року 2024 сегмент центру обробки даних склав понад 83% від загального доходу, досвіджуючи одночасний зріст на 409%, при цьому 40% припадає на сценарії великої інференції моделей, що свідчить про міцний попит на високопродуктивну обчислювальну потужність.
Одночасно потреба в великих обсягах даних накладає значні вимоги до зберігання та апаратної пам'яті. Особливо під час фази навчання моделі важливі обсяжні вхідні параметри та зберігання даних. Чіпи пам'яті, використовувані в AI серверах, передусім включають в себе пам'ять високої пропускної здатності (HBM), ОЗП та SSD. Робоче середовище для AI серверів повинно надавати збільшену ємність, покращену продуктивність, зменшену латентність та швидкі часи відгуку. За розрахунками Micron, обсяг ОЗП в AI серверах перевищує традиційні сервери вісьмикратно, тоді як кількість NAND перевищує стандарти традиційних серверів втричі.
Зазвичай обчислювальна потужність використовується переважно на етапах навчання, налаштування та висновків моделей ШІ, особливо під час фаз навчання та налаштування. У зв'язку зі збільшеними параметрами вводу даних, обчислювальними вимогами та підвищеною вимогою до міжзв'язку в паралельному обчислюванні, є потреба в більш потужному та взаємопов'язаному обладнанні ГПУ, часто у вигляді високопродуктивних кластерів ГПУ. При еволюції великих моделей обчислювальна складність збільшується лінійно, що вимагає більш потужного обладнання для відповіді на вимоги навчання моделі.
Беручи GPT-3 як приклад, з сценарієм, який передбачає близько 13 мільйонів незалежних відвідувань користувачів, відповідний попит на чіпи перевищив би 30 000 A100 GPU. Ці витрати на початкові інвестиції склали б неймовірні $800 мільйонів, із оцінкованими щоденними витратами на інференцію моделі на суму близько $700 000.
Водночас галузеві звіти вказують на те, що в четвертому кварталі 2023 року пропозиція графічних процесорів NVIDIA була серйозно обмежена в усьому світі, що призвело до помітного дисбалансу між попитом і пропозицією на ринках по всьому світу. Виробничі потужності NVIDIA були обмежені такими факторами, як TSMC, HBM, упаковка CoWos, і очікується, що «проблема серйозного дефіциту» графічного процесора H100 збережеться принаймні до кінця 2024 року.
Отже, підвищений попит на високопродуктивні відеокарти та обмеження постачання призвели до стрімкого зростання цін на поточні апаратні компоненти, такі як відеокарти. Особливо для компаній, які NVIDIA, що займають ключову позицію в ланцюжку виробництва, високі ціни ще більше підсилюються їхньою монополістичною домінантністю, що дозволяє їм збільшувати додаткову вартість. Наприклад, матеріальні витрати на карту NVIDIA H100 AI становлять приблизно 3000 доларів, але її ціна продажу досягла близько 35 000 доларів в середині 2023 року і навіть перевищила 40 000 доларів на eBay.
Звіт компанії Grand View Research показує, що розмір глобального ринку хмарного штучного інтелекту був оцінений у розмірі $62,63 мільярда у 2023 році, передбачається, що до 2030 року він досягне $647,6 мільярда, з річною зростанням на рівні 39,6%. Ці цифри підкреслюють значний потенціал зростання хмарних послуг зі штучним інтелектом та їх вагому внесок у загальний ланцюг галузі штучного інтелекту.
За оцінками a16z, суттєва частина коштів на ринку AIGC (штучний і глобальний обчислювальний) в кінцевому підсумку направляється на інфраструктурні компанії. В середньому компанії застосувань виділяють приблизно 20-40% свого доходу на інференцію та уточнення для кожного клієнта. Ці витрати, як правило, спрямовані на постачальника хмарних обчислень або постачальника моделей-сторонніх фірм, які, в свою чергу, виділяють приблизно половину доходу на хмарну інфраструктуру. Отже, розумно припустити, що 10-20% загального доходу, згенерованого AIGC, направляється постачальникам хмарних послуг.
Крім того, значна частина попиту на обчислювальну потужність зосереджена на навчанні великих моделей штучного інтелекту, включаючи різноманітні обширні моделі LLM. Особливо для стартапів, 80-90% витрат припадають на обчислювальну потужність штучного інтелекту. В цілому інфраструктура обчислювальної потужності штучного інтелекту, охоплюючи хмарне обчислення та апаратне забезпечення, очікується скласти більше 50% початкової вартості ринку.
Як раніше обговорювалося, поточна вартість централізованого обчислення ШШІ залишається високою, головним чином через зростаючий попит на інфраструктуру високої продуктивності для тренування ШШІ. Однак на ринку існує значна кількість невикористаної обчислювальної потужності, що призводить до розбіжності між пропозицією та попитом. Ключові фактори, що спричиняють цей дисбаланс, включають:
У відповідь на вищезазначені виклики, розробка високопродуктивних мікросхем або спеціалізованих ASIC-мікросхем, призначених для завдань штучного інтелекту, є важливим напрямком, який досліджується численними розробниками та великими підприємствами. Ще одним підходом є комплексне використання наявних обчислювальних ресурсів для створення розподіленої обчислювальної мережі з метою зменшення витрат на обчислювальну потужність шляхом оренди, спільного використання та ефективного планування ресурсів. Крім того, на ринку зараз існує надлишок простоюмовних графічних процесорів та ЦП. Хоча окремі пристрої можуть бути менш потужними в обчислювальному плані, вони можуть ефективно відповідати поточним обчислювальним вимогам у конкретних сценаріях або у поєднанні з високопродуктивними мікросхемами. Надзвичайно важливо мати достатню кількість ресурсів, оскільки витрати можуть бути додатково зменшені завдяки розподіленому плануванню мережі.
Отже, зрушення до розподіленої обчислювальної потужності виросло як ключовий напрямок у розвитку інфраструктури ШШІ. Одночасно, з урахуванням концептуального співвідношення між Web3 та розподіленими системами, децентралізовані мережі обчислювальної потужності стали основною увагою в ландшафті інфраструктури Web3+ШШІ. Наразі, децентралізовані платформи обчислювальної потужності на ринку Web3, як правило, пропонують ціни, що на 80%-90% нижчі, ніж централізовані хмарні обчислювальні послуги.
Хоча зберігання відіграє важливу роль в ІШ-інфраструктурі, централізоване зберігання має виразні переваги щодо масштабу, використовуваності та низької затримки. Проте через помітні ефективності вартості, розподілені обчислювальні мережі мають значний ринковий потенціал і можуть отримати суттєві користі від стрімкого розширення ринку ШІ.
Сектор розподіленої інфраструктури штучного інтелекту виявляє міцний попит та значні перспективи довгострокового зростання, що робить його привабливою областю для інвестиційного капіталу. Наразі основні проекти в інфраструктурному рівні промисловості ШША+Web3 в основному зосереджені навколо децентралізованих обчислювальних мереж. Ці проекти підкреслюють низькі витрати як ключову перевагу, використовують токен-стимули для розширення своїх мереж та віддають перевагу обслуговуванню клієнтів у секторі ШША+Web3 як своєї основної мети. Цей сектор в основному складається з двох ключових рівнів:
Надаючи послуги за більш конкурентоспроможними цінами, ніж централізовані хмарні обчислювальні послуги, зберігаючи при цьому порівнянні можливості підтримки та користувацького досвіду, цей проект здобув визнання від відомих інвесторів. Однак підвищена технічна складність становить значний виклик. Наразі проект перебуває на етапі наративу та розвитку, і ще не має повністю запущеного продукту.
Render Network є глобальною блокчейн-платформою для рендерингу, яка використовує розподілені GPU для надання творцям вартісних та ефективних послуг 3D-рендерингу. Після підтвердження творцем результатів рендерінгу блокчейн-мережа відправляє токени винагороди на вузли. Платформа має розподілену мережу планування та розподілу GPU, призначаючи завдання на основі використання вузлів, репутації та інших факторів для оптимізації обчислювальної ефективності, мінімізації простою ресурсів та зниження витрат.
Внутрішній токен платформи, RNDR, використовується як платіжна валюта в екосистемі. Користувачі можуть використовувати RNDR для оплати вартості послуг з рендерингу, тоді як постачальники послуг заробляють винагороду RNDR, надаючи обчислювальну потужність для виконання завдань з рендерингу. Вартість послуг рендерингу динамічно коригується відповідно до поточного використання мережі та інших відповідних показників.
Виявляється, що візуалізація є гарно підходящим і встановленим випадком використання архітектури розподіленої обчислювальної потужності. Природа завдань візуалізації дозволяє їх сегментацію на кілька підзадач, які виконуються паралельно, мінімізуючи міжзадачову комунікацію та взаємодію. Цей підхід пом'якшує недоліки архітектури розподіленого обчислювання, використовуючи при цьому розгалужену мережу вузлів GPU для забезпечення ефективності витрат.
Попит на мережу Render великий, користувачі відтворили понад 16 мільйонів кадрів та майже 500 000 сцен на платформі з моменту її створення в 2017 році. Обсяг відтворюваних завдань та активних вузлів продовжує зростати. Більше того, в першому кварталі 2023 року мережа Render представила нативно інтегрований набір інструментів стабільності AI, що дозволяє користувачам включати операції стабільності дифузії. Це розширення поза операціями відтворення свідчить про стратегічний крок у сферу застосування штучного інтелекту.
Gensyn працює як глобальна мережа суперкомп'ютерів, що спеціалізується на обчисленнях глибокого навчання, використовуючи протокол L1 Polkadot. У 2023 році платформа забезпечила $43 мільйонів у фінансуванні серії A, очолюваному a16z. Архітектурна структура Gensyn виходить за межі кластера розподіленої обчислювальної потужності і охоплює систему верифікації верхнього рівня. Ця система забезпечує, що обширні обчислення поза ланцюжком відповідають вимогам ланцюжка через верифікацію блокчейну, створюючи безпечну машинне навчання мережу.
Щодо розподіленої обчислювальної потужності, Gensyn об'єднує спектр пристроїв, від центрів обробки даних з запасною потужністю до особистих ноутбуків з потенційними графічними процесорами. Він об'єднує ці пристрої в єдиний віртуальний кластер, доступний розробникам для використання за запитом від однорідних до однорідних. Gensyn має на меті створити ринок, де ціни диктуються ринковими силами, сприяючи інклюзивності та дозволяючи витратам на обчислення ML досягати справедливого рівня.
Система верифікації є ключовим концептом для Gensyn, спрямованим на підтвердження точності завдань машинного навчання, що були вказані. Вона вводить інноваційний підхід до верифікації, який охоплює ймовірнісне доказове навчання, протокол точного позиціонування на основі графів та Truebit. Ці основні технічні функції ігрового стимулування пропонують покращену ефективність порівняно з традиційними методами верифікації блокчейну. До учасників мережі входять подавці, розв'язувачі, верифікатори та розкривачі правди, які спільно сприяють процесу верифікації.
На основі обширних даних тестування, детально описаних у білій книзі протоколу Gensyn, помітні переваги платформи включають:
Однак, паралельно, розподілена обчислювальна потужність призводить до неодмінного збільшення часу навчання порівняно з місцевим навчанням, зумовленого викликами у комунікації та мережі. Згідно з тестовими даними, протокол Gensyn призводить приблизно до 46% збільшення часу витрат під час навчання моделі.
Akash Network працює як розподілена платформа обчислень у хмарах, яка інтегрує різноманітні технічні елементи, щоб користувачі могли ефективно розгортати та керувати додатками в децентралізованому хмарному середовищі. У суті, воно пропонує користувачам можливість орендувати розподілені обчислювальні ресурси.
У основі Akash лежить мережа постачальників інфраструктур, розподілених по всьому світу, які пропонують ресурси CPU, GPU, пам'ять та сховище. Ці постачальники надають ресурси для оренди користувачам через верхній кластер Kubernetes. Користувачі можуть розгортати додатки у вигляді контейнерів Docker для використання вигідних інфраструктурних послуг. Крім того, Akash реалізує підхід "обертового аукціону" для подальшого зниження цін на ресурси. Згідно з оцінками на офіційному веб-сайті Akash, вартість послуг платформи приблизно на 80% нижча, ніж у централізованих серверів.
io.net є децентралізованою обчислювальною мережею, яка пов'язує глобально розподілені GPU для забезпечення обчислювальної підтримки для тренування та мислення моделей штучного інтелекту. Недавно завершивши раунд фінансування серії A на суму 30 мільйонів доларів, платформа тепер може похвалитися оцінкою в 1 мільярд доларів.
Відокремлено від платформ, таких як Render та Akash, io.net виходить як міцна та масштабована децентралізована обчислювальна мережа, яка складно пов'язана з кількома рівнями інструментів розробника. Її ключові особливості охоплюють:
Щодо ціноутворення, офіційний веб-сайт io.net оцінює, що їхні тарифи будуть приблизно на 90% нижчі, ніж у централізованих хмарних обчислювальних сервісів.
Крім того, власний токен io.net, IO coin, в основному буде використовуватися як засіб оплати та винагород у системі. Замість цього замовники можуть прийняти модель, схожу на Helium, перетворюючи IO coin на стабільну валюту "IOSD points" для проведення транзакцій.
Цю статтю перепечатано з [GateWanxiang Blockchain], оригінальний заголовок - «AI+Web3 Future Development Road (2) ): Infrastructure», авторське право належить оригінальному автору [Wanxiang Blockchain]. Якщо є скарги на цей перепечаток, будь ласка, зв'яжіться Gate Learn Team, і вони оперативно це вирішать.
Відповідальність за відмову: Погляди та думки, висловлені в цій статті, належать виключно автору і не становлять жодних інвестиційних порад.
Переклади статті на інші мови виконуються командою Gate Learn. Без згадування Gate.io, перекладена стаття не може бути відтворена, поширена або узята на плагіат.
Переслано оригінальний заголовок: Шлях майбутнього розвитку AI+Web3 (2): Розділ інфраструктури
У останні роки попит на обчислювальну потужність стрімко зростав, особливо після появи великого моделі LLM. Цей вибух попиту на обчислювальну потужність для штучного інтелекту значно позначився на ринку високопродуктивних обчислень. Дані від OpenAI показують помітну тенденцію з 2012 року, коли потужність, використана для навчання найбільших моделей штучного інтелекту, зростала експоненційно, подвоюючись кожні 3-4 місяці в середньому, перевищуючи темп приросту, передбачений Законом Мура. Зростаючий попит на додатки зі штучним інтелектом призвів до стрімкого зростання потреби в обчислювальному обладнанні. Прогнози показують, що до 2025 року попит на обчислювальне обладнання, диктований додатками зі штучним інтелектом, очікується зрости на приблизно 10% до 15%.
За допомогою попиту на обчислювальну потужність штучного інтелекту виробник апаратного забезпечення GPU NVIDIA спостерігав постійний ріст доходів від центру обробки даних. У другому кварталі 2023 року доходи від центру обробки даних склали 10,32 мільярда доларів, що позначає зростання на 141% від другого кварталу 2023 року та помітний стрибок на 171% порівняно з аналогічним періодом попереднього року. Кінець кінцем, до четвертого кварталу фінансового року 2024 сегмент центру обробки даних склав понад 83% від загального доходу, досвіджуючи одночасний зріст на 409%, при цьому 40% припадає на сценарії великої інференції моделей, що свідчить про міцний попит на високопродуктивну обчислювальну потужність.
Одночасно потреба в великих обсягах даних накладає значні вимоги до зберігання та апаратної пам'яті. Особливо під час фази навчання моделі важливі обсяжні вхідні параметри та зберігання даних. Чіпи пам'яті, використовувані в AI серверах, передусім включають в себе пам'ять високої пропускної здатності (HBM), ОЗП та SSD. Робоче середовище для AI серверів повинно надавати збільшену ємність, покращену продуктивність, зменшену латентність та швидкі часи відгуку. За розрахунками Micron, обсяг ОЗП в AI серверах перевищує традиційні сервери вісьмикратно, тоді як кількість NAND перевищує стандарти традиційних серверів втричі.
Зазвичай обчислювальна потужність використовується переважно на етапах навчання, налаштування та висновків моделей ШІ, особливо під час фаз навчання та налаштування. У зв'язку зі збільшеними параметрами вводу даних, обчислювальними вимогами та підвищеною вимогою до міжзв'язку в паралельному обчислюванні, є потреба в більш потужному та взаємопов'язаному обладнанні ГПУ, часто у вигляді високопродуктивних кластерів ГПУ. При еволюції великих моделей обчислювальна складність збільшується лінійно, що вимагає більш потужного обладнання для відповіді на вимоги навчання моделі.
Беручи GPT-3 як приклад, з сценарієм, який передбачає близько 13 мільйонів незалежних відвідувань користувачів, відповідний попит на чіпи перевищив би 30 000 A100 GPU. Ці витрати на початкові інвестиції склали б неймовірні $800 мільйонів, із оцінкованими щоденними витратами на інференцію моделі на суму близько $700 000.
Водночас галузеві звіти вказують на те, що в четвертому кварталі 2023 року пропозиція графічних процесорів NVIDIA була серйозно обмежена в усьому світі, що призвело до помітного дисбалансу між попитом і пропозицією на ринках по всьому світу. Виробничі потужності NVIDIA були обмежені такими факторами, як TSMC, HBM, упаковка CoWos, і очікується, що «проблема серйозного дефіциту» графічного процесора H100 збережеться принаймні до кінця 2024 року.
Отже, підвищений попит на високопродуктивні відеокарти та обмеження постачання призвели до стрімкого зростання цін на поточні апаратні компоненти, такі як відеокарти. Особливо для компаній, які NVIDIA, що займають ключову позицію в ланцюжку виробництва, високі ціни ще більше підсилюються їхньою монополістичною домінантністю, що дозволяє їм збільшувати додаткову вартість. Наприклад, матеріальні витрати на карту NVIDIA H100 AI становлять приблизно 3000 доларів, але її ціна продажу досягла близько 35 000 доларів в середині 2023 року і навіть перевищила 40 000 доларів на eBay.
Звіт компанії Grand View Research показує, що розмір глобального ринку хмарного штучного інтелекту був оцінений у розмірі $62,63 мільярда у 2023 році, передбачається, що до 2030 року він досягне $647,6 мільярда, з річною зростанням на рівні 39,6%. Ці цифри підкреслюють значний потенціал зростання хмарних послуг зі штучним інтелектом та їх вагому внесок у загальний ланцюг галузі штучного інтелекту.
За оцінками a16z, суттєва частина коштів на ринку AIGC (штучний і глобальний обчислювальний) в кінцевому підсумку направляється на інфраструктурні компанії. В середньому компанії застосувань виділяють приблизно 20-40% свого доходу на інференцію та уточнення для кожного клієнта. Ці витрати, як правило, спрямовані на постачальника хмарних обчислень або постачальника моделей-сторонніх фірм, які, в свою чергу, виділяють приблизно половину доходу на хмарну інфраструктуру. Отже, розумно припустити, що 10-20% загального доходу, згенерованого AIGC, направляється постачальникам хмарних послуг.
Крім того, значна частина попиту на обчислювальну потужність зосереджена на навчанні великих моделей штучного інтелекту, включаючи різноманітні обширні моделі LLM. Особливо для стартапів, 80-90% витрат припадають на обчислювальну потужність штучного інтелекту. В цілому інфраструктура обчислювальної потужності штучного інтелекту, охоплюючи хмарне обчислення та апаратне забезпечення, очікується скласти більше 50% початкової вартості ринку.
Як раніше обговорювалося, поточна вартість централізованого обчислення ШШІ залишається високою, головним чином через зростаючий попит на інфраструктуру високої продуктивності для тренування ШШІ. Однак на ринку існує значна кількість невикористаної обчислювальної потужності, що призводить до розбіжності між пропозицією та попитом. Ключові фактори, що спричиняють цей дисбаланс, включають:
У відповідь на вищезазначені виклики, розробка високопродуктивних мікросхем або спеціалізованих ASIC-мікросхем, призначених для завдань штучного інтелекту, є важливим напрямком, який досліджується численними розробниками та великими підприємствами. Ще одним підходом є комплексне використання наявних обчислювальних ресурсів для створення розподіленої обчислювальної мережі з метою зменшення витрат на обчислювальну потужність шляхом оренди, спільного використання та ефективного планування ресурсів. Крім того, на ринку зараз існує надлишок простоюмовних графічних процесорів та ЦП. Хоча окремі пристрої можуть бути менш потужними в обчислювальному плані, вони можуть ефективно відповідати поточним обчислювальним вимогам у конкретних сценаріях або у поєднанні з високопродуктивними мікросхемами. Надзвичайно важливо мати достатню кількість ресурсів, оскільки витрати можуть бути додатково зменшені завдяки розподіленому плануванню мережі.
Отже, зрушення до розподіленої обчислювальної потужності виросло як ключовий напрямок у розвитку інфраструктури ШШІ. Одночасно, з урахуванням концептуального співвідношення між Web3 та розподіленими системами, децентралізовані мережі обчислювальної потужності стали основною увагою в ландшафті інфраструктури Web3+ШШІ. Наразі, децентралізовані платформи обчислювальної потужності на ринку Web3, як правило, пропонують ціни, що на 80%-90% нижчі, ніж централізовані хмарні обчислювальні послуги.
Хоча зберігання відіграє важливу роль в ІШ-інфраструктурі, централізоване зберігання має виразні переваги щодо масштабу, використовуваності та низької затримки. Проте через помітні ефективності вартості, розподілені обчислювальні мережі мають значний ринковий потенціал і можуть отримати суттєві користі від стрімкого розширення ринку ШІ.
Сектор розподіленої інфраструктури штучного інтелекту виявляє міцний попит та значні перспективи довгострокового зростання, що робить його привабливою областю для інвестиційного капіталу. Наразі основні проекти в інфраструктурному рівні промисловості ШША+Web3 в основному зосереджені навколо децентралізованих обчислювальних мереж. Ці проекти підкреслюють низькі витрати як ключову перевагу, використовують токен-стимули для розширення своїх мереж та віддають перевагу обслуговуванню клієнтів у секторі ШША+Web3 як своєї основної мети. Цей сектор в основному складається з двох ключових рівнів:
Надаючи послуги за більш конкурентоспроможними цінами, ніж централізовані хмарні обчислювальні послуги, зберігаючи при цьому порівнянні можливості підтримки та користувацького досвіду, цей проект здобув визнання від відомих інвесторів. Однак підвищена технічна складність становить значний виклик. Наразі проект перебуває на етапі наративу та розвитку, і ще не має повністю запущеного продукту.
Render Network є глобальною блокчейн-платформою для рендерингу, яка використовує розподілені GPU для надання творцям вартісних та ефективних послуг 3D-рендерингу. Після підтвердження творцем результатів рендерінгу блокчейн-мережа відправляє токени винагороди на вузли. Платформа має розподілену мережу планування та розподілу GPU, призначаючи завдання на основі використання вузлів, репутації та інших факторів для оптимізації обчислювальної ефективності, мінімізації простою ресурсів та зниження витрат.
Внутрішній токен платформи, RNDR, використовується як платіжна валюта в екосистемі. Користувачі можуть використовувати RNDR для оплати вартості послуг з рендерингу, тоді як постачальники послуг заробляють винагороду RNDR, надаючи обчислювальну потужність для виконання завдань з рендерингу. Вартість послуг рендерингу динамічно коригується відповідно до поточного використання мережі та інших відповідних показників.
Виявляється, що візуалізація є гарно підходящим і встановленим випадком використання архітектури розподіленої обчислювальної потужності. Природа завдань візуалізації дозволяє їх сегментацію на кілька підзадач, які виконуються паралельно, мінімізуючи міжзадачову комунікацію та взаємодію. Цей підхід пом'якшує недоліки архітектури розподіленого обчислювання, використовуючи при цьому розгалужену мережу вузлів GPU для забезпечення ефективності витрат.
Попит на мережу Render великий, користувачі відтворили понад 16 мільйонів кадрів та майже 500 000 сцен на платформі з моменту її створення в 2017 році. Обсяг відтворюваних завдань та активних вузлів продовжує зростати. Більше того, в першому кварталі 2023 року мережа Render представила нативно інтегрований набір інструментів стабільності AI, що дозволяє користувачам включати операції стабільності дифузії. Це розширення поза операціями відтворення свідчить про стратегічний крок у сферу застосування штучного інтелекту.
Gensyn працює як глобальна мережа суперкомп'ютерів, що спеціалізується на обчисленнях глибокого навчання, використовуючи протокол L1 Polkadot. У 2023 році платформа забезпечила $43 мільйонів у фінансуванні серії A, очолюваному a16z. Архітектурна структура Gensyn виходить за межі кластера розподіленої обчислювальної потужності і охоплює систему верифікації верхнього рівня. Ця система забезпечує, що обширні обчислення поза ланцюжком відповідають вимогам ланцюжка через верифікацію блокчейну, створюючи безпечну машинне навчання мережу.
Щодо розподіленої обчислювальної потужності, Gensyn об'єднує спектр пристроїв, від центрів обробки даних з запасною потужністю до особистих ноутбуків з потенційними графічними процесорами. Він об'єднує ці пристрої в єдиний віртуальний кластер, доступний розробникам для використання за запитом від однорідних до однорідних. Gensyn має на меті створити ринок, де ціни диктуються ринковими силами, сприяючи інклюзивності та дозволяючи витратам на обчислення ML досягати справедливого рівня.
Система верифікації є ключовим концептом для Gensyn, спрямованим на підтвердження точності завдань машинного навчання, що були вказані. Вона вводить інноваційний підхід до верифікації, який охоплює ймовірнісне доказове навчання, протокол точного позиціонування на основі графів та Truebit. Ці основні технічні функції ігрового стимулування пропонують покращену ефективність порівняно з традиційними методами верифікації блокчейну. До учасників мережі входять подавці, розв'язувачі, верифікатори та розкривачі правди, які спільно сприяють процесу верифікації.
На основі обширних даних тестування, детально описаних у білій книзі протоколу Gensyn, помітні переваги платформи включають:
Однак, паралельно, розподілена обчислювальна потужність призводить до неодмінного збільшення часу навчання порівняно з місцевим навчанням, зумовленого викликами у комунікації та мережі. Згідно з тестовими даними, протокол Gensyn призводить приблизно до 46% збільшення часу витрат під час навчання моделі.
Akash Network працює як розподілена платформа обчислень у хмарах, яка інтегрує різноманітні технічні елементи, щоб користувачі могли ефективно розгортати та керувати додатками в децентралізованому хмарному середовищі. У суті, воно пропонує користувачам можливість орендувати розподілені обчислювальні ресурси.
У основі Akash лежить мережа постачальників інфраструктур, розподілених по всьому світу, які пропонують ресурси CPU, GPU, пам'ять та сховище. Ці постачальники надають ресурси для оренди користувачам через верхній кластер Kubernetes. Користувачі можуть розгортати додатки у вигляді контейнерів Docker для використання вигідних інфраструктурних послуг. Крім того, Akash реалізує підхід "обертового аукціону" для подальшого зниження цін на ресурси. Згідно з оцінками на офіційному веб-сайті Akash, вартість послуг платформи приблизно на 80% нижча, ніж у централізованих серверів.
io.net є децентралізованою обчислювальною мережею, яка пов'язує глобально розподілені GPU для забезпечення обчислювальної підтримки для тренування та мислення моделей штучного інтелекту. Недавно завершивши раунд фінансування серії A на суму 30 мільйонів доларів, платформа тепер може похвалитися оцінкою в 1 мільярд доларів.
Відокремлено від платформ, таких як Render та Akash, io.net виходить як міцна та масштабована децентралізована обчислювальна мережа, яка складно пов'язана з кількома рівнями інструментів розробника. Її ключові особливості охоплюють:
Щодо ціноутворення, офіційний веб-сайт io.net оцінює, що їхні тарифи будуть приблизно на 90% нижчі, ніж у централізованих хмарних обчислювальних сервісів.
Крім того, власний токен io.net, IO coin, в основному буде використовуватися як засіб оплати та винагород у системі. Замість цього замовники можуть прийняти модель, схожу на Helium, перетворюючи IO coin на стабільну валюту "IOSD points" для проведення транзакцій.
Цю статтю перепечатано з [GateWanxiang Blockchain], оригінальний заголовок - «AI+Web3 Future Development Road (2) ): Infrastructure», авторське право належить оригінальному автору [Wanxiang Blockchain]. Якщо є скарги на цей перепечаток, будь ласка, зв'яжіться Gate Learn Team, і вони оперативно це вирішать.
Відповідальність за відмову: Погляди та думки, висловлені в цій статті, належать виключно автору і не становлять жодних інвестиційних порад.
Переклади статті на інші мови виконуються командою Gate Learn. Без згадування Gate.io, перекладена стаття не може бути відтворена, поширена або узята на плагіат.