Китай і Сполучені Штати «оточують і пригнічують» Nvidia, важко домінувати на трильйонному ринку мікросхем ШІ

Автор: Лінь Чжицзя

Джерело: TMTpost Media

Оскільки Nvidia займає лідерство на ринку потужних обчислювальних мікросхем зі штучним інтелектом, її ринкова вартість перевищує один трильйон. У той же час Intel, AMD і китайські компанії-виробники графічних процесорів також таємно конкурують, сподіваючись отримати частку ринку обчислювальних мікросхем штучного інтелекту.

**19 вересня на конференції Intel On Technology Innovation, що відбулася в Сан-Хосе, США, **62-річний генеральний директор Intel Пет Гелсінгер був «повний енергії» і почав свою промову з віджимань.

На цій зустрічі Гелсінгер на одному подиху випустив серію нових технологічних продуктів: процесор Intel Core Ultra на основі технологічного процесу Intel 4 (5 нм) під кодовою назвою «Meteor Lake»; попередній перегляд серверного чіпа Xeon п’ятого покоління та подальших продуктів Xeon. ; розкрито 5-нм чіп ШІ Gaudi 3 тощо.

Генеральний директор Intel Пет Гелсінгер робить віджимання на місці

Порівняно з попередніми сесіями, цього разу Кіссінджер «перевтілився в старого в шкірі» і майже 2 години розповідав про роль обчислювальної потужності ШІ в економіці. Згідно зі статистикою додатка TMTpost, Кіссінджер у своїй промові близько 200 разів згадав терміни, пов’язані зі «штучним інтелектом» і «глибоким навчанням».

Майже в той же час конкурент Intel і Nvidia AMD випустив останній чіп EPYC 8004 CPU (центральний процесор) і, як очікується, поставить чіпи серії MI300 AI до кінця року, щоб конкурувати з Nvidia. Крім того, у Китаї виробники чіпів зі штучним інтелектом, зокрема Huawei та Tianshu Zhixin, також активно розгортають продукти для навчання великих моделей і потужні обчислювальні продукти зі штучним інтелектом.

«Ми дуже жорстко конкуруємо з NVIDIA, лідером на ринку обчислювальних процесорів штучного інтелекту. Але Gaudi2 і Gaudi3 є великим кроком вперед, ніж вони. Ми набираємо обертів, і ринок починає розуміти, що серед лідерів штучного інтелекту індустрія чіпів Є ще одна можливість", - сказав Кіссінджер CNBC 20 вересня.

Ринкова конкуренція посилюється, і «Старому Хуангу» важко монополізувати трильйони обчислювальної потужності ШІ

З 2023 року до цього часу «божевільне захоплення» великими моделями ШІ, представленими ChatGPT, охопило світ, і великі моделі сприяють розвитку ШІ в більш загальному напрямку.

У той же час дефіцит і висока вартість обчислювальної потужності стали основними факторами, які обмежують розвиток ШІ. Обчислювальна потужність також стала важливим наріжним каменем цифрової та інтелектуальної трансформації всього суспільства, що призвело до різкого зростання попиту на інтелектуальну обчислювальну потужність.

Згідно з даними, наданими генеральним директором AMD Лізою Су, загальний потенційний ринок глобальних прискорювачів ШІ для центрів обробки даних досягне приблизно 30 мільярдів доларів США в 2023 році, і очікується, що ця цифра перевищить 150 мільярдів доларів США до 2027 року (приблизно 1,095 трильйона юанів), з сукупний річний темп зростання більше 50%.

Манувір Дас, віце-президент Nvidia з корпоративних обчислень, надав ще один набір даних, які показують, що очікується, що потенційний ринок (TAM) для ШІ зросте до 600 мільярдів доларів США. Серед них чіпи та системи можуть отримати 300 мільярдів доларів США, програмне забезпечення генеративного штучного інтелекту може отримати 150 мільярдів доларів США, а інші 150 мільярдів доларів США отримають корпоративне програмне забезпечення NVIDIA.

**Очевидно, що ринок потужних обчислювальних мікросхем штучного інтелекту – це великий «пиріг». **

Але наразі NVIDIA займає 82% світового ринку прискорення штучного інтелекту для центрів обробки даних і монополізує світовий ринок навчання штучному інтелекту з 95% часткою ринку, ставши найбільшим переможцем у цьому раунді рукопашної боротьби зі штучним інтелектом. Хуан Реньсюнь і його компанія Nvidia заробляють великі гроші, ринкова вартість яких перевищує 1 трильйон доларів США.

У той же час різке зростання попиту на обчислювальну потужність прямо спричинило те, що NVIDIA GPU (графічний процесор) «важко знайти». Кількість відеокарт Nvidia A100 стала стандартом для вимірювання обчислювальної потужності компанії.

**Насправді, якщо компанія хоче розробити велику модель загального призначення, вона повинна спочатку звернути увагу на два моменти з точки зору обчислювальної потужності: кількість і ціну відеокарт. **

**З огляду на кількість графічних карт, **OpenAI використовує 10 000–30 000 графічних процесорів NVIDIA для навчання моделі GPT-3.5. Відповідно до останнього звіту TrendForce, якщо розрахувати на основі процесорної потужності відеокарт NVIDIA A100, для запуску ChatGPT може знадобитися використання 30 000 відеокарт NVIDIA GPU. Крім того, з точки зору моделей з відкритим вихідним кодом, модель Llama тренується на 2048 A100 80 ГБ, а повна обчислювальна потужність навчання наближається до 2000 PTOPS.

З точки зору ціни ціна на H800, який зараз доступний у Китаї, досягла 200 000 за штуку, тоді як ціна на A100/A800 зросла приблизно до 150 000 і 100 000 за штуку. Взявши як приклад вимогу до обчислювальної потужності 2000P, графічний процесор H800 має обчислювальну потужність однієї карти 2P і потребує 1000 відеокарт. Орієнтовна ціна всієї карти становить 200 мільйонів юанів; обчислювальна потужність однієї карти A800 становить приблизно 0,625P і необхідна кількість — 3200 відеокарт. Орієнтовна ціна всієї відеокарти — до 320 мільйонів юанів.

Окрім придбання відеокарти GPU, сервер також має враховувати конфігурацію та розрахунок усієї машини, включаючи ЦП, сховище, комунікаційні з’єднання NV-Link тощо, а також такі фактори, як енергоспоживання, оренда сайту, і витрати на експлуатацію та обслуговування.

В даний час сервери A800 і H800 - це в основному 8-карткові моделі. Щоб забезпечити обчислювальну потужність 2000 P, необхідно налаштувати 125 8-карткових серверів H800 або 400 8-карткових серверів A800. Ціни становлять 300 мільйонів юанів. і 560 млн. юанів відповідно. Крім того, оскільки H800 також підтримує PCIe 5.0, нове покоління процесорів і пам’яті, ціну потрібно підвищити, щоб досягти оптимальної обчислювальної продуктивності.

Таким чином, з точки зору підготовки великої моделі, загальна вартість придбання H800 нижча, ніж A800, що є економічно ефективнішим і нижчим, ніж вартість створення ЦП. Це те, що часто говорив генеральний директор Nvidia Джен-Хсун Хуанг нещодавно: «Чим більше ви купуєте, тим це рентабельніше». , тим більше ви заощаджуєте».

Звичайно, неважливо, якщо ви дійсно не можете собі цього дозволити. NVIDIA також продумано запустила послугу онлайн-лізингу, обчислювальну систему DGX super AI, яка відкрита для підприємств через лізинг.Вона оснащена 8 графічними процесорами H100 або A100, кожен вузол має 640 ГБ пам’яті, а місячна орендна плата становить 37 000 доларів США. тому немає необхідності створювати власні дані.Центр закуповує велику кількість відеокарт GPU. Цей тип методу лізингу має високу норму валового прибутку. Відповідно до звіту про послугу Microsoft «Cloud Computing Power Leasing», рентабельність валового прибутку цього бізнесу становить 42%, що робить його новою «дійною коровою» для Microsoft .

На внутрішньому ринку InBev Digital, SenseTime AIDC та понад 11 інших постачальників інтелектуальних обчислювальних центрів/хмарних технологій також надають подібні послуги.Для великих моделей загальна ціна більш ніж на 20% нижча, ніж ціна власного виробництва.

**Додатково є час для навчання великих моделей. **Нещодавно випущений NVIDIA GPU NVIDIA L40S більш ефективний у навчанні, ніж модель A800/H800. Для роботи моделі з 7 мільярдами параметрів на HGX A800 потрібно 17 годин, тоді як L40S працює в 1,3 рази швидше і може працювати лише за півдня.Не кажучи вже про те, що модель із 175 мільярдами параметрів можна навчити за вихідні з L40S. .

Загалом, якщо компанія хоче побудувати велику модель, їй доведеться витратити сотні мільйонів юанів на витрати на обчислювальну потужність, і це лише «квиток».

Раніше повідомлялося, що Baidu, Bytedance, Tencent і Alibaba розмістили у Nvidia замовлення на чіпи на суму $5 млрд. Якщо додати кількість графічних карт, які раніше накопичувалися, загальна кількість відеокарт Nvidia GPU в Китаї перевищує 100 млрд юанів. Організація маркетингових досліджень Counterpoint опублікувала звіт, в якому зазначено, що, незважаючи на циклічний спад у напівпровідниковій промисловості, китайські компанії, такі як Tencent і Baidu, все ще купують чіпи Nvidia A800 у великих кількостях.

**Отже, на такому важливому ринку трильйонного рівня ані компанії, що займаються виробництвом мікросхем, ані клієнти, які перебувають на нижньому рівні, не хочуть бачити домінування «NVIDIA». Тому AMD, Intel і китайські компанії-виробники графічних процесорів спробували кинути виклик домінуванню Nvidia на ринку мікросхем AI. **

**AMD б'є першим. **

Що стосується мікросхем штучного інтелекту, то на виставці споживчої електроніки 2023 (CES) у січні цього року голова правління та генеральний директор AMD Ліза Су офіційно випустила наступне покоління продукту APU (прискорений процесор) Instinct MI300 для центрів обробки даних із використанням комбінованих технологій TSMC 5 нм + 6 нм. Архітектура мікросхеми, інтегрований центральний і графічний процесори, 13 маленьких мікросхем, кількість транзисторів до 146 мільярдів, продуктивність ШІ та продуктивність на ват у 8 разів і в 5 разів вище, ніж у попереднього покоління MI250 (з використанням розрідженого порівняльного тесту FP8), буде масово вироблятися і поставлятися в другій половині 2023 року.

Потім у червні AMD також анонсувала нові чіпи прискорення штучного інтелекту Instinct MI300X, Instinct MI300A та інші продукти, спеціально створені для генеративного штучного інтелекту, із 153 мільярдами транзисторів, які мають покращену ємність пам’яті та пропускну здатність з’єднання. MI300X має більше транзисторів, ніж H100. Удвічі, Високосмугова пам'ять HBM3 у 2,4 рази більша, ніж H100. Велика модель із 80 мільярдами параметрів може працювати на одному чіпі та, як очікується, буде відвантажена до кінця цього року.

Це не тільки повністю демонструє можливості технології штучного інтелекту центрів обробки даних після придбання Xilinx, але й кидає виклик домінуванню Nvidia в обчислювальних мікросхемах ШІ.

Звичайно, це не тільки графічні процесори та мікросхеми штучного інтелекту. AMD найкраще вміє створювати мікросхеми ЦП (центральний процесор). Зрештою, центри обробки даних потребують загальної обчислювальної потужності ЦП. У листопаді минулого року AMD випустила серію центрів обробки даних EPYC 9004 четвертого покоління з кодовою назвою Genoa на основі архітектури Zen 4. Су Цзифен не тільки оновив архітектуру, але й доклав максимум матеріалів до цього чіпа: 5-нм процес TSMC , 96 ядер, 192 потоки, 384 МБ кеша L3 і підтримує PCle5.0.

Порівняно з восьмиядерними процесорами Intel серія ЦП для центрів обробки даних і периферійних обчислень AMD значно покращила споживання енергії та продуктивність, включаючи зменшення на 40% площі чіпа Genoa та підвищення енергоефективності на 48%.

У вересні цього року AMD випустила останню серію EPYC 8004 четвертого покоління, впроваджуючи ядро «Zen 4c» у виділені ЦП, надаючи різноманітні послуги від інтелектуальних країв (таких як роздрібна торгівля, виробництво та телекомунікації) до центрів обробки даних, хмарних обчислень та інших. поля.

Насправді Amazon Cloud AWS випустила загальний обчислювальний екземпляр на основі Genoa M7A. Остаточні результати показали, що продуктивність була покращена на 50% порівняно з попереднім поколінням. У порівнянні з версією Intel Xeon Platinum Edition 8490H четвертого покоління, продуктивність Genoa у багатьох сценаріях застосування Поліпшення становить 1,7-1,9 рази, а загальна енергоефективність покращується в 1,8 рази.Він повністю використовується у сферах високопродуктивних обчислень, таких як фінансове моделювання, симуляція погоди, дослідження та розробка ліків. Крім того, у робочому навантаженні шлюзу IoT Edge останній восьмиядерний сервер на базі процесора EPYC 8024P також забезпечує приблизно в 1,8 рази більшу загальну пропускну здатність на стійку потужністю 8 кВт.

Загалом, незалежно від того, чи це CPU, GPU, FPGA, DPU процесор центру обробки даних або система програмного стеку AMD ROCm, AMD готова та «точить свій меч», щоб кинути виклик продуктам Nvidia.

**Як гігант чіпів, який існує понад 60 років, Intel не хоче «поступатися ринком іншим». **

11 липня цього року чіп-гігант Intel Corporation (Intel) випустив AI-чіп Habana Gaudi2 для китайського ринку в Пекіні, використовуючи 7-нм техпроцес.Він може запускати великі мовні моделі, прискорювати навчання штучного інтелекту та висновки, і має продуктивність. на ват приблизно 100% під час використання ResNet-50. Це вдвічі більше, ніж у NVIDIA A100, а його співвідношення ціна/продуктивність на 40% вище, ніж у рішень на базі NVIDIA в хмарі AWS. Очікується, що він перевершить останній H100 від NVIDIA ціна/продуктивність у вересні цього року.

Сандра Рівера, виконавчий віце-президент Intel, сказала TMTpost у липні цього року, що одна компанія не може домінувати на ринку мікросхем ШІ. Тому що ринок потребує різноманітності, і клієнти також хочуть, щоб більше компаній, що займаються виробництвом чіпів, займали провідну роль у сфері ШІ.

Генеральний директор Intel Пет Гелсінгер

У вересні на конференції з технологічних інновацій Intel On, що проходила в Сан-Хосе, США, Гелсінгер оголосив, що в наступному році буде запущений AI-чіп Gaudi 3 за 5-нм техпроцесом, до того часу його обчислювальна потужність буде вдвічі більша, ніж у Gaudi 2. , а його пропускна здатність мережі, HBM. Ємність збільшиться в 1,5 рази.

У той же час Гелсінгер також представив масштабований серверний процесор Intel Xeon п’ятого покоління, заявивши, що наступне покоління Xeon матиме 288 ядер, що, як очікується, збільшить щільність стійки в 2,5 рази і продуктивність на ват в 2,4 рази. Крім того, Intel також випустила Sierra Forest і Granite Rapids, які, як очікується, підвищать продуктивність ШІ у 2-3 рази порівняно з Xeon четвертого покоління.

Головний технічний директор Alibaba Cloud Чжоу Джінгрен сказав, що Alibaba використовує процесори Intel Xeon четвертого покоління для свого генеративного ШІ та великих мовних моделей, а саме «Alibaba Cloud Tongyi Qianwen Large Model», а технологія Intel значно скоротила час відгуку моделі, середній прискорення може досягати 3 разів.

Крім того, для навчання великої моделі ШІ більш важливою є екосистема програмного забезпечення. Intel оголосила про співпрацю з компанією Arm для розгортання своїх продуктів Xeon на процесорах Arm, а також запустила набір інструментів OpenVINO для висновків і розгортання AI, який не тільки підтримує попередньо навчені моделі, але також потрібно написати лише один раз, щоб розгорнути будь-яку доступна ключова крос-платформна підтримка, була підтримана модель Meta Llama 2.

У той же час Linux Foundation також оголосила цього тижня про заснування Unified Acceleration (UXL) Foundation, щоб надати відкриту стандартну модель програмування прискорювача для спрощення розробки високопродуктивних кросплатформних програм. еволюція програми Intel oneAPI. Члени-засновники включають Arm , Google Cloud, Intel, Qualcomm, Samsung та інші — Nvidia не входить до їх числа.

Ван Жуй, старший віце-президент корпорації Intel і голова Intel China, розповів TMTpost App та іншим, що в майбутньому Intel випустить процесор із 288 ядрами. У майбутньому центрів обробки даних буде все більше. Intel випустить такі продукти, як Gaudi3 і Falcon Shores. Матриця продуктів сформує дорожню карту для майбутнього розвитку прискорювачів і обчислень ШІ.

«Ми вбудували в чіп можливості штучного інтелекту. Відповідно до різних потреб, вбудовані можливості штучного інтелекту використовуватимуть різну обчислювальну потужність і різні архітектури для забезпечення підтримки.» Ван Жуй сказав, що з точки зору центрів обробки даних, від клієнта до краю до хмари ШІ проник у різні прикладні сценарії: від широкомасштабного навчання мовній моделі до маломасштабного інклюзивного навчання мовній моделі, вплив ШІ є всюди.

Наприкінці серпня цього року Кіссінджер заявив, що, на його думку, Intel рухається до досягнення своїх амбітних цілей реструктуризації та відновлення своїх лідируючих позицій у галузі. Говорячи про Nvidia, Гелсінгер визнав, що Nvidia має хорошу структуру і може задовольнити попит на системи, необхідні для підтримки розширення програмного забезпечення штучного інтелекту, але він сказав, що Intel незабаром почне отримувати замовлення на цих ринках чіпів-прискорювачів.

"Вони виконали чудову роботу, і ми всі їх хвалимо. Але ми збираємось показати свою силу", - сказав Кіссінджер.

Ринкова вартість Nvidia впала на сотні мільярдів доларів. Чи зможуть домашні чіпи скористатися цією можливістю?

Блискучі показники Nvidia у 2023 році, здається, послабилися за останні два місяці.

Згідно з даними Refinitiv, хоча ціна акцій Nvidia цього року зросла приблизно на 190% і її показники є дуже вражаючими, у вересні ціна її акцій була поганою: з 31 серпня ціна акцій Nvidia впала більш ніж на 10%, а її загальна ринкова вартість випарувалася Понад 176 мільярдів доларів.

**Насправді існує багато факторів, що сприяють зниженню курсу акцій Nvidia. **

По-перше, ринкові занепокоєння з приводу того, що Федеральна резервна система довше утримуватиме процентні ставки на вищих рівнях, щоб приборкати інфляцію, посилилися. Весь фондовий ринок опинився під тиском: індекс S&P 500 знизився в середньому на 0,7% у вересні і майже 4% поки що.

**По-друге, **моделі з відкритим вихідним кодом, представлені LIama 2, були випущені одна за одною, і більше компаній почали використовувати ці моделі напряму, вимагаючи застосування лише чіпів штучного інтелекту, що призвело до зниження попиту на обчислення. фішки для силових тренувань.

Нарешті, згідно з The Information, NVIDIA приділяла пильну увагу постачанню графічних карт для деяких малих і середніх хмарних обчислювальних компаній у Сполучених Штатах. У поточній ситуації «важко знайти карту» , NVIDIA була дуже стурбована постачанням відеокарт великим компаніям, таким як Google і Meta, а також китайським підприємствам. Подальші послуги та постачання відеокарт більше не є головним пріоритетом, і це безпосередньо веде до ринку сумніви щодо можливостей постачання продукції Nvidia.

Звичайно, незважаючи на свої недоліки, NVIDIA має величезну перевагу першокласника на ринку обчислювальної потужності ШІ. На додаток до найкращої продуктивності графічного процесора, величезна програмна екосистема ШІ CUDA недосяжна для багатьох людей. Крім того, технологія високошвидкісного з’єднання GPU NVIDIA NVLink також стала «ключовою чарівною зброєю» для вдосконалення технології великих моделей, і її роль набагато вища, ніж сама карта GPU.

Засновник і генеральний директор Baichuan Intelligence Ван Сяочуань одного разу згадав, що в цій галузі витрати на обчислювальну потужність графічного процесора становлять приблизно 40%-70%, а співвідношення витрат на підключення до мережі та вартості відеокарти графічного процесора становить приблизно 3:1.

«Якщо в майбутньому ми розвиватимемося до вищих моделей, запас обчислювальної потужності буде дуже критичним. З точки зору навчання та міркування, міркування потребує вітчизняних чіпів штучного інтелекту, а не лише NVIDIA, але навчання наразі найкраще виконує лише NVIDIA. Цей «розрахунок для боротися, вітчизняні чіпи штучного інтелекту Китаю повинні бути здатні конкурувати", - сказав Ван Сяочуань.

**Насправді, на додаток до двох великих гігантів чіпів, у зв’язку з внутрішньою «війною 100 режимів», попит на обчислювальну потужність штучного інтелекту різко зріс. Проте експорт багатьох чіпів штучного інтелекту, таких як Nvidia AI00/H100, обмежено до Китаю, через що вітчизняним компаніям стає все важче отримати високоякісні мікросхеми зі Сполучених Штатів. **

У жовтні 2022 року Бюро промисловості та безпеки (BIS) при Міністерстві торгівлі США випустило нові правила експортного контролю для кількісної оцінки різних обчислювальних потужностей чипів, пропускної здатності, виробничих процесів та інших показників, а також обмеження експорту американських компаній до Китаю, включно з обмеження на чіпи високої обчислювальної потужності, що безпосередньо впливає на розвиток штучного інтелекту Китаю, суперкомп’ютерів, центрів обробки даних та інших пов’язаних галузей. NVIDIA, виробник GPU (графічного процесора), який в основному задовольняє потреби ШІ та інших додатків, у серпні отримав повідомлення від уряду США про обмеження експорту передових чіпів.

Nvidia швидко відреагувала та запустила у виробництво чіп A800 у третьому кварталі 2022 року, щоб замінити A100, який більше не може поставлятися до Китаю. Це також перший продукт зі спеціальною пропозицією, випущений американською компанією з цією метою. Nvidia не оголосила детальних параметрів A800.Однак інструкція до продукту, надана її дилерами, показує, що пікова обчислювальна потужність A800 відповідає A100, експорт якого обмежено, але швидкість передачі даних обмежена двома третинами. A100 відповідати вимогам уряду США. Навчальна обчислювальна потужність останнього "China Special Edition" H800 приблизно на 40% гірша, ніж у H100. Без модуля з'єднання, наданого NVIDIA, розрив обчислювальної потужності може досягати понад 60%.

Intel випустить китайську версію свого продукту Gaudi 2 у липні 2023 року. Gaudi 2 — це мікросхема ASIC (Application Specific Integrated Circuit), призначена в основному для високопродуктивного навчання ШІ глибокого навчання. У порівнянні з міжнародною версією, оголошеною в травні 2022 року, кількість інтегрованих портів Ethernet у китайській версії Gaudi 2 зменшено з 24 до 21. Тоді Intel заявила, що це відносно незначна зміна з обмеженим впливом на фактичну продуктивність. Нещодавно Кіссінджер заявив, що компанія зараз продає китайську версію Gaudi 2 у Китаї, і він сподівається продовжувати це робити в майбутньому.

**Тож під впливом іноземних обмежень щодо чіпів вітчизняні компанії, що займаються обчислювальною потужністю ШІ, такі як Huawei, Tianshu Zhixin, Cambrian і Denglin Technology, активно розгортають, щоб заповнити вакансію у вітчизняній обчислювальній потужності ШІ. **

Зараз внутрішній ринок обчислювальної потужності штучного інтелекту в основному поділяється на три основні фракції: одна – це рішення обчислювальної потужності Huawei Kunpeng і екосистема штучного інтелекту Ascend, яка не передбачає участі графічного процесора NVIDIA; інша – підтримка гібридної обчислювальної потужності, яка використовує велику кількість чіпів NVIDIA A100, а в деяких середовищах чіпи AMD, Intel, Tianshu Intelligent Core, Cambrian, Haiguang та інші додаються для підтримки навчання великих моделей; по-третє, більш рентабельні серверні хмарні обчислювальні потужності здаються в оренду заповнити дефіцит обчислювальної потужності.

На 19-му літньому саміті китайського форуму підприємців Ябулі 2023 року, який відбувся в серпні цього року, Лю Цінфен, засновник і голова iFlytek, сказав, що технічні можливості графічного процесора Huawei тепер еквівалентні Nvidia A100, і тепер він порівнюється з Nvidia A100.

20 вересня віце-президент Huawei, змінний голова правління та фінансовий директор Мен Ваньчжоу заявила, що Huawei запустила обчислювальний кластер Ascend AI з новою архітектурою, яка може підтримувати навчання великої моделі з понад трильйоном параметрів. Huawei продовжить нарощувати надійну базу обчислювальної потужності.

Гай Луцзян, голова правління та генеральний директор Tianshu Zhixin, повідомив, що наразі багато вітчизняних компаній, що займаються моделюванням великого масштабу, почали використовувати графічні карти з графічним процесором, і компанія підтримала завершення навчання моделі великого масштабу з 7 мільярдами параметрів. Крім того, більшість інших вітчизняних компаній, що займаються графічним процесором, знаходяться на стадії навчання штучному інтелекту.

Galujiang вважає, що в Китаї частка NVIDIA на ринку навчання досягає 95%, а деякі досягли 99%, фактично досягнувши монополії. Це головним чином завдяки її апаратній архітектурі та широко використовуваній екосистемі CUDA - існує більше ніж 300 мільйонів користувачів у всьому світі. Зараз вітчизняні GPU-компанії стикаються з проблемами екологічної міграції, а через велику кількість кодів на основі CUDA перехід на нову екосистему зажадає багато часу та грошей.

Під час нещодавнього круглого столу Ван Пін, співзасновник і головний архітектор Denglin Technology, зазначив, що клієнтам AIGC потрібні не лише такі рішення, як створення тексту та зображення, але, що більш важливо, практичні продукти. Тому необхідно впроваджувати продукти обчислювальної потужності з великою обчислювальною потужністю та високою універсальністю, щоб створити цінність для клієнтів. Повідомляється, що нове покоління чіпів зі штучним інтелектом Denglin Technology має більш ніж у три рази більшу енергоспоживання, ніж міжнародні стандартні GPU загального призначення.

Галуцзян сказав, що для Tianshu Zhixin наступним кроком є оптимізація ітерації продукту, яка вимагає покладатися на дані, відгуки клієнтів і технологічні інновації, а також вносити корективи для задоволення особливих внутрішніх потреб. У той же час компанія активно вдосконалюватиме екосистему та стек програмного забезпечення, щоб гарантувати, що користувачі отримають найкращий досвід з точки зору ефективності, вартості, продуктивності та співвідношення ціни та якості, щоб сприяти подальшій комерціалізації продуктів.

Ван Пін вважає, що через збільшення труднощів із отриманням високоякісних чіпів із Сполучених Штатів, хоча жодна вітчизняна компанія не може виробляти чіпи, які могли б справді їх замінити, він вважає, що вітчизняна обчислювальна потужність продовжуватиме зростати. Мікросхеми потребують постійної ітерації. Чим більше користувачів і чим більше відгуків про проблеми, тим більше вітчизняних виробників мікросхем штучного інтелекту можуть покращити та підвищити якість роботи користувачів у наступних ітераціях.

«Це велика можливість для вітчизняних компаній, що займаються виробництвом графічних процесорів загального призначення», — сказав Галуцзян для TMTpost Media App.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити