Китай и США «окружают и подавляют» Nvidia, трудно доминировать на рынке ИИ-чипов стоимостью в триллион долларов

Автор: Линь Чжицзя

Источник: ТМТпост Медиа

Поскольку Nvidia лидирует на рынке чипов вычислительной мощности для крупных моделей искусственного интеллекта, ее рыночная стоимость превышает один триллион долларов. В то же время Intel, AMD и китайские компании, производящие чипы для графических процессоров, также тайно конкурируют, надеясь получить долю на рынке вычислительных чипов для искусственного интеллекта.

**19 сентября на конференции Intel On Technology Innovation, проходившей в Сан-Хосе, США, **62-летний генеральный директор Intel Пэт Гелсингер был «полон энергии» и начал свою речь с отжиманий.

На этой встрече Гелсингер одновременно представил ряд новых технологических продуктов: процессор Intel Core Ultra на базе техпроцесса Intel 4 (5 нм) под кодовым названием «Meteor Lake»; анонсировал серверный чип Xeon пятого поколения и дорожную карту последующих продуктов Xeon. ; раскрыт 5-нм AI-чип Gaudi 3 и т. д.

Генеральный директор Intel Пэт Гелсингер отжимается на месте

По сравнению с предыдущими сессиями, на этот раз Киссинджер «превратился в кожаного старика» и почти два часа говорил о роли вычислительных мощностей искусственного интеллекта в экономике. По данным приложения TMTpost, в своей речи Киссинджер около 200 раз упомянул термины, связанные с «искусственным интеллектом» и «глубоким обучением».

Почти в то же время компания AMD, конкурент Intel и Nvidia, выпустила новейший процессор EPYC 8004 (центральный процессор) и рассчитывает до конца года начать поставки AI-чипов серии MI300, чтобы составить конкуренцию Nvidia. Кроме того, в Китае производители чипов искусственного интеллекта, включая Huawei и Tianshu Zhixin, также активно внедряют продукты для вывода больших моделей и вычислительные мощности искусственного интеллекта.

«Мы очень жестко конкурируем с NVIDIA, лидером рынка вычислительных чипов искусственного интеллекта. Но и Gaudi2, и Gaudi3 — большой шаг вперед, чем они. Мы набираем обороты, и рынок начинает понимать, что среди лидеров в области искусственного интеллекта ​Производство микросхем. Есть еще одна возможность», — сказал Киссинджер 20 сентября CNBC.

Рыночная конкуренция усиливается, и «Старому Хуану» становится трудно монополизировать триллионы вычислительных мощностей ИИ

С 2023 года по настоящее время «увлечение» большими моделями ИИ, представленными ChatGPT, охватило мир, а крупные модели способствуют развитию ИИ в более общем направлении.

В то же время нехватка и высокая стоимость вычислительных мощностей стали основными факторами, ограничивающими развитие ИИ. Вычислительная мощность также стала важным краеугольным камнем цифровой и интеллектуальной трансформации всего общества, что привело к резкому росту спроса на интеллектуальную вычислительную мощность.

По данным генерального директора AMD Лизы Су, общий потенциальный рынок глобальных ускорителей искусственного интеллекта для центров обработки данных достигнет примерно 30 миллиардов долларов США в 2023 году, а к 2027 году эта цифра, как ожидается, превысит 150 миллиардов долларов США ((приблизительно 1,095 триллиона юаней), при этом совокупный годовой темп роста более 50%.

Манувир Дас, вице-президент по корпоративным вычислениям в Nvidia, привел еще один набор данных, показывающий, что потенциальный рынок (TAM) для искусственного интеллекта, как ожидается, вырастет до 600 миллиардов долларов США. Среди них чипы и системы могут получить 300 миллиардов долларов США, программное обеспечение для генеративного искусственного интеллекта может получить 150 миллиардов долларов США, а остальные 150 миллиардов долларов США будут внесены корпоративным программным обеспечением NVIDIA.

**Очевидно, что рынок вычислительных чипов искусственного интеллекта — это большой «торт». **

Но в настоящее время NVIDIA занимает 82% мирового рынка ускорения искусственного интеллекта в центрах обработки данных и монополизирует мировой рынок обучения искусственному интеллекту с долей рынка 95%, становясь крупнейшим победителем в этом раунде схватки с искусственным интеллектом. Хуан Жэньсюнь и его компания Nvidia зарабатывают много денег, рыночная стоимость которых превышает 1 триллион долларов США.

В то же время резкий рост спроса на вычислительную мощность напрямую привел к тому, что NVIDIA GPU (графический процессор) стало «трудно найти». Количество видеокарт Nvidia A100 стало стандартом измерения вычислительной мощности компании.

**Фактически, если компания хочет разработать большую модель общего назначения, она должна сначала обратить внимание на два момента с точки зрения вычислительной мощности: количество и цену видеокарт. **

**Среди них, с точки зрения количества видеокарт, **OpenAI использует 10 000–30 000 графических процессоров NVIDIA для обучения модели GPT-3.5. Согласно последнему отчету TrendForce, если рассчитывать на основе вычислительной мощности видеокарт NVIDIA A100, для запуска ChatGPT может потребоваться использование 30 000 видеокарт NVIDIA GPU. Кроме того, с точки зрения моделей с открытым исходным кодом, модель Llama обучается на 2048 устройствах A100 емкостью 80 ГБ, а вся вычислительная мощность обучения близка к вычислительной мощности 2000 PTOPS.

Что касается цены, цена H800, доступного в настоящее время в Китае, достигла 200 000 долларов за штуку, а цена A100/A800 выросла примерно до 150 000 и 100 000 долларов за штуку. Если взять в качестве примера требования к вычислительной мощности 2000P, то графический процессор H800 имеет вычислительную мощность одной карты 2P и требует 1000 видеокарт. Ориентировочная цена всей карты составляет 200 миллионов юаней; вычислительная мощность одной карты A800 составляет примерно 0,625P и необходимое количество — 3200 видеокарт.Оценочная цена всей видеокарты — до 320 миллионов юаней.

Помимо покупки видеокарты с графическим процессором, серверу также необходимо учитывать конфигурацию и расчет всей машины, включая ЦП, хранилище, коммуникационные соединения NV-Link и т. д., а также такие факторы, как энергопотребление, аренда площадки, а также затраты на эксплуатацию и техническое обслуживание.

В настоящее время серверы A800 и H800 в основном представляют собой модели с 8 картами.Чтобы обеспечить вычислительную мощность 2000 P, необходимо настроить 125 серверов H800 с 8 картами или 400 серверов A800 с 8 картами по цене 300 миллионов юаней. и 560 млн юаней соответственно. Более того, поскольку H800 также поддерживает PCIe 5.0, новое поколение процессоров и памяти, для достижения оптимальной вычислительной производительности необходимо повысить цену.

Таким образом, с точки зрения обучения больших моделей общая стоимость приобретения H800 ниже, чем у A800, который более экономически эффективен и ниже, чем стоимость создания процессора.Это то, что часто говорил генеральный директор Nvidia Джен-Сюнь Хуан. недавно: «Чем больше вы покупаете, тем это экономически эффективнее», тем больше вы экономите».

Конечно, не имеет значения, если вы действительно не можете себе этого позволить. NVIDIA также предусмотрительно запустила услугу онлайн-лизинга — вычислительную систему DGX Super AI, которая доступна для предприятий посредством лизинга. Она оснащена 8 графическими процессорами H100 или A100, каждый узел имеет 640 ГБ памяти, а ежемесячная арендная плата составляет 37 000 долларов США. поэтому нет необходимости собирать собственные данные.Центр закупает большое количество графических карт с графическим процессором. Этот тип лизинга имеет высокую валовую прибыль.Согласно отчету службы Microsoft Cloud Computing Power Leasing, валовая прибыль этого бизнеса достигает 42%, что делает его новой «дойной коровой» для Microsoft. .

На внутреннем рынке аналогичные услуги также предоставляют InBev Digital, SenseTime AIDC и более 11 других поставщиков интеллектуальных вычислительных центров/облаков. Для больших моделей общая цена более чем на 20% ниже, чем цена самостоятельной сборки.

**Дополнительно есть время обучения для больших моделей. **Недавно выпущенный графический процессор NVIDIA L40S от NVIDIA более эффективен в обучении, чем модель A800/H800. Модель с 7 миллиардами параметров запускается на HGX A800 за 17 часов, а L40S в 1,3 раза быстрее и может быть запущена всего за полдня, не говоря уже о том, что модель со 175 миллиардами параметров можно обучить за выходные с помощью L40S. .

В общем, если компания хочет построить большую модель, ей придется потратить сотни миллионов юаней на затраты на вычислительную мощность, и это всего лишь «билет».

Ранее сообщалось, что Baidu, Bytedance, Tencent и Alibaba разместили у Nvidia заказы на чипы на сумму $5 млрд. С учетом количества ранее накопленных видеокарт общее количество графических карт Nvidia GPU в Китае превышает 100 млрд юаней. Исследовательская организация Counterpoint опубликовала отчет, в котором говорится, что, несмотря на циклический спад в полупроводниковой промышленности, китайские компании, такие как Tencent и Baidu, по-прежнему закупают чипы Nvidia A800 в больших количествах.

**Итак, на таком важном рынке уровня триллиона ни производители чипов, ни последующие потребители не хотят, чтобы NVIDIA доминировала. Поэтому AMD, Intel и китайские компании, производящие чипы для графических процессоров, попытались бросить вызов доминированию Nvidia на рынке чипов для искусственного интеллекта. **

**AMD наносит удар первым. **

Что касается чипов искусственного интеллекта, на выставке Consumer Electronics Show (CES) 2023 в январе этого года председатель и генеральный директор AMD Лиза Су официально представила продукт APU (ускоренный процессор) следующего поколения Instinct MI300 для центров обработки данных с использованием комбинированного 5-нм + 6-нм TSMC-процесса. Конструкция архитектуры чиплета, интегрированный процессор и графический процессор, с 13 небольшими чипами, с количеством транзисторов до 146 миллиардов, производительность искусственного интеллекта и производительность на ватт в 8 и 5 раз выше, чем у MI250 предыдущего поколения (с использованием разреженного эталонного теста FP8), будет серийно производиться и поставляться во второй половине 2023 года.

Затем в июне AMD также анонсировала новые чипы ускорения искусственного интеллекта Instinct MI300X, Instinct MI300A и другие продукты, специально созданные для генеративного искусственного интеллекта, со 153 миллиардами транзисторов, которые улучшились с точки зрения емкости хранилища и пропускной способности межсоединений. MI300X имеет больше транзисторов, чем H100. В два раза больше транзисторов, чем у H100. Память с высокой пропускной способностью HBM3 в 2,4 раза больше, чем у H100. Большая модель с 80 миллиардами параметров может работать на одном чипе и, как ожидается, будет выпущена до конца этого года.

Это не только полностью демонстрирует возможности технологии искусственного интеллекта в центрах обработки данных после приобретения Xilinx, но и бросает вызов доминированию Nvidia в сфере вычислительных чипов искусственного интеллекта.

Конечно, речь идет не только о графических процессорах и чипах искусственного интеллекта. AMD лучше всего умеет производить чипы ЦП (центральных процессоров). В конце концов, центрам обработки данных нужна общая вычислительная мощность процессоров. В ноябре прошлого года AMD выпустила серию дата-центров EPYC 9004 четвертого поколения с архитектурой Zen 4 под кодовым названием Genoa. Су Цзыфэн не только обновил архитектуру, но и максимально увеличил материалы для этого чипа: 5-нм техпроцесс TSMC , 96 ядер, 192 потока, 384 МБ кэш-памяти L3 и поддержка PCle5.0.

По сравнению с восьмиядерными процессорами Intel, серия процессоров AMD для центров обработки данных и периферийных вычислений значительно улучшилась с точки зрения энергопотребления и производительности, включая сокращение площади чипа Genoa на 40% и повышение энергоэффективности на 48%.

В сентябре этого года AMD выпустила новейшую серию EPYC 8004 четвертого поколения, внедрив ядро Zen 4c в выделенные процессоры, предоставляющие широкий спектр услуг: от интеллектуальных периферийных устройств (таких как розничная торговля, производство и телекоммуникации) до центров обработки данных, облачных вычислений и других услуг. поля.

Фактически, Amazon Cloud AWS выпустила экземпляр общего вычисления на базе Genoa M7A.Окончательные результаты показали, что производительность была улучшена на 50% по сравнению с предыдущим поколением.По сравнению с версией Intel Xeon Platinum Edition 8490H четвертого поколения производительность Genoa в нескольких сценариях применения Улучшение составляет 1,7-1,9 раза, а общая энергоэффективность повышается в 1,8 раза.Он полностью используется в областях высокопроизводительных вычислений, таких как финансовое моделирование, моделирование погоды, а также исследования и разработки лекарств. Кроме того, в рабочей нагрузке шлюза IoT Edge новейший восьмиядерный сервер на базе EPYC 8024P также обеспечивает примерно в 1,8 раза большую пропускную способность на стойку мощностью 8 кВт.

В целом, будь то ЦП, графический процессор, FPGA, процессор ЦОД или программный стек системы AMD ROCm, AMD готова и «точит свой меч», чтобы бросить вызов продуктам Nvidia.

**Как гигант по производству микросхем, существующий более 60 лет, Intel не хочет «уступать рынок другим». **

11 июля этого года чиповый гигант корпорация Intel (Intel) выпустила для китайского рынка в Пекине AI-чип Habana Gaudi2, использующий 7-нм техпроцесс. Он может запускать большие языковые модели, ускорять обучение и вывод ИИ, а также имеет производительность на ватт примерно 100% при работе с ResNet-50. Это в 2 раза больше, чем у NVIDIA A100, а соотношение цена/производительность на 40 % выше, чем у решений на базе NVIDIA в облаке AWS. Ожидается, что он превзойдет новейшую версию NVIDIA H100 в цена/производительность в сентябре этого года.

Сандра Ривера, исполнительный вице-президент Intel, рассказала TMTpost в июле этого года, что одна компания не может доминировать на рынке ИИ-чипов. Потому что рынок нуждается в разнообразии, и клиенты также хотят, чтобы больше компаний-производителей чипов играли лидирующую роль в области искусственного интеллекта.

Генеральный директор Intel Пэт Гелсингер

В сентябре на конференции Intel On Technology Innovation, проходящей в Сан-Хосе, США, Гелсингер объявил, что ИИ-чип Gaudi 3, использующий 5-нм техпроцесс, будет запущен в следующем году. К тому времени его вычислительная мощность будет вдвое выше, чем у Gaudi 2. , а пропускная способность сети — HBM. Пропускная способность увеличится в 1,5 раза.

В то же время Гелсингер также представил масштабируемый серверный процессор Intel Xeon пятого поколения, заявив, что Xeon следующего поколения будет иметь 288 ядер, что, как ожидается, увеличит плотность размещения в стойке в 2,5 раза и производительность на ватт в 2,4 раза. Кроме того, Intel также выпустила Sierra Forest и Granite Rapids, которые, как ожидается, повысят производительность искусственного интеллекта в 2–3 раза по сравнению с Xeon четвертого поколения.

Главный технический директор Alibaba Cloud Чжоу Цзинжэнь сказал, что Alibaba использует процессоры Intel Xeon четвертого поколения для своих генеративных моделей искусственного интеллекта и больших языковых моделей, а именно «Большая модель Alibaba Cloud Tongyi Qianwen», а технология Intel значительно сократила время отклика модели, в среднем ускорение может достигать 3 раз.

Кроме того, для обучения крупных моделей ИИ более важным является экосистема программного обеспечения. Intel объявила о сотрудничестве с Arm для развертывания своих продуктов Xeon на процессорах Arm, а также запустила набор инструментов для вывода и развертывания искусственного интеллекта OpenVINO, который не только поддерживает предварительно обученные модели, но и должен быть написан только один раз для развертывания любых доступная ключевая кроссплатформенная поддержка, поддерживается модель Meta Llama 2.

В то же время Linux Foundation также объявил на этой неделе о создании Фонда унифицированного ускорения (UXL) для предоставления модели программирования ускорителей открытого стандарта, упрощающей разработку высокопроизводительных кроссплатформенных приложений. эволюция программы Intel oneAPI. В число учредителей входят Arm, Google Cloud, Intel, Qualcomm, Samsung и другие — Nvidia в их число не входит.

Ван Жуй, старший вице-президент корпорации Intel и председатель правления Intel China, рассказал TMTpost App и другим, что Intel выпустит процессор с 288 ядрами в будущем. В будущем центров обработки данных будет все больше и больше.Intel выпустит такие продукты, как Gaudi3 и Falcon Shores.Матрица продуктов сформирует дорожную карту для будущего развития ускорителей и вычислений на базе искусственного интеллекта.

"Мы встроили возможности искусственного интеллекта в чип. В соответствии с различными потребностями встроенные возможности искусственного интеллекта будут использовать разную вычислительную мощность и разные архитектуры для обеспечения поддержки", - сказал Ван Жуй, что касается центров обработки данных, от клиента до периферии. в облако, ИИ проник в различные сценарии применения: от крупномасштабного обучения языковой модели до мелкомасштабного инклюзивного обучения языковой модели, влияние ИИ ощущается повсюду.

В конце августа этого года Киссинджер заявил, что, по его мнению, Intel движется к достижению своих амбициозных целей по реструктуризации и движется к восстановлению своих лидирующих позиций в отрасли. Говоря о Nvidia, Гелсингер признал, что у Nvidia хорошая планировка и она может удовлетворить спрос на системы, необходимые для поддержки расширения программного обеспечения искусственного интеллекта, но он сказал, что Intel скоро начнет получать заказы на этих рынках чипов-ускорителей.

«Они проделали огромную работу, и мы все их хвалим. Но мы собираемся показать свою силу», — сказал Киссинджер.

Рыночная стоимость Nvidia упала на сотни миллиардов долларов. Смогут ли отечественные чипы воспользоваться этой возможностью?

Блестящие результаты Nvidia в 2023 году, похоже, ослабли за последние два месяца.

По данным Refinitiv, хотя цена акций Nvidia выросла примерно на 190% в этом году и ее результаты очень впечатляют, цена ее акций в сентябре показала плохие результаты: с 31 августа цена акций Nvidia упала более чем на 10%, а ее акции упали более чем на 10%. общая рыночная стоимость испарилась и составила более 176 миллиардов долларов.

**На самом деле, существует множество факторов, способствующих падению курса акций Nvidia. **

Во-первых, усилились опасения рынка по поводу того, что Федеральная резервная система будет дольше удерживать процентные ставки на более высоком уровне, чтобы сдержать инфляцию. и почти 4% на данный момент.

Во-вторых модели с открытым исходным кодом, представленные LIama 2, выпускались одна за другой, и все больше компаний начали использовать эти модели напрямую, требуя применения только микросхем вывода AI, что привело к снижению спроса на вычисления. чипы для силовых тренировок.

Наконец, согласно The Information, NVIDIA уделяет пристальное внимание поставкам видеокарт некоторым малым и средним компаниям облачных вычислений в США.В текущей ситуации «трудно найти карту» , NVIDIA очень обеспокоена поставками видеокарт крупным компаниям, таким как Google и Meta, а также китайским предприятиям.Последующие услуги и поставка видеокарт больше не кажутся главным приоритетом, и это напрямую ведет к рынку сомнения в возможностях поставок продукции Nvidia.

Конечно, несмотря на свои недостатки, NVIDIA имеет огромное преимущество первопроходца на рынке вычислительной мощности для искусственного интеллекта. Помимо высочайшей производительности графических процессоров, ее огромная экосистема программного обеспечения для искусственного интеллекта CUDA недоступна для многих людей. Кроме того, технология высокоскоростного соединения графических процессоров NVIDIA NVLink также стала «ключевым магическим оружием» для улучшения технологии больших моделей, и ее роль намного выше, чем сама карта графического процессора.

Основатель и генеральный директор Baichuan Intelligence Ван Сяочуань однажды упомянул, что в этой отрасли затраты на вычислительную мощность графического процессора составляют около 40–70%, а соотношение затрат на сетевое подключение и затрат на графическую карту составляет около 3:1.

«Если в будущем мы будем развивать более высокие модели, запас вычислительной мощности будет очень важен. С точки зрения обучения и рассуждения, для рассуждения требуются отечественные чипы искусственного интеллекта, а не только NVIDIA, но обучение в настоящее время лучше всего проводит только NVIDIA. Если бороться упорно, отечественные ИИ-чипы Китая должны быть в состоянии конкурировать», — сказал Ван Сяочуань.

**Фактически, в дополнение к двум крупным гигантам чипов, в условиях внутренней «войны 100 режимов», спрос на вычислительную мощность ИИ резко возрос. Однако многие чипы ИИ, такие как Nvidia AI00/H100, ограничили экспорт в Китай. что затрудняет отечественным компаниям получение высококачественных чипов из США. **

В октябре 2022 года Бюро промышленности и безопасности (BIS) при Министерстве торговли США издало новые правила экспортного контроля для количественной оценки вычислительной мощности различных чипов, пропускной способности, производственных процессов и других показателей, а также ограничения экспорта американских компаний в Китай, в том числе ограничения на чипы высокой вычислительной мощности, что напрямую влияет на развитие в Китае искусственного интеллекта, суперкомпьютеров, центров обработки данных и других смежных отраслей. NVIDIA, производитель графических процессоров (графических процессоров), который в основном удовлетворяет потребности искусственного интеллекта и других приложений, в августе получила уведомление от правительства США об ограничении экспорта передовых чипов.

Nvidia отреагировала быстро и запустила в производство чип A800 в третьем квартале 2022 года, чтобы заменить A100, который больше нельзя поставлять в Китай. Это также первый продукт «специального предложения», выпущенный американской компанией для этой цели. Nvidia не объявила подробные параметры A800. Однако руководство по продукту, предоставленное ее дилерами, показывает, что пиковая вычислительная мощность A800 соответствует A100, экспорт которого ограничен, но скорость передачи данных ограничена двумя третями A100 соответствует требованиям правительства США. Обучающая вычислительная мощность новейшего «China Special Edition» H800 примерно на 40% хуже, чем у H100. Без модуля межсоединения, предоставленного NVIDIA, разрыв в вычислительной мощности может достигать более 60%.

Intel выпустит китайскую версию своего продукта Gaudi 2 в июле 2023 года. Gaudi 2 — это микросхема ASIC (интегральная схема специального назначения), в основном предназначенная для высокопроизводительного обучения искусственному интеллекту с глубоким обучением. По сравнению с международной версией, анонсированной в мае 2022 года, количество встроенных портов Ethernet в китайской версии Gaudi 2 уменьшено с 24 до 21. В Intel тогда заявили, что это относительно незначительное изменение, оказывающее ограниченное влияние на фактическую производительность. Киссинджер недавно заявил, что компания в настоящее время продает китайскую версию «Гауди-2» в Китае, и он надеется продолжать делать это и в будущем.

**Таким образом, под влиянием ограничений на использование иностранных чипов отечественные компании, занимающиеся вычислительными мощностями искусственного интеллекта, такие как Huawei, Tianshu Zhixin, Cambrian и Denglin Technology, активно развертывают свои силы, чтобы заполнить вакансию в отечественных вычислительных мощностях искусственного интеллекта. **

В настоящее время внутренний рынок вычислительной мощности ИИ в основном разделен на три основные фракции: одна — это решения по вычислительной мощности Huawei Kunpeng и экосистемы Ascend AI, которая не предполагает участия графического процессора NVIDIA; другая — поддержка гибридной вычислительной мощности, которая использует большое количество чипов NVIDIA A100, а в некоторых средах добавляются чипы AMD, Intel, Tianshu Intelligent Core, Cambrian, Haiguang и другие для поддержки обучения больших моделей; в-третьих, для поддержки обучения больших моделей арендуются более экономичные серверные облачные вычислительные мощности. восполнить нехватку вычислительной мощности.

На 19-м летнем саммите Китайского форума предпринимателей Ябули 2023 года, состоявшемся в августе этого года, Лю Цинфэн, основатель и председатель iFlytek, заявил, что технические возможности графического процессора Huawei теперь эквивалентны Nvidia A100, и теперь он сравнивается с Nvidia A100.

20 сентября вице-председатель Huawei, поочередный председатель и финансовый директор Мэн Ваньчжоу заявил, что Huawei запустила вычислительный кластер Ascend AI с новой архитектурой, которая может поддерживать обучение больших моделей с более чем одним триллионом параметров. Huawei продолжит создавать прочную базу вычислительных мощностей.

Гай Луцзян, председатель и генеральный директор Tianshu Zhixin, сообщил, что в настоящее время многие отечественные компании, занимающиеся крупномасштабными моделями, начали использовать отечественные графические карты с графическим процессором, и компания поддержала завершение обучения крупномасштабных моделей с 7 миллиардами параметров. Кроме того, большинство других отечественных компаний, производящих графические процессоры, находятся на стадии обучения искусственному интеллекту.

Галуцзян считает, что в Китае доля рынка Nvidia в области обучения достигает более 95%, а некоторые достигают 99%, и она фактически достигла монополии.Это в основном связано с ее аппаратной архитектурой и широко используемой экосистемой CUDA. у него более 300 миллионов пользователей по всему миру. В настоящее время отечественные компании, производящие графические процессоры, сталкиваются с проблемами экологической миграции: из-за большого количества кодов на базе CUDA переход на новую экосистему потребует много времени и средств.

На недавнем круглом столе Ван Пин, соучредитель и главный архитектор Denglin Technology, отметил, что клиентам AIGC нужны не только такие решения, как генерация текста и изображений, но, что более важно, практичные продукты. Поэтому необходимо внедрять продукты вычислительной мощности с большой вычислительной мощностью и высокой универсальностью, чтобы создавать ценность для клиентов. Сообщается, что продукты AI-чипов нового поколения от Denglin Technology имеют более чем в три раза большее преимущество в энергопотреблении, чем основные международные продукты общего назначения с графическими процессорами.

Галуцзян сказал, что для Tianshu Zhixin следующим шагом является оптимизация итерации продукта, которая требует опираться на данные, отзывы клиентов и технологические инновации, а также вносить коррективы для удовлетворения особых внутренних потребностей. В то же время компания будет активно совершенствовать экосистему и набор программного обеспечения, чтобы пользователи получали наилучшие впечатления с точки зрения эффективности, стоимости, производительности и соотношения цены и качества, а также способствовали дальнейшей коммерциализации продуктов.

Ван Пин считает, что из-за возросшей сложности с получением высокопроизводительных чипов из США, хотя ни одна отечественная компания не может производить чипы, которые действительно могут их заменить, он считает, что отечественные вычислительные мощности будут продолжать расти. Чем больше пользователей и чем больше отзывов о проблемах, тем больше отечественных компаний, производящих чипы искусственного интеллекта, смогут улучшить и улучшить пользовательский опыт в последующих итерациях.

«Это отличная возможность для отечественных компаний, производящих графические процессоры общего назначения», — сказал Галуцзян TMTpost Media App.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить