China dan Amerika Serikat "mengepung dan menekan" Nvidia, sulit untuk mendominasi pasar chip AI bernilai triliunan dolar

Penulis: Lin Zhijia

Sumber: TMTpost Media

Saat Nvidia memimpin dalam menduduki pasar chip daya komputasi model besar AI, nilai pasarnya melebihi satu triliun. Pada saat yang sama, Intel, AMD, dan perusahaan chip GPU Tiongkok juga diam-diam bersaing, berharap mendapatkan pangsa pasar chip daya komputasi AI.

**Pada tanggal 19 September, di konferensi inovasi teknologi Intel On yang diadakan di San Jose, Amerika Serikat, **CEO Intel berusia 62 tahun Pat Gelsinger "penuh energi" dan memulai pidatonya dengan push-up.

Pada pertemuan ini, Gelsinger merilis serangkaian produk teknologi baru dalam satu tarikan napas: prosesor Intel Core Ultra berdasarkan proses Intel 4 (5nm), dengan nama kode "Meteor Lake"; mempratinjau chip server Xeon generasi kelima dan Roadmap produk Xeon berikutnya ; mengungkapkan chip AI 5nm Gaudi 3, dll.

CEO Intel Pat Gelsinger melakukan push-up di tempat

Dibandingkan dengan sesi sebelumnya, kali ini Kissinger "berubah menjadi seorang lelaki tua berbalut kulit" dan berbicara tentang peran kekuatan komputasi AI terhadap perekonomian selama hampir 2 jam. Menurut statistik Aplikasi TMTpost, Kissinger menyebutkan istilah yang terkait dengan "kecerdasan buatan" dan "pembelajaran mendalam" sekitar 200 kali dalam pidatonya.

Hampir pada saat yang sama, pesaing Intel dan Nvidia, AMD, merilis chip CPU (unit pemrosesan pusat) EPYC 8004 terbaru dan diperkirakan akan mengirimkan chip AI seri MI300 sebelum akhir tahun untuk bersaing dengan Nvidia. Selain itu, di Tiongkok, produsen chip AI termasuk Huawei dan Tianshu Zhixin juga secara aktif menerapkan inferensi pelatihan model besar dan produk daya komputasi AI.

“Kami bersaing sangat ketat dengan NVIDIA, pemimpin pasar dalam chip daya komputasi AI. Namun Gaudi2 dan Gaudi3 merupakan langkah maju yang besar dibandingkan mereka. Kami mendapatkan momentum, dan pasar mulai menyadari bahwa mereka adalah salah satu pemimpin dalam AI. ​industri chip Ada peluang lain,” kata Kissinger kepada CNBC pada 20 September.

Persaingan pasar semakin ketat, dan sulit bagi "Huang Tua" untuk memonopoli triliunan daya komputasi AI

Mulai tahun 2023 hingga sekarang, "kegemaran" model besar AI yang diwakili oleh ChatGPT telah melanda dunia, dan model besar mendorong pengembangan AI ke arah yang lebih umum.

Pada saat yang sama, kelangkaan dan biaya daya komputasi telah menjadi faktor utama yang menghambat pengembangan AI. Daya komputasi juga telah menjadi landasan penting dalam transformasi digital dan cerdas di seluruh masyarakat, sehingga mendorong lonjakan permintaan akan daya komputasi cerdas.

Menurut data yang diberikan oleh CEO AMD Lisa Su, total pasar potensial untuk akselerator AI pusat data global akan mencapai sekitar US$30 miliar pada tahun 2023, dan jumlah ini diperkirakan akan melebihi US$150 miliar pada tahun 2027 ((sekitar RMB 1,095 triliun), dengan tingkat pertumbuhan tahunan gabungan lebih dari 50%.

Manuvir Das, wakil presiden komputasi perusahaan di Nvidia, memberikan serangkaian data lain yang menunjukkan bahwa pasar potensial (TAM) untuk AI diperkirakan akan tumbuh hingga US$600 miliar. Diantaranya, chip dan sistem dapat memperoleh 300 miliar dolar AS, perangkat lunak AI generatif dapat memperoleh 150 miliar dolar AS, dan 150 miliar dolar AS lainnya akan disumbangkan oleh perangkat lunak perusahaan NVIDIA.

**Jelas, pasar chip daya komputasi AI adalah “kue” yang besar. **

Namun saat ini, NVIDIA menguasai 82% pasar akselerasi AI pusat data global, dan memonopoli pasar pelatihan AI global dengan 95% pangsa pasar, menjadi pemenang terbesar dalam putaran pertarungan AI ini. Huang Renxun dan perusahaan Nvidia-nya menghasilkan banyak uang, dengan nilai pasar lebih dari 1 triliun dolar AS.

Pada saat yang sama, lonjakan permintaan daya komputasi secara langsung menyebabkan GPU (unit pemrosesan grafis) NVIDIA "sulit ditemukan". Jumlah kartu grafis Nvidia A100 telah menjadi standar untuk mengukur daya komputasi suatu perusahaan.

**Faktanya, jika sebuah perusahaan ingin mengembangkan model besar untuk keperluan umum, pertama-tama perusahaan harus memperhatikan dua poin dalam hal daya komputasi: jumlah dan harga kartu grafis. **

**Diantaranya, dalam hal jumlah kartu grafis, **OpenAI menggunakan 10.000-30.000 GPU NVIDIA untuk melatih model GPT-3.5. Menurut laporan terbaru dari TrendForce, jika dihitung berdasarkan kekuatan pemrosesan kartu grafis NVIDIA A100, menjalankan ChatGPT mungkin memerlukan penggunaan 30.000 kartu grafis GPU NVIDIA. Selain itu, dalam hal model sumber terbuka, model Llama dilatih pada 2048 80GB A100s, dan seluruh daya komputasi pelatihan mendekati 2000 daya komputasi PTOPS.

Dari segi harga harga H800 yang saat ini tersedia di China sudah mencapai 200.000/buah, sedangkan harga A100/A800 naik menjadi sekitar 150.000 dan 100.000/buah. Mengambil contoh kebutuhan daya komputasi 2000P, GPU H800 memiliki daya komputasi satu kartu sebesar 2P dan memerlukan 1.000 kartu grafis. Perkiraan harga seluruh kartu adalah 200 juta yuan; daya komputasi satu kartu A800 sekitar 0,625P dan jumlah yang dibutuhkan adalah 3.200 kartu grafis.Perkiraan harga seluruh kartu grafis hingga 320 juta yuan.

Selain membeli kartu grafis GPU, server juga perlu mempertimbangkan konfigurasi dan perhitungan seluruh mesin, termasuk CPU, penyimpanan, koneksi komunikasi NV-Link, dll., serta faktor-faktor seperti konsumsi daya, sewa situs, dan biaya operasi dan pemeliharaan.

Saat ini, server A800 dan H800 sebagian besar merupakan model 8 kartu. Untuk memenuhi daya komputasi 2000 P, perlu mengkonfigurasi 125 server H800 8 kartu atau 400 server A800 8 kartu, dengan harga 300 juta yuan dan 560 juta yuan masing-masing Yuan. Terlebih lagi, karena H800 juga mendukung PCIe 5.0, CPU dan memori generasi baru, maka harganya perlu dinaikkan untuk mencapai performa komputasi yang optimal.

Oleh karena itu, dari perspektif pelatihan model besar, total biaya pembelian H800 lebih rendah dibandingkan A800, yang lebih hemat biaya dan lebih rendah daripada biaya pembuatan CPU.Inilah yang sering dikatakan oleh CEO Nvidia Jen-Hsun Huang baru-baru ini: "Semakin banyak Anda membeli, semakin hemat biayanya." , semakin banyak Anda berhemat.”

Tentu saja tidak masalah jika Anda benar-benar tidak mampu membelinya. NVIDIA juga dengan serius meluncurkan layanan penyewaan online, sistem komputasi super AI DGX, yang terbuka untuk perusahaan melalui penyewaan, dilengkapi dengan 8 GPU H100 atau A100, setiap node memiliki memori 640GB, dan sewa bulanan sebesar US$37.000, jadi tidak perlu membuat data sendiri. Pusat ini membeli kartu grafis GPU dalam jumlah besar. Jenis metode leasing ini memiliki margin laba kotor yang tinggi.Menurut laporan layanan "Cloud Computing Power Leasing" Microsoft, margin laba kotor bisnis ini mencapai 42%, menjadikannya "sapi perah" baru bagi Microsoft .

Di pasar domestik, InBev Digital, SenseTime AIDC dan lebih dari 11 pusat komputasi cerdas/vendor cloud lainnya juga menyediakan layanan serupa.Untuk model besar, harga keseluruhannya lebih rendah 20% dibandingkan harga buatan sendiri.

**Selain itu ada waktu pelatihan untuk model besar. **GPU NVIDIA L40S yang baru dirilis dari NVIDIA lebih efisien dalam pelatihan dibandingkan model A800/H800. Model dengan 7 miliar parameter membutuhkan waktu 17 jam untuk dijalankan pada HGX A800, sedangkan L40S 1,3 kali lebih cepat dan dapat dijalankan hanya dalam setengah hari. Belum lagi model dengan 175 miliar parameter dapat dilatih di akhir pekan dengan L40S. .

Secara umum, jika sebuah perusahaan ingin membangun model besar, perusahaan tersebut perlu mengeluarkan ratusan juta yuan untuk biaya daya komputasi, dan ini hanyalah "tiket".

Sebelumnya diberitakan, Baidu, Bytedance, Tencent, dan Alibaba telah memesan chip senilai US$5 miliar dari Nvidia.Menambahkan jumlah kartu grafis yang sebelumnya ditimbun, jumlah total kartu grafis GPU Nvidia di China melebihi 100 miliar yuan. Organisasi riset pasar Counterpoint merilis laporan yang menyatakan bahwa meskipun terjadi penurunan siklus dalam industri semikonduktor, perusahaan Tiongkok seperti Tencent dan Baidu masih membeli chip Nvidia A800 dalam jumlah besar.

**Jadi, di pasar penting dengan tingkat triliunan ini, baik perusahaan chip maupun pelanggan hilir tidak ingin melihat "NVIDIA" mendominasi. Oleh karena itu, AMD, Intel, dan perusahaan chip GPU Tiongkok berusaha menantang dominasi Nvidia di pasar chip AI. **

**AMD menyerang lebih dulu. **

Dalam hal chip AI, pada Consumer Electronics Show (CES) 2023 pada bulan Januari tahun ini, Chairman dan CEO AMD Lisa Su secara resmi merilis produk APU (accelerated processor) generasi berikutnya, Instinct MI300 untuk pusat data, menggunakan gabungan TSMC 5nm + 6nm. Desain arsitektur chiplet, CPU dan GPU terintegrasi, dengan 13 chip kecil, dengan jumlah transistor hingga 146 miliar, performa AI dan performa per watt 8 kali lipat dan 5 kali lipat dari MI250 generasi sebelumnya (menggunakan uji benchmark sparsity FP8), akan diproduksi massal dan dipasok pada paruh kedua tahun 2023.

Kemudian pada bulan Juni, AMD juga mengumumkan chip akselerasi AI baru, Instinct MI300X, Instinct MI300A, dan produk lain yang dibuat khusus untuk AI generatif dengan 153 miliar transistor, yang telah ditingkatkan dalam hal kapasitas penyimpanan dan bandwidth interkoneksi.MI300X memiliki lebih banyak transistor dibandingkan H100. Memori bandwidth tinggi HBM3 2,4 kali lipat dari H100. Model besar dengan 80 miliar parameter dapat dijalankan pada satu chip dan diperkirakan akan dikirimkan sebelum akhir tahun ini.

Hal ini tidak hanya menunjukkan sepenuhnya kemampuan teknologi AI pusat data setelah akuisisi Xilinx, namun juga menantang dominasi Nvidia dalam chip komputasi AI.

Tentu saja, bukan hanya GPU dan chip AI, keahlian terbaik AMD adalah membuat chip CPU (unit pemrosesan pusat), lagipula, pusat data memerlukan daya komputasi umum dari CPU. Pada November tahun lalu, AMD merilis pusat data generasi keempat seri EPYC 9004 yang menggunakan arsitektur Zen 4 dengan kode nama "Genoa".Tidak hanya peningkatan arsitektur, Su Zifeng juga menumpuk material pada chip ini secara ekstrim: proses TSMC 5nm , 96 core, 192 thread, cache L3 384M, dan mendukung PCle5.0.

Dibandingkan dengan prosesor delapan inti Intel, pusat data AMD dan seri CPU komputasi tepi telah meningkat pesat dalam hal konsumsi energi dan kinerja, termasuk pengurangan 40% pada area chip Genoa dan peningkatan efisiensi energi sebesar 48%.

Pada bulan September tahun ini, AMD meluncurkan seri EPYC 8004 generasi keempat terbaru, memperkenalkan inti "Zen 4c" ke dalam CPU khusus, menyediakan layanan mulai dari edge cerdas (seperti ritel, manufaktur, dan telekomunikasi) hingga pusat data, komputasi awan, dan lainnya. bidang.

Faktanya, Amazon Cloud AWS merilis instance komputasi umum berdasarkan Genoa M7A. Hasil akhir menunjukkan bahwa kinerjanya meningkat sebesar 50% dibandingkan generasi sebelumnya. Dibandingkan dengan Intel generasi keempat versi Xeon Platinum Edition 8490H, kinerja Genoa dalam beberapa skenario aplikasi Peningkatannya 1,7-1,9 kali lipat, dan efisiensi energi secara keseluruhan meningkat 1,8 kali lipat.Ini sepenuhnya digunakan dalam bidang komputasi berkinerja tinggi seperti pemodelan keuangan, simulasi cuaca, serta penelitian dan pengembangan obat-obatan. Selain itu, dalam beban kerja gateway IoT Edge, server delapan inti terbaru yang didukung EPYC 8024P juga memberikan sekitar 1,8 kali total kinerja throughput per rak 8kW.

Secara keseluruhan, baik itu CPU, GPU, FPGA, prosesor pusat data DPU, atau alat tumpukan perangkat lunak sistem AMD ROCm, AMD siap dan "mengasah pedangnya" untuk menantang produk Nvidia.

**Sebagai raksasa chip yang telah berdiri selama lebih dari 60 tahun, Intel tidak ingin "menyerahkan pasar kepada pihak lain". **

Pada 11 Juli tahun ini, raksasa chip Intel Corporation (Intel) merilis chip AI Habana Gaudi2 untuk pasar Cina di Beijing, menggunakan proses 7nm yang dapat menjalankan model bahasa besar, mempercepat pelatihan dan inferensi AI, serta memiliki kinerja per watt sekitar 100% saat menjalankan ResNet-50. Ini 2 kali lipat dari NVIDIA A100, dan rasio harga/kinerjanya 40% lebih tinggi dibandingkan solusi berbasis NVIDIA di cloud AWS. Solusi ini diperkirakan akan melampaui H100 terbaru NVIDIA di tahun harga/kinerja pada bulan September tahun ini.

Sandra Rivera, wakil presiden eksekutif Intel, mengatakan kepada TMTpost pada bulan Juli tahun ini bahwa tidak mungkin satu perusahaan mendominasi pasar chip AI. Karena pasar membutuhkan keberagaman, dan pelanggan juga ingin melihat lebih banyak perusahaan chip mengambil peran kepemimpinan di bidang AI.

CEO Intel Pat Gelsinger

Pada bulan September, pada konferensi inovasi teknologi Intel On yang diadakan di San Jose, AS, Kissinger mengumumkan bahwa chip AI Gaudi 3 yang menggunakan proses 5nm akan diluncurkan tahun depan.Pada saat itu, kekuatan komputasinya akan menjadi dua kali lipat dari Gaudi 2 , dan bandwidth jaringannya, HBM Kapasitasnya akan menjadi 1,5 kali lipat.

Pada saat yang sama, Gelsinger juga meninjau prosesor server terukur Intel Xeon generasi kelima, mengatakan bahwa Xeon generasi berikutnya akan memiliki 288 inti, yang diharapkan dapat meningkatkan kepadatan rak sebesar 2,5 kali lipat dan kinerja per watt sebesar 2,4 kali lipat. Selain itu, Intel juga merilis Sierra Forest dan Granite Rapids yang diharapkan dapat meningkatkan kinerja AI sebesar 2 hingga 3 kali lipat dibandingkan Xeon generasi keempat.

Chief Technology Officer Alibaba Cloud Zhou Jingren mengatakan bahwa Alibaba menggunakan prosesor Intel Xeon generasi keempat untuk AI generatif dan model bahasa besarnya, yaitu "Alibaba Cloud Tongyi Qianwen Large Model", dan teknologi Intel telah secara signifikan mempersingkat waktu respons model, rata-rata akselerasinya bisa mencapai 3 kali lipat.

Selain itu, untuk pelatihan model besar AI, yang lebih penting adalah ekosistem perangkat lunak. Intel mengumumkan kerja samanya dengan Arm untuk menerapkan produk Xeon pada CPU Arm, dan juga meluncurkan rangkaian alat runtime inferensi dan penerapan AI OpenVINO, yang tidak hanya mendukung model yang telah dilatih sebelumnya, tetapi juga hanya perlu ditulis sekali untuk menerapkan model apa pun. tersedia dukungan lintas platform utama, model Llama 2 Meta telah didukung.

Pada saat yang sama, Linux Foundation juga mengumumkan minggu ini pembentukan Unified Acceleration (UXL) Foundation untuk menyediakan model pemrograman akselerator standar terbuka guna menyederhanakan pengembangan aplikasi lintas platform berkinerja tinggi. evolusi program Intel oneAPI. Anggota pendirinya antara lain Arm, Google Cloud, Intel, Qualcomm, Samsung, dan lainnya—Nvidia tidak termasuk di antara mereka.

Wang Rui, wakil presiden senior Intel Corporation dan ketua Intel China, mengatakan kepada TMTpost App dan lainnya bahwa Intel akan merilis prosesor dengan 288 core di masa depan. Akan ada lebih banyak pusat data di masa depan. Intel akan meluncurkan produk seperti Gaudi3 dan Falcon Shores. Matriks produk akan membentuk peta jalan untuk pengembangan akselerator dan komputasi AI di masa depan.

"Kami telah memasukkan kemampuan AI ke dalam chip. Sesuai dengan kebutuhan yang berbeda, kemampuan AI yang ada di dalamnya akan menggunakan daya komputasi yang berbeda dan arsitektur yang berbeda untuk memberikan dukungan. "Wang Rui mengatakan bahwa dalam hal pusat data, dari klien hingga edge hingga cloud, AI telah merambah ke berbagai skenario aplikasi; mulai dari pelatihan model bahasa skala besar hingga pelatihan model bahasa skala kecil dan inklusif, pengaruh AI ada di mana-mana.

Pada akhir Agustus tahun ini, Kissinger mengatakan bahwa dia yakin Intel sedang bergerak untuk mencapai tujuan restrukturisasi ambisiusnya dan bergerak menuju memulihkan posisi terdepannya di industri. Berbicara tentang Nvidia, Gelsinger mengakui bahwa Nvidia memiliki tata letak yang baik dan dapat memenuhi permintaan sistem yang diperlukan untuk mendukung perluasan perangkat lunak AI, namun ia mengatakan bahwa Intel akan segera mulai memenangkan pesanan di pasar chip akselerator tersebut.

"Mereka telah melakukan pekerjaan dengan baik, dan kami semua memuji mereka. Namun kami akan menunjukkan kekuatan kami," kata Kissinger.

Nilai pasar Nvidia telah menguap ratusan miliar dolar, bisakah chip dalam negeri memanfaatkan peluang ini?

Performa gemilang Nvidia di tahun 2023 nampaknya melemah dalam dua bulan terakhir.

Menurut data dari Refinitiv, meskipun harga saham Nvidia telah meningkat sekitar 190% tahun ini dan kinerjanya sangat mengesankan, harga sahamnya berkinerja buruk pada bulan September: Sejak 31 Agustus, harga saham Nvidia telah turun lebih dari 10%, dan harga sahamnya total nilai pasar telah menguap, lebih dari $176 miliar.

**Sebenarnya banyak faktor yang menyebabkan turunnya harga saham Nvidia. **

Pertama, kekhawatiran pasar terhadap Federal Reserve yang mempertahankan suku bunga pada tingkat yang lebih tinggi dalam jangka waktu yang lebih lama guna mengekang inflasi semakin meningkat. Seluruh pasar saham berada di bawah tekanan, dengan indeks S&P 500 turun rata-rata 0,7% pada bulan September dan hampir 4% sejauh ini.

**Kedua, **model open source yang diwakili oleh LIama 2 telah dirilis satu demi satu, dan semakin banyak perusahaan mulai menggunakan model ini secara langsung, sehingga hanya memerlukan chip inferensi AI untuk diterapkan, yang menyebabkan berkurangnya permintaan komputasi chip pelatihan kekuatan.

Terakhir, menurut The Information, NVIDIA telah memperhatikan dengan cermat pasokan kartu grafis ke beberapa perusahaan komputasi awan skala kecil dan menengah di Amerika Serikat. Dalam situasi "sulit menemukan kartu" saat ini. , NVIDIA sangat memperhatikan pasokan kartu grafis ke perusahaan besar seperti Google dan Meta, serta perusahaan China.Layanan tindak lanjut dan pasokan kartu grafis tampaknya tidak lagi menjadi prioritas utama, dan ini secara langsung mengarah ke pasar keraguan tentang kemampuan pasokan produk Nvidia.

Tentu saja, terlepas dari kekurangannya, NVIDIA memiliki keunggulan besar sebagai penggerak pertama di pasar kekuatan komputasi AI. Selain performa chip GPU yang unggul, ekosistem perangkat lunak AI yang besar, CUDA, berada di luar jangkauan banyak orang. Selain itu, teknologi interkoneksi GPU berkecepatan tinggi NVLink dari NVIDIA juga telah menjadi "senjata ajaib utama" untuk peningkatan teknologi model besar, dan perannya jauh lebih tinggi daripada kartu GPU itu sendiri.

Pendiri dan CEO Baichuan Intelligence Wang Xiaochuan pernah menyebutkan bahwa dalam industri ini, biaya daya komputasi GPU mencapai sekitar 40%-70%, dan rasio biaya koneksi jaringan dan biaya kartu grafis GPU adalah sekitar 3:1.

“Jika kita mengembangkan model yang lebih tinggi di masa depan, cadangan daya komputasi sangatlah penting. Dari perspektif pelatihan dan penalaran, penalaran memerlukan chip AI dalam negeri, bukan hanya NVIDIA, tetapi pelatihan saat ini hanya dilakukan paling baik oleh NVIDIA. berjuang keras, chip AI dalam negeri Tiongkok harus mampu bersaing." kata Wang Xiaochuan.

**Faktanya, selain dua raksasa chip besar, dengan "Perang 100-Mode" dalam negeri, permintaan daya komputasi AI telah melonjak. Namun, banyak chip AI seperti Nvidia AI00/H100 telah membatasi ekspor ke Tiongkok, sehingga semakin sulit bagi perusahaan dalam negeri untuk mendapatkan chip kelas atas dari Amerika Serikat. **

Pada bulan Oktober 2022, Biro Industri dan Keamanan (BIS) di bawah Departemen Perdagangan AS mengeluarkan peraturan kontrol ekspor baru untuk mengukur berbagai daya komputasi chip, bandwidth, proses manufaktur, dan indikator lainnya, serta membatasi ekspor perusahaan AS ke Tiongkok, termasuk pembatasan pada chip daya komputasi tinggi. , berdampak langsung pada pengembangan AI, superkomputer, pusat data, dan industri terkait lainnya di Tiongkok. NVIDIA, produsen GPU (prosesor grafis) yang terutama memenuhi kebutuhan AI dan aplikasi lainnya, menerima pemberitahuan dari pemerintah AS pada bulan Agustus untuk membatasi ekspor chip canggih.

Nvidia merespons dengan cepat dan mulai memproduksi chip A800 pada kuartal ketiga tahun 2022 untuk menggantikan A100 yang tidak lagi dapat dikirim ke China. Ini juga merupakan produk "penawaran khusus" pertama yang diluncurkan oleh perusahaan Amerika untuk tujuan ini. Nvidia belum mengumumkan parameter rinci dari A800. Namun, manual produk yang disediakan oleh dealernya menunjukkan bahwa daya komputasi puncak A800 konsisten dengan A100 yang dibatasi untuk ekspor, namun tingkat transmisi dibatasi hingga dua pertiga dari A100 untuk mematuhi persyaratan pemerintah AS yang relevan. Kekuatan komputasi pelatihan H800 "Edisi Khusus China" terbaru sekitar 40% lebih buruk dibandingkan H100.Tanpa modul interkoneksi yang disediakan oleh NVIDIA, kesenjangan daya komputasi dapat mencapai lebih dari 60%.

Intel akan meluncurkan produk Gaudi 2 versi China pada Juli 2023. Gaudi 2 adalah chip ASIC (Sirkuit Terpadu Khusus Aplikasi) yang dirancang khusus untuk pelatihan AI pembelajaran mendalam berkinerja tinggi. Dibandingkan dengan versi internasional yang diumumkan pada Mei 2022, jumlah port Ethernet terintegrasi di Gaudi 2 versi Tiongkok telah dikurangi dari 24 menjadi 21. Intel mengatakan pada saat itu bahwa ini adalah perubahan yang relatif kecil dengan dampak terbatas pada kinerja sebenarnya. Kissinger baru-baru ini menyatakan bahwa perusahaannya saat ini menjual Gaudi 2 versi China di China, dan dia berharap untuk terus melakukannya di masa depan.

**Jadi, di bawah pengaruh pembatasan chip asing, perusahaan tenaga komputasi AI dalam negeri seperti Huawei, Tianshu Zhixin, Cambrian, dan Denglin Technology secara aktif berupaya untuk mengisi kesenjangan daya komputasi AI dalam negeri. **

Saat ini, pasar daya komputasi AI domestik terutama dibagi menjadi tiga faksi besar: satu adalah solusi daya komputasi dari ekosistem Huawei Kunpeng dan Ascend AI, yang tidak melibatkan partisipasi GPU NVIDIA; yang lainnya adalah dukungan daya komputasi hybrid, yang menggunakan sejumlah besar chip NVIDIA A100 dan Di beberapa lingkungan, AMD, Intel, Tianshu Intelligent Core, Cambrian, Haiguang dan chip lainnya ditambahkan untuk mendukung pelatihan model besar; ketiga, daya komputasi awan server yang lebih hemat biaya disewakan ke melengkapi kekurangan daya komputasi.

Pada KTT Musim Panas ke-19 Forum Pengusaha Yabuli China 2023 yang diadakan pada bulan Agustus tahun ini, Liu Qingfeng, pendiri dan ketua iFlytek, mengatakan bahwa kemampuan teknis GPU Huawei kini setara dengan Nvidia A100, dan kini telah dibandingkan dengan Nvidia A100.

Pada tanggal 20 September, Vice Chairman, Rotating Chairman, dan CFO Huawei Meng Wanzhou mengatakan bahwa Huawei meluncurkan cluster komputasi Ascend AI dengan arsitektur baru yang dapat mendukung pelatihan model besar dengan lebih dari satu triliun parameter. Huawei akan terus membangun basis kekuatan komputasi yang kokoh.

Gai Lujiang, ketua dan CEO Tianshu Zhixin, mengungkapkan bahwa saat ini, banyak perusahaan model skala besar dalam negeri telah mulai menggunakan kartu grafis GPU dalam negeri, dan perusahaan telah mendukung penyelesaian pelatihan model skala besar dengan 7 miliar parameter. Selain itu, sebagian besar perusahaan GPU dalam negeri lainnya sedang dalam tahap pelatihan inferensi AI.

Galujiang percaya bahwa di Tiongkok, pangsa pasar Nvidia di bidang pelatihan mencapai lebih dari 95%, bahkan ada yang mencapai 99%, dan pada dasarnya telah mencapai monopoli.Hal ini terutama disebabkan oleh arsitektur perangkat kerasnya dan ekosistem CUDA yang banyak digunakan - ia memiliki lebih dari 300 juta pengguna global. Saat ini, perusahaan GPU dalam negeri menghadapi masalah migrasi ekologis.Karena banyaknya kode berbasis CUDA, peralihan ke ekosistem baru akan membutuhkan banyak waktu dan biaya.

Pada acara meja bundar baru-baru ini, Wang Ping, salah satu pendiri dan kepala arsitek Denglin Technology, menyebutkan bahwa bagi pelanggan AIGC, mereka tidak hanya membutuhkan solusi seperti pembuatan teks dan pembuatan gambar, namun yang lebih penting, produk praktis. Oleh karena itu, perlu diterapkan produk daya komputasi dengan daya komputasi besar dan fleksibilitas yang kuat untuk menciptakan nilai bagi pelanggan. Dilaporkan bahwa produk chip AI generasi baru dari Denglin Technology memiliki keunggulan konsumsi energi lebih dari tiga kali lipat dibandingkan produk GPU umum internasional.

Galujiang mengatakan bahwa untuk Tianshu Zhixin, langkah selanjutnya adalah mengoptimalkan iterasi produk, yang memerlukan ketergantungan pada data, umpan balik pelanggan, dan inovasi teknologi, serta melakukan penyesuaian untuk memenuhi kebutuhan khusus dalam negeri. Pada saat yang sama, perusahaan akan secara aktif meningkatkan ekosistem dan tumpukan perangkat lunak untuk memastikan bahwa pengguna mendapatkan pengalaman terbaik dalam hal efisiensi, biaya, kinerja, dan rasio harga-kinerja, sehingga dapat mendorong komersialisasi produk lebih lanjut.

Wang Ping percaya bahwa karena semakin sulitnya mendapatkan chip kelas atas dari Amerika Serikat, meskipun tidak ada perusahaan dalam negeri yang dapat memproduksi chip yang benar-benar dapat menggantikannya, dia yakin bahwa kekuatan komputasi dalam negeri akan terus tumbuh. Chip perlu terus diiterasi. Semakin banyak pengguna dan semakin banyak masukan masalah, semakin banyak perusahaan chip AI dalam negeri yang dapat meningkatkan dan menyempurnakan pengalaman pengguna pada iterasi berikutnya.

“Ini adalah peluang besar bagi perusahaan GPU tujuan umum dalam negeri,” kata Galujiang kepada TMTpost Media App.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)