Çin ve ABD Nvidia'yı "kuşatıyor ve bastırıyor", trilyon dolarlık AI çip pazarına hakim olmak zor

Yazar: Lin Zhijia

Kaynak: TMTpost Medya

Nvidia, AI büyük model bilgi işlem güç çipi pazarını işgal etmede liderliği ele alırken, bir trilyonu aşan bir piyasa değerine sahip. Aynı zamanda Intel, AMD ve Çinli GPU çip şirketleri de yapay zeka hesaplama güç çipi pazarından pay almayı umarak gizlice rekabet ediyor.

**19 Eylül'de Amerika Birleşik Devletleri'nin San Jose kentinde düzenlenen Intel On teknoloji inovasyon konferansında **62 yaşındaki Intel CEO'su Pat Gelsinger "enerji doluydu" ve konuşmasına şınavla başladı.

Bu toplantıda Gelsinger, bir nefeste bir dizi yeni teknoloji ürününü piyasaya sürdü: "Meteor Lake" kod adlı Intel 4 (5nm) işlemine dayanan Intel Core Ultra işlemci; beşinci nesil Xeon sunucu çipinin ve sonraki Xeon ürünlerinin Yol Haritasının ön izlemesini yaptı ; 5nm AI çipi Gaudi 3 vb. açıklandı.

Intel CEO'su Pat Gelsinger yerinde şınav çekiyor

Önceki oturumlarla karşılaştırıldığında bu sefer Kissinger "deri giyimli yaşlı bir adama dönüştü" ve yaklaşık 2 saat boyunca yapay zeka hesaplama gücünün ekonomi üzerindeki rolünden bahsetti. TMTpost App istatistiklerine göre Kissinger, bu konuşmasında "yapay zeka" ve "derin öğrenme" ile ilgili terimlerden yaklaşık 200 kez bahsetti.

Hemen hemen aynı sıralarda, Intel ve Nvidia'nın rakibi AMD, en yeni EPYC 8004 CPU (merkezi işlem birimi) yongasını piyasaya sürdü ve Nvidia ile rekabet edebilmek için MI300 serisi AI yongalarını yıl sonundan önce piyasaya sürmesi bekleniyor. Ayrıca Çin'de Huawei ve Tianshu Zhixin gibi yapay zeka çip üreticileri de aktif olarak büyük model eğitim çıkarımı ve yapay zeka bilgi işlem gücü ürünlerini kullanıyor.

"Yapay zeka hesaplama güç çiplerinde pazar lideri olan NVIDIA ile çok sıkı rekabet ediyoruz. Ancak hem Gaudi2 hem de Gaudi3 onlardan ileriye doğru büyük bir adım. İvme kazanıyoruz ve pazar, yapay zekanın liderleri arasında olduğunu fark etmeye başlıyor. Çip endüstrisi Başka bir fırsat daha var" dedi Kissinger 20 Eylül'de CNBC'ye.

Pazar rekabeti yoğunlaşıyor ve "İhtiyar Huang"ın trilyonlarca yapay zeka bilgi işlem gücünü tekeline alması zorlaşıyor

2023'ten bu yana, ChatGPT tarafından temsil edilen yapay zeka büyük modellerinin "çılgınlığı" dünyayı kasıp kavurdu ve büyük modeller, yapay zekanın daha genel bir yönde gelişimini teşvik ediyor.

Aynı zamanda, bilgi işlem gücünün kıtlığı ve masrafı, yapay zekanın gelişimini kısıtlayan temel faktörler haline geldi. Bilgi işlem gücü aynı zamanda tüm toplumun dijital ve akıllı dönüşümünün önemli bir temel taşı haline geldi ve bu da akıllı bilgi işlem gücüne olan talebin artmasına neden oldu.

AMD CEO'su Lisa Su tarafından sağlanan verilere göre, küresel veri merkezi yapay zeka hızlandırıcılarının toplam potansiyel pazarı 2023'te yaklaşık 30 milyar ABD dolarına ulaşacak ve bu rakamın 2027 itibarıyla 150 milyar ABD dolarını (yaklaşık 1,095 trilyon RMB) aşması bekleniyor. yıllık bileşik büyüme oranı %50'nin üzerindedir.

Nvidia'nın kurumsal bilgi işlemden sorumlu başkan yardımcısı Manuvir Das, yapay zeka için potansiyel pazarın (TAM) 600 milyar ABD dolarına çıkmasının beklendiğini gösteren başka bir veri seti verdi. Bunlardan çipler ve sistemler 300 milyar ABD doları, üretken yapay zeka yazılımı 150 milyar ABD doları, geri kalan 150 milyar ABD doları ise NVIDIA kurumsal yazılımı tarafından sağlanacak.

**Açıkçası, AI bilgi işlem güç çipi pazarı büyük bir "pasta". **

Ancak şu anda NVIDIA, küresel veri merkezi yapay zeka hızlandırma pazarının %82'sini elinde tutuyor ve küresel yapay zeka eğitim pazarını %95 pazar payıyla tekeline alarak bu yapay zeka mücadelesinin en büyük kazananı oluyor. Huang Renxun ve Nvidia şirketi, piyasa değeri 1 trilyon ABD dolarından fazla olan çok para kazanıyor.

Aynı zamanda, bilgi işlem gücü talebindeki artış, doğrudan NVIDIA GPU'nun (grafik işlem birimi) "bulunmasının zor" olmasına neden oldu. Nvidia A100 grafik kartlarının sayısı, bir şirketin bilgi işlem gücünü ölçmek için bir standart haline geldi.

**Aslında bir firma genel amaçlı büyük bir model geliştirmek istiyorsa öncelikle hesaplama gücü açısından iki noktaya dikkat etmesi gerekiyor: Ekran kartlarının sayısı ve fiyatı. **

**Bunların arasında grafik kartı sayısı açısından **OpenAI, GPT-3.5 modelini eğitmek için 10.000-30.000 NVIDIA GPU kullanıyor. TrendForce'un son raporuna göre, NVIDIA A100 grafik kartlarının işlem gücü temel alınarak hesaplanırsa ChatGPT'yi çalıştırmak 30.000 NVIDIA GPU grafik kartının kullanılmasını gerektirebilir. Ayrıca açık kaynak modeller açısından bakıldığında Llama modeli 2048 adet 80GB A100 üzerinde eğitilmektedir ve eğitim hesaplama gücünün tamamı 2000 PTOPS hesaplama gücüne yakındır.

Fiyat açısından bakıldığında, şu anda Çin'de mevcut olan H800'ün fiyatı 200.000/adet gibi yüksek bir seviyeye ulaşırken, A100/A800'ün fiyatı 150.000 ve 100.000/adet civarına yükseldi. Örnek olarak 2000P bilgi işlem gücü gereksinimini ele alırsak, H800 GPU'nun tek kart bilgi işlem gücü 2P'dir ve 1.000 grafik kartı gerektirir. Kartın tamamının tahmini fiyatı 200 milyon yuandır; A800 tek kart bilgi işlem gücü yaklaşık 0,625P'dir ve gerekli miktar 3.200 grafik kartıdır.Tüm grafik kartının tahmini fiyatı 320 milyon yuan'a kadardır.

Sunucunun, GPU grafik kartı satın almanın yanı sıra CPU, depolama, NV-Link iletişim bağlantıları vb. dahil olmak üzere tüm makinenin yapılandırmasını ve hesaplamasını ve ayrıca güç tüketimi, site kiralama, site kiralama gibi faktörleri de dikkate alması gerekir. ve işletme ve bakım maliyetleri.

Şu anda, A800 ve H800 sunucuları çoğunlukla 8 kartlı modellerdir. 2000 P'nin bilgi işlem gücünü karşılamak için, 300 milyon yuan fiyatlarla 125 adet 8 kartlı H800 sunucu veya 400 adet 8 kartlı A800 sunucu yapılandırmak gerekir. ve sırasıyla 560 milyon yuan. Üstelik H800 aynı zamanda yeni nesil CPU ve bellek olan PCIe 5.0'ı da desteklediğinden, optimum bilgi işlem performansına ulaşmak için fiyatın artırılması gerekiyor.

Bu nedenle, büyük model eğitimi açısından bakıldığında, H800'ü satın almanın toplam maliyeti A800'den daha düşük, bu da daha uygun maliyetli ve CPU oluşturma maliyetinden daha düşük. Nvidia CEO'su Jen-Hsun Huang'ın sık sık söylediği şey bu. yakın zamanda: "Ne kadar çok satın alırsanız, o kadar uygun maliyetli olur.", o kadar çok tasarruf edersiniz."

Tabii ki, gerçekten karşılayamıyorsanız önemli değil. NVIDIA ayrıca, kiralama yoluyla işletmelere açık olan DGX süper yapay zeka bilgi işlem sistemi adlı çevrimiçi kiralama hizmetini de düşünceli bir şekilde başlattı. 8 H100 veya A100 GPU ile donatılmıştır, her düğümde 640 GB bellek vardır ve aylık kirası 37.000 ABD dolarıdır. yani kendi verilerinizi oluşturmanıza gerek yok Merkez çok sayıda GPU grafik kartı satın alıyor. Bu tür kiralama yönteminin brüt kar marjı yüksektir.Microsoft'un "Bulut Bilişim Güç Kiralama" hizmeti hakkında hazırlanan bir rapora göre, bu işin brüt kar marjı %42'ye kadar ulaşarak Microsoft için yeni bir "nakit ineği" haline geliyor. .

İç pazarda InBev Digital, SenseTime AIDC ve 11'den fazla akıllı bilgi işlem merkezi/bulut satıcısı da benzer hizmetler sağlıyor.Büyük modeller için genel fiyat, kendi ürettiği fiyattan %20 daha düşük.

**Ayrıca büyük modeller için eğitim süresi bulunmaktadır. **NVIDIA'nın yeni çıkan NVIDIA L40S GPU'su eğitim açısından A800/H800 modelinden daha verimlidir. 7 milyar parametreli bir modelin HGX A800 üzerinde çalışması 17 saat sürerken, L40S 1,3 kat daha hızlı ve yarım günde çalıştırılabiliyor. 175 milyar parametreli bir modelin ise L40S ile bir hafta sonu eğitilebildiğini belirtelim. .

Genel olarak, eğer bir şirket büyük bir model oluşturmak istiyorsa, bilgi işlem gücü maliyetlerine yüz milyonlarca yuan harcaması gerekecektir ve bu sadece bir "bilet"tir.

Daha önce Baidu, Bytedance, Tencent ve Alibaba'nın Nvidia'dan 5 milyar ABD doları değerinde çip siparişi verdiği bildirilmişti.Daha önce biriktirilen grafik kartlarının sayısı da eklendiğinde, Çin'deki toplam Nvidia GPU grafik kartı sayısı 100 milyar yuan'ı aşıyor. Pazar araştırma kuruluşu Counterpoint, yarı iletken endüstrisindeki döngüsel gerilemeye rağmen Tencent ve Baidu gibi Çinli şirketlerin hala büyük miktarlarda Nvidia A800 yongaları satın aldığını belirten bir rapor yayınladı.

**Dolayısıyla trilyon düzeyindeki böylesine önemli bir pazarda, ne çip şirketleri ne de alt müşteriler "NVIDIA"nın hakimiyetini görmek istemez. Bu nedenle AMD, Intel ve Çin GPU çip şirketleri, Nvidia'nın AI çip pazarındaki hakimiyetine meydan okumaya çalıştı. **

**Önce AMD vuruyor. **

Yapay zeka çipleri açısından, bu yılın Ocak ayındaki 2023 Tüketici Elektroniği Fuarı'nda (CES), AMD Başkanı ve CEO'su Lisa Su, TSMC 5 nm + 6 nm'nin birleşimini kullanan veri merkezleri için yeni nesil APU (hızlandırılmış işlemci) ürünü Instinct MI300'ü resmi olarak piyasaya sürdü. Chiplet mimari tasarımı, entegre CPU ve GPU, 13 küçük çip, 146 milyara kadar transistör sayısı, AI performansı ve watt başına performans önceki nesil MI250'nin 8 katı ve 5 katıdır (seyrek FP8 kıyaslama testi kullanılarak), 2023 yılının ikinci yarısında seri üretilip tedarik edilecek.

Daha sonra Haziran ayında AMD, yeni AI hızlandırma yongaları Instinct MI300X, Instinct MI300A'nın yanı sıra depolama kapasitesi ve ara bağlantı bant genişliği açısından iyileştirilmiş, 153 milyar transistörlü üretken yapay zeka için özel olarak tasarlanmış diğer ürünleri de duyurdu.MI300X, H100 Twice ve HBM3'ten daha fazla transistöre sahiptir. yüksek bant genişlikli bellek H100'ünkinin 2,4 katıdır. Tek çip üzerinde çalıştırılabilen 80 milyar parametreli büyük modelin bu yıl sonundan önce teslim edilmesi bekleniyor.

Bu, yalnızca Xilinx'in satın alınmasından sonra veri merkezi yapay zeka teknolojisi yeteneklerini tam olarak göstermekle kalmıyor, aynı zamanda Nvidia'nın yapay zeka bilgi işlem çipleri üzerindeki hakimiyetini de zorluyor.

Elbette sadece GPU'lar ve AI çipleri değil. AMD'nin en iyi yaptığı şey CPU (merkezi işlem birimi) çipleri üretmek. Sonuçta veri merkezleri CPU'ların genel bilgi işlem gücüne ihtiyaç duyuyor. Geçen yılın Kasım ayında AMD, kod adı "Genoa" olan Zen 4 mimarisini kullanan dördüncü nesil veri merkezi EPYC 9004 serisini piyasaya sürdü. Su Zifeng yalnızca mimariyi yükseltmekle kalmadı, aynı zamanda bu çip üzerindeki malzemeleri de en uç noktalara kadar yığdı: TSMC 5nm süreci , 96 çekirdek, 192 iş parçacığı, 384M L3 önbellek ve PCle5.0'ı destekler.

Intel'in sekiz çekirdekli işlemcileriyle karşılaştırıldığında, AMD'nin veri merkezi ve uç bilgi işlem CPU serisi, Cenova çip alanında %40'lık bir azalma ve enerji verimliliğinde %48'lik bir iyileşme de dahil olmak üzere, enerji tüketimi ve performans açısından büyük ölçüde iyileşme gösterdi.

Bu yılın Eylül ayında AMD, akıllı uçlardan (perakende, üretim ve telekomünikasyon gibi) veri merkezlerine, bulut bilgi işlem ve diğerlerine kadar çeşitli hizmetler sağlayan "Zen 4c" çekirdeğini özel CPU'lara dahil eden en yeni dördüncü nesil EPYC 8004 serisini piyasaya sürdü. alanlar.

Aslında Amazon Cloud AWS, Cenova M7A'yı temel alan genel bir bilgi işlem örneği yayınladı. Nihai sonuçlar, performansın önceki nesle kıyasla %50 oranında arttığını gösterdi. Intel'in dördüncü nesil Xeon Platinum Edition 8490H sürümüyle karşılaştırıldığında, Cenova'nın performansı çoklu uygulama senaryolarında 1,7-1,9 kat iyileştirme ve genel enerji verimliliği 1,8 kat artırılmıştır.Finansal modelleme, hava durumu simülasyonu ve ilaç araştırma ve geliştirme gibi yüksek performanslı bilgi işlem alanlarında tamamen kullanılmaktadır. Ayrıca, IoT Edge ağ geçidi iş yükünde, en yeni sekiz çekirdekli EPYC 8024P destekli sunucu, 8kW raf başına yaklaşık 1,8 kat toplam üretim performansı sağlar.

Genel olarak, ister CPU, GPU, FPGA, DPU veri merkezi işlemcisi, ister yazılım yığını aracı AMD ROCm sistemi olsun, AMD, Nvidia ürünlerine meydan okumaya hazır ve "kılıcını keskinleştiriyor".

**Intel, 60 yılı aşkın süredir kurulmuş bir çip devi olarak "pazarı başkalarına bırakmak" istemiyor. **

Bu yıl 11 Temmuz'da çip devi Intel Corporation (Intel), 7nm'lik bir süreç kullanarak Pekin'deki Çin pazarı için AI çipi Habana Gaudi2'yi piyasaya sürdü. Bu çip, büyük dil modellerini çalıştırabilir, AI eğitimini ve çıkarımını hızlandırabilir ve yüksek performansa sahiptir. ResNet-50 çalıştırıldığında watt başına yaklaşık %100. NVIDIA A100'ün 2 katıdır ve AWS buluttaki NVIDIA tabanlı çözümlerden %40 daha yüksek fiyat/performans oranına sahiptir. NVIDIA'nın en yeni H100'ünü geçmesi bekleniyor. Bu yıl eylül ayında fiyat/performans.

Intel'in genel başkan yardımcısı Sandra Rivera, bu yılın temmuz ayında TMTpost'a verdiği demeçte, tek bir şirketin AI çip pazarına hakim olmasının imkansız olduğunu söyledi. Çünkü pazarın çeşitliliğe ihtiyacı var ve müşteriler de daha fazla çip şirketinin yapay zeka alanında liderlik rolü üstlendiğini görmek istiyor.

Intel CEO'su Pat Gelsinger

Eylül ayında ABD'nin San Jose kentinde düzenlenen Intel On teknoloji inovasyon konferansında Kissinger, 5nm sürecini kullanan yapay zeka çipi Gaudi 3'ün gelecek yıl piyasaya sürüleceğini ve o zamana kadar bilgi işlem gücünün Gaudi 2'nin iki katı olacağını duyurdu. ve ağ bant genişliği, HBM kapasitesinin 1,5 katı olacaktır.

Aynı zamanda Gelsinger, beşinci nesil Intel Xeon ölçeklenebilir sunucu işlemcisinin de önizlemesini yaptı ve yeni nesil Xeon'un 288 çekirdeğe sahip olacağını, bunun da raf yoğunluğunu 2,5 kat ve watt başına performansı 2,4 kat artırmasının beklendiğini söyledi. Ayrıca Intel, AI performansını dördüncü nesil Xeon'a kıyasla 2 ila 3 kat artırması beklenen Sierra Forest ve Granite Rapids'i de piyasaya sürdü.

Alibaba Bulut Baş Teknoloji Sorumlusu Zhou Jingren, Alibaba'nın üretken yapay zeka ve büyük dil modelleri olan "Alibaba Bulut Tongyi Qianwen Büyük Modeli" için dördüncü nesil Intel Xeon işlemcileri kullandığını ve Intel teknolojisinin, ortalama model yanıt süresini önemli ölçüde kısalttığını söyledi. hızlanma 3 katına ulaşabilir.

Ayrıca yapay zeka büyük model eğitimi için daha önemli olan şey yazılım ekosistemidir. Intel, Xeon ürünlerini Arm CPU'ya dağıtmak için Arm ile işbirliği yaptığını duyurdu ve aynı zamanda yalnızca önceden eğitilmiş modelleri desteklemekle kalmayıp aynı zamanda herhangi bir dağıtımı gerçekleştirmek için yalnızca bir kez yazılması gereken AI çıkarım ve dağıtım çalışma zamanı araç paketi OpenVINO'yu da piyasaya sürdü. mevcut anahtar platformlar arası destek, Meta'nın Llama 2 modeli desteklenmiştir.

Aynı zamanda, Linux Vakfı bu hafta, yüksek performanslı, platformlar arası uygulamaların geliştirilmesini basitleştirmek için açık standartlı bir hızlandırıcı programlama modeli sağlamak üzere Birleşik Hızlandırma (UXL) Vakfı'nın kurulduğunu da duyurdu. Intel oneAPI programının gelişimi. Kurucu üyeler arasında Arm, Google Cloud, Intel, Qualcomm, Samsung ve diğerleri yer alıyor; Nvidia bunların arasında değil.

Intel Corporation'ın kıdemli başkan yardımcısı ve Intel Çin'in başkanı Wang Rui, TMTpost App ve diğerlerine Intel'in gelecekte 288 çekirdekli bir işlemci çıkaracağını söyledi. Gelecekte daha fazla veri merkezi olacak. Intel, Gaudi3 ve Falcon Shores gibi ürünleri piyasaya sürecek. Ürün matrisi, gelecekteki hızlandırıcı ve yapay zeka hesaplama gelişimi için bir yol haritası oluşturacak.

"Çipin içine yapay zeka yetenekleri yerleştirdik. Yerleşik yapay zeka yetenekleri, farklı ihtiyaçlara göre destek sağlamak için farklı bilgi işlem gücü ve farklı mimariler kullanacak." Wang Rui, istemciden uca kadar veri merkezleri açısından bunu söyledi Yapay zeka, buluta kadar çeşitli uygulama senaryolarına nüfuz etmiştir; büyük ölçekli dil modeli eğitiminden küçük ölçekli, kapsayıcı dil modeli eğitimine kadar yapay zekanın etkisi her yerdedir.

Bu yılın ağustos ayının sonunda Kissinger, Intel'in iddialı yeniden yapılanma hedeflerine ulaşma ve sektördeki lider konumunu geri kazanma yolunda ilerlediğine inandığını söyledi. Nvidia hakkında konuşurken Gelsinger, Nvidia'nın iyi bir düzene sahip olduğunu ve yapay zeka yazılımının genişletilmesini desteklemek için gereken sistemlere olan talebi karşılayabildiğini kabul etti, ancak Intel'in yakında bu hızlandırıcı çip pazarlarında sipariş almaya başlayacağını söyledi.

Kissinger, "Harika bir iş çıkardılar ve hepimiz onları övüyoruz. Ama gücümüzü göstermek üzereyiz" dedi.

Nvidia'nın piyasa değeri yüz milyarlarca dolar buharlaştı. Yerli çipler bu fırsatı değerlendirebilir mi?

Nvidia'nın 2023'teki muhteşem performansı son iki ayda zayıflamış gibi görünüyor.

Refinitiv'in verilerine göre, Nvidia'nın hisse senedi fiyatı bu yıl yaklaşık %190 oranında artmasına ve performansı oldukça etkileyici olmasına rağmen, hisse senedi fiyatı Eylül ayında kötü performans gösterdi: 31 Ağustos'tan bu yana Nvidia'nın hisse senedi fiyatı %10'dan fazla düştü ve Nvidia'nın hisse senedi fiyatı %10'dan fazla düştü. toplam piyasa değeri buharlaştı: 176 milyar dolardan fazla.

**Aslında Nvidia'nın hisse senedi fiyatının düşmesine katkıda bulunan birçok faktör var. **

Öncelikle, Fed'in enflasyonu kontrol altına almak için faiz oranlarını daha uzun süre yüksek seviyelerde tutacağına ilişkin piyasa endişeleri yoğunlaştı. S&P 500 endeksinin Eylül ayında ortalama %0,7 düşmesiyle tüm borsa baskı altına girdi. ve şu ana kadar yaklaşık %4.

**İkinci olarak, **LIama 2 tarafından temsil edilen açık kaynaklı modeller birbiri ardına piyasaya sürüldü ve daha fazla şirket bu modelleri doğrudan kullanmaya başladı, yalnızca AI çıkarım çiplerinin uygulanması gerekti ve bu da bilgi işlem talebinde azalmaya yol açtı. güç antrenmanı çipleri.

Son olarak The Information'a göre NVIDIA, Amerika Birleşik Devletleri'ndeki bazı küçük ve orta ölçekli bulut bilişim şirketlerine grafik kartı tedariğine büyük önem veriyor. Mevcut "kart bulmanın zor" durumu altında. NVIDIA, Çin şirketlerinin yanı sıra Google ve Meta gibi büyük şirketlere de grafik kartı tedariği konusunda oldukça endişeli.Takip hizmetleri ve grafik kartı tedariği artık en önemli öncelik olarak görünmüyor ve bu da doğrudan pazara yol açıyor Nvidia'nın ürün tedarik yetenekleri hakkında şüpheler var.

Elbette kusurlarına rağmen NVIDIA'nın yapay zeka hesaplama gücü pazarında ilk hamle yapma avantajı çok büyük. Lider GPU çip performansının yanı sıra devasa yapay zeka yazılım ekosistemi CUDA da pek çok kişinin erişiminin ötesindedir. Ayrıca NVIDIA'nın NVLink yüksek hızlı GPU ara bağlantı teknolojisi de büyük model teknolojisinin geliştirilmesinde "anahtar sihirli silah" haline geldi ve rolü GPU kartının kendisinden çok daha yüksek.

Baichuan Intelligence'ın kurucusu ve CEO'su Wang Xiaochuan bir zamanlar bu sektörde GPU bilgi işlem gücü maliyetlerinin yaklaşık %40-70 oranında olduğunu ve ağ bağlantı maliyetleri ile GPU grafik kartı maliyetlerinin oranının yaklaşık 3:1 olduğunu belirtmişti.

"Gelecekte daha yüksek modellere doğru gelişirsek, bilgi işlem güç rezervi çok kritik bir öneme sahip. Eğitim ve akıl yürütme açısından bakıldığında, akıl yürütme yalnızca NVIDIA'yı değil, yerli yapay zeka çiplerini de gerektiriyor; eğitim şu anda en iyi şekilde yalnızca NVIDIA tarafından yapılıyor. Bu 'hesaplama Sıkı mücadele etmek için Çin'in yerli yapay zeka çiplerinin rekabet edebilmesi gerekiyor." Wang Xiaochuan dedi.

**Aslında iki büyük çip devine ek olarak yerli "100 Mod Savaşı" ile birlikte yapay zeka hesaplama gücüne olan talep de arttı. Ancak Nvidia AI00/H100 gibi birçok yapay zeka yongası Çin'e ihracatı kısıtladı, yerli şirketlerin ABD'den ileri teknoloji çipler almasını giderek zorlaştırıyor. **

Ekim 2022'de ABD Ticaret Bakanlığı'na bağlı Sanayi ve Güvenlik Bürosu (BIS), çeşitli çip hesaplama gücünü, bant genişliğini, üretim süreçlerini ve diğer göstergeleri ölçmek ve ABD şirketlerinin Çin'e ihracatını kısıtlamak için yeni ihracat kontrol düzenlemeleri yayınladı. Yüksek bilgi işlem gücüne sahip yongalara yönelik kısıtlamalar, Çin'in yapay zekasının, süper bilgi işleminin, veri merkezinin ve diğer ilgili endüstrilerin gelişimini doğrudan etkiliyor. Esas olarak yapay zeka ve diğer uygulamaların ihtiyaçlarını karşılayan bir GPU (grafik işlemcisi) üreticisi olan NVIDIA, Ağustos ayında ABD hükümetinden gelişmiş çiplerin ihracatını kısıtlamak için bir bildirim aldı.

Nvidia hızlı bir şekilde yanıt verdi ve artık Çin'e gönderilemeyen A100'ün yerine 2022'nin üçüncü çeyreğinde A800 yongasını üretime soktu. Bu aynı zamanda bir Amerikan firmasının bu amaçla piyasaya sürdüğü ilk "özel teklif" ürünüdür. Nvidia, A800'ün ayrıntılı parametrelerini açıklamadı ancak bayileri tarafından sağlanan ürün kılavuzu, A800'ün en yüksek bilgi işlem gücünün, ihracat için kısıtlanan A100 ile tutarlı olduğunu, ancak aktarım hızının üçte iki ile sınırlı olduğunu gösteriyor. A100'ün ABD'nin ilgili hükümet gerekliliklerine uyması. En yeni "Çin Özel Sürümü" H800'ün eğitim bilgi işlem gücü, H100'ünkinden yaklaşık %40 daha kötüdür. NVIDIA tarafından sağlanan ara bağlantı modülü olmadan, bilgi işlem güç açığı %60'ın üzerine çıkabilir.

Intel, Gaudi 2 ürününün Çince versiyonunu Temmuz 2023'te piyasaya sürecek. Gaudi 2, esas olarak yüksek performanslı derin öğrenme yapay zeka eğitimi için tasarlanmış bir ASIC (Uygulamaya Özel Entegre Devre) çipidir. Mayıs 2022'de duyurulan uluslararası versiyonla karşılaştırıldığında Gaudi 2'nin Çince versiyonundaki entegre Ethernet portlarının sayısı 24'ten 21'e düşürüldü. Intel o sırada bunun gerçek performans üzerinde sınırlı etkisi olan nispeten küçük bir değişiklik olduğunu söylemişti. Kissinger geçtiğimiz günlerde şirketin şu anda Çin'de Gaudi 2'nin Çince versiyonunu sattığını ve gelecekte de bunu sürdürmeyi umduğunu belirtti.

**Yabancı çip kısıtlamalarının etkisi altında, Huawei, Tianshu Zhixin, Cambrian ve Denglin Technology gibi yerli yapay zeka bilgi işlem gücü şirketleri, yerli yapay zeka bilgi işlem gücündeki boşluğu doldurmak için aktif olarak konuşlanıyor. **

Şu anda, yerel yapay zeka bilgi işlem gücü piyasası temel olarak üç ana gruba bölünmüş durumda: biri, NVIDIA GPU'nun katılımını gerektirmeyen Huawei Kunpeng ve Ascend yapay zeka ekosisteminin bilgi işlem gücü çözümü; diğeri ise hibrit bilgi işlem güç desteği. çok sayıda NVIDIA A100 yongası kullanır ve bazı ortamlarda büyük modellerin eğitimini desteklemek için AMD, Intel, Tianshu Intelligent Core, Cambrian, Haiguang ve diğer yongalar eklenir; üçüncüsü, daha uygun maliyetli sunucu bulut bilişim gücü kiralanır bilgi işlem gücü eksikliğini tamamlar.

Bu yıl ağustos ayında düzenlenen 2023 Yabuli Çin Girişimciler Forumu'nun 19. Yaz Zirvesi'nde iFlytek'in kurucusu ve başkanı Liu Qingfeng, Huawei'nin GPU teknik yeteneklerinin artık Nvidia A100'e eşdeğer olduğunu ve artık Nvidia A100 ile karşılaştırıldığını söyledi.

20 Eylül'de Huawei Başkan Yardımcısı, Dönüşümlü Başkan ve CFO Meng Wanzhou, Huawei'nin bir trilyondan fazla parametreyle büyük model eğitimini destekleyebilecek yeni bir mimariye sahip Ascend AI bilgi işlem kümesini başlattığını söyledi. Huawei sağlam bir bilgi işlem gücü tabanı oluşturmaya devam edecek.

Tianshu Zhixin Yönetim Kurulu Başkanı ve CEO'su Gai Lujiang, şu anda birçok yerli büyük ölçekli model firmanın yerli GPU grafik kartlarını kullanmaya başladığını, şirketin 7 milyar parametreli büyük ölçekli model eğitiminin tamamlanmasına destek verdiğini açıkladı. Ayrıca diğer yerli GPU şirketlerinin çoğu da yapay zeka çıkarımı eğitimi aşamasında.

Galujiang, Çin'de Nvidia'nın eğitim alanındaki pazar payının yüzde 95'ten fazla olduğuna, bazılarının yüzde 99'a ulaştığına ve temel olarak tekel elde ettiğine inanıyor. Bunun temel nedeni donanım mimarisi ve yaygın olarak kullanılan CUDA ekosistemi. 300 milyondan fazla küresel kullanıcısı var. Şu anda yerli GPU şirketleri ekolojik geçiş sorunlarıyla karşı karşıyadır ve CUDA tabanlı kodların çokluğu nedeniyle yeni bir ekosisteme geçiş çok fazla zaman ve maliyet gerektirecektir.

Yakın zamanda düzenlenen bir yuvarlak masa etkinliğinde Denglin Technology'nin kurucu ortağı ve baş mimarı Wang Ping, AIGC müşterilerinin yalnızca metin oluşturma ve görüntü oluşturma gibi çözümlere değil, daha da önemlisi pratik ürünlere ihtiyaç duyduklarını belirtti. Bu nedenle, müşteriler için değer yaratmak amacıyla büyük bilgi işlem gücüne ve güçlü çok yönlülüğe sahip bilgi işlem gücü ürünlerinin uygulanması gerekmektedir. Denglin Technology'nin yeni nesil AI çip ürünlerinin, uluslararası ana akım genel amaçlı GPU ürünlerine göre üç kattan fazla enerji tüketimi avantajına sahip olduğu bildiriliyor.

Galujiang, Tianshu Zhixin için bir sonraki adımın, verilere, müşteri geri bildirimlerine ve teknolojik yeniliğe güvenmeyi ve özel yerel ihtiyaçları karşılayacak ayarlamalar yapmayı gerektiren ürün yinelemesini optimize etmek olduğunu söyledi. Aynı zamanda şirket, ürünlerin daha fazla ticarileştirilmesini teşvik etmek amacıyla kullanıcıların verimlilik, maliyet, performans ve fiyat-performans oranı açısından en iyi deneyimi elde etmelerini sağlamak için ekosistemi ve yazılım yığınını aktif olarak geliştirecek.

Wang Ping, ABD'den üst düzey çipler elde etmedeki artan zorluk nedeniyle, hiçbir yerli şirketin bunların yerini alabilecek çipler üretememesine rağmen, yerli bilgi işlem gücünün artmaya devam edeceğine inanıyor. Çiplerin sürekli olarak yinelenmesi gerekiyor. Ne kadar çok kullanıcı varsa ve ne kadar çok sorun geri bildirimi varsa, yerli AI çip şirketleri sonraki yinelemelerde kullanıcı deneyimini o kadar iyileştirebilir ve geliştirebilir.

Galujiang, TMTpost Media App'e "Bu, yerli genel amaçlı GPU şirketleri için büyük bir fırsat" dedi.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Repost
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate App
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)