الصين والولايات المتحدة "تطوقان وتقمعان" إنفيديا، ومن الصعب السيطرة على سوق شرائح الذكاء الاصطناعي البالغة قيمتها تريليون دولار

المؤلف: لين زيجيا

المصدر: وسائل الإعلام TMTpost

نظرًا لأن Nvidia تأخذ زمام المبادرة في احتلال سوق شرائح الطاقة الحاسوبية ذات النماذج الكبيرة ذات الذكاء الاصطناعي، فإن قيمتها السوقية تتجاوز التريليون. في الوقت نفسه، تتنافس شركات Intel وAMD وشركات شرائح GPU الصينية سرًا أيضًا، على أمل الحصول على حصة في سوق شرائح الطاقة الحاسوبية التي تعمل بالذكاء الاصطناعي.

**في 19 سبتمبر، في مؤتمر Intel On للابتكار التكنولوجي الذي عقد في سان خوسيه بالولايات المتحدة، **كان الرئيس التنفيذي لشركة Intel البالغ من العمر 62 عامًا، بات جيلسنجر، "مليئًا بالطاقة" وبدأ خطابه بتمارين الضغط.

في هذا الاجتماع، أصدر جيلسنجر سلسلة من منتجات التكنولوجيا الجديدة في نفس واحد: معالج Intel Core Ultra المعتمد على عملية Intel 4 (5 نانومتر)، والذي يحمل الاسم الرمزي "Meteor Lake"؛ وقام بمعاينة شريحة خادم Xeon من الجيل الخامس وخريطة طريق منتجات Xeon اللاحقة ؛ تم الكشف عن شريحة 5nm AI لـ Gaudi 3 وما إلى ذلك.

الرئيس التنفيذي لشركة إنتل، بات جيلسنجر، يقوم بتمارين الضغط على الفور

ومقارنة بالجلسات السابقة، هذه المرة "تحول كيسنجر إلى رجل عجوز يرتدي ملابس جلدية" وتحدث عن دور قوة حوسبة الذكاء الاصطناعي في الاقتصاد لمدة ساعتين تقريبًا. ووفقا لإحصائيات تطبيق TMTpost، ذكر كيسنجر المصطلحات المتعلقة بـ "الذكاء الاصطناعي" و"التعلم العميق" حوالي 200 مرة في هذا الخطاب.

في نفس الوقت تقريبًا، أصدرت AMD المنافسة لشركة Intel وNvidia أحدث شريحة EPYC 8004 CPU (وحدة المعالجة المركزية) ومن المتوقع أن تشحن سلسلة MI300 من شرائح AI قبل نهاية العام للتنافس مع Nvidia. بالإضافة إلى ذلك، في الصين، تعمل الشركات المصنعة لرقائق الذكاء الاصطناعي بما في ذلك هواوي وتيانشو زيكسين أيضًا على نشر استدلال تدريبي كبير الحجم ومنتجات طاقة حوسبة الذكاء الاصطناعي.

"نحن نتنافس بشدة مع شركة NVIDIA، الشركة الرائدة في السوق في مجال رقائق الطاقة الحاسوبية ذات الذكاء الاصطناعي. لكن كلا من Gaudi2 وGaudi3 يتقدمان بخطوة كبيرة إلى الأمام. نحن نكتسب زخمًا، وبدأ السوق في إدراك ذلك بين الشركات الرائدة في مجال الذكاء الاصطناعي صناعة الرقائق هناك فرصة أخرى"، قال كيسنجر لشبكة CNBC في 20 سبتمبر.

اشتداد المنافسة في السوق، ومن الصعب على "أولد هوانغ" احتكار تريليونات من قوة حوسبة الذكاء الاصطناعي

من عام 2023 إلى الآن، اجتاح العالم "جنون" النماذج الكبيرة للذكاء الاصطناعي التي تمثلها ChatGPT، وتعمل النماذج الكبيرة على تعزيز تطوير الذكاء الاصطناعي في اتجاه أكثر عمومية.

وفي الوقت نفسه، أصبحت ندرة وتكلفة القوة الحاسوبية من العوامل الأساسية التي تحد من تطور الذكاء الاصطناعي. وأصبحت قوة الحوسبة أيضًا حجر الزاوية المهم في التحول الرقمي والذكي للمجتمع بأكمله، مما أدى إلى زيادة الطلب على قوة الحوسبة الذكية.

وفقًا للبيانات المقدمة من الرئيس التنفيذي لشركة AMD ليزا سو، سيصل إجمالي السوق المحتمل لمسرعات الذكاء الاصطناعي لمراكز البيانات العالمية إلى حوالي 30 مليار دولار أمريكي في عام 2023، ومن المتوقع أن يتجاوز هذا الرقم 150 مليار دولار أمريكي بحلول عام 2027 (حوالي 1.095 تريليون يوان صيني)، مع بمعدل نمو سنوي مركب يزيد عن 50%.

قدم مانوفير داس، نائب رئيس الحوسبة المؤسسية في Nvidia، مجموعة أخرى من البيانات التي توضح أنه من المتوقع أن ينمو السوق المحتمل (TAM) للذكاء الاصطناعي إلى 600 مليار دولار أمريكي. من بينها، يمكن أن تحصل الرقائق والأنظمة على 300 مليار دولار أمريكي، ويمكن أن تحصل برامج الذكاء الاصطناعي التوليدية على 150 مليار دولار أمريكي، وسيتم المساهمة بـ 150 مليار دولار أمريكي أخرى بواسطة برامج NVIDIA المؤسسية.

**من الواضح أن سوق شرائح الطاقة الحاسوبية القائمة على الذكاء الاصطناعي عبارة عن "كعكة" كبيرة. **

لكن حاليًا، تشغل NVIDIA 82% من سوق تسريع الذكاء الاصطناعي لمراكز البيانات العالمية، وتحتكر سوق تدريب الذكاء الاصطناعي العالمي بحصة سوقية تبلغ 95%، لتصبح الرابح الأكبر في هذه الجولة من صراع الذكاء الاصطناعي. يحقق Huang Renxun وشركته Nvidia أموالاً طائلة، حيث تبلغ قيمتها السوقية أكثر من تريليون دولار أمريكي.

في الوقت نفسه، أدى الارتفاع الكبير في الطلب على طاقة الحوسبة إلى "صعوبة العثور على وحدة معالجة الرسومات" NVIDIA GPU. أصبح عدد بطاقات الرسومات Nvidia A100 معيارًا لقياس قوة الحوسبة للشركة.

**في الواقع، إذا أرادت شركة ما تطوير نموذج كبير للأغراض العامة، فيجب عليها أولاً الانتباه إلى نقطتين من حيث قوة الحوسبة: عدد بطاقات الرسومات وسعرها. **

**من بينها، من حيث عدد بطاقات الرسومات، **يستخدم OpenAI ما بين 10,000 إلى 30,000 وحدة معالجة رسوميات NVIDIA لتدريب نموذج GPT-3.5. وفقًا لأحدث تقرير من TrendForce، إذا تم حسابه بناءً على قوة المعالجة لبطاقات الرسومات NVIDIA A100، فإن تشغيل ChatGPT قد يتطلب استخدام 30000 بطاقة رسومات NVIDIA GPU. بالإضافة إلى ذلك، فيما يتعلق بالنماذج مفتوحة المصدر، تم تدريب نموذج Llama على 2048 وحدة A100 بسعة 80 جيجابايت، وتقترب قوة الحوسبة التدريبية بالكامل من 2000 قوة حوسبة PTOPS.

من حيث السعر فقد وصل سعر H800 المتوفر حاليًا في الصين إلى 200.000 قطعة، بينما ارتفع سعر A100/A800 إلى حوالي 150.000 و100.000 قطعة. بأخذ متطلبات طاقة الحوسبة 2000P كمثال، تتمتع وحدة معالجة الرسومات H800 بقدرة حوسبة بطاقة واحدة تبلغ 2P وتتطلب 1000 بطاقة رسوميات، ويبلغ السعر المقدر للبطاقة بأكملها 200 مليون يوان، وتبلغ قوة الحوسبة للبطاقة الواحدة A800 حوالي 0.625P و الكمية المطلوبة هي 3200 بطاقة رسومية، ويصل السعر المقدر لكامل البطاقة الرسومية إلى 320 مليون يوان.

بالإضافة إلى شراء بطاقة رسومات GPU، يحتاج الخادم أيضًا إلى مراعاة تكوين الجهاز بأكمله وحسابه، بما في ذلك وحدة المعالجة المركزية والتخزين واتصالات اتصالات NV-Link وما إلى ذلك، بالإضافة إلى عوامل مثل استهلاك الطاقة واستئجار الموقع، وتكاليف التشغيل والصيانة.

في الوقت الحاضر، خوادم A800 وH800 هي بشكل أساسي نماذج ذات 8 بطاقات، ومن أجل تلبية قوة الحوسبة البالغة 2000P، من الضروري تكوين 125 خادم H800 ذو 8 بطاقات أو 400 خادم A800 ذو 8 بطاقات، بأسعار 300 مليون يوان. و560 مليون يوان على التوالي. علاوة على ذلك، نظرًا لأن H800 يدعم أيضًا PCIe 5.0، وهو جيل جديد من وحدات المعالجة المركزية والذاكرة، فيجب زيادة السعر لتحقيق أداء الحوسبة الأمثل.

لذلك، من منظور التدريب على النماذج الكبيرة، فإن التكلفة الإجمالية لشراء H800 أقل من تكلفة A800، وهي أكثر فعالية من حيث التكلفة وأقل من تكلفة بناء وحدة المعالجة المركزية، وهذا ما قاله جين هسون هوانغ، الرئيس التنفيذي لشركة Nvidia، في كثير من الأحيان. مؤخرًا: "كلما اشتريت أكثر، أصبحت أكثر فعالية من حيث التكلفة." , كلما وفرت أكثر.

وبطبيعة الحال، لا يهم إذا كنت حقا لا تستطيع تحمله. كما أطلقت NVIDIA بشكل مدروس خدمة التأجير عبر الإنترنت، وهي نظام الحوسبة DGX super AI، وهو مفتوح للمؤسسات من خلال التأجير، وهو مزود بـ 8 وحدات معالجة رسوميات H100 أو A100، ولكل عقدة ذاكرة 640 جيجابايت، ويبلغ الإيجار الشهري 37000 دولار أمريكي. لذلك ليس هناك حاجة لبناء بياناتك الخاصة، حيث يقوم المركز بشراء عدد كبير من بطاقات الرسوميات GPU. يتمتع هذا النوع من أساليب التأجير بإجمالي هامش ربح مرتفع، فوفقًا لتقرير حول خدمة "Cloud Computing Power Leasing" من مايكروسوفت، يصل هامش الربح الإجمالي لهذه الأعمال إلى 42%، مما يجعلها "بقرة حلوب" جديدة لمايكروسوفت .

وفي السوق المحلية، توفر InBev Digital وSenseTime AIDC وأكثر من 11 بائعًا آخر لمراكز الحوسبة الذكية/السحابة خدمات مماثلة. وبالنسبة للنماذج الكبيرة، يكون السعر الإجمالي أقل بنسبة 20% من السعر المبني ذاتيًا.

**بالإضافة إلى ذلك، هناك وقت تدريب للنماذج الكبيرة. **تعد وحدة معالجة الرسومات NVIDIA L40S التي تم إصدارها حديثًا من NVIDIA أكثر كفاءة في التدريب من الطراز A800/H800. يستغرق النموذج الذي يحتوي على 7 مليار معلمة 17 ساعة للتشغيل على HGX A800، في حين أن L40S أسرع بـ 1.3 مرة ويمكن تشغيله في نصف يوم فقط. ناهيك عن أنه يمكن تدريب النموذج الذي يحتوي على 175 مليار معلمة في عطلة نهاية الأسبوع باستخدام L40S. .

بشكل عام، إذا أرادت الشركة بناء نموذج كبير، فسوف تحتاج إلى إنفاق مئات الملايين من اليوانات في تكاليف الطاقة الحاسوبية، وهذه مجرد "تذكرة".

أفيد في وقت سابق أن Baidu وBytedance وTencent وAlibaba قد تقدموا بطلبات لشراء شرائح بقيمة 5 مليارات دولار أمريكي من Nvidia، وبإضافة عدد بطاقات الرسومات التي تم تخزينها سابقًا، يتجاوز العدد الإجمالي لبطاقات الرسومات Nvidia GPU في الصين 100 مليار يوان. أصدرت منظمة أبحاث السوق Counterpoint تقريرًا يفيد بأنه على الرغم من الانكماش الدوري في صناعة أشباه الموصلات، فإن الشركات الصينية مثل Tencent وBaidu لا تزال تشتري رقائق Nvidia A800 بكميات كبيرة.

**لذلك، في مثل هذا السوق المهم الذي يبلغ حجمه تريليون مستوى، لا ترغب شركات الرقائق ولا عملاء المصب في رؤية هيمنة "NVIDIA". ولذلك، حاولت شركات AMD وIntel وشركات شرائح GPU الصينية تحدي هيمنة Nvidia في سوق شرائح الذكاء الاصطناعي. **

**ضربات AMD أولاً. **

فيما يتعلق برقائق الذكاء الاصطناعي، في معرض الإلكترونيات الاستهلاكية 2023 (CES) في يناير من هذا العام، أصدرت رئيسة مجلس الإدارة والرئيس التنفيذي لشركة AMD ليزا سو رسميًا منتج APU (المعالج المتسارع) من الجيل التالي Instinct MI300 لمراكز البيانات، باستخدام TSMC 5nm + 6nm مجتمعة تصميم معماري Chiplet، وحدة معالجة مركزية ووحدة معالجة رسومات مدمجة، مع 13 شريحة صغيرة، مع عدد ترانزستورات يصل إلى 146 مليار، أداء الذكاء الاصطناعي والأداء لكل واط 8 مرات و5 أضعاف الجيل السابق MI250 (باستخدام اختبار قياس FP8 المتناثر)، سيتم إنتاجها وتوريدها بكميات كبيرة في النصف الثاني من عام 2023.

ثم في يونيو، أعلنت AMD أيضًا عن شرائح تسريع الذكاء الاصطناعي الجديدة Instinct MI300X وInstinct MI300A وغيرها من المنتجات المصممة خصيصًا للذكاء الاصطناعي التوليدي مع 153 مليار ترانزستور، والتي تحسنت من حيث سعة التخزين وعرض النطاق الترددي للتوصيل البيني.يحتوي MI300X على ترانزستورات أكثر من H100 Twice وHBM3 الذاكرة ذات النطاق الترددي العالي هي 2.4 مرة من H100. يمكن تشغيل نموذج كبير يحتوي على 80 مليار معلمة على شريحة واحدة ومن المتوقع أن يتم شحنه قبل نهاية هذا العام.

وهذا لا يوضح بشكل كامل قدرات تكنولوجيا الذكاء الاصطناعي في مركز البيانات بعد الاستحواذ على Xilinx فحسب، بل يتحدى أيضًا هيمنة Nvidia على رقائق حوسبة الذكاء الاصطناعي.

بالطبع، لا يقتصر الأمر على وحدات معالجة الرسومات ورقائق الذكاء الاصطناعي فحسب، بل إن ما تتفوق عليه شركة AMD هو تصنيع شرائح وحدة المعالجة المركزية (وحدة المعالجة المركزية)، ففي نهاية المطاف، تحتاج مراكز البيانات إلى قوة الحوسبة العامة لوحدات المعالجة المركزية. في نوفمبر من العام الماضي، أصدرت AMD سلسلة مراكز البيانات من الجيل الرابع EPYC 9004 باستخدام بنية Zen 4، والتي تحمل الاسم الرمزي "Genoa"، ولم تقم فقط بترقية البنية، بل قام Su Zifeng أيضًا بتجميع المواد على هذه الشريحة إلى أقصى الحدود: عملية TSMC 5nm ، 96 نواة، 192 خيط، 384 ميجا ذاكرة تخزين مؤقت L3، ويدعم PCle5.0.

بالمقارنة مع معالجات Intel ثمانية النواة، تحسن مركز بيانات AMD وسلسلة وحدات المعالجة المركزية للحوسبة المتطورة بشكل كبير من حيث استهلاك الطاقة والأداء، بما في ذلك انخفاض بنسبة 40% في مساحة شريحة جنوة وتحسين كفاءة الطاقة بنسبة 48%.

في سبتمبر من هذا العام، أطلقت AMD أحدث سلسلة من الجيل الرابع من EPYC 8004، حيث قدمت نواة "Zen 4c" في وحدات المعالجة المركزية المخصصة، مما يوفر خدمات تتراوح من الحواف الذكية (مثل البيع بالتجزئة والتصنيع والاتصالات) إلى مراكز البيانات والحوسبة السحابية وغيرها. مجالات.

في الواقع، أصدرت Amazon Cloud AWS نسخة حوسبة عامة تعتمد على Genoa M7A. وأظهرت النتائج النهائية أن الأداء قد تحسن بنسبة 50% مقارنة بالجيل السابق. وبالمقارنة مع الإصدار الرابع من Intel Xeon Platinum Edition 8490H، فإن أداء جنوة في سيناريوهات التطبيقات المتعددة، يكون التحسن 1.7-1.9 مرة، ويتم تحسين كفاءة الطاقة الإجمالية بنسبة 1.8 مرة، ويتم استخدامه بالكامل في مجالات الحوسبة عالية الأداء مثل النمذجة المالية، ومحاكاة الطقس، وأبحاث وتطوير الأدوية. بالإضافة إلى ذلك، في أحمال عمل بوابة IoT Edge، يوفر أحدث خادم ثماني النواة يعمل بنظام EPYC 8024P أيضًا ما يقرب من 1.8 مرة من إجمالي أداء الإنتاجية لكل حامل بقدرة 8 كيلو وات.

بشكل عام، سواء أكان الأمر يتعلق بوحدة المعالجة المركزية (CPU) أو وحدة معالجة الرسومات (GPU) أو FPGA أو معالج مركز البيانات DPU أو نظام AMD ROCm لأداة تكديس البرامج، فإن AMD جاهزة و"تشحذ سيفها" لتحدي منتجات Nvidia.

**باعتبارها شركة عملاقة في مجال الرقائق تم تأسيسها منذ أكثر من 60 عامًا، فإن إنتل لا ترغب في "التنازل عن السوق للآخرين." **

في 11 يوليو من هذا العام، أطلقت شركة إنتل العملاقة للرقائق (إنتل) شريحة الذكاء الاصطناعي Habana Gaudi2 للسوق الصينية في بكين، باستخدام عملية 7 نانومتر، ويمكنها تشغيل نماذج لغوية كبيرة، وتسريع التدريب والاستدلال على الذكاء الاصطناعي، ولها أداء عالي. لكل واط حوالي 100% عند تشغيل ResNet-50. وهو ضعف معدل NVIDIA A100، ونسبة السعر/الأداء الخاصة به أعلى بنسبة 40% من الحلول المستندة إلى NVIDIA في سحابة AWS. ومن المتوقع أن يتجاوز أحدث H100 من NVIDIA في عام السعر / الأداء في سبتمبر من هذا العام.

قالت ساندرا ريفيرا، نائب الرئيس التنفيذي لشركة إنتل، لـ TMTpost في يوليو من هذا العام إنه من المستحيل أن تهيمن شركة واحدة على سوق شرائح الذكاء الاصطناعي. لأن السوق يحتاج إلى التنوع، ويريد العملاء أيضًا رؤية المزيد من شركات الرقائق تتولى دورًا قياديًا في مجال الذكاء الاصطناعي.

الرئيس التنفيذي لشركة إنتل بات جيلسنجر

وفي سبتمبر/أيلول، أعلن جيلسنجر، في مؤتمر Intel On للابتكار التكنولوجي الذي عقد في سان خوسيه بالولايات المتحدة الأمريكية، أنه سيتم إطلاق شريحة الذكاء الاصطناعي Gaudi 3 باستخدام عملية 5 نانومتر في العام المقبل، وبحلول ذلك الوقت، ستكون قوتها الحاسوبية ضعف قوة Gaudi 2. ، وعرض النطاق الترددي لشبكتها HBM ستكون سعته 1.5 مرة.

وفي الوقت نفسه، استعرض جيلسنجر أيضًا معالج الخادم القابل للتطوير Intel Xeon من الجيل الخامس، قائلًا إن الجيل التالي من Xeon سيحتوي على 288 نواة، ومن المتوقع أن يزيد كثافة الحامل بمقدار 2.5 مرة والأداء لكل واط بمقدار 2.4 مرة. بالإضافة إلى ذلك، أصدرت إنتل أيضًا Sierra Forest وGranite Rapids، والتي من المتوقع أن تزيد أداء الذكاء الاصطناعي بمقدار 2 إلى 3 مرات مقارنة بالجيل الرابع من Xeon.

قال تشو جينغرين، كبير مسؤولي التكنولوجيا في Alibaba Cloud، إن Alibaba تستخدم معالجات Intel Xeon من الجيل الرابع لنماذج الذكاء الاصطناعي واللغات الكبيرة، وهي "Alibaba Cloud Tongyi Qianwen Large Model"، وقد أدت تقنية Intel إلى تقصير وقت استجابة النموذج بشكل كبير، ومتوسط يمكن أن يصل التسارع إلى 3 مرات.

بالإضافة إلى ذلك، بالنسبة للتدريب على النماذج الكبيرة للذكاء الاصطناعي، فإن الأمر الأكثر أهمية هو النظام البيئي للبرنامج. أعلنت Intel عن تعاونها مع Arm لنشر منتجات Xeon الخاصة بها على وحدة المعالجة المركزية Arm، وأطلقت أيضًا مجموعة أدوات الاستدلال والنشر لوقت تشغيل الذكاء الاصطناعي OpenVINO، والتي لا تدعم النماذج المدربة مسبقًا فحسب، بل تحتاج أيضًا إلى كتابتها مرة واحدة فقط لنشر أي منها. الدعم الأساسي المتوفر عبر الأنظمة الأساسية، وقد تم دعم نموذج Meta’s Llama 2.

وفي الوقت نفسه، أعلنت مؤسسة Linux أيضًا هذا الأسبوع عن إنشاء مؤسسة التسريع الموحد (UXL) لتوفير نموذج برمجة مسرع قياسي مفتوح لتبسيط تطوير التطبيقات عالية الأداء عبر الأنظمة الأساسية. والجوهر هو تسريع تطور برنامج Intel oneAPI، ومن بين الأعضاء المؤسسين شركة Arm، وGoogle Cloud، وIntel، وQualcomm، وSamsung وغيرها، وليست Nvidia من بينها.

صرح وانغ روي، نائب الرئيس الأول لشركة إنتل ورئيس شركة إنتل الصين، لتطبيق TMTpost وآخرين أن إنتل ستطلق معالجًا يحتوي على 288 نواة في المستقبل. سيكون هناك المزيد والمزيد من مراكز البيانات في المستقبل، وستطلق إنتل منتجات مثل Gaudi3 وFalcon Shores، وستشكل مصفوفة المنتج خارطة طريق للتسريع المستقبلي وتطوير حوسبة الذكاء الاصطناعي.

"لقد قمنا ببناء قدرات الذكاء الاصطناعي في الشريحة. وفقًا للاحتياجات المختلفة، ستستخدم قدرات الذكاء الاصطناعي المدمجة قوة حوسبة مختلفة وبنيات مختلفة لتقديم الدعم. "وقال وانغ روي إنه فيما يتعلق بمراكز البيانات، من العميل إلى الحافة إلى السحابة، تغلغل الذكاء الاصطناعي في سيناريوهات التطبيق المختلفة، بدءًا من التدريب على نماذج اللغة واسعة النطاق وحتى التدريب على نماذج اللغة الصغيرة والشاملة، فإن تأثير الذكاء الاصطناعي موجود في كل مكان.

وفي نهاية أغسطس من هذا العام، قال كيسنجر إنه يعتقد أن إنتل تتجه نحو تحقيق أهدافها الطموحة في إعادة الهيكلة وتتجه نحو استعادة مكانتها الرائدة في الصناعة. عند الحديث عن Nvidia، اعترف جيلسنجر بأن Nvidia تتمتع بتصميم جيد ويمكنها استيعاب الطلب على الأنظمة اللازمة لدعم توسيع برامج الذكاء الاصطناعي، لكنه قال إن Intel ستبدأ قريبًا في الفوز بالطلبات في أسواق شرائح التسريع هذه.

وقال كيسنجر: "لقد قاموا بعمل رائع، ونحن جميعا نشيد بهم. لكننا على وشك إظهار قوتنا".

تبخرت القيمة السوقية لشركة Nvidia بمئات المليارات من الدولارات، فهل تستطيع الرقائق المحلية اغتنام الفرصة؟

يبدو أن الأداء الرائع لـ Nvidia في عام 2023 قد ضعف خلال الشهرين الماضيين.

وفقًا لبيانات Refinitiv، على الرغم من ارتفاع سعر سهم Nvidia بنحو 190% هذا العام وأدائها مثير للإعجاب للغاية، إلا أن أداء سعر سهمها كان ضعيفًا في سبتمبر: منذ 31 أغسطس، انخفض سعر سهم Nvidia بأكثر من 10%، كما انخفض سعر سهمها بنسبة تزيد عن 10%. وتبخرت القيمة السوقية الإجمالية لأكثر من 176 مليار دولار.

**في الواقع، هناك العديد من العوامل التي ساهمت في تراجع سعر سهم شركة Nvidia. **

أولاً، تزايدت مخاوف السوق بشأن قيام بنك الاحتياطي الفيدرالي بإبقاء أسعار الفائدة عند مستويات أعلى لفترة أطول من أجل كبح التضخم. وقد تعرضت سوق الأسهم بأكملها لضغوط، حيث انخفض مؤشر S&P 500 بمعدل 0.7% في سبتمبر/أيلول. وما يقرب من 4% حتى الآن.

**ثانيًا، **تم إصدار نماذج مفتوحة المصدر ممثلة بـ LIama 2 واحدة تلو الأخرى، وبدأت المزيد من الشركات في استخدام هذه النماذج مباشرة، مما يتطلب تطبيق شرائح استدلال الذكاء الاصطناعي فقط، مما أدى إلى انخفاض الطلب على الحوسبة رقائق تدريب القوة.

أخيرًا وفقًا للمعلومات، أولت شركة NVIDIA اهتمامًا وثيقًا بتوريد بطاقات الرسومات لبعض شركات الحوسبة السحابية الصغيرة والمتوسطة الحجم في الولايات المتحدة، وفي ظل الوضع الحالي "من الصعب العثور على بطاقة" ، لقد اهتمت شركة NVIDIA بشدة بتوريد بطاقات الرسوميات للشركات الكبيرة مثل Google وMeta، بالإضافة إلى الشركات الصينية، ولم تعد خدمات المتابعة وتوريد بطاقات الرسوميات تبدو على رأس الأولويات، وهذا يؤدي بشكل مباشر إلى السوق شكوك حول قدرات توريد منتجات نفيديا.

وبطبيعة الحال، على الرغم من عيوبها، تتمتع NVIDIA بميزة كبيرة في الريادة في سوق الطاقة الحاسوبية للذكاء الاصطناعي. بالإضافة إلى أداء شريحة GPU الرائدة، فإن نظامها البيئي الضخم لبرامج الذكاء الاصطناعي CUDA بعيد عن متناول العديد من الأشخاص. بالإضافة إلى ذلك، أصبحت تقنية NVLink عالية السرعة لوحدة معالجة الرسومات (GPU) من NVIDIA أيضًا "سلاحًا سحريًا رئيسيًا" لتحسين تقنية النماذج الكبيرة، ودورها أعلى بكثير من بطاقة GPU نفسها.

ذكر المؤسس والرئيس التنفيذي لشركة Baichuan Intelligence Wang Xiaochuan ذات مرة أنه في هذه الصناعة، تبلغ تكاليف طاقة حوسبة وحدة معالجة الرسومات حوالي 40%-70%، وتبلغ نسبة تكاليف اتصال الشبكة وتكاليف بطاقة رسومات وحدة معالجة الرسومات حوالي 3:1.

"إذا تطورنا نحو نماذج أعلى في المستقبل، فإن احتياطي طاقة الحوسبة يعد أمرًا بالغ الأهمية. من منظور التدريب والتفكير، يتطلب التفكير شرائح ذكاء اصطناعي محلية، وليس فقط NVIDIA، ولكن التدريب يتم حاليًا بشكل أفضل بواسطة NVIDIA فقط." قال وانغ شياو تشوان: "يجب أن نكافح بقوة، ويجب أن تكون رقائق الذكاء الاصطناعي المحلية في الصين قادرة على المنافسة".

** في الواقع، بالإضافة إلى عملاقي الرقائق الرئيسيين، مع "حرب الـ 100 وضع" المحلية، ارتفع الطلب على قوة حوسبة الذكاء الاصطناعي. ومع ذلك، فإن العديد من شرائح الذكاء الاصطناعي مثل Nvidia AI00/H100 قيدت الصادرات إلى الصين، مما يجعل من الصعب على نحو متزايد على الشركات المحلية الحصول على الرقائق المتطورة من الولايات المتحدة. **

في أكتوبر 2022، أصدر مكتب الصناعة والأمن (BIS) التابع لوزارة التجارة الأمريكية لوائح جديدة لمراقبة الصادرات لتحديد قوة حوسبة الرقائق المختلفة وعرض النطاق الترددي وعمليات التصنيع وغيرها من المؤشرات، وتقييد تصدير الشركات الأمريكية إلى الصين، بما في ذلك القيود المفروضة على رقائق الطاقة ذات الحوسبة العالية، مما يؤثر بشكل مباشر على تطوير الذكاء الاصطناعي والحوسبة الفائقة ومركز البيانات والصناعات الأخرى ذات الصلة في الصين. تلقت NVIDIA، الشركة المصنعة لوحدة معالجة الرسومات (GPU) والتي تلبي بشكل أساسي احتياجات الذكاء الاصطناعي والتطبيقات الأخرى، إشعارًا من حكومة الولايات المتحدة في أغسطس لتقييد تصدير الرقائق المتقدمة.

استجابت Nvidia بسرعة ودخلت حيز الإنتاج شريحة A800 في الربع الثالث من عام 2022 لتحل محل شريحة A100 التي لم يعد من الممكن شحنها إلى الصين. وهذا أيضًا هو أول منتج "عرض خاص" تطلقه شركة أمريكية لهذا الغرض. لم تعلن Nvidia عن المعلمات التفصيلية لـ A800. ومع ذلك، يوضح دليل المنتج المقدم من وكلائها أن قوة الحوسبة القصوى لـ A800 تتوافق مع A100 المقيد للتصدير، ولكن معدل النقل يقتصر على ثلثي A100 للامتثال لمتطلبات الحكومة الأمريكية ذات الصلة. تعد قوة الحوسبة التدريبية لأحدث إصدار H800 "الإصدار الصيني الخاص" أسوأ بحوالي 40% من قوة H100. وبدون وحدة التوصيل البيني التي توفرها NVIDIA، يمكن أن تصل فجوة طاقة الحوسبة إلى أكثر من 60%.

ستطلق إنتل نسخة صينية من منتجها Gaudi 2 في يوليو 2023. Gaudi 2 عبارة عن شريحة ASIC (دائرة متكاملة خاصة بالتطبيقات) مصممة بشكل أساسي لتدريب الذكاء الاصطناعي للتعلم العميق عالي الأداء. بالمقارنة مع الإصدار الدولي الذي تم الإعلان عنه في مايو 2022، تم تقليل عدد منافذ إيثرنت المدمجة في الإصدار الصيني من Gaudi 2 من 24 إلى 21. وقالت إنتل في ذلك الوقت إن هذا كان تغييرًا بسيطًا نسبيًا وله تأثير محدود على الأداء الفعلي. صرح كيسنجر مؤخرًا أن الشركة تبيع حاليًا النسخة الصينية من Gaudi 2 في الصين، ويأمل في الاستمرار في القيام بذلك في المستقبل.

** لذا، وتحت تأثير القيود الأجنبية على الرقائق، تعمل شركات الطاقة الحاسوبية المحلية للذكاء الاصطناعي مثل Huawei وTianshu Zhixin وCambrian وDenglin Technology بنشاط على الانتشار لملء الشواغر في قوة الحوسبة المحلية للذكاء الاصطناعي. **

في الوقت الحاضر، ينقسم سوق طاقة الحوسبة المحلية للذكاء الاصطناعي بشكل أساسي إلى ثلاثة فصائل رئيسية: الأول هو حل الطاقة الحاسوبية لنظام Huawei Kunpeng وAscend AI البيئي، والذي لا يتضمن مشاركة NVIDIA GPU؛ والآخر هو دعم طاقة الحوسبة الهجينة، والذي يستخدم عددًا كبيرًا من شرائح NVIDIA A100 وفي بعض البيئات، تتم إضافة AMD وIntel وTianshu Intelligent Core وCambrian وHaiguang ورقائق أخرى لدعم تدريب النماذج الكبيرة؛ ثالثًا، يتم تأجير طاقة الحوسبة السحابية للخادم الأكثر فعالية من حيث التكلفة إلى تكملة النقص في قوة الحوسبة.

في القمة الصيفية التاسعة عشرة لمنتدى Yabuli China 2023 لرواد الأعمال الذي عقد في أغسطس من هذا العام، قال مؤسس iFlytek ورئيس مجلس إدارته، Liu Qingfeng، إن القدرات التقنية لوحدة معالجة الرسومات الخاصة بشركة Huawei تعادل الآن NVIDIA A100، وقد تم قياسها الآن مقابل NVIDIA A100.

في 20 سبتمبر، قال نائب رئيس مجلس الإدارة ورئيس مجلس الإدارة المناوب والمدير المالي لشركة Huawei، Meng Wanzhou، إن شركة Huawei أطلقت مجموعة حوسبة Ascend AI ببنية جديدة يمكنها دعم التدريب على النماذج الكبيرة بأكثر من تريليون معلمة. ستواصل هواوي بناء قاعدة قوية للطاقة الحاسوبية.

كشف جاي لوجيانغ، رئيس مجلس الإدارة والرئيس التنفيذي لشركة Tianshu Zhixin، أنه في الوقت الحاضر، بدأت العديد من شركات النماذج المحلية واسعة النطاق في استخدام بطاقات الرسومات GPU المحلية، وقد دعمت الشركة إكمال التدريب النموذجي واسع النطاق مع 7 مليارات معلمة. بالإضافة إلى ذلك، فإن معظم شركات GPU المحلية الأخرى في مرحلة التدريب على استدلال الذكاء الاصطناعي.

يعتقد جالوجيانج أن حصة Nvidia في السوق في الصين في مجال التدريب تصل إلى أكثر من 95%، وبعضها يصل إلى 99%، وقد حققت احتكارًا بشكل أساسي، ويرجع ذلك أساسًا إلى بنية أجهزتها ونظام CUDA البيئي المستخدم على نطاق واسع. لديها أكثر من 300 مليون مستخدم عالمي. حاليًا، تواجه شركات GPU المحلية مشاكل الهجرة البيئية، ونظرًا للعدد الكبير من الرموز المستندة إلى CUDA، فإن التحول إلى نظام بيئي جديد سيتطلب الكثير من الوقت والتكلفة.

في حدث مائدة مستديرة عقد مؤخرًا، ذكر وانغ بينغ، المؤسس المشارك وكبير مهندسي شركة Denglin Technology، أنه بالنسبة لعملاء AIGC، فإنهم لا يحتاجون فقط إلى حلول مثل إنشاء النصوص وإنشاء الصور، ولكن الأهم من ذلك، يحتاجون إلى منتجات عملية. لذلك، من الضروري تنفيذ منتجات طاقة حاسوبية ذات قوة حوسبة كبيرة وتعدد استخدامات قوي لخلق قيمة للعملاء. يُذكر أن منتجات شرائح الذكاء الاصطناعي للجيل الجديد من شركة Denglin Technology تتمتع بأكثر من ثلاثة أضعاف ميزة استهلاك الطاقة مقارنة بمنتجات GPU ذات الأغراض العامة السائدة عالميًا.

وقال جالوجيانج إن الخطوة التالية بالنسبة لشركة Tianshu Zhixin هي تحسين تكرار المنتج، الأمر الذي يتطلب الاعتماد على البيانات وتعليقات العملاء والابتكار التكنولوجي، وإجراء تعديلات لتلبية الاحتياجات المحلية الخاصة. وفي الوقت نفسه، ستعمل الشركة بنشاط على تحسين النظام البيئي ومجموعة البرامج لضمان حصول المستخدمين على أفضل تجربة من حيث الكفاءة والتكلفة والأداء ونسبة السعر إلى الأداء، وذلك لتعزيز المزيد من تسويق المنتجات.

يعتقد وانغ بينغ أنه بسبب الصعوبة المتزايدة في الحصول على الرقائق المتطورة من الولايات المتحدة، على الرغم من عدم قدرة أي شركة محلية على إنتاج رقائق يمكن أن تحل محلها حقًا، فإنه يعتقد أن قوة الحوسبة المحلية ستستمر في النمو. تحتاج الرقائق إلى التكرار بشكل مستمر، فكلما زاد عدد المستخدمين وزادت ردود الفعل على المشكلات، كلما تمكنت شركات شرائح الذكاء الاصطناعي المحلية من تحسين تجربة المستخدم وتعزيزها في التكرارات اللاحقة.

وقال جالوجيانج لـ TMTpost Media App: "هذه فرصة كبيرة لشركات GPU المحلية ذات الأغراض العامة".

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت