أصدرت MLPerf التصنيف، واحتلت شركات شرائح الذكاء الاصطناعي الصينية المرتبة الأولى في العالم مرة أخرى! ثلاثة أبطال للاستدلال على النماذج الكبيرة، وأداء يتجاوز H100
ومع إطلاق تطبيقات AIGC مثل ChatGPT لموجة من النماذج الكبيرة، أصبحت طبقة الطاقة الحاسوبية، مثل البنية التحتية، أول صناعة تستفيد.
ومع ذلك، أصبحت مشاكل مثل ارتفاع الطلب على الطاقة الحاسوبية والتكلفة العالية نقاط ألم شائعة للشركات لتنفيذ نماذج كبيرة، ومن المرجح أن تحد من تطوير الذكاء الاصطناعي: تتزايد معلمات النماذج الكبيرة يومًا بعد يوم، والحوسبة عنق الزجاجة في إمدادات الطاقة وشيك، مما يخلق تناقضًا كبيرًا بين الاثنين.
تعد كيفية استكشاف أفضل حلول الطاقة الحاسوبية ذات النماذج الكبيرة محورًا شائعًا في الصناعة.
في الآونة الأخيرة، أعلن التقييم المعتمد عالميًا MLPerf عن أحدث نتائج تقييم الاستدلال، وهذه هي المرة الأولى التي يقدم فيها MLPerf اختبار الاستدلال للنموذج الكبير GPT، وقد وصل معدل المشاركة إلى رقم قياسي جديد، مع أكثر من 13500 نتيجة أداء مقدمة من NVIDIA وIntel وجوجل وكوالكوم وغيرها من الشركات.
في MLPerf Inference 3.1، احتلت بطاقة الحوسبة Moffet AI S30 المرتبة الأولى في القوة الحاسوبية لبطاقة واحدة و4 بطاقات و8 بطاقات على الطراز الكبير GPT-J (6 مليارات معلمة).
هذا هو الدفاع الثالث على التوالي عن لقب Mo Xin في MLPerf.
سبق أن فاز Ink core بالمركز الأول في MLPerf Inference 2.0 و2.1 لمدة عامين متتاليين.
بطاقة الحوسبة Ink Core S30
جلبت إنجازات قلب الحبر اتجاهات ابتكارية مجدية لحلول طاقة الحوسبة النموذجية واسعة النطاق.
لقد أثبتت الحقائق أن الابتكار التعاوني للأجهزة والبرامج التي تجمع بين نماذج الذكاء الاصطناعي ومنصات الحوسبة يمكن أن يطلق العنان لإمكانات قوة حاسوبية أكبر. وهذا يثبت أيضًا مرة أخرى أن التقنيات المبتكرة المتمثلة في الحوسبة المتفرقة ستكون المفتاح لتطوير قوة الحوسبة في عصر النماذج الكبيرة.
تشارك Ink Core في قسم MLPerf المفتوح، والذي يهدف، وفقًا لمنظم MLCommons، إلى تشجيع الابتكار. لذلك، يمكن للمتسابقين استكشاف طرق لتحسين قوة الحوسبة من خلال التعاون بين البرامج والأجهزة.
في الطراز الكبير GPT-J في MLPerf، مقارنةً بحل تسريع الأجهزة النقي H100 لعملية 4 نانومتر، حققت بطاقة الحوسبة Ink Core S30 لعملية 12 نانومتر سرعة تصل إلى 1.8 مرة من خلال "الخوارزمية المتفرقة المزدوجة الأصلية + تعاون الأجهزة" "طريقة. ميزة.
نموذج GPT-J لهذا التقييم هو نموذج الذكاء الاصطناعي التوليدي، في أوضاع 8 بطاقات و4 بطاقات وبطاقة واحدة، يكون أداء بطاقة الحوسبة Ink Core S30 هو 170.59 و91.57 و23.28 (عينة/عينات) على التوالي، حيث وصل أداء NVIDIA H100 إلى 1.6 مرة، و1.8 مرة، و1.8 مرة، مما يدل على قدرات منتجات الحبر الأساسية في مهام AIGC.
بعد الفوز بالبطولة ثلاث مرات، كانت قوة الحوسبة الكبيرة النموذجية أول من "خضع للاختبار"، واستمر التعاون بين البرامج والأجهزة في الابتكار - تم اختبار قوة منتج Ink Core بدقة بواسطة MLPerf عدة مرات، كما تم استكشافها أيضًا مسارات جديدة لتطوير قوة الحوسبة ذات النماذج الكبيرة.
الحوسبة المتفرقة——النماذج الكبيرة "للأسهم المحتملة" تحظى باعتراف السوق
ترجع النتائج الممتازة المستمرة لنواة الحبر بشكل أساسي إلى التصميم التعاوني للبرامج والأجهزة استنادًا إلى خوارزمية التشتت.
في عصر النماذج الكبيرة، أصبحت أهمية الحوسبة المتفرقة واضحة بذاتها: حجم نموذج الذكاء الاصطناعي يتناسب بشكل مباشر مع إمكانات التشتت.
بمعنى آخر، عندما يكون النموذج أكبر، يكون هناك احتمال أكبر للتناثر في الخوارزمية، وتكون درجة تسارع الحسابات المتفرقة أعلى أيضًا. بالنسبة لنماذج اللغات العامة الكبيرة، يمكن أن تؤدي الحوسبة المتفرقة إلى تسريع عشرات المرات.
إن الخوارزمية المزدوجة المتفرقة الأصلية من Inkcore، جنبًا إلى جنب مع التصميم التعاوني للبرامج والأجهزة، تجعل شريحة Antoum® من Inkcore أول شريحة ذكاء اصطناعي ذات تكبير عالي متفرق في العالم، تدعم ما يصل إلى 32 مرة من التناثر - وهو ما سجله Inkcore رقمًا قياسيًا جديدًا في مفتاح MLPerf هذا.
كلما كان النموذج أكبر، كانت ميزة الحوسبة المتفرقة أكثر وضوحًا - خاصة في الوضع الحالي حيث تصل معلمات النماذج الكبيرة مثل GPT غالبًا إلى عشرات المليارات أو مئات المليارات، مما يجعل خندق قلب الحبر أكثر استقرارًا.
وقد اعترفت الصناعة أيضًا بقوة منتج Ink Core والاتجاه العام للحوسبة المتفرقة: فقد حققت عملية تسويق Ink Core اختراقات مهمة واحدة تلو الأخرى، مما ساعد الشركات على تسريع تطبيقات الذكاء الاصطناعي.
في الآونة الأخيرة، أصبحت Ink Core رسميًا أحد الموردين الذين يدعمون Byte MLPerf.
المصدر: موقع بايت MLPerf
عنوان المشروع:
حاليًا، يمكن لمنصة الحوسبة Ink Core AI دعم نماذج كبيرة بمستويات مختلفة من المعلمات، بما في ذلك BLOOM وOPT وGPT-J وLLaMA وStableDiffusion وما إلى ذلك.
وفي الوقت نفسه، يتميز بخصائص الإنتاجية العالية، وزمن الوصول المنخفض، وانخفاض استهلاك الطاقة، مما يخفف من صعوبة قوة الحوسبة ويقدم حقًا حلول طاقة حوسبة كبيرة الحجم "سهلة الاستخدام" و"ميسورة التكلفة" للمؤسسات .
من خلال إحداث تغييرات أساسية في قوة الحوسبة، تساعد الحوسبة المتفرقة على تطوير نماذج كبيرة
لا يمكن لحل الحوسبة المتفرقة من Ink Core أن يخفف من مشكلة قوة الحوسبة الحالية فحسب، بل يفتح أيضًا مساحة جديدة للتطوير المستمر للذكاء الاصطناعي.
تعمل الحوسبة المتفرقة على تقليل مقدار الحساب لنماذج الذكاء الاصطناعي، مما يعني أن النماذج الكبيرة يمكن أن تزيد عدد المعلمات بعدة أوامر من حيث الحجم دون توليد قدر كبير من الحساب. ومن المتوقع القضاء على التناقض بين نمو المعلمات واختناقات قوة الحوسبة في النماذج الكبيرة . تم حلها بشكل أساسي.
في الوقت نفسه، نظرًا لانخفاض كمية العمليات الحسابية، يتم أيضًا حل نقاط الضعف في النماذج الكبيرة مثل متطلبات طاقة الحوسبة العالية واستهلاك الطاقة المرتفع والتكاليف المرتفعة، مما يحقق تأثير "المربح للجانبين".
شريحة Antoum: أول شريحة ذكاء اصطناعي عالية السرعة في العالم، تدعم ما يصل إلى 32 مرة متفرقة
إن النتائج الممتازة لثلاثة اختبارات MLPerf متتالية لا تثبت قوة منتجات الحبر الأساسية فحسب، بل تقدم أيضًا اكتشافات جديدة للصناعة: بمساعدة تقنيات مثل الحوسبة المتفرقة، من المتوقع أن يؤدي تطوير النماذج الكبيرة وتطبيقها إلى الدخول في نطاق أوسع مساحة للتطوير: تطبيقات مثل AIGC المتسارعة تزدهر في جميع مناحي الحياة.
حول MLPerf
تم إنشاء MLPerf على يد ديفيد باترسون الحائز على جائزة تورينج بالتعاون مع أفضل المؤسسات الأكاديمية مثل جوجل وستانفورد وجامعة هارفارد، وهو الاختبار المعياري الدولي الأكثر موثوقية والأكثر تأثيرًا لأداء الذكاء الاصطناعي لقياس النمو السريع في سلوك التتبع والتقييم في الوقت المناسب للذكاء الاصطناعي. متطلبات الحوسبة والأداء.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
أصدرت MLPerf التصنيف، واحتلت شركات شرائح الذكاء الاصطناعي الصينية المرتبة الأولى في العالم مرة أخرى! ثلاثة أبطال للاستدلال على النماذج الكبيرة، وأداء يتجاوز H100
ومع إطلاق تطبيقات AIGC مثل ChatGPT لموجة من النماذج الكبيرة، أصبحت طبقة الطاقة الحاسوبية، مثل البنية التحتية، أول صناعة تستفيد.
ومع ذلك، أصبحت مشاكل مثل ارتفاع الطلب على الطاقة الحاسوبية والتكلفة العالية نقاط ألم شائعة للشركات لتنفيذ نماذج كبيرة، ومن المرجح أن تحد من تطوير الذكاء الاصطناعي: تتزايد معلمات النماذج الكبيرة يومًا بعد يوم، والحوسبة عنق الزجاجة في إمدادات الطاقة وشيك، مما يخلق تناقضًا كبيرًا بين الاثنين.
تعد كيفية استكشاف أفضل حلول الطاقة الحاسوبية ذات النماذج الكبيرة محورًا شائعًا في الصناعة.
في الآونة الأخيرة، أعلن التقييم المعتمد عالميًا MLPerf عن أحدث نتائج تقييم الاستدلال، وهذه هي المرة الأولى التي يقدم فيها MLPerf اختبار الاستدلال للنموذج الكبير GPT، وقد وصل معدل المشاركة إلى رقم قياسي جديد، مع أكثر من 13500 نتيجة أداء مقدمة من NVIDIA وIntel وجوجل وكوالكوم وغيرها من الشركات.
في MLPerf Inference 3.1، احتلت بطاقة الحوسبة Moffet AI S30 المرتبة الأولى في القوة الحاسوبية لبطاقة واحدة و4 بطاقات و8 بطاقات على الطراز الكبير GPT-J (6 مليارات معلمة).
سبق أن فاز Ink core بالمركز الأول في MLPerf Inference 2.0 و2.1 لمدة عامين متتاليين.
جلبت إنجازات قلب الحبر اتجاهات ابتكارية مجدية لحلول طاقة الحوسبة النموذجية واسعة النطاق.
لقد أثبتت الحقائق أن الابتكار التعاوني للأجهزة والبرامج التي تجمع بين نماذج الذكاء الاصطناعي ومنصات الحوسبة يمكن أن يطلق العنان لإمكانات قوة حاسوبية أكبر. وهذا يثبت أيضًا مرة أخرى أن التقنيات المبتكرة المتمثلة في الحوسبة المتفرقة ستكون المفتاح لتطوير قوة الحوسبة في عصر النماذج الكبيرة.
تشارك Ink Core في قسم MLPerf المفتوح، والذي يهدف، وفقًا لمنظم MLCommons، إلى تشجيع الابتكار. لذلك، يمكن للمتسابقين استكشاف طرق لتحسين قوة الحوسبة من خلال التعاون بين البرامج والأجهزة.
في الطراز الكبير GPT-J في MLPerf، مقارنةً بحل تسريع الأجهزة النقي H100 لعملية 4 نانومتر، حققت بطاقة الحوسبة Ink Core S30 لعملية 12 نانومتر سرعة تصل إلى 1.8 مرة من خلال "الخوارزمية المتفرقة المزدوجة الأصلية + تعاون الأجهزة" "طريقة. ميزة.
نموذج GPT-J لهذا التقييم هو نموذج الذكاء الاصطناعي التوليدي، في أوضاع 8 بطاقات و4 بطاقات وبطاقة واحدة، يكون أداء بطاقة الحوسبة Ink Core S30 هو 170.59 و91.57 و23.28 (عينة/عينات) على التوالي، حيث وصل أداء NVIDIA H100 إلى 1.6 مرة، و1.8 مرة، و1.8 مرة، مما يدل على قدرات منتجات الحبر الأساسية في مهام AIGC.
الحوسبة المتفرقة——النماذج الكبيرة "للأسهم المحتملة" تحظى باعتراف السوق
ترجع النتائج الممتازة المستمرة لنواة الحبر بشكل أساسي إلى التصميم التعاوني للبرامج والأجهزة استنادًا إلى خوارزمية التشتت.
في عصر النماذج الكبيرة، أصبحت أهمية الحوسبة المتفرقة واضحة بذاتها: حجم نموذج الذكاء الاصطناعي يتناسب بشكل مباشر مع إمكانات التشتت.
بمعنى آخر، عندما يكون النموذج أكبر، يكون هناك احتمال أكبر للتناثر في الخوارزمية، وتكون درجة تسارع الحسابات المتفرقة أعلى أيضًا. بالنسبة لنماذج اللغات العامة الكبيرة، يمكن أن تؤدي الحوسبة المتفرقة إلى تسريع عشرات المرات.
إن الخوارزمية المزدوجة المتفرقة الأصلية من Inkcore، جنبًا إلى جنب مع التصميم التعاوني للبرامج والأجهزة، تجعل شريحة Antoum® من Inkcore أول شريحة ذكاء اصطناعي ذات تكبير عالي متفرق في العالم، تدعم ما يصل إلى 32 مرة من التناثر - وهو ما سجله Inkcore رقمًا قياسيًا جديدًا في مفتاح MLPerf هذا.
كلما كان النموذج أكبر، كانت ميزة الحوسبة المتفرقة أكثر وضوحًا - خاصة في الوضع الحالي حيث تصل معلمات النماذج الكبيرة مثل GPT غالبًا إلى عشرات المليارات أو مئات المليارات، مما يجعل خندق قلب الحبر أكثر استقرارًا.
وقد اعترفت الصناعة أيضًا بقوة منتج Ink Core والاتجاه العام للحوسبة المتفرقة: فقد حققت عملية تسويق Ink Core اختراقات مهمة واحدة تلو الأخرى، مما ساعد الشركات على تسريع تطبيقات الذكاء الاصطناعي.
في الآونة الأخيرة، أصبحت Ink Core رسميًا أحد الموردين الذين يدعمون Byte MLPerf.
عنوان المشروع:
حاليًا، يمكن لمنصة الحوسبة Ink Core AI دعم نماذج كبيرة بمستويات مختلفة من المعلمات، بما في ذلك BLOOM وOPT وGPT-J وLLaMA وStableDiffusion وما إلى ذلك.
وفي الوقت نفسه، يتميز بخصائص الإنتاجية العالية، وزمن الوصول المنخفض، وانخفاض استهلاك الطاقة، مما يخفف من صعوبة قوة الحوسبة ويقدم حقًا حلول طاقة حوسبة كبيرة الحجم "سهلة الاستخدام" و"ميسورة التكلفة" للمؤسسات .
من خلال إحداث تغييرات أساسية في قوة الحوسبة، تساعد الحوسبة المتفرقة على تطوير نماذج كبيرة
لا يمكن لحل الحوسبة المتفرقة من Ink Core أن يخفف من مشكلة قوة الحوسبة الحالية فحسب، بل يفتح أيضًا مساحة جديدة للتطوير المستمر للذكاء الاصطناعي.
تعمل الحوسبة المتفرقة على تقليل مقدار الحساب لنماذج الذكاء الاصطناعي، مما يعني أن النماذج الكبيرة يمكن أن تزيد عدد المعلمات بعدة أوامر من حيث الحجم دون توليد قدر كبير من الحساب. ومن المتوقع القضاء على التناقض بين نمو المعلمات واختناقات قوة الحوسبة في النماذج الكبيرة . تم حلها بشكل أساسي.
في الوقت نفسه، نظرًا لانخفاض كمية العمليات الحسابية، يتم أيضًا حل نقاط الضعف في النماذج الكبيرة مثل متطلبات طاقة الحوسبة العالية واستهلاك الطاقة المرتفع والتكاليف المرتفعة، مما يحقق تأثير "المربح للجانبين".
إن النتائج الممتازة لثلاثة اختبارات MLPerf متتالية لا تثبت قوة منتجات الحبر الأساسية فحسب، بل تقدم أيضًا اكتشافات جديدة للصناعة: بمساعدة تقنيات مثل الحوسبة المتفرقة، من المتوقع أن يؤدي تطوير النماذج الكبيرة وتطبيقها إلى الدخول في نطاق أوسع مساحة للتطوير: تطبيقات مثل AIGC المتسارعة تزدهر في جميع مناحي الحياة.
حول MLPerf
تم إنشاء MLPerf على يد ديفيد باترسون الحائز على جائزة تورينج بالتعاون مع أفضل المؤسسات الأكاديمية مثل جوجل وستانفورد وجامعة هارفارد، وهو الاختبار المعياري الدولي الأكثر موثوقية والأكثر تأثيرًا لأداء الذكاء الاصطناعي لقياس النمو السريع في سلوك التتبع والتقييم في الوقت المناسب للذكاء الاصطناعي. متطلبات الحوسبة والأداء.