WebGLM العمل الجديد لـ Tsinghua Tang Jie: 10 مليارات معلمة ، البحث عبر الإنترنت بشكل أساسي ، يتجاوز الأداء OpenAI WebGPT

المصدر: Qubit

العمل الجديد لفريق Tsinghua ** Tang Jie ** هنا:

** WebGLM ** ، ** Internetwork ** روبوت دردشة للأسئلة والأجوبة مع 10 مليار معلمة (تم اختيار الورقة لـ KDD2023).

يمكنك طرح أي سؤال عليه ، وسوف يسرد روابط للمقالات ذات الصلة على الإنترنت (مثل ويكيبيديا ، والمواقع الرسمية ذات الصلة) وفرز الإجابات.

على سبيل المثال:

ما هي التقنية الأساسية في ChatGPT؟

أو:

من اقترح Music Transformer؟ ما هو مبدأها؟

أو:

ماذا عن Genshin Impact 3.5؟

كيف يمكنك العيش في مدينة من الدرجة الأولى بدون وظيفة عالية الأجر؟ (رأس كلب يدوي)

……

يمكن أن يعطي إجابات معقولة.

وفقًا للتقارير ، في اختبار مقارنة الأداء ، كان مستوى WebGLM ** أعلى من معيار WebGPT الخاص بـ OpenAI البالغ 13.5 مليار عامل ** ، وفي التقييم البشري ، يمكن مقارنته بنموذج المعلمة البالغ 175 مليارًا.

إذن ، كيف يتم تدريبها؟

** قسم WebGLM في Tsinghua يمكنه الوصول إلى الإنترنت **

وفقًا للتقارير ، يتمثل هدف WebGLM في تعزيز نموذج اللغة الكبيرة المدربين مسبقًا من خلال وظائف البحث والاسترجاع على الويب ، مع تمكين النشر الفعلي الفعال.

تحقيقا لهذه الغاية ، يطور المؤلف على أساس ** ثلاث استراتيجيات **.

الأول هو ** الطراز الكبير المعزز المسترد **.

يتم استخدامه بشكل أساسي لتعزيز قدرة الاسترجاع لمحتوى الشبكة المرتبط بالنموذج ، والعثور على المراجع ذات الصلة في حالة استعلام معين ، وذلك للإجابة بشكل أفضل على الأسئلة لاحقًا.

يتكون من مرحلتين: بحث الويب الخشن واسترجاع كثيف محسّن بـ LLM دقيق الحبيبات.

يليه ** Bootstrap Generator **.

يستخدم قدرة GLM (مثل نموذج التدريب المسبق ثنائي اللغة GLM-130B الذي أصدرته جامعة تسينغهوا) لتوليد ردود على الأسئلة وتقديم إجابات مفصلة.

باستخدام هذا المولد ، يحصل المؤلفون على WebGLM-QA - اقتباس إقلاع LLM ومجموعة بيانات QA طويلة المدى.

يتم تنظيفها وتصفيتها من خلال استراتيجيات مثل تعلم السياق ، وتتضمن أخيرًا 45 ألف عينة مفلترة عالية الجودة و 83 ألف عينة ضوضاء.

العمود الفقري لـ WebGLM هو نموذج GLM تم تدريبه على مجموعة البيانات هذه.

أخيرًا ، هناك مسجل يعتمد على تفضيلات الإنسان.

يقوم بتقييم جودة الاستجابات التي تم إنشاؤها من خلال إعطاء الأولوية للتفضيلات البشرية على تعليقات الخبراء المكلفة ، مما يضمن أن ينتج النظام محتوى مفيدًا وجذابًا.

تشكل المكونات الثلاثة المذكورة أعلاه أخيرًا خط أنابيب WebGLM بالترتيب:

يمكن ملاحظة أن هناك ثلاث وحدات بالضبط ، تتوافق مع الأجزاء الثلاثة المذكورة أعلاه ، من بينها:

سيستخدم المسترد المحسن LLM ** أهم خمس صفحات ** الأكثر صلة كمصدر مرجعي ، والسماح لمولد التمهيد بإنشاء إجابات متعددة ، وأخيرًا يختار المسجل النتيجة التي من المرجح أن تلبي التفضيلات البشرية كناتج نهائي.

** يتجاوز الأداء OpenAI WebGPT **

بالإضافة إلى WebGLM نفسها ، اقترح فريق Tang Jie أيضًا معيار تقييم لنظام محسّن للإجابة على الأسئلة. تتضمن كائنات التقييم كلاً من المراجع والإجابات النهائية.

من بينها ، يقيس الأول الأبعاد الخمسة للملاءمة ، وكثافة المعلومات ، والأصالة (بدون أخطاء واقعية) ، والسمية (باستثناء المعلومات مثل المواد الإباحية العنيفة) ودرجة التحيز الاجتماعي ؛ ويقيس الأخير الطلاقة ، والصحة ، ودقة الاقتباس ، والموضوعية . والتكرار.

استخدموا الأسئلة الـ 272 التي قدمتها WebGPT (من OpenAI ، تم ضبطها بدقة بناءً على GPT-3) على موقع الويب التجريبي للتقييم المقارن ، وتوظيف 15 متطوعًا حاصلين على درجة الماجستير للتسجيل.

النتيجة النهائية هي كما يلي:

("Rel."، "Den." ... تتوافق على التوالي مع المؤشرات العشرة المذكورة أعلاه.)

يمكن ملاحظة أنه على الرغم من أن نتائج بحث WebGLM أدنى قليلاً من WebGPT-175B ، إلا أنها أفضل بكثير من Perplexity.ai و WebGPT-13B (التقييم المرجعي على اليسار).

ومن الجدير بالذكر أن عملية استرجاع WebGLM تستخدم فقط بعض الخوارزميات التقليدية القائمة على الكلمات واثنين من الضوابط التي لا تتجاوز معلماتها التراكمية 300 م.

بالإضافة إلى ذلك ، يعد WebGLM أيضًا أفضل بشكل ملحوظ من WebGPT-13B من حيث أداء الحوسبة واستهلاك الوقت ، ويمكن مقارنته بـ 175 مليارًا.

من حيث النتائج النهائية ، حقق WebGLM أعلى الدرجات من حيث الطلاقة والأصالة والتكرار ، وكان مؤشر صحتها قريبًا من WebGPT-175B ، أعلى بكثير من Perplexity.ai و WebGPT-13B.

وفقًا للمؤلفين ، يُظهر هذا أن WebGLM يمكنها تحقيق أداء أعلى بتكلفة أقل.

** النشر والتدريب **

تم إصدار WebGLM ** كمصدر مفتوح **.

لنشره ، تحتاج إلى الحصول على مفتاح من موقع SerpAPI الرسمي ، والذي يستخدم للحصول على نتائج البحث أثناء عملية البحث.

يمكن تنزيل أوزان المسترد من Tsinghua Cloud.

هناك طريقتان لتشغيل النموذج: الأولى هي واجهة سطر الأوامر ، والأخرى هي شكل خدمة الويب ، وهناك نوعان من النماذج الاختيارية بما في ذلك ** WebGLM-2B و WebGLM-10B **.

يمكنك أيضًا تدريب WebGLM بنفسك ، فقد تم توفير بيانات التدريب الرسمية للمولد والمسترد للتنزيل ~

عنوان الورق:

صفحة GitHub الرئيسية:

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت