العمق求索(DeepSeek):إنذار الابتكار المسؤول وإدارة المخاطر

robot
إنشاء الملخص قيد التقدم

المصدر: كوينتيليغراف النص الأصلي: 《 البحث العميق (DeepSeek): جرس إنذار للابتكار المسؤول وإدارة المخاطر 》

المؤلف: الدكتورة ميراف أوزاير

منذ إصدارها في 20 يناير، جذبت DeepSeek R1 اهتمامًا واسعًا من المستخدمين وعباقرة التكنولوجيا العالميين والحكومات وصناع السياسة - من المدح إلى الشك، ومن الاعتماد إلى الحظر، ومن التألق في الابتكار إلى الثغرات غير القابلة للقياس في الخصوصية والأمان.

من هو الصحيح؟ الجواب المختصر: الجميع على حق، والجميع على خطأ.

هذه ليست "لحظة سبوتنيك"

طورت DeepSeek نموذج لغة كبير (LLM) يمكن أن يتنافس مع أداء GTPo1 من OpenAI، بينما الوقت والتكلفة المطلوبة لا تتجاوز جزءًا صغيرًا من الوقت والتكلفة التي تحتاجها OpenAI (وشركات التكنولوجيا الأخرى) لتطوير نموذج لغة كبير خاص بها.

من خلال تحسين البنية المعمارية بذكاء، تم تقليل تكلفة تدريب النموذج والاستدلال بشكل كبير، مما يجعل DeepSeek قادرة على تطوير LLM في غضون 60 يومًا بتكلفة تقل عن 6 ملايين دولار.

بالفعل، تستحق DeepSeek التقدير لأنها تبحث بنشاط عن طرق أفضل لتحسين بنية النموذج والكود. هذه إنذار، لكنها بعيدة عن أن تُطلق عليها "لحظة سبوتنيك".

كل مطور يعرف أن هناك طريقتين لتحسين الأداء: تحسين الكود، أو "إغراق" كمية كبيرة من موارد الحوسبة. الخيار الثاني مكلف للغاية، لذا يتم دائمًا نصح المطورين بتحقيق أقصى استفادة من تحسين الهيكل قبل زيادة موارد الحوسبة.

ومع ذلك، مع ارتفاع تقييمات شركات الذكاء الاصطناعي الناشئة وتدفق الاستثمارات الضخمة، يبدو أن المطورين أصبحوا كسالى. إذا كانت لديهم ميزانية تصل إلى عدة مليارات من الدولارات، فلماذا يقضون الوقت في تحسين بنية النماذج؟

هذه تحذير لجميع المطورين: العودة إلى الأساسيات، الابتكار بمسؤولية، الخروج من منطقة الراحة، التفكير خارج الصندوق، وعدم الخوف من تحدي القواعد. لا داعي لإهدار المال والموارد - يجب استخدامها بحكمة.

مثل غيره من نماذج اللغة الكبيرة، لا يزال DeepSeek R1 يعاني من نقص واضح في قدرات الاستدلال والتخطيط المعقد وفهم العالم الفيزيائي والذاكرة الدائمة. لذلك، لا توجد هنا أي ابتكارات ثورية.

لقد حان الوقت للعلماء لتجاوز نماذج اللغة الكبيرة (LLM) ومعالجة هذه القيود وتطوير "نموذج معماري جديد للذكاء الاصطناعي من الجيل التالي". قد لا يكون هذا هو نموذج اللغة الكبير (LLM) أو الذكاء الاصطناعي التوليدي - بل قد تكون ثورة حقيقية.

تمهيد الطريق للإبداع السريع

قد تشجع طريقة DeepSeek المطورين في جميع أنحاء العالم، وخاصة في البلدان النامية، على الابتكار وتطوير تطبيقات الذكاء الاصطناعي الخاصة بهم بغض النظر عن الموارد المتاحة. كلما زاد عدد الأشخاص المشاركين في تطوير الذكاء الاصطناعي، زادت سرعة الابتكار والتطور، وأصبح من المرجح تحقيق اختراقات ذات مغزى.

هذا يتماشى مع رؤية إنفيديا: جعل الذكاء الاصطناعي في متناول الجميع وتمكين كل مطور أو عالم من تطوير تطبيقات الذكاء الاصطناعي الخاصة بهم. هذا هو المعنى من مشروع DIGITS الذي تم الإعلان عنه في أوائل يناير من هذا العام - بطاقة GPU سطح مكتب بسعر 3000 دولار.

يحتاج البشر إلى "مشاركة الجميع" لحل القضايا الملحة. قد لا تكون الموارد عقبة بعد الآن - حان الوقت لكسر النماذج القديمة.

في الوقت نفسه، يعد إطلاق DeepSeek بمثابة تنبيه لإدارة المخاطر القابلة للتنفيذ و الذكاء الاصطناعي المسؤول.

اقرأ الشروط بعناية

تحتوي جميع التطبيقات على شروط خدمة، وغالبًا ما يتجاهل الجمهور هذه الشروط.

بعض التفاصيل المثيرة للقلق في شروط خدمة DeepSeek قد تؤثر على خصوصيتك وأمانك، وحتى استراتيجيتك التجارية:

احتفاظ البيانات: حذف الحساب لا يعني أن البيانات قد تم حذفها - لا يزال DeepSeek يحتفظ ببياناتك.

المراقبة: للتطبيق الحق في مراقبة ومعالجة وجمع مدخلات ومخرجات المستخدم، بما في ذلك المعلومات الحساسة.

كشف قانوني: تخضع DeepSeek للقانون الصيني، مما يعني أن السلطات الوطنية يمكنها الوصول إلى بياناتك ومراقبتها عند الطلب - الحكومة الصينية نشطة في مراقبة بياناتك.

التغيير من جانب واحد: يمكن لـ DeepSeek تحديث الشروط في أي وقت - دون الحاجة إلى موافقتك.

النزاعات والدعاوى: تخضع جميع المطالبات والشؤون القانونية لقوانين جمهورية الصين الشعبية.

السلوك المذكور ينتهك بوضوح اللائحة العامة لحماية البيانات (GDPR) فضلاً عن انتهاكات الخصوصية والأمان الأخرى المدرجة في الشكاوى المقدمة من بلجيكا وأيرلندا وإيطاليا، مما أدى أيضاً إلى حظر مؤقت لاستخدام DeepSeek في هذه الدول.

في مارس 2023، قامت الهيئة التنظيمية الإيطالية بحظر ChatGPT التابع لـ OpenAI مؤقتًا بسبب انتهاك اللائحة العامة لحماية البيانات (GDPR)، حتى تم استئناف الخدمة بعد شهر من تحسين الامتثال. هل سيتبع DeepSeek أيضًا طريق الامتثال؟

التحيز والرقابة

مثل غيره من نماذج اللغة الكبيرة، فإن DeepSeek R1 يعاني من الهلوسة، والتحيزات في بيانات التدريب، ويظهر سلوكًا يتماشى مع الموقف السياسي الصيني في بعض الموضوعات، مثل الرقابة والخصوصية.

كشركة صينية، هذا أمر متوقع. ينص الفصل 4 من "قانون الذكاء الاصطناعي التوليدي" المخصص لمزودي ومستخدمي أنظمة الذكاء الاصطناعي: هذه قاعدة مراجعة. وهذا يعني أن الأشخاص الذين يقومون بتطوير و/أو استخدام الذكاء الاصطناعي التوليدي يجب أن يدعموا "القيم الأساسية للاشتراكية" وأن يمتثلوا للقوانين ذات الصلة في الصين.

هذا لا يعني أن النماذج اللغوية الكبيرة الأخرى لا تمتلك تحيزات وأجندات خاصة بها. هذا يبرز أهمية الذكاء الاصطناعي الموثوق والمسؤول، وأهمية التزام المستخدمين بإدارة مخاطر الذكاء الاصطناعي بشكل صارم.

ثغرات الأمان في LLM

قد تتعرض نماذج LLM للهجمات العدائية والثغرات الأمنية. هذه الثغرات تثير القلق بشكل خاص لأنها ستؤثر على أي منظمة أو فرد يعتمد على التطبيقات المبنية على هذا النموذج.

قامت شركة Qualys بإجراء اختبار ضعف وتقييم المخاطر الأخلاقية والقانونية على النسخة المختصرة من LLaMA 8B الخاصة بـ DeepSeek-R1. فشل النموذج في نصف اختبارات الاختراق - أي الهجمات التي تتجاوز التدابير الأمنية والمعايير الأخلاقية المدمجة في نموذج الذكاء الاصطناعي.

تدرس جولدمان ساكس استخدام DeepSeek، لكن يحتاج ذلك إلى مراجعة أمنية، مثل هجمات الحقن واختبارات الهروب من السجن. بغض النظر عما إذا كان النموذج مصدره الصين، فإن هناك مخاطر أمنية لأي شركة قبل استخدام تطبيقات مدفوعة بنماذج الذكاء الاصطناعي.

غولدمان ساكس تتبنى تدابير إدارة المخاطر الصحيحة، وينبغي على المنظمات الأخرى أن تحاكي هذه الممارسة قبل اتخاذ قرار باستخدام DeepSeek.

تلخيص التجارب

يجب علينا أن نظل يقظين ومجتهدين، ونعمل على تنفيذ إدارة مخاطر كافية قبل استخدام أي نظام أو تطبيق ذكاء اصطناعي. للتخفيف من أي تحيز "أجندة" ومشكلات الرقابة ناتجة عن LLM، يمكننا أن نفكر في اعتماد الذكاء الاصطناعي اللامركزي، ويفضل أن يكون ذلك في شكل منظمة مستقلة لامركزية (DAO). الذكاء الاصطناعي بلا حدود، وربما تكون هذه هي اللحظة المناسبة للتفكير في وضع تنظيمات عالمية موحدة للذكاء الاصطناعي.

المؤلف: الدكتورة ميراف أوزاير

المواضيع ذات الصلة: كيف يمكن أن تحقق المالية اللامركزية (DeFi) التنمية الآمنة على نطاق واسع في عصر الذكاء الاصطناعي (AI)

هذه المقالة مخصصة لأغراض المعلومات العامة فقط، وليست، ولا ينبغي اعتبارها، نصيحة قانونية أو استثمارية. الآراء والأفكار والمواقف المعبر عنها في هذه المقالة تمثل فقط رأي المؤلف، ولا تعكس بالضرورة أو تمثل وجهات نظر أو مواقف Cointelegraph.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت