Trusta.AI: بناء بنية تحتية للهوية والسمعة في Web3 تتجاوز عصر الإنسان والآلة

Trusta.AI: جسر الثقة بين الإنسان والآلة في عصر الذكاء الاصطناعي

1. المقدمة

مع النضج السريع لبنية الذكاء الاصطناعي التحتية والتطور السريع لأطر التعاون بين العوامل المتعددة، أصبحت الوكلاء المدعومين بالذكاء الاصطناعي القوة الدافعة وراء التفاعلات في Web3. في غضون 2-3 سنوات القادمة، قد تحل هذه العوامل الذكية القادرة على اتخاذ قرارات مستقلة محل 80% من السلوك البشري على السلسلة، لتصبح "المستخدمين" الحقيقيين على السلسلة.

ومع ذلك، فإن الارتفاع السريع لوكلاء الذكاء الاصطناعي قد جلب أيضًا تحديات غير مسبوقة: كيف يمكن التعرف على هوية هؤلاء الوكلاء والمصادقة عليها؟ كيف يمكن تقييم مصداقية تصرفاتهم؟ في شبكة لامركزية وغير مرخصة، كيف يمكن ضمان عدم استغلال أو تلاعب هؤلاء الوكلاء؟

لذلك، فإن إنشاء بنية تحتية على السلسلة قادرة على التحقق من هوية وسمعة وكيل الذكاء الاصطناعي قد أصبح محور التطور في المرحلة التالية من Web3. ستحدد تصميم آليات التعرف على الهوية وسمعة النظام وإطار الثقة ما إذا كان بإمكان وكيل الذكاء الاصطناعي تحقيق التعاون السلس مع البشر والمنصات، ولعب دور مستدام في النظام البيئي المستقبلي.

Trusta.AI: جسر الفجوة في الثقة بين الإنسان والآلة

2. تحليل المشروع

2.1 مقدمة المشروع

تسعى Trusta.AI لبناء بنية تحتية للهويات والسمعة في Web3 من خلال الذكاء الاصطناعي.

أطلقت Trusta.AI أول نظام تقييم لقيمة مستخدمي Web3 - نظام تقييم السمعة MEDIA، مما أسس أكبر بروتوكول للشهادات الحقيقية والسمعة على السلسلة في Web3. تقدم خدمات تحليل البيانات على السلسلة والشهادات الحقيقية للعديد من سلاسل البلوكتشين الكبرى، والبورصات، والبروتوكولات الرائدة. تم الانتهاء من أكثر من 2.5 مليون شهادة على السلسلة على العديد من سلاسل البلوكتشين الرئيسية، مما جعلها أكبر بروتوكول هوية في الصناعة.

تقوم Trusta بالتوسع من إثبات الإنسانية إلى إثبات وكيل الذكاء الاصطناعي، لتحقيق خدمات مالية على السلسلة للوكيل الذكاء الاصطناعي وتحقيق التواصل الاجتماعي على السلسلة من خلال إنشاء الهوية، وتكميم الهوية، وحماية الهوية، مما يبني أساس موثوق للثقة في عصر الذكاء الاصطناعي.

2.2 بنية تحتية موثوقة - وكيل الذكاء الاصطناعي DID

في نظام Web3 البيئي في المستقبل، ستلعب وكيل الذكاء الاصطناعي دورًا حاسمًا، حيث يمكنهم إجراء التفاعلات والمعاملات على السلسلة، وكذلك القيام بعمليات معقدة خارج السلسلة. ومع ذلك، فإن كيفية التمييز بين وكيل الذكاء الاصطناعي الحقيقي والتدخل البشري في العمليات تتعلق بجوهر الثقة اللامركزية. إذا لم يكن هناك آلية موثوقة للتحقق من الهوية، فإن هؤلاء الوكلاء سيكونون عرضة للتلاعب أو الاحتيال أو إساءة الاستخدام. وهذا هو السبب في أن الخصائص المتعددة لوكيل الذكاء الاصطناعي في المجالات الاجتماعية والمالية والإدارية يجب أن تكون مبنية على أساس قوي من التحقق من الهوية.

تتزايد تطبيقات وكيل الذكاء الاصطناعي بشكل متنوع، حيث تشمل التفاعل الاجتماعي وإدارة المالية واتخاذ القرارات الحكومية وغيرها من المجالات، مع ارتفاع مستوى استقلاليتها وذكائها. ومن هنا، فإن ضمان أن يمتلك كل وكيل هوية فريدة وموثوقة (DID) أمر بالغ الأهمية. إن عدم وجود تحقق فعال من الهوية قد يؤدي إلى استغلال أو تحكم في وكيل الذكاء الاصطناعي، مما يؤدي إلى انهيار الثقة ومخاطر أمنية.

في نظام Web3 البيئي المدفوع بالكامل بواسطة الذكاء الاصطناعي في المستقبل، لا تعتبر مصادقة الهوية فقط حجر الزاوية لضمان الأمان، بل هي أيضًا خط الدفاع الضروري للحفاظ على التشغيل الصحي للنظام البيئي بأسره.

باعتبارها رائدة في هذا المجال، قامت Trusta.AI بفضل قوتها التكنولوجية الرائدة ونظامها الائتماني الصارم، بإنشاء آلية مصادقة AI Agent DID المتكاملة، مما يوفر ضمانًا قويًا للتشغيل الموثوق للوكيل الذكي، ويعمل على منع المخاطر المحتملة، ويدفع نحو تطوير اقتصادي ذكي مستدام في Web3.

! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة

2.3 نظرة عامة على المشروع

2.3.1 حالة التمويل

يناير 2023: تم الانتهاء من جمع 3 ملايين دولار في جولة تمويل أولية، بقيادة SevenX Ventures و Vision Plus Capital، وشارك فيها مستثمرون آخرون مثل HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding.

يونيو 2025: إكمال جولة تمويل جديدة، تشمل المستثمرين ConsenSys و Starknet و GSR و UFLY Labs وغيرها

2.3.2 وضع الفريق

بيت تشن: المؤسس المشارك والرئيس التنفيذي، نائب رئيس مجموعة أنتي الرقمية سابقاً، كبير مسؤولي المنتجات في أنتي للأمن التكنولوجي سابقاً، المدير العام لمنصة زولوز العالمية للهوية الرقمية سابقاً.

سيمون: المؤسس المشارك ورئيس قسم التقنية، السابق لرئيس مختبر الأمان الذكي في مجموعة علي بابا، لديه خمسة عشر عامًا من الخبرة في تطبيق تقنيات الذكاء الاصطناعي في الأمان وإدارة المخاطر.

تتمتع الفريق بتراكم تقني عميق وخبرة عملية في مجالات الذكاء الاصطناعي وإدارة المخاطر الأمنية، وبنية نظم الدفع وآليات التحقق من الهوية. لقد كرسوا جهودهم لفترة طويلة لتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات التداول ذات الحمل العالي، مما يمنحهم قدرة هندسية قوية وقدرة على تنفيذ حلول مبتكرة.

3. الهيكل التكنولوجي

3.1 تحليل تقني

3.1.1 إنشاء الهوية - DID + TEE

من خلال ملحق مخصص، يحصل كل وكيل ذكاء اصطناعي على معرف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بأمان في بيئة تنفيذ موثوقة (TEE). في هذه البيئة المغلقة، يتم إخفاء البيانات الحساسة وعمليات الحساب تمامًا، وتظل العمليات الحساسة خاصة دائمًا، ولا يمكن للجهات الخارجية التطفل على تفاصيل التشغيل الداخلية، مما يشكل حاجزًا قويًا لأمان معلومات وكيل الذكاء الاصطناعي.

بالنسبة للوكلاء الذين تم إنشاؤهم قبل إدخال المكون الإضافي، نعتمد على آلية التقييم الشامل على السلسلة للتعرف على الهوية؛ بينما يمكن للوكلاء الذين تم إدخالهم حديثًا الحصول مباشرةً على "شهادة الهوية" الصادرة عن DID، مما يؤدي إلى إنشاء نظام هوية لوكيل الذكاء الاصطناعي يتمتع بالتحكم الذاتي والصدق وعدم القابلية للتلاعب.

3.1.2 قياس الهوية - إطار SIGMA الرائد

تتمسك فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي، وتسعى لبناء نظام موثوق للاعتماد على الهوية.

بنى فريق Trusta في البداية وحقق فعالية نموذج MEDIA Score في سيناريو "إثبات الإنسان". يقوم هذا النموذج بتقييم صورة المستخدمين على السلسلة من خمسة أبعاد، وهي: المبلغ المتفاعل (Monetary)، مستوى المشاركة (Engagement)، التنوع (Diversity)، الهوية (Identity) والعمر (Age).

MEDIA Score هو نظام تقييم لقيمة المستخدمين على السلسلة يتمتع بالإنصاف والموضوعية والقابلية للقياس. بفضل أبعاده الشاملة وطرقه الدقيقة، تم اعتماده على نطاق واسع من قبل العديد من سلاسل الكتل الرائدة كمعيار مرجعي مهم في تصفية مؤهلات الاستثمارات المجانية. إنه لا يركز فقط على قيمة التفاعلات، بل يشمل أيضًا مؤشرات متعددة مثل مستوى النشاط، تنوع العقود، خصائص الهوية، وعمر الحساب، مما يساعد المشاريع على تحديد المستخدمين ذوي القيمة العالية بدقة، وزيادة كفاءة وإنصاف توزيع الحوافز، مما يعكس سلطته واعترافه الواسع في الصناعة.

استنادًا إلى النجاح في بناء نظام تقييم مستخدمين بشريين، قامت Trusta بنقل وتحسين تجربة MEDIA Score إلى سيناريو وكيل الذكاء الاصطناعي، وأنشأت نظام تقييم Sigma الذي يتناسب بشكل أفضل مع منطق سلوك الوكلاء الذكيين.

  • التخصص Specification: المعرفة المتخصصة ودرجة التخصص للوكيل.
  • التأثير: التأثير الاجتماعي والرقمي للوكيل.
  • المشاركة Engagement: اتساق وموثوقية التفاعلات على السلسلة وخارجها.
  • النقدية: صحة واستقرار النظام البيئي لرموز الوكالة.
  • معدل الاعتماد: تكرار وكفاءة استخدام الوكلاء الذكية.

تقوم آلية تقييم Sigma ببناء نظام تقييم منطقي دائري من "القدرة" إلى "القيمة" عبر خمسة أبعاد. تركز MEDIA على تقييم تعدد مشاركات المستخدمين البشر، بينما تركز Sigma بشكل أكبر على احترافية واستقرار الوكلاء الذكيين في مجالات معينة، مما يعكس التحول من العمق إلى العرض، ويتماشى بشكل أفضل مع احتياجات الوكلاء الذكيين.

أولاً، بناءً على القدرة المهنية ( Specification )، يعكس مستوى المشاركة ( Engagement ) ما إذا كان هناك استثمار مستمر ومستقر في التفاعل العملي، وهو دعم رئيسي لبناء الثقة والفعالية المستقبلية. أما التأثير ( Influence ) فهو السمعة الناتجة عن المشاركة في المجتمع أو الشبكة، والتي تعبر عن موثوقية الوكيل وتأثير الانتشار. التقييم النقدي ( Monetary ) يقيم ما إذا كانت لديه قدرة على تراكم القيمة والاستقرار المالي في النظام الاقتصادي، مما يضع الأساس لآلية تحفيز مستدامة. وأخيرًا، يتم استخدام معدل الاعتماد ( Adoption ) كتمثيل شامل، حيث يمثل درجة قبول هذا الوكيل في الاستخدام الفعلي، وهو التحقق النهائي لجميع القدرات والأداء المسبق.

هذا النظام يتقدم بشكل متدرج، وهيكل واضح، قادر على عكس الجودة الشاملة والقيمة البيئية لوكيل الذكاء الاصطناعي، وبالتالي تحقيق تقييم كمي لأداء الذكاء الاصطناعي وقيمته، وتحويل المزايا والعيوب المجردة إلى نظام تقييم محدد وقابل للقياس.

حالياً، تم推进 إطار عمل SIGMA بالتعاون مع شبكات AI Agent المعروفة مثل Virtual وElisa OS وSwarm، مما يظهر إمكانيته الكبيرة في إدارة هوية وكلاء الذكاء الاصطناعي وبناء أنظمة السمعة، وهو ما يجعله تدريجياً المحرك الأساسي لدفع بناء البنية التحتية للذكاء الاصطناعي الموثوق.

Trusta.AI :تجاوز فجوة الثقة بين الإنسان والآلة

3.1.3 حماية الهوية - آلية تقييم الثقة

في نظام ذكاء اصطناعي عالي المرونة وموثوقية حقيقية، لا يكمن الأمر فقط في إنشاء الهوية، بل في التحقق المستمر من الهوية. تقدم Trusta.AI مجموعة من آليات تقييم الثقة المستمرة، والتي تتيح المراقبة الفورية للوكلاء الذكيين المعتمدين، لتحديد ما إذا كانوا تحت السيطرة غير القانونية، أو تعرضوا لهجوم، أو تأثروا بتدخل بشري غير مصرح به. يقوم النظام بتحديد الانحرافات المحتملة خلال عملية تشغيل الوكلاء من خلال تحليل السلوك والتعلم الآلي، لضمان أن كل سلوك للوكيل يبقى ضمن السياسات والأطر المحددة. تضمن هذه الطريقة الاستباقية الكشف الفوري عن أي انحرافات عن السلوك المتوقع، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكيل.

أنشأت Trusta.AI مجموعة من آليات الحماية المتاحة على مدار الساعة، حيث تراقب كل عملية تفاعل في الوقت الفعلي، لضمان أن جميع العمليات تتوافق مع المعايير النظامية والتوقعات المحددة.

3.2 مقدمة المنتج

3.2.1 AgentGo

تقوم Trusta.AI بتخصيص هوية لامركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتقييمه وتصنيفه بناءً على بيانات السلوك على السلسلة، مما يبني نظام ثقة قابل للتحقق وقابل للتتبع لوكلاء الذكاء الاصطناعي. من خلال هذا النظام، يمكن للمستخدمين التعرف بكفاءة وتصنيف الوكلاء الممتازين، مما يعزز تجربة الاستخدام. حتى الآن، أكملت Trusta جمع وتحديد وكلاء الذكاء الاصطناعي عبر الشبكة بأكملها، ومنحتهم معرفات لامركزية، وأنشأت منصة فهرس موحدة ----- AgentGo، مما يعزز التطور الصحي لنظام الوكلاء الذكيين.

1.استعلام والتحقق من هوية المستخدمين البشريين:

من خلال لوحة المعلومات التي تقدمها Trusta.AI، يمكن للمستخدمين البشريين بسهولة استرجاع هوية ودرجة الثقة لوكيل الذكاء الاصطناعي، لتحديد ما إذا كان موثوقًا.

  • سيناريو الدردشة الاجتماعية: عند استخدام فريق المشروع لروبوت الذكاء الاصطناعي لإدارة المجتمع أو التحدث، يمكن لمستخدمي المجتمع التحقق من خلال لوحة القيادة ما إذا كان هذا الذكاء الاصطناعي هو وكيل ذاتي حقيقي، لتجنب الخداع أو التلاعب من "ذكاء اصطناعي زائف".

2.وكيل الذكاء الاصطناعي يستدعي الفهرس والتحقق تلقائيًا:

يمكن للذكاء الاصطناعي قراءة واجهة الفهرس مباشرة بينهما، مما يحقق التأكيد السريع على الهوية والسمعة لبعضهما البعض، ويضمن سلامة التعاون وتبادل المعلومات.

  • مشهد تنظيم مالي: إذا قام وكيل AI بإصدار عملة بشكل مستقل، يمكن للنظام مباشرةً فهرسة DID الخاص به وتقييمه، لتحديد ما إذا كان وكيل AI معتمد، ويرتبط تلقائيًا بمنصات مثل CoinMarketCap، لمساعدة تتبع تدفق أصوله وامتثال الإصدار.
  • سيناريو التصويت في الحوكمة: عند إدخال التصويت بالذكاء الاصطناعي في مقترحات الحوكمة، يمكن للنظام التحقق مما إذا كان المُطلق أو المشاركون في التصويت هم وكلاء ذكاء اصطناعي حقيقيون، لتجنب استخدام حقوق التصويت من قبل البشر بشكل غير مناسب.
  • الإقراض الائتماني DeFi: يمكن أن تمنح بروتوكولات الإقراض قروضًا ائتمانية مختلفة لوكلاء الذكاء الاصطناعي بناءً على نظام تقييم SIGMA، مما يشكل علاقات مالية أصلية بين الكيانات الذكية.

لم يعد DID لوكالة الذكاء الاصطناعي مجرد "هوية"، بل أصبح الدعامة الأساسية لبناء التعاون الموثوق، والامتثال المالي، وحوكمة المجتمع، وغيرها من الوظائف الأساسية، مما يجعله بنية تحتية ضرورية لتطور النظام البيئي الأصلي للذكاء الاصطناعي. مع بناء هذا النظام، تشكلت جميع العقد المعتمدة كآمنة وموثوقة في شبكة متصلة بشكل وثيق، مما حقق التعاون الفعال والاتصال الوظيفي بين وكالات الذكاء الاصطناعي.

استنادًا إلى قانون ميتكالف، ستزداد قيمة الشبكة بشكل أسي، مما يدفع نحو بناء نظام بيئي لوكلاء الذكاء الاصطناعي أكثر كفاءة وموثوقية وقدرة على التعاون، لتحقيق تبادل الموارد وإعادة استخدام القدرات وزيادة القيمة المستمرة بين الوكلاء.

تعتبر AgentGo كأول بنية تحتية موثوقة للهوية موجهة لوكلاء الذكاء الاصطناعي، حيث توفر دعماً أساسياً لا غنى عنه لبناء بيئة ذكية تتميز بالأمان العالي والتعاون الفعال.

Trusta.AI : جسر الفجوة في الثقة بين الإنسان والآلة

3.2.2 TrustGo

TrustGo هي أداة إدارة الهوية على السلسلة طورتها Trusta، وتقدم تقييمًا بناءً على التفاعل الحالي، "عمر" المحفظة، حجم المعاملات ومبلغ المعاملات. بالإضافة إلى ذلك، توفر TrustGo أيضًا على السلسلة

TA-2.58%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 7
  • مشاركة
تعليق
0/400
MeltdownSurvivalistvip
· 07-25 03:16
تس تس، لماذا يريد الجميع أن يقوم الذكاء الاصطناعي بكل شيء؟
شاهد النسخة الأصليةرد0
Web3ExplorerLinvip
· 07-24 20:17
*يعدل نظاراته الأكاديمية* مقارنة مثيرة مع أسطورة كهف أفلاطون بصراحة... هل الوكلاء الذكاء الاصطناعي = ظلال رقمية؟
شاهد النسخة الأصليةرد0
¯\_(ツ)_/¯vip
· 07-22 15:07
هل ستقوم بوتات بالانتقام حقًا؟
شاهد النسخة الأصليةرد0
ShamedApeSellervip
· 07-22 09:11
البلوكتشين يعتمد على موثوقيته على الأشخاص، الذكاء الاصطناعي مجرد أداة لا أكثر.
شاهد النسخة الأصليةرد0
GigaBrainAnonvip
· 07-22 09:05
دع الآلات تكذب لنرى ذلك بأنفسنا
شاهد النسخة الأصليةرد0
DefiPlaybookvip
· 07-22 09:00
بوتات خداع الناس لتحقيق الربح من الجزر هو جزر.
شاهد النسخة الأصليةرد0
VibesOverChartsvip
· 07-22 08:56
لن تعرف أبداً ما إذا كانت هذه الذكاء الاصطناعي تخدعك أم لا
شاهد النسخة الأصليةرد0
  • تثبيت