Trusta.AI : Combler le fossé de confiance entre l'homme et la machine
1. Introduction
Avec la maturation rapide des infrastructures d'intelligence artificielle et le développement rapide des cadres de collaboration multi-agents, les agents en chaîne propulsés par l'IA deviennent la force principale des interactions Web3. Dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de décision autonome pourraient remplacer 80 % des comportements humains en chaîne, devenant de véritables "utilisateurs" en chaîne.
Cependant, l'essor rapide des agents IA a également apporté des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Dans un réseau décentralisé et sans autorisation, comment s'assurer que ces agents ne soient pas abusés ou manipulés ?
Ainsi, établir une infrastructure on-chain capable de vérifier l'identité et la réputation des agents IA est devenu le sujet central de la prochaine étape d'évolution du Web3. La conception de l'identification, des mécanismes de réputation et du cadre de confiance déterminera si les agents IA peuvent réellement réaliser une collaboration transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Présentation du projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification réelle et de réputation en chaîne de Web3. Il fournit des analyses de données en chaîne et des services de certification réelle pour plusieurs blockchains de premier plan, échanges et protocoles de tête. Plus de 2,5 millions de certificats en chaîne ont été complétés sur plusieurs chaînes majeures, devenant le plus grand protocole d'identité de l'industrie.
Trusta s'étend de la Proof of Humanity à la Proof of AI Agent, réalisant des mécanismes triples d'établissement d'identité, de quantification d'identité et de protection d'identité pour fournir des services financiers et sociaux en chaîne pour les AI Agents, construisant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 de demain, les agents IA joueront un rôle crucial. Ils pourront non seulement effectuer des interactions et des transactions sur la chaîne, mais aussi réaliser des opérations complexes hors chaîne. Cependant, la manière de distinguer les véritables agents IA des opérations influencées par l'homme touche au cœur de la confiance décentralisée. Sans un mécanisme d'authentification d'identité fiable, ces agents intelligents sont facilement manipulables, sujets à la fraude ou à l'abus. C'est pourquoi les multiples attributs d'application des agents IA, tels que les aspects sociaux, financiers et de gouvernance, doivent être basés sur une solide fondation d'authentification d'identité.
Les scénarios d'application des agents AI deviennent de plus en plus riches, couvrant de nombreux domaines tels que l'interaction sociale, la gestion financière et la prise de décision en matière de gouvernance, avec un niveau d'autonomie et d'intelligence en constante amélioration. C'est pourquoi il est crucial de s'assurer que chaque agent intelligent possède une identité unique et fiable (DID). En l'absence d'une vérification d'identité efficace, les agents AI peuvent être usurpés ou manipulés, entraînant un effondrement de la confiance et des risques pour la sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents à l'avenir, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais aussi une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI a construit en premier un mécanisme de certification DID pour les agents IA complet, grâce à sa technologie de pointe et à son système de réputation rigoureux, offrant une solide garantie pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.
2.3 Aperçu du projet
2.3.1 Situation de financement
Janvier 2023 : 300 millions de dollars de financement de seed levés, dirigés par SevenX Ventures et Vision Plus Capital, avec d'autres participants tels que HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'un nouveau tour de financement, les investisseurs incluent ConsenSys, Starknet, GSR, UFLY Labs, etc.
2.3.2 État de l'équipe
Peet Chen : co-fondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur des produits chez Ant Security Technology, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.
Simon : cofondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, possède quinze ans d'expérience dans l'application de la technologie de l'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe possède une solide expertise technique et une expérience pratique dans le domaine de l'intelligence artificielle et de la gestion des risques de sécurité, ainsi que dans l'architecture des systèmes de paiement et les mécanismes d'authentification. Elle est engagée depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans la conception de protocoles de base et l'optimisation de la sécurité dans des environnements de transactions à forte concurrence, avec de solides capacités d'ingénierie et la capacité de mettre en œuvre des solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 Établissement de l'identité - DID+TEE
Grâce à des plugins dédiés, chaque agent AI obtient un identifiant décentralisé unique sur la chaîne (DID), qui est stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement en boîte noire, les données clés et les processus de calcul sont complètement cachés, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails internes de fonctionnement, établissant ainsi une barrière solide pour la sécurité des informations des agents AI.
Pour les agents qui ont été générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de notation intégré sur la blockchain pour l'identification; tandis que les agents nouvellement intégrés au plugin peuvent directement obtenir le "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI qui est autonome, authentique et non falsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage toujours à respecter les principes d'évaluation rigoureuse et d'analyse quantitative, s'efforçant de créer un système d'authentification d'identité professionnel et fiable.
L'équipe Trusta a d'abord construit et validé l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne à partir de cinq dimensions, à savoir : le montant des interactions (Monétaire), l'engagement (Engagement), la diversité (Diversité), l'identité (Identité) et l'âge (Âge).
Le Score MEDIA est un système d'évaluation de la valeur utilisateur sur la chaîne, équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par plusieurs grandes chaînes de blocs comme un critère de référence important pour la sélection des projets d'airdrop. Il ne se concentre pas uniquement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge du compte, aidant ainsi les porteurs de projet à identifier avec précision les utilisateurs à forte valeur ajoutée, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa large reconnaissance dans l'industrie.
Sur la base de la construction réussie d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score dans le cadre des agents AI, établissant un système d'évaluation Sigma mieux adapté à la logique comportementale des agents intelligents.
Spécialisation : connaissances et degré de spécialisation des agents.
Influence: influence sociale et numérique de l'agent.
Engagement : la cohérence et la fiabilité de ses interactions en chaîne et hors chaîne.
Monétaire : la santé financière et la stabilité de l'écosystème des jetons d'agence.
Taux d'adoption : Fréquence et efficacité de l'utilisation des agents AI.
Le mécanisme de notation Sigma construit un système d'évaluation en boucle logique allant de "capacité" à "valeur" basé sur cinq dimensions. MEDIA se concentre sur l'évaluation de la participation multidimensionnelle des utilisateurs humains, tandis que Sigma se concentre davantage sur la spécialisation et la stabilité des agents IA dans des domaines spécifiques, reflétant une transition de la largeur à la profondeur, plus conforme aux besoins des agents IA.
Tout d'abord, sur la base des capacités professionnelles ( Specification ), le degré de participation ( Engagement ) reflète s'il s'engage de manière stable et continue dans des interactions pratiques, ce qui est un soutien clé pour établir la confiance et l'efficacité futures. L'influence ( Influence ) est le retour de réputation généré après la participation dans une communauté ou un réseau, représentant la crédibilité de l'agent et l'effet de diffusion. La monétarité ( Monetary ) évalue sa capacité à accumuler de la valeur et sa stabilité financière dans le système économique, établissant ainsi une base pour un mécanisme d'incitation durable. Enfin, le taux d'adoption ( Adoption ) est utilisé comme une représentation globale, indiquant le degré d'acceptation de cet agent dans une utilisation réelle, validant ainsi toutes les capacités et performances préalables.
Ce système est stratifié, avec une structure claire, capable de refléter de manière exhaustive les qualités globales et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant les qualités abstraites en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de collaborations avec des réseaux d'agents AI connus tels que Virtual, Elisa OS et Swarm, montrant son énorme potentiel d'application dans la gestion de l'identité des agents AI et la construction de systèmes de réputation, devenant progressivement le moteur central de la promotion de l'infrastructure AI fiable.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans un véritable système d'IA à haute résilience et haute confiance, la clé n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de cette identité. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents certifiés pour déterminer s'ils sont sous contrôle illégal, s'ils subissent des attaques, ou s'ils font l'objet d'interventions humaines non autorisées. Le système identifie les écarts potentiels dans le fonctionnement des agents grâce à l'analyse comportementale et à l'apprentissage automatique, garantissant que chaque action de l'agent reste dans les limites des stratégies et cadres établis. Cette approche proactive permet de détecter immédiatement toute déviation par rapport au comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de sécurité toujours en ligne, examinant en temps réel chaque interaction pour s'assurer que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Introduction du produit
3.2.1 AgentGo
Trusta.AI attribue une identité décentralisée à chaque Agent AI sur la chaîne (DID), et évalue et indexe sa confiance sur la base des données comportementales de la chaîne, construisant un système de confiance vérifiable et traçable pour les Agents AI. Grâce à ce système, les utilisateurs peuvent identifier et sélectionner efficacement des agents intelligents de haute qualité, améliorant ainsi l'expérience utilisateur. Actuellement, Trusta a terminé la collecte et l'identification de tous les Agents AI sur le réseau, leur attribuant des identifiants décentralisés et établissant une plateforme d'indexation résumée unifiée ------ AgentGo, favorisant ainsi le développement sain de l'écosystème des agents intelligents.
Vérification et validation de l'identité par les utilisateurs humains :
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et le score de réputation d'un agent AI, pour déterminer s'il est fiable.
Scénario de chat de groupe social : dans une équipe de projet utilisant un bot IA pour gérer la communauté ou s'exprimer, les utilisateurs de la communauté peuvent vérifier via le Dashboard si cette IA est un véritable agent autonome, afin d'éviter d'être induits en erreur ou manipulés par de "fausses IA".
Appel automatique de l'index et validation par l'agent AI :
Les intelligences artificielles peuvent lire directement l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant la sécurité de la collaboration et de l'échange d'informations.
Scénario de réglementation financière : Si un agent IA émet de manière autonome une monnaie, le système peut directement indexer son DID et sa note, déterminer s'il s'agit d'un agent IA certifié, et se connecter automatiquement à des plateformes telles que CoinMarketCap, facilitant le suivi de la circulation de ses actifs et de la conformité de l'émission.
Scénario de vote de gouvernance : Lors de l'introduction du vote AI dans les propositions de gouvernance, le système peut vérifier si ceux qui initient ou participent au vote sont de réels agents AI, évitant ainsi que les droits de vote ne soient contrôlés et abusés par des humains.
Prêts de crédit DeFi : Les protocoles de prêt peuvent accorder à l'agent AI des montants de prêt de crédit différents basés sur le système de notation SIGMA, formant ainsi des relations financières natives entre les agents.
L'AGENT AI DID n'est plus seulement une "identité", mais constitue également le soutien fondamental pour la construction de fonctionnalités clés telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure essentielle au développement de l'écosystème AI natif. Avec la mise en place de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, permettant une collaboration efficace et une interconnexion des fonctionnalités entre les AGENTS AI.
Basé sur la loi de Metcalfe, la valeur du réseau connaîtra une croissance exponentielle, favorisant ainsi la création d'un écosystème d'agents IA plus efficace, fondé sur la confiance et la capacité de collaboration, permettant le partage de ressources, la réutilisation des capacités et la valorisation continue entre les agents.
AgentGo, en tant que première infrastructure d'identité fiable pour les agents d'IA, fournit un soutien essentiel pour la construction d'un écosystème intelligent à haute sécurité et à haute collaboration.
3.2.2 TrustGo
TrustGo est un outil de gestion d'identité sur blockchain développé par Trusta, qui fournit une évaluation basée sur les informations de cette interaction, de l'"âge" du portefeuille, du volume des transactions et du montant des transactions. De plus, TrustGo offre également des services sur blockchain.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
7
Partager
Commentaire
0/400
MeltdownSurvivalist
· 07-25 03:16
Tsk tsk, on veut tout faire faire par l'IA.
Voir l'originalRépondre0
Web3ExplorerLin
· 07-24 20:17
*ajuste ses lunettes académiques* parallèle fascinant avec l'allégorie de la caverne de Platon à vrai dire... agents IA = ombres digitales ?
Voir l'originalRépondre0
¯\_(ツ)_/¯
· 07-22 15:07
Les Bots peuvent-ils vraiment se venger ?
Voir l'originalRépondre0
ShamedApeSeller
· 07-22 09:11
La fiabilité de la blockchain dépend principalement des personnes, l'IA n'est qu'un outil.
Voir l'originalRépondre0
GigaBrainAnon
· 07-22 09:05
Laissez les machines mentir pour que nous puissions voir.
Voir l'originalRépondre0
DefiPlaybook
· 07-22 09:00
Bots prendre les gens pour des idiots est aussi des gens.
Voir l'originalRépondre0
VibesOverCharts
· 07-22 08:56
Tu ne sauras jamais si cette IA est en train de te tromper.
Trusta.AI : Construire une infrastructure d'identification et de crédibilité Web3 qui transcende l'ère homme-machine
Trusta.AI : Combler le fossé de confiance entre l'homme et la machine
1. Introduction
Avec la maturation rapide des infrastructures d'intelligence artificielle et le développement rapide des cadres de collaboration multi-agents, les agents en chaîne propulsés par l'IA deviennent la force principale des interactions Web3. Dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de décision autonome pourraient remplacer 80 % des comportements humains en chaîne, devenant de véritables "utilisateurs" en chaîne.
Cependant, l'essor rapide des agents IA a également apporté des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Dans un réseau décentralisé et sans autorisation, comment s'assurer que ces agents ne soient pas abusés ou manipulés ?
Ainsi, établir une infrastructure on-chain capable de vérifier l'identité et la réputation des agents IA est devenu le sujet central de la prochaine étape d'évolution du Web3. La conception de l'identification, des mécanismes de réputation et du cadre de confiance déterminera si les agents IA peuvent réellement réaliser une collaboration transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Présentation du projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification réelle et de réputation en chaîne de Web3. Il fournit des analyses de données en chaîne et des services de certification réelle pour plusieurs blockchains de premier plan, échanges et protocoles de tête. Plus de 2,5 millions de certificats en chaîne ont été complétés sur plusieurs chaînes majeures, devenant le plus grand protocole d'identité de l'industrie.
Trusta s'étend de la Proof of Humanity à la Proof of AI Agent, réalisant des mécanismes triples d'établissement d'identité, de quantification d'identité et de protection d'identité pour fournir des services financiers et sociaux en chaîne pour les AI Agents, construisant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 de demain, les agents IA joueront un rôle crucial. Ils pourront non seulement effectuer des interactions et des transactions sur la chaîne, mais aussi réaliser des opérations complexes hors chaîne. Cependant, la manière de distinguer les véritables agents IA des opérations influencées par l'homme touche au cœur de la confiance décentralisée. Sans un mécanisme d'authentification d'identité fiable, ces agents intelligents sont facilement manipulables, sujets à la fraude ou à l'abus. C'est pourquoi les multiples attributs d'application des agents IA, tels que les aspects sociaux, financiers et de gouvernance, doivent être basés sur une solide fondation d'authentification d'identité.
Les scénarios d'application des agents AI deviennent de plus en plus riches, couvrant de nombreux domaines tels que l'interaction sociale, la gestion financière et la prise de décision en matière de gouvernance, avec un niveau d'autonomie et d'intelligence en constante amélioration. C'est pourquoi il est crucial de s'assurer que chaque agent intelligent possède une identité unique et fiable (DID). En l'absence d'une vérification d'identité efficace, les agents AI peuvent être usurpés ou manipulés, entraînant un effondrement de la confiance et des risques pour la sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents à l'avenir, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais aussi une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI a construit en premier un mécanisme de certification DID pour les agents IA complet, grâce à sa technologie de pointe et à son système de réputation rigoureux, offrant une solide garantie pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.
2.3 Aperçu du projet
2.3.1 Situation de financement
Janvier 2023 : 300 millions de dollars de financement de seed levés, dirigés par SevenX Ventures et Vision Plus Capital, avec d'autres participants tels que HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'un nouveau tour de financement, les investisseurs incluent ConsenSys, Starknet, GSR, UFLY Labs, etc.
2.3.2 État de l'équipe
Peet Chen : co-fondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur des produits chez Ant Security Technology, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.
Simon : cofondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, possède quinze ans d'expérience dans l'application de la technologie de l'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe possède une solide expertise technique et une expérience pratique dans le domaine de l'intelligence artificielle et de la gestion des risques de sécurité, ainsi que dans l'architecture des systèmes de paiement et les mécanismes d'authentification. Elle est engagée depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans la conception de protocoles de base et l'optimisation de la sécurité dans des environnements de transactions à forte concurrence, avec de solides capacités d'ingénierie et la capacité de mettre en œuvre des solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 Établissement de l'identité - DID+TEE
Grâce à des plugins dédiés, chaque agent AI obtient un identifiant décentralisé unique sur la chaîne (DID), qui est stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement en boîte noire, les données clés et les processus de calcul sont complètement cachés, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails internes de fonctionnement, établissant ainsi une barrière solide pour la sécurité des informations des agents AI.
Pour les agents qui ont été générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de notation intégré sur la blockchain pour l'identification; tandis que les agents nouvellement intégrés au plugin peuvent directement obtenir le "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI qui est autonome, authentique et non falsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage toujours à respecter les principes d'évaluation rigoureuse et d'analyse quantitative, s'efforçant de créer un système d'authentification d'identité professionnel et fiable.
L'équipe Trusta a d'abord construit et validé l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne à partir de cinq dimensions, à savoir : le montant des interactions (Monétaire), l'engagement (Engagement), la diversité (Diversité), l'identité (Identité) et l'âge (Âge).
Le Score MEDIA est un système d'évaluation de la valeur utilisateur sur la chaîne, équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par plusieurs grandes chaînes de blocs comme un critère de référence important pour la sélection des projets d'airdrop. Il ne se concentre pas uniquement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge du compte, aidant ainsi les porteurs de projet à identifier avec précision les utilisateurs à forte valeur ajoutée, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa large reconnaissance dans l'industrie.
Sur la base de la construction réussie d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score dans le cadre des agents AI, établissant un système d'évaluation Sigma mieux adapté à la logique comportementale des agents intelligents.
Le mécanisme de notation Sigma construit un système d'évaluation en boucle logique allant de "capacité" à "valeur" basé sur cinq dimensions. MEDIA se concentre sur l'évaluation de la participation multidimensionnelle des utilisateurs humains, tandis que Sigma se concentre davantage sur la spécialisation et la stabilité des agents IA dans des domaines spécifiques, reflétant une transition de la largeur à la profondeur, plus conforme aux besoins des agents IA.
Tout d'abord, sur la base des capacités professionnelles ( Specification ), le degré de participation ( Engagement ) reflète s'il s'engage de manière stable et continue dans des interactions pratiques, ce qui est un soutien clé pour établir la confiance et l'efficacité futures. L'influence ( Influence ) est le retour de réputation généré après la participation dans une communauté ou un réseau, représentant la crédibilité de l'agent et l'effet de diffusion. La monétarité ( Monetary ) évalue sa capacité à accumuler de la valeur et sa stabilité financière dans le système économique, établissant ainsi une base pour un mécanisme d'incitation durable. Enfin, le taux d'adoption ( Adoption ) est utilisé comme une représentation globale, indiquant le degré d'acceptation de cet agent dans une utilisation réelle, validant ainsi toutes les capacités et performances préalables.
Ce système est stratifié, avec une structure claire, capable de refléter de manière exhaustive les qualités globales et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant les qualités abstraites en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de collaborations avec des réseaux d'agents AI connus tels que Virtual, Elisa OS et Swarm, montrant son énorme potentiel d'application dans la gestion de l'identité des agents AI et la construction de systèmes de réputation, devenant progressivement le moteur central de la promotion de l'infrastructure AI fiable.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans un véritable système d'IA à haute résilience et haute confiance, la clé n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de cette identité. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents certifiés pour déterminer s'ils sont sous contrôle illégal, s'ils subissent des attaques, ou s'ils font l'objet d'interventions humaines non autorisées. Le système identifie les écarts potentiels dans le fonctionnement des agents grâce à l'analyse comportementale et à l'apprentissage automatique, garantissant que chaque action de l'agent reste dans les limites des stratégies et cadres établis. Cette approche proactive permet de détecter immédiatement toute déviation par rapport au comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de sécurité toujours en ligne, examinant en temps réel chaque interaction pour s'assurer que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Introduction du produit
3.2.1 AgentGo
Trusta.AI attribue une identité décentralisée à chaque Agent AI sur la chaîne (DID), et évalue et indexe sa confiance sur la base des données comportementales de la chaîne, construisant un système de confiance vérifiable et traçable pour les Agents AI. Grâce à ce système, les utilisateurs peuvent identifier et sélectionner efficacement des agents intelligents de haute qualité, améliorant ainsi l'expérience utilisateur. Actuellement, Trusta a terminé la collecte et l'identification de tous les Agents AI sur le réseau, leur attribuant des identifiants décentralisés et établissant une plateforme d'indexation résumée unifiée ------ AgentGo, favorisant ainsi le développement sain de l'écosystème des agents intelligents.
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et le score de réputation d'un agent AI, pour déterminer s'il est fiable.
Les intelligences artificielles peuvent lire directement l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant la sécurité de la collaboration et de l'échange d'informations.
L'AGENT AI DID n'est plus seulement une "identité", mais constitue également le soutien fondamental pour la construction de fonctionnalités clés telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure essentielle au développement de l'écosystème AI natif. Avec la mise en place de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, permettant une collaboration efficace et une interconnexion des fonctionnalités entre les AGENTS AI.
Basé sur la loi de Metcalfe, la valeur du réseau connaîtra une croissance exponentielle, favorisant ainsi la création d'un écosystème d'agents IA plus efficace, fondé sur la confiance et la capacité de collaboration, permettant le partage de ressources, la réutilisation des capacités et la valorisation continue entre les agents.
AgentGo, en tant que première infrastructure d'identité fiable pour les agents d'IA, fournit un soutien essentiel pour la construction d'un écosystème intelligent à haute sécurité et à haute collaboration.
3.2.2 TrustGo
TrustGo est un outil de gestion d'identité sur blockchain développé par Trusta, qui fournit une évaluation basée sur les informations de cette interaction, de l'"âge" du portefeuille, du volume des transactions et du montant des transactions. De plus, TrustGo offre également des services sur blockchain.