Trusta.AI: Cruzando el abismo de confianza entre humanos y máquinas
1. Introducción
Con la rápida madurez de la infraestructura de inteligencia artificial y el rápido desarrollo de los marcos de colaboración de múltiples agentes, los agentes en cadena impulsados por IA están convirtiéndose en la fuerza principal de la interacción en Web3. En los próximos 2-3 años, estos Agentes de IA con capacidad de toma de decisiones autónomas podrían reemplazar el 80% del comportamiento humano en cadena, convirtiéndose en verdaderos "usuarios" en cadena.
Sin embargo, el rápido auge de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo reconocer y certificar la identidad de estos agentes inteligentes? ¿Cómo juzgar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo asegurar que estos agentes no sean abusados o manipulados?
Por lo tanto, establecer una infraestructura en cadena que pueda verificar la identidad y reputación de los Agentes de IA se ha convertido en el tema central de la siguiente fase de evolución de Web3. El diseño de la identificación de identidad, los mecanismos de reputación y el marco de confianza determinarán si los Agentes de IA pueden realmente lograr una colaboración fluida con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.
2. Análisis del proyecto
2.1 Descripción del proyecto
Trusta.AI se dedica a construir infraestructura de identidad y reputación Web3 a través de la IA.
Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario Web3 - MEDIA Reputation Score, construyendo el mayor protocolo de autenticación en tiempo real y reputación en la cadena de Web3. Proporciona análisis de datos en la cadena y servicios de autenticación en tiempo real para múltiples cadenas públicas, intercambios y protocolos líderes. Se han completado más de 2.5 millones de autenticaciones en la cadena en múltiples cadenas principales, convirtiéndose en el mayor protocolo de identidad de la industria.
Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, implementando un mecanismo triple de establecimiento de identidad, cuantificación de identidad y protección de identidad para lograr servicios financieros y sociales en cadena para AI Agent, construyendo una base de confianza confiable en la era de la inteligencia artificial.
2.2 Infraestructura de confianza - Agente AI DID
En el futuro ecosistema Web3, los Agentes de IA desempeñarán un papel crucial, ya que no solo podrán realizar interacciones y transacciones en la cadena, sino también llevar a cabo operaciones complejas fuera de la cadena. Sin embargo, la forma de distinguir entre los verdaderos Agentes de IA y las operaciones influenciadas por humanos está relacionada con el núcleo de la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a la manipulación, el fraude o el abuso. Esta es precisamente la razón por la que las múltiples aplicaciones de los Agentes de IA, como en lo social, financiero y de gobernanza, deben basarse en una sólida base de autenticación de identidad.
Los escenarios de aplicación de los agentes de IA son cada vez más ricos, abarcando múltiples áreas como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, y su nivel de autonomía e inteligencia sigue aumentando. Por ello, es crucial asegurar que cada agente inteligente tenga una identificación única y confiable (DID). La falta de una verificación de identidad efectiva puede llevar a que los agentes de IA sean suplantados o manipulados, lo que resultaría en una pérdida de confianza y riesgos de seguridad.
En un futuro impulsado completamente por agentes en el ecosistema Web3, la autenticación de identidad no solo es la base para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.
Como pionero en este campo, Trusta.AI, con su tecnología de vanguardia y un riguroso sistema de credibilidad, ha construido primero un mecanismo completo de certificación DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente riesgos potenciales y promoviendo el desarrollo sostenible de la economía inteligente de Web3.
2.3 Descripción del proyecto
2.3.1 Situación de financiamiento
Enero de 2023: se completó una ronda de financiación semilla de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con la participación de otros inversionistas como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.
Junio de 2025: Se completará una nueva ronda de financiación, con inversores que incluyen a ConsenSys, Starknet, GSR, UFLY Labs, entre otros.
2.3.2 Situación del equipo
Peet Chen: cofundador y CEO, exvicepresidente del Grupo de Tecnología Digital Ant Group, exdirector de productos de Ant Security Technology, exgerente general de la plataforma de identidad digital global ZOLOZ.
Simon: cofundador y CTO, ex jefe del laboratorio de seguridad AI de Ant Group, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.
El equipo tiene una sólida acumulación técnica y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de verificación de identidad. Se dedica a largo plazo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como al diseño de protocolos de base y la optimización de la seguridad en entornos de transacciones de alta concurrencia, con capacidades de ingeniería sólidas y la capacidad de implementar soluciones innovadoras.
3. Arquitectura técnica
3.1 Análisis técnico
3.1.1 Construcción de identidad - DID + TEE
A través de un complemento dedicado, cada Agente de IA obtiene un identificador descentralizado único (DID) en la cadena y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y el proceso de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen privadas, y el exterior no puede espiar los detalles internos de funcionamiento, construyendo así una sólida barrera de seguridad de la información del Agente de IA.
Para los agentes que se generaron antes de la integración del complemento, nos basamos en el mecanismo de puntuación integral en la cadena para la identificación de identidad; mientras que los agentes que se integran con el nuevo complemento pueden obtener directamente la "certificación de identidad" emitida por DID, estableciendo así un sistema de identidad de Agente de IA que es autónomo, veraz e inmodificable.
3.1.2 Cuantificación de identidades - Marco SIGMA pionero
El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, dedicándose a construir un sistema de certificación de identidad profesional y confiable.
El equipo de Trusta construyó y verificó la eficacia del modelo MEDIA Score en el escenario de "pruebas humanas". Este modelo cuantifica de manera integral el perfil de los usuarios en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetary), participación (Engagement), diversidad (Diversity), identidad (Identity) y edad (Age).
El MEDIA Score es un sistema de evaluación del valor de los usuarios en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y su enfoque riguroso, ha sido ampliamente adoptado por múltiples cadenas de bloques principales como un importante estándar de referencia para la selección de calificaciones de inversión. No solo se centra en el monto de las interacciones, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor, mejorando la eficiencia y la equidad en la distribución de incentivos, y reflejando plenamente su autoridad y reconocimiento en la industria.
Sobre la base de haber construido con éxito un sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma que se ajusta mejor a la lógica de comportamiento de los agentes inteligentes.
Especialización en Especificación: conocimiento y grado de especialización del agente.
Influencia: la influencia social y digital de los agentes.
Participación: la consistencia y fiabilidad de sus interacciones en la cadena y fuera de la cadena.
Monetario: la salud financiera y la estabilidad del ecosistema de tokens de agencia.
Tasa de adopción: Frecuencia y eficiencia del uso de agentes de IA.
El mecanismo de puntuación Sigma construye un sistema de evaluación de bucle lógico que va de "capacidad" a "valor" a través de cinco dimensiones. MEDIA se centra en evaluar el grado de participación multifacética de los usuarios humanos, mientras que Sigma se enfoca más en la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, que se ajusta mejor a las necesidades de los Agentes de IA.
Primero, sobre la base de la capacidad profesional ( Specification ), el grado de participación ( Engagement ) refleja si hay una inversión estable y continua en la interacción práctica, lo cual es un soporte clave para construir la confianza y los efectos posteriores. La influencia ( Influence ) se refiere a la reputación que se genera en la comunidad o red después de la participación, representando la credibilidad del agente y el efecto de difusión. La evaluación monetaria ( Monetary ) determina si posee la capacidad de acumulación de valor y estabilidad financiera dentro del sistema económico, estableciendo una base para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción ( Adoption ) se utiliza como una representación integral, representando el grado de aceptación del agente en el uso real, que es la validación final de todas las capacidades y desempeños previos.
Este sistema es progresivo en varias capas, tiene una estructura clara y puede reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, lo que permite una evaluación cuantitativa del rendimiento y el valor de la IA, transformando las ventajas y desventajas abstractas en un sistema de puntuación concreto y medible.
Actualmente, el marco SIGMA ha promovido la colaboración con redes de agentes de IA reconocidas como Virtual, Elisa OS y Swarm, demostrando su enorme potencial de aplicación en la gestión de identidad de agentes de IA y en la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor central para impulsar la construcción de infraestructura de IA confiable.
3.1.3 Protección de identidad - Mecanismo de evaluación de confianza
En un sistema de IA verdaderamente resiliente y confiable, lo más crítico no es solo el establecimiento de la identidad, sino también la verificación continua de la misma. Trusta.AI introduce un mecanismo de evaluación de confianza continua que puede monitorear en tiempo real a los agentes inteligentes ya certificados para determinar si han sido controlados ilegalmente, han sufrido un ataque o han sido objeto de intervención humana no autorizada. El sistema identifica las desviaciones que pueden ocurrir durante la operación del agente mediante análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.
Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, supervisando en tiempo real cada interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.
3.2 Introducción del producto
3.2.1 AgentGo
Trusta.AI asigna una identidad descentralizada (DID) a cada agente de IA en la cadena, y lo califica y indexa de manera confiable en función de los datos de comportamiento en la cadena, construyendo un sistema de confianza para agentes de IA que es verificable y rastreable. A través de este sistema, los usuarios pueden identificar y seleccionar de manera eficiente agentes inteligentes de alta calidad, mejorando así la experiencia de uso. Actualmente, Trusta ha completado la recopilación e identificación de todos los agentes de IA en la red, y les ha otorgado identificadores descentralizados, estableciendo una plataforma de índice de resumen unificada ------ AgentGo, promoviendo aún más el desarrollo saludable del ecosistema de agentes inteligentes.
Consulta y verificación de identidad de usuarios humanos:
A través del Dashboard proporcionado por Trusta.AI, los usuarios humanos pueden buscar fácilmente la identidad y la puntuación de reputación de un AI Agent, para determinar si es confiable.
Escenario de chat grupal: En un equipo de proyecto que utiliza un Bot de IA para gestionar la comunidad o hablar, los usuarios de la comunidad pueden verificar a través del Dashboard si esa IA es un agente autónomo real, evitando ser engañados o manipulados por "falsos IA".
Llamada automática de índice y verificación del Agente de IA:
Las IA pueden leer directamente la interfaz de índice, logrando una rápida verificación de la identidad y la reputación del otro, asegurando la colaboración y la seguridad en el intercambio de información.
Escenario de supervisión financiera: Si un agente de IA emite monedas de forma autónoma, el sistema puede indexar directamente su DID y calificación, determinar si es un Agente de IA certificado y vincularlo automáticamente a plataformas como CoinMarketCap, ayudando a rastrear la circulación de sus activos y la conformidad de la emisión.
Escenario de votación de gobernanza: Al introducir la votación con IA en las propuestas de gobernanza, el sistema puede verificar si el iniciador o participante de la votación es un verdadero agente de IA, evitando que los derechos de voto sean controlados y abusados por humanos.
Préstamos de crédito DeFi: Los protocolos de préstamos pueden otorgar diferentes montos de préstamos de crédito a los Agentes de IA basándose en el sistema de puntuación SIGMA, formando relaciones financieras nativas entre los agentes.
El DID del Agente de IA ya no es solo una "identidad", sino que se ha convertido en el soporte subyacente para construir funciones clave como la colaboración confiable, el cumplimiento financiero y la gobernanza comunitaria, convirtiéndose en la infraestructura básica necesaria para el desarrollo del ecosistema nativo de IA. Con la construcción de este sistema, todos los nodos confirmados como seguros y confiables forman una red estrechamente interconectada, logrando una colaboración eficiente y una interconexión de funciones entre los Agentes de IA.
Basado en la ley de Metcalfe, el valor de la red crecerá de manera exponencial, lo que impulsará la construcción de un ecosistema de Agentes de IA más eficiente, con una base de confianza más sólida y capacidades de colaboración, logrando el intercambio de recursos, la reutilización de capacidades y la valorización continua entre los agentes.
AgentGo, como la primera infraestructura de identidad confiable dirigida a agentes de IA, está proporcionando un apoyo central indispensable para construir un ecosistema inteligente de alta seguridad y alta colaboración.
3.2.2 TrustGo
TrustGo es una herramienta de gestión de identidad en cadena desarrollada por Trusta, que ofrece una puntuación basada en la interacción actual, la "edad" de la billetera, el volumen de transacciones y el monto de las transacciones. Además, TrustGo también proporciona información en cadena.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
7
Compartir
Comentar
0/400
MeltdownSurvivalist
· 07-25 03:16
Tsk tsk, quieren que la IA haga todo.
Ver originalesResponder0
Web3ExplorerLin
· 07-24 20:17
*ajusta sus gafas académicas* fascinante paralelismo con la alegoría de la caverna de Platón, para ser honesto... ¿agentes de IA = sombras digitales?
Ver originalesResponder0
¯\_(ツ)_/¯
· 07-22 15:07
¿Los Bots realmente pueden contraatacar?
Ver originalesResponder0
ShamedApeSeller
· 07-22 09:11
La fiabilidad de la cadena de bloques depende principalmente de las personas; la IA es solo una herramienta.
Ver originalesResponder0
GigaBrainAnon
· 07-22 09:05
Deja que las máquinas nos mientan a nosotros mismos.
Ver originalesResponder0
DefiPlaybook
· 07-22 09:00
Bots tomar a la gente por tonta también son cebollinos.
Trusta.AI: Construyendo infraestructura de identidad y reputación Web3 que cruza la era humano-máquina
Trusta.AI: Cruzando el abismo de confianza entre humanos y máquinas
1. Introducción
Con la rápida madurez de la infraestructura de inteligencia artificial y el rápido desarrollo de los marcos de colaboración de múltiples agentes, los agentes en cadena impulsados por IA están convirtiéndose en la fuerza principal de la interacción en Web3. En los próximos 2-3 años, estos Agentes de IA con capacidad de toma de decisiones autónomas podrían reemplazar el 80% del comportamiento humano en cadena, convirtiéndose en verdaderos "usuarios" en cadena.
Sin embargo, el rápido auge de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo reconocer y certificar la identidad de estos agentes inteligentes? ¿Cómo juzgar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo asegurar que estos agentes no sean abusados o manipulados?
Por lo tanto, establecer una infraestructura en cadena que pueda verificar la identidad y reputación de los Agentes de IA se ha convertido en el tema central de la siguiente fase de evolución de Web3. El diseño de la identificación de identidad, los mecanismos de reputación y el marco de confianza determinarán si los Agentes de IA pueden realmente lograr una colaboración fluida con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.
2. Análisis del proyecto
2.1 Descripción del proyecto
Trusta.AI se dedica a construir infraestructura de identidad y reputación Web3 a través de la IA.
Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario Web3 - MEDIA Reputation Score, construyendo el mayor protocolo de autenticación en tiempo real y reputación en la cadena de Web3. Proporciona análisis de datos en la cadena y servicios de autenticación en tiempo real para múltiples cadenas públicas, intercambios y protocolos líderes. Se han completado más de 2.5 millones de autenticaciones en la cadena en múltiples cadenas principales, convirtiéndose en el mayor protocolo de identidad de la industria.
Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, implementando un mecanismo triple de establecimiento de identidad, cuantificación de identidad y protección de identidad para lograr servicios financieros y sociales en cadena para AI Agent, construyendo una base de confianza confiable en la era de la inteligencia artificial.
2.2 Infraestructura de confianza - Agente AI DID
En el futuro ecosistema Web3, los Agentes de IA desempeñarán un papel crucial, ya que no solo podrán realizar interacciones y transacciones en la cadena, sino también llevar a cabo operaciones complejas fuera de la cadena. Sin embargo, la forma de distinguir entre los verdaderos Agentes de IA y las operaciones influenciadas por humanos está relacionada con el núcleo de la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a la manipulación, el fraude o el abuso. Esta es precisamente la razón por la que las múltiples aplicaciones de los Agentes de IA, como en lo social, financiero y de gobernanza, deben basarse en una sólida base de autenticación de identidad.
Los escenarios de aplicación de los agentes de IA son cada vez más ricos, abarcando múltiples áreas como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, y su nivel de autonomía e inteligencia sigue aumentando. Por ello, es crucial asegurar que cada agente inteligente tenga una identificación única y confiable (DID). La falta de una verificación de identidad efectiva puede llevar a que los agentes de IA sean suplantados o manipulados, lo que resultaría en una pérdida de confianza y riesgos de seguridad.
En un futuro impulsado completamente por agentes en el ecosistema Web3, la autenticación de identidad no solo es la base para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.
Como pionero en este campo, Trusta.AI, con su tecnología de vanguardia y un riguroso sistema de credibilidad, ha construido primero un mecanismo completo de certificación DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente riesgos potenciales y promoviendo el desarrollo sostenible de la economía inteligente de Web3.
2.3 Descripción del proyecto
2.3.1 Situación de financiamiento
Enero de 2023: se completó una ronda de financiación semilla de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con la participación de otros inversionistas como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.
Junio de 2025: Se completará una nueva ronda de financiación, con inversores que incluyen a ConsenSys, Starknet, GSR, UFLY Labs, entre otros.
2.3.2 Situación del equipo
Peet Chen: cofundador y CEO, exvicepresidente del Grupo de Tecnología Digital Ant Group, exdirector de productos de Ant Security Technology, exgerente general de la plataforma de identidad digital global ZOLOZ.
Simon: cofundador y CTO, ex jefe del laboratorio de seguridad AI de Ant Group, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.
El equipo tiene una sólida acumulación técnica y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de verificación de identidad. Se dedica a largo plazo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como al diseño de protocolos de base y la optimización de la seguridad en entornos de transacciones de alta concurrencia, con capacidades de ingeniería sólidas y la capacidad de implementar soluciones innovadoras.
3. Arquitectura técnica
3.1 Análisis técnico
3.1.1 Construcción de identidad - DID + TEE
A través de un complemento dedicado, cada Agente de IA obtiene un identificador descentralizado único (DID) en la cadena y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y el proceso de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen privadas, y el exterior no puede espiar los detalles internos de funcionamiento, construyendo así una sólida barrera de seguridad de la información del Agente de IA.
Para los agentes que se generaron antes de la integración del complemento, nos basamos en el mecanismo de puntuación integral en la cadena para la identificación de identidad; mientras que los agentes que se integran con el nuevo complemento pueden obtener directamente la "certificación de identidad" emitida por DID, estableciendo así un sistema de identidad de Agente de IA que es autónomo, veraz e inmodificable.
3.1.2 Cuantificación de identidades - Marco SIGMA pionero
El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, dedicándose a construir un sistema de certificación de identidad profesional y confiable.
El equipo de Trusta construyó y verificó la eficacia del modelo MEDIA Score en el escenario de "pruebas humanas". Este modelo cuantifica de manera integral el perfil de los usuarios en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetary), participación (Engagement), diversidad (Diversity), identidad (Identity) y edad (Age).
El MEDIA Score es un sistema de evaluación del valor de los usuarios en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y su enfoque riguroso, ha sido ampliamente adoptado por múltiples cadenas de bloques principales como un importante estándar de referencia para la selección de calificaciones de inversión. No solo se centra en el monto de las interacciones, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor, mejorando la eficiencia y la equidad en la distribución de incentivos, y reflejando plenamente su autoridad y reconocimiento en la industria.
Sobre la base de haber construido con éxito un sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma que se ajusta mejor a la lógica de comportamiento de los agentes inteligentes.
El mecanismo de puntuación Sigma construye un sistema de evaluación de bucle lógico que va de "capacidad" a "valor" a través de cinco dimensiones. MEDIA se centra en evaluar el grado de participación multifacética de los usuarios humanos, mientras que Sigma se enfoca más en la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, que se ajusta mejor a las necesidades de los Agentes de IA.
Primero, sobre la base de la capacidad profesional ( Specification ), el grado de participación ( Engagement ) refleja si hay una inversión estable y continua en la interacción práctica, lo cual es un soporte clave para construir la confianza y los efectos posteriores. La influencia ( Influence ) se refiere a la reputación que se genera en la comunidad o red después de la participación, representando la credibilidad del agente y el efecto de difusión. La evaluación monetaria ( Monetary ) determina si posee la capacidad de acumulación de valor y estabilidad financiera dentro del sistema económico, estableciendo una base para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción ( Adoption ) se utiliza como una representación integral, representando el grado de aceptación del agente en el uso real, que es la validación final de todas las capacidades y desempeños previos.
Este sistema es progresivo en varias capas, tiene una estructura clara y puede reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, lo que permite una evaluación cuantitativa del rendimiento y el valor de la IA, transformando las ventajas y desventajas abstractas en un sistema de puntuación concreto y medible.
Actualmente, el marco SIGMA ha promovido la colaboración con redes de agentes de IA reconocidas como Virtual, Elisa OS y Swarm, demostrando su enorme potencial de aplicación en la gestión de identidad de agentes de IA y en la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor central para impulsar la construcción de infraestructura de IA confiable.
3.1.3 Protección de identidad - Mecanismo de evaluación de confianza
En un sistema de IA verdaderamente resiliente y confiable, lo más crítico no es solo el establecimiento de la identidad, sino también la verificación continua de la misma. Trusta.AI introduce un mecanismo de evaluación de confianza continua que puede monitorear en tiempo real a los agentes inteligentes ya certificados para determinar si han sido controlados ilegalmente, han sufrido un ataque o han sido objeto de intervención humana no autorizada. El sistema identifica las desviaciones que pueden ocurrir durante la operación del agente mediante análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.
Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, supervisando en tiempo real cada interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.
3.2 Introducción del producto
3.2.1 AgentGo
Trusta.AI asigna una identidad descentralizada (DID) a cada agente de IA en la cadena, y lo califica y indexa de manera confiable en función de los datos de comportamiento en la cadena, construyendo un sistema de confianza para agentes de IA que es verificable y rastreable. A través de este sistema, los usuarios pueden identificar y seleccionar de manera eficiente agentes inteligentes de alta calidad, mejorando así la experiencia de uso. Actualmente, Trusta ha completado la recopilación e identificación de todos los agentes de IA en la red, y les ha otorgado identificadores descentralizados, estableciendo una plataforma de índice de resumen unificada ------ AgentGo, promoviendo aún más el desarrollo saludable del ecosistema de agentes inteligentes.
A través del Dashboard proporcionado por Trusta.AI, los usuarios humanos pueden buscar fácilmente la identidad y la puntuación de reputación de un AI Agent, para determinar si es confiable.
Las IA pueden leer directamente la interfaz de índice, logrando una rápida verificación de la identidad y la reputación del otro, asegurando la colaboración y la seguridad en el intercambio de información.
El DID del Agente de IA ya no es solo una "identidad", sino que se ha convertido en el soporte subyacente para construir funciones clave como la colaboración confiable, el cumplimiento financiero y la gobernanza comunitaria, convirtiéndose en la infraestructura básica necesaria para el desarrollo del ecosistema nativo de IA. Con la construcción de este sistema, todos los nodos confirmados como seguros y confiables forman una red estrechamente interconectada, logrando una colaboración eficiente y una interconexión de funciones entre los Agentes de IA.
Basado en la ley de Metcalfe, el valor de la red crecerá de manera exponencial, lo que impulsará la construcción de un ecosistema de Agentes de IA más eficiente, con una base de confianza más sólida y capacidades de colaboración, logrando el intercambio de recursos, la reutilización de capacidades y la valorización continua entre los agentes.
AgentGo, como la primera infraestructura de identidad confiable dirigida a agentes de IA, está proporcionando un apoyo central indispensable para construir un ecosistema inteligente de alta seguridad y alta colaboración.
3.2.2 TrustGo
TrustGo es una herramienta de gestión de identidad en cadena desarrollada por Trusta, que ofrece una puntuación basada en la interacción actual, la "edad" de la billetera, el volumen de transacciones y el monto de las transacciones. Además, TrustGo también proporciona información en cadena.