Trusta.AI: Atravessando a lacuna de confiança na era humano-máquina
1. Introdução
Com a rápida maturação da infraestrutura de inteligência artificial e o rápido desenvolvimento de estruturas de colaboração multiagente, os agentes on-chain impulsionados por IA estão se tornando a força motriz das interações no Web3. Nos próximos 2-3 anos, esses Agentes de IA com capacidade de tomada de decisão autônoma podem substituir 80% dos comportamentos humanos on-chain, tornando-se verdadeiros "usuários" on-chain.
No entanto, a rápida ascensão dos Agentes de IA também trouxe desafios sem precedentes: como identificar e autenticar a identidade desses agentes inteligentes? Como avaliar a credibilidade de seu comportamento? Em uma rede descentralizada e sem permissão, como garantir que esses agentes não sejam abusados ou manipulados?
Assim, estabelecer uma infraestrutura on-chain capaz de verificar a identidade e reputação dos Agentes de IA tornou-se a questão central da próxima fase de evolução do Web3. O design de identificação, mecanismo de reputação e estrutura de confiança determinará se os Agentes de IA poderão realmente alcançar uma colaboração sem costura com seres humanos e plataformas, e desempenhar um papel sustentável no ecossistema futuro.
2. Análise do Projeto
2.1 Introdução ao projeto
A Trusta.AI está empenhada em construir uma infraestrutura de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o primeiro sistema de avaliação de valor do usuário Web3 - a pontuação de reputação MEDIA, construindo o maior protocolo de certificação de pessoas reais e reputação em blockchain do Web3. Fornece análises de dados em blockchain e serviços de certificação de pessoas reais para várias principais blockchains, exchanges e protocolos de destaque. Já completou mais de 2,5 milhões de certificações em blockchain em várias blockchains populares, tornando-se o maior protocolo de identidade da indústria.
A Trusta está expandindo de Proof of Humanity para Proof of AI Agent, implementando três mecanismos de estabelecimento de identidade, quantificação de identidade e proteção de identidade para realizar serviços financeiros e sociais em cadeia para AI Agents, construindo uma base de confiança confiável na era da inteligência artificial.
2.2 Infraestrutura de Confiança - Agente AI DID
No futuro ecossistema Web3, os Agentes de IA desempenharão um papel crucial, pois poderão não apenas realizar interações e transações na cadeia, mas também realizar operações complexas fora da cadeia. No entanto, como diferenciar um verdadeiro Agente de IA de operações com intervenção humana é fundamental para o núcleo da confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes serão facilmente manipulados, fraudulentos ou mal utilizados. É por isso que as múltiplas aplicações dos Agentes de IA em áreas como social, financeira e de governança devem ser construídas sobre uma base sólida de autenticação de identidade.
Os cenários de aplicação do AI Agent estão a tornar-se cada vez mais diversificados, abrangendo várias áreas como interação social, gestão financeira e tomada de decisões governamentais, com o seu nível de autonomia e inteligência a aumentar continuamente. Por esta razão, é crucial garantir que cada agente inteligente possua uma identidade única e confiável (DID). A falta de uma verificação de identidade eficaz pode levar ao uso indevido ou à manipulação do AI Agent, resultando em uma quebra de confiança e riscos de segurança.
Num futuro ecossistema Web3 totalmente impulsionado por agentes inteligentes, a autenticação de identidade não é apenas a pedra angular da segurança, mas também a linha de defesa necessária para manter o funcionamento saudável de todo o ecossistema.
Como pioneira na área, a Trusta.AI, com sua tecnologia de ponta e um rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo completo de certificação de DID para agentes de IA, proporcionando uma sólida garantia para o funcionamento confiável de agentes inteligentes, prevenindo efetivamente riscos potenciais e promovendo o desenvolvimento robusto da economia inteligente Web3.
2.3 Visão Geral do Projeto
2.3.1 Situação de financiamento
Janeiro de 2023: Conclusão de uma rodada de financiamento semente de 3 milhões de dólares, liderada pela SevenX Ventures e Vision Plus Capital, com participação de outros investidores como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre outros.
Junho de 2025: conclusão de uma nova rodada de financiamento, com investidores incluindo ConsenSys, Starknet, GSR, UFLY Labs, entre outros.
2.3.2 Situação da Equipa
Peet Chen: cofundador e CEO, ex-vice-presidente do Ant Group, Chief Product Officer da Ant Security Technology, ex-gerente geral da plataforma de identidade digital ZOLOZ.
Simon: Co-fundador e CTO, ex-responsável pelo laboratório de segurança em IA do Ant Group, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial em segurança e gestão de riscos.
A equipe possui um profundo acúmulo técnico e experiência prática em inteligência artificial e gestão de riscos de segurança, arquitetura de sistemas de pagamento e mecanismos de autenticação, dedicando-se há muito à aplicação profunda de big data e algoritmos inteligentes na gestão de riscos de segurança, bem como à concepção de protocolos de base e à otimização de segurança em ambientes de transação de alta concorrência, demonstrando sólida capacidade de engenharia e habilidade na implementação de soluções inovadoras.
3. Arquitetura Técnica
3.1 Análise Técnica
3.1.1 Estabelecimento de Identidade - DID+TEE
Através de um plugin dedicado, cada Agente de IA obtém um identificador descentralizado único na cadeia (DID) e o armazena de forma segura em um ambiente de execução confiável (TEE). Neste ambiente de caixa preta, os dados críticos e os processos de cálculo são completamente ocultos, operações sensíveis permanecem sempre privadas, e o exterior não pode espiar os detalhes da operação interna, construindo efetivamente uma barreira sólida para a segurança das informações do Agente de IA.
Para os agentes que foram gerados antes da integração do plugin, utilizamos o mecanismo de pontuação abrangente na blockchain para identificação de identidade; enquanto os agentes que usam novos plugins podem obter diretamente a "prova de identidade" emitida pelo DID, estabelecendo assim um sistema de identidade para AI Agents que é autônomo, verdadeiro e imutável.
3.1.2 Quantificação de Identidade - Quadro SIGMA pioneiro
A equipe Trusta mantém sempre os princípios de avaliação rigorosa e análise quantitativa, dedicando-se a construir um sistema de autenticação de identidade profissional e confiável.
A equipe Trusta foi a primeira a construir e validar a eficácia do modelo MEDIA Score no cenário de "prova humana". Este modelo quantifica de forma abrangente o perfil do usuário na blockchain a partir de cinco dimensões, ou seja: valor de interação (Monetary), nível de participação (Engagement), diversidade (Diversity), identidade (Identity) e idade (Age).
O MEDIA Score é um sistema de avaliação de valor do usuário em cadeia que é justo, objetivo e quantificável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, foi amplamente adotado por várias blockchains líderes como um importante critério de referência para seleção de qualificação de investimentos. Ele não se concentra apenas no montante de interações, mas também abrange indicadores multidimensionais como atividade, diversidade de contratos, características de identidade e idade da conta, ajudando os desenvolvedores a identificar com precisão usuários de alto valor, melhorando a eficiência e a equidade na distribuição de incentivos, refletindo plenamente sua autoridade e reconhecimento no setor.
Com base na construção bem-sucedida do sistema de avaliação de usuários humanos, a Trusta transferiu e atualizou a experiência do MEDIA Score para o cenário de AI Agent, estabelecendo um sistema de avaliação Sigma mais adequado à lógica de comportamento dos agentes inteligentes.
Especialização: conhecimento e grau de especialização da agência.
Influência: influência social e digital do agente.
Participação: A consistência e fiabilidade das interações on-chain e off-chain.
Monetário: saúde financeira e estabilidade do ecossistema de tokens de agência.
Taxa de Adoção: Frequência e eficiência do uso de agentes de IA.
O mecanismo de pontuação Sigma constrói um sistema de avaliação de lógica fechada que vai de "capacidade" a "valor" com base em cinco grandes dimensões. O MEDIA foca na avaliação do envolvimento multifacetado dos usuários humanos, enquanto o Sigma se concentra mais na especialização e estabilidade dos agentes de IA em áreas específicas, refletindo uma mudança de amplitude para profundidade, que se alinha melhor às necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional ( Specification ), o nível de participação ( Engagement ) reflete se há um envolvimento estável e contínuo na interação prática, sendo um suporte chave para a construção da confiança e eficácia futuras. A influência ( Influence ) é o feedback de reputação gerado após a participação em comunidades ou redes, representando a credibilidade do agente e o efeito de disseminação. A avaliação monetária ( Monetary ) verifica se há capacidade de acumulação de valor e estabilidade financeira no sistema econômico, estabelecendo a base para um mecanismo de incentivo sustentável. Por fim, a taxa de adoção ( Adoption ) é um reflexo abrangente que representa o grau de aceitação do agente em uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo em camadas, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico dos Agentes de IA, permitindo assim uma avaliação quantitativa do desempenho e do valor da IA, transformando a abstração de qualidade em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na colaboração com redes de agentes de IA conhecidas, como Virtual, Elisa OS e Swarm, mostrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de infraestruturas de IA confiáveis.
3.1.3 Proteção de Identidade - Mecanismo de Avaliação de Confiança
Em um verdadeiro sistema de IA com alta resiliência e alta confiabilidade, o mais crítico não é apenas a criação de identidades, mas sim a validação contínua dessas identidades. A Trusta.AI introduz um mecanismo de avaliação de confiança contínua, capaz de monitorar em tempo real agentes inteligentes já certificados, para determinar se estão sob controle ilegal, se sofreram ataques ou se foram interferidos por humanos não autorizados. O sistema identifica desvios que podem ocorrer durante a operação dos agentes por meio de análise de comportamento e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Essa abordagem proativa assegura a detecção imediata de qualquer desvio do comportamento esperado e aciona medidas de proteção automática para manter a integridade do agente.
A Trusta.AI estabeleceu um mecanismo de segurança sempre online, examinando em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas estabelecidas.
3.2 Introdução ao Produto
3.2.1 AgentGo
A Trusta.AI atribui uma identidade descentralizada a cada Agente de IA em cadeia (DID), e classifica e indexa sua confiabilidade com base em dados de comportamento em cadeia, construindo um sistema de confiança para Agentes de IA que é verificável e rastreável. Através deste sistema, os usuários podem identificar e filtrar de forma eficiente agentes inteligentes de alta qualidade, melhorando a experiência de uso. Atualmente, a Trusta completou a coleta e identificação de todos os Agentes de IA da rede, e emitiu identificadores descentralizados para eles, estabelecendo uma plataforma de índice de resumo unificada ------ AgentGo, promovendo ainda mais o desenvolvimento saudável do ecossistema de agentes inteligentes.
Consulta e verificação de identidade de usuários humanos:
Através do Dashboard fornecido pela Trusta.AI, os usuários humanos podem facilmente pesquisar a identidade e a pontuação de reputação de um agente de IA, avaliando se ele é confiável.
Cenário de chat em grupo social: Quando uma equipe de projeto utiliza um Bot de IA para gerenciar comunidades ou fazer declarações, os usuários da comunidade podem verificar através do Dashboard se essa IA é um verdadeiro agente autônomo, evitando ser enganados ou manipulados por "pseudo-IAs".
2.Agente de IA chamada automaticamente para indexação e verificação:
As IAs podem ler diretamente a interface de índice, permitindo a confirmação rápida da identidade e reputação uma da outra, garantindo a segurança da colaboração e da troca de informações.
Cenário de supervisão financeira: se um agente de IA emitir moeda de forma autônoma, o sistema pode indexar diretamente seu DID e classificação, determinar se é um Agente de IA certificado e conectar automaticamente a plataformas como CoinMarketCap, ajudando a rastrear a circulação de ativos e a conformidade da emissão.
Cenário de votação de governança: ao introduzir a votação com IA em propostas de governança, o sistema pode verificar se o iniciador ou participante da votação é um verdadeiro Agente de IA, evitando que os direitos de voto sejam controlados e abusados por humanos.
Empréstimos DeFi: Os protocolos de empréstimo podem conceder diferentes montantes de empréstimos com base no sistema de pontuação SIGMA, formando relações financeiras nativas entre agentes inteligentes.
O AI Agent DID não é apenas uma "identidade", mas também a base subjacente para a construção de colaboração confiável, conformidade financeira, governança comunitária e outras funções essenciais, tornando-se uma infraestrutura indispensável para o desenvolvimento do ecossistema nativo de IA. Com a construção deste sistema, todos os nós confirmados como seguros e confiáveis formaram uma rede interconectada, permitindo colaboração eficiente e interconexão de funções entre os AI Agents.
Baseada na Lei de Metcalfe, o valor da rede crescerá de forma exponencial, impulsionando a construção de um ecossistema de Agentes de IA mais eficiente, com uma base de confiança e capacidade de colaboração, permitindo o compartilhamento de recursos, reutilização de capacidades e valorização contínua entre os agentes.
AgentGo, como a primeira infraestrutura de identidade confiável voltada para Agentes de IA, está fornecendo um suporte central indispensável para a construção de um ecossistema inteligente de alta segurança e alta colaboração.
3.2.2 TrustGo
TrustGo é uma ferramenta de gestão de identidade em blockchain desenvolvida pela Trusta, que fornece uma pontuação com base nas interações, "idade" da carteira, volume de transações e valor das transações. Além disso, o TrustGo também oferece uma análise em blockchain.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
7
Partilhar
Comentar
0/400
MeltdownSurvivalist
· 07-25 03:16
Tsk tsk, quer que a IA faça tudo.
Ver originalResponder0
Web3ExplorerLin
· 07-24 20:17
*ajusta os óculos académicos* fascinante paralelo com a alegoria da caverna de platão para ser sincero... agentes de IA = sombras digitais?
Ver originalResponder0
¯\_(ツ)_/¯
· 07-22 15:07
Bots realmente podem se vingar?
Ver originalResponder0
ShamedApeSeller
· 07-22 09:11
A confiabilidade do Blockchain depende principalmente das pessoas; a IA é apenas uma ferramenta.
Ver originalResponder0
GigaBrainAnon
· 07-22 09:05
Deixar as máquinas mentirem para nós próprios.
Ver originalResponder0
DefiPlaybook
· 07-22 09:00
Bots fazem as pessoas de parvas também são parvas.
Trusta.AI: construir uma infraestrutura de identidade e reputação Web3 que transcende a era humano-máquina
Trusta.AI: Atravessando a lacuna de confiança na era humano-máquina
1. Introdução
Com a rápida maturação da infraestrutura de inteligência artificial e o rápido desenvolvimento de estruturas de colaboração multiagente, os agentes on-chain impulsionados por IA estão se tornando a força motriz das interações no Web3. Nos próximos 2-3 anos, esses Agentes de IA com capacidade de tomada de decisão autônoma podem substituir 80% dos comportamentos humanos on-chain, tornando-se verdadeiros "usuários" on-chain.
No entanto, a rápida ascensão dos Agentes de IA também trouxe desafios sem precedentes: como identificar e autenticar a identidade desses agentes inteligentes? Como avaliar a credibilidade de seu comportamento? Em uma rede descentralizada e sem permissão, como garantir que esses agentes não sejam abusados ou manipulados?
Assim, estabelecer uma infraestrutura on-chain capaz de verificar a identidade e reputação dos Agentes de IA tornou-se a questão central da próxima fase de evolução do Web3. O design de identificação, mecanismo de reputação e estrutura de confiança determinará se os Agentes de IA poderão realmente alcançar uma colaboração sem costura com seres humanos e plataformas, e desempenhar um papel sustentável no ecossistema futuro.
2. Análise do Projeto
2.1 Introdução ao projeto
A Trusta.AI está empenhada em construir uma infraestrutura de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o primeiro sistema de avaliação de valor do usuário Web3 - a pontuação de reputação MEDIA, construindo o maior protocolo de certificação de pessoas reais e reputação em blockchain do Web3. Fornece análises de dados em blockchain e serviços de certificação de pessoas reais para várias principais blockchains, exchanges e protocolos de destaque. Já completou mais de 2,5 milhões de certificações em blockchain em várias blockchains populares, tornando-se o maior protocolo de identidade da indústria.
A Trusta está expandindo de Proof of Humanity para Proof of AI Agent, implementando três mecanismos de estabelecimento de identidade, quantificação de identidade e proteção de identidade para realizar serviços financeiros e sociais em cadeia para AI Agents, construindo uma base de confiança confiável na era da inteligência artificial.
2.2 Infraestrutura de Confiança - Agente AI DID
No futuro ecossistema Web3, os Agentes de IA desempenharão um papel crucial, pois poderão não apenas realizar interações e transações na cadeia, mas também realizar operações complexas fora da cadeia. No entanto, como diferenciar um verdadeiro Agente de IA de operações com intervenção humana é fundamental para o núcleo da confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes serão facilmente manipulados, fraudulentos ou mal utilizados. É por isso que as múltiplas aplicações dos Agentes de IA em áreas como social, financeira e de governança devem ser construídas sobre uma base sólida de autenticação de identidade.
Os cenários de aplicação do AI Agent estão a tornar-se cada vez mais diversificados, abrangendo várias áreas como interação social, gestão financeira e tomada de decisões governamentais, com o seu nível de autonomia e inteligência a aumentar continuamente. Por esta razão, é crucial garantir que cada agente inteligente possua uma identidade única e confiável (DID). A falta de uma verificação de identidade eficaz pode levar ao uso indevido ou à manipulação do AI Agent, resultando em uma quebra de confiança e riscos de segurança.
Num futuro ecossistema Web3 totalmente impulsionado por agentes inteligentes, a autenticação de identidade não é apenas a pedra angular da segurança, mas também a linha de defesa necessária para manter o funcionamento saudável de todo o ecossistema.
Como pioneira na área, a Trusta.AI, com sua tecnologia de ponta e um rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo completo de certificação de DID para agentes de IA, proporcionando uma sólida garantia para o funcionamento confiável de agentes inteligentes, prevenindo efetivamente riscos potenciais e promovendo o desenvolvimento robusto da economia inteligente Web3.
2.3 Visão Geral do Projeto
2.3.1 Situação de financiamento
Janeiro de 2023: Conclusão de uma rodada de financiamento semente de 3 milhões de dólares, liderada pela SevenX Ventures e Vision Plus Capital, com participação de outros investidores como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre outros.
Junho de 2025: conclusão de uma nova rodada de financiamento, com investidores incluindo ConsenSys, Starknet, GSR, UFLY Labs, entre outros.
2.3.2 Situação da Equipa
Peet Chen: cofundador e CEO, ex-vice-presidente do Ant Group, Chief Product Officer da Ant Security Technology, ex-gerente geral da plataforma de identidade digital ZOLOZ.
Simon: Co-fundador e CTO, ex-responsável pelo laboratório de segurança em IA do Ant Group, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial em segurança e gestão de riscos.
A equipe possui um profundo acúmulo técnico e experiência prática em inteligência artificial e gestão de riscos de segurança, arquitetura de sistemas de pagamento e mecanismos de autenticação, dedicando-se há muito à aplicação profunda de big data e algoritmos inteligentes na gestão de riscos de segurança, bem como à concepção de protocolos de base e à otimização de segurança em ambientes de transação de alta concorrência, demonstrando sólida capacidade de engenharia e habilidade na implementação de soluções inovadoras.
3. Arquitetura Técnica
3.1 Análise Técnica
3.1.1 Estabelecimento de Identidade - DID+TEE
Através de um plugin dedicado, cada Agente de IA obtém um identificador descentralizado único na cadeia (DID) e o armazena de forma segura em um ambiente de execução confiável (TEE). Neste ambiente de caixa preta, os dados críticos e os processos de cálculo são completamente ocultos, operações sensíveis permanecem sempre privadas, e o exterior não pode espiar os detalhes da operação interna, construindo efetivamente uma barreira sólida para a segurança das informações do Agente de IA.
Para os agentes que foram gerados antes da integração do plugin, utilizamos o mecanismo de pontuação abrangente na blockchain para identificação de identidade; enquanto os agentes que usam novos plugins podem obter diretamente a "prova de identidade" emitida pelo DID, estabelecendo assim um sistema de identidade para AI Agents que é autônomo, verdadeiro e imutável.
3.1.2 Quantificação de Identidade - Quadro SIGMA pioneiro
A equipe Trusta mantém sempre os princípios de avaliação rigorosa e análise quantitativa, dedicando-se a construir um sistema de autenticação de identidade profissional e confiável.
A equipe Trusta foi a primeira a construir e validar a eficácia do modelo MEDIA Score no cenário de "prova humana". Este modelo quantifica de forma abrangente o perfil do usuário na blockchain a partir de cinco dimensões, ou seja: valor de interação (Monetary), nível de participação (Engagement), diversidade (Diversity), identidade (Identity) e idade (Age).
O MEDIA Score é um sistema de avaliação de valor do usuário em cadeia que é justo, objetivo e quantificável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, foi amplamente adotado por várias blockchains líderes como um importante critério de referência para seleção de qualificação de investimentos. Ele não se concentra apenas no montante de interações, mas também abrange indicadores multidimensionais como atividade, diversidade de contratos, características de identidade e idade da conta, ajudando os desenvolvedores a identificar com precisão usuários de alto valor, melhorando a eficiência e a equidade na distribuição de incentivos, refletindo plenamente sua autoridade e reconhecimento no setor.
Com base na construção bem-sucedida do sistema de avaliação de usuários humanos, a Trusta transferiu e atualizou a experiência do MEDIA Score para o cenário de AI Agent, estabelecendo um sistema de avaliação Sigma mais adequado à lógica de comportamento dos agentes inteligentes.
O mecanismo de pontuação Sigma constrói um sistema de avaliação de lógica fechada que vai de "capacidade" a "valor" com base em cinco grandes dimensões. O MEDIA foca na avaliação do envolvimento multifacetado dos usuários humanos, enquanto o Sigma se concentra mais na especialização e estabilidade dos agentes de IA em áreas específicas, refletindo uma mudança de amplitude para profundidade, que se alinha melhor às necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional ( Specification ), o nível de participação ( Engagement ) reflete se há um envolvimento estável e contínuo na interação prática, sendo um suporte chave para a construção da confiança e eficácia futuras. A influência ( Influence ) é o feedback de reputação gerado após a participação em comunidades ou redes, representando a credibilidade do agente e o efeito de disseminação. A avaliação monetária ( Monetary ) verifica se há capacidade de acumulação de valor e estabilidade financeira no sistema econômico, estabelecendo a base para um mecanismo de incentivo sustentável. Por fim, a taxa de adoção ( Adoption ) é um reflexo abrangente que representa o grau de aceitação do agente em uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo em camadas, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico dos Agentes de IA, permitindo assim uma avaliação quantitativa do desempenho e do valor da IA, transformando a abstração de qualidade em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na colaboração com redes de agentes de IA conhecidas, como Virtual, Elisa OS e Swarm, mostrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de infraestruturas de IA confiáveis.
3.1.3 Proteção de Identidade - Mecanismo de Avaliação de Confiança
Em um verdadeiro sistema de IA com alta resiliência e alta confiabilidade, o mais crítico não é apenas a criação de identidades, mas sim a validação contínua dessas identidades. A Trusta.AI introduz um mecanismo de avaliação de confiança contínua, capaz de monitorar em tempo real agentes inteligentes já certificados, para determinar se estão sob controle ilegal, se sofreram ataques ou se foram interferidos por humanos não autorizados. O sistema identifica desvios que podem ocorrer durante a operação dos agentes por meio de análise de comportamento e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Essa abordagem proativa assegura a detecção imediata de qualquer desvio do comportamento esperado e aciona medidas de proteção automática para manter a integridade do agente.
A Trusta.AI estabeleceu um mecanismo de segurança sempre online, examinando em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas estabelecidas.
3.2 Introdução ao Produto
3.2.1 AgentGo
A Trusta.AI atribui uma identidade descentralizada a cada Agente de IA em cadeia (DID), e classifica e indexa sua confiabilidade com base em dados de comportamento em cadeia, construindo um sistema de confiança para Agentes de IA que é verificável e rastreável. Através deste sistema, os usuários podem identificar e filtrar de forma eficiente agentes inteligentes de alta qualidade, melhorando a experiência de uso. Atualmente, a Trusta completou a coleta e identificação de todos os Agentes de IA da rede, e emitiu identificadores descentralizados para eles, estabelecendo uma plataforma de índice de resumo unificada ------ AgentGo, promovendo ainda mais o desenvolvimento saudável do ecossistema de agentes inteligentes.
Através do Dashboard fornecido pela Trusta.AI, os usuários humanos podem facilmente pesquisar a identidade e a pontuação de reputação de um agente de IA, avaliando se ele é confiável.
2.Agente de IA chamada automaticamente para indexação e verificação:
As IAs podem ler diretamente a interface de índice, permitindo a confirmação rápida da identidade e reputação uma da outra, garantindo a segurança da colaboração e da troca de informações.
O AI Agent DID não é apenas uma "identidade", mas também a base subjacente para a construção de colaboração confiável, conformidade financeira, governança comunitária e outras funções essenciais, tornando-se uma infraestrutura indispensável para o desenvolvimento do ecossistema nativo de IA. Com a construção deste sistema, todos os nós confirmados como seguros e confiáveis formaram uma rede interconectada, permitindo colaboração eficiente e interconexão de funções entre os AI Agents.
Baseada na Lei de Metcalfe, o valor da rede crescerá de forma exponencial, impulsionando a construção de um ecossistema de Agentes de IA mais eficiente, com uma base de confiança e capacidade de colaboração, permitindo o compartilhamento de recursos, reutilização de capacidades e valorização contínua entre os agentes.
AgentGo, como a primeira infraestrutura de identidade confiável voltada para Agentes de IA, está fornecendo um suporte central indispensável para a construção de um ecossistema inteligente de alta segurança e alta colaboração.
3.2.2 TrustGo
TrustGo é uma ferramenta de gestão de identidade em blockchain desenvolvida pela Trusta, que fornece uma pontuação com base nas interações, "idade" da carteira, volume de transações e valor das transações. Além disso, o TrustGo também oferece uma análise em blockchain.