A equipe de IA da Microsoft vazou acidentalmente uma grande quantidade de dados contendo mais de 30.000 informações internas

De acordo com o relatório de Jinshi de 19 de setembro, a pesquisa mais recente da empresa de segurança em nuvem Wiz mostra que a equipe de pesquisa de inteligência artificial da Microsoft (MSFT.O) vazou acidentalmente uma grande quantidade de cache de dados privados na plataforma de desenvolvimento de software GitHub. Quando a equipe divulgou dados de treinamento de código aberto, um erro de configuração do link levou ao vazamento de dados. Os usuários do repositório só tinham permissão para baixar modelos de IA de links de armazenamento em nuvem, mas as permissões dos links foram configuradas incorretamente, o que significa que outras pessoas poderiam excluir e substituir os arquivos existentes. Wiz disse que os dados vazados incluem backups de computadores pessoais de funcionários da Microsoft, que contêm senhas e chaves para serviços da Microsoft e mais de 30.000 informações internas do Microsoft Teams de 359 funcionários da Microsoft.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)