Até 38 TB de dados vazaram acidentalmente! A equipe de pesquisa de IA da Microsoft "cria problemas" Como garantir a segurança dos dados?

**Fonte: **Financial Associated Press

Editor Xiaoxiang

Desde que a mania da IA generativa decolou este ano, tem havido controvérsias constantes sobre a segurança dos dados. De acordo com a última pesquisa de uma empresa de segurança cibernética, a equipe de pesquisa de inteligência artificial da Microsoft vazou acidentalmente uma grande quantidade de dados privados na plataforma de desenvolvimento de software GitHub há alguns meses, que incluía mais de 30.000 informações internas sobre a equipe da Microsoft.

Uma equipe da empresa de segurança em nuvem Wiz descobriu que dados de treinamento de código aberto foram vazados pela equipe de pesquisa da Microsoft quando foram lançados no GitHub em junho. Os dados hospedados na nuvem vazaram por meio de um link mal configurado.

De acordo com uma postagem no blog de Wiz, a equipe de pesquisa de IA da Microsoft lançou originalmente dados de treinamento de código aberto no GitHub, mas devido a uma configuração incorreta do token SAS, ele foi configurado incorretamente para conceder permissões a toda a conta de armazenamento, mas também para conceder ao usuário controle total Permissões - Não apenas permissões somente leitura, o que significa que elas podem excluir e substituir arquivos existentes.

De acordo com Wiz, o total de 38 TB de dados vazados incluía backups de disco nos computadores pessoais de dois funcionários da Microsoft, e esses backups continham senhas e chaves de serviços da Microsoft e mais de 30.000 senhas de 359 funcionários da Microsoft. .

Pesquisadores da Wiz dizem que o compartilhamento aberto de dados é um componente-chave no treinamento em IA, mas o compartilhamento de grandes quantidades de dados também pode colocar as empresas em grande risco se usado incorretamente.

Ami Luttwak, diretor de tecnologia e cofundador da Wiz, observou que Wiz compartilhou a situação com a Microsoft em junho, e a Microsoft excluiu rapidamente os dados expostos. A equipe de pesquisa do Wiz descobriu esses caches de dados enquanto verificava a Internet em busca de armazenamento mal configurado.

Em resposta, um porta-voz da Microsoft comentou posteriormente: “Confirmamos que nenhum dado do cliente foi exposto e nenhum outro serviço interno foi comprometido”.

A Microsoft disse em um blog na segunda-feira que investigou e corrigiu um incidente envolvendo um funcionário da Microsoft que compartilhou uma URL para um modelo de aprendizagem de inteligência artificial de código aberto em um repositório público do GitHub. A Microsoft disse que os dados expostos na conta de armazenamento incluíam backups de arquivos de configuração de estações de trabalho de dois ex-funcionários, bem como informações internas do Microsoft Teams sobre os dois ex-funcionários e seus colegas.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)