Tim AI Microsoft secara tidak sengaja membocorkan sejumlah besar data yang berisi lebih dari 30.000 informasi internal

Menurut laporan Jinshi pada 19 September, penelitian terbaru dari perusahaan keamanan cloud Wiz menunjukkan bahwa tim peneliti kecerdasan buatan Microsoft (MSFT.O) secara tidak sengaja membocorkan sejumlah besar cache data pribadi pada platform pengembangan perangkat lunak GitHub. Saat tim merilis data pelatihan sumber terbuka, kesalahan konfigurasi tautan menyebabkan kebocoran data. Pengguna repositori hanya diizinkan mengunduh model AI dari tautan penyimpanan cloud, namun izin tautan salah dikonfigurasi, artinya orang lain dapat menghapus dan menimpa file yang ada. Wiz mengatakan data yang bocor tersebut mencakup cadangan komputer pribadi karyawan Microsoft, yang berisi kata sandi dan kunci untuk layanan Microsoft dan lebih dari 30.000 informasi internal Microsoft Teams dari 359 karyawan Microsoft.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)