Menurut laporan Jinshi pada 19 September, penelitian terbaru dari perusahaan keamanan cloud Wiz menunjukkan bahwa tim peneliti kecerdasan buatan Microsoft (MSFT.O) secara tidak sengaja membocorkan sejumlah besar cache data pribadi pada platform pengembangan perangkat lunak GitHub. Saat tim merilis data pelatihan sumber terbuka, kesalahan konfigurasi tautan menyebabkan kebocoran data. Pengguna repositori hanya diizinkan mengunduh model AI dari tautan penyimpanan cloud, namun izin tautan salah dikonfigurasi, artinya orang lain dapat menghapus dan menimpa file yang ada. Wiz mengatakan data yang bocor tersebut mencakup cadangan komputer pribadi karyawan Microsoft, yang berisi kata sandi dan kunci untuk layanan Microsoft dan lebih dari 30.000 informasi internal Microsoft Teams dari 359 karyawan Microsoft.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Tim AI Microsoft secara tidak sengaja membocorkan sejumlah besar data yang berisi lebih dari 30.000 informasi internal
Menurut laporan Jinshi pada 19 September, penelitian terbaru dari perusahaan keamanan cloud Wiz menunjukkan bahwa tim peneliti kecerdasan buatan Microsoft (MSFT.O) secara tidak sengaja membocorkan sejumlah besar cache data pribadi pada platform pengembangan perangkat lunak GitHub. Saat tim merilis data pelatihan sumber terbuka, kesalahan konfigurasi tautan menyebabkan kebocoran data. Pengguna repositori hanya diizinkan mengunduh model AI dari tautan penyimpanan cloud, namun izin tautan salah dikonfigurasi, artinya orang lain dapat menghapus dan menimpa file yang ada. Wiz mengatakan data yang bocor tersebut mencakup cadangan komputer pribadi karyawan Microsoft, yang berisi kata sandi dan kunci untuk layanan Microsoft dan lebih dari 30.000 informasi internal Microsoft Teams dari 359 karyawan Microsoft.