Sejak kegilaan AI generatif mulai terjadi tahun ini, selalu ada kontroversi mengenai keamanan data. Menurut penelitian terbaru dari sebuah perusahaan keamanan siber, tim peneliti kecerdasan buatan Microsoft secara tidak sengaja membocorkan sejumlah besar data pribadi di platform pengembangan perangkat lunak GitHub beberapa bulan lalu, yang mencakup lebih dari 30.000 informasi internal tentang tim Microsoft.
Sebuah tim di perusahaan keamanan cloud Wiz menemukan bahwa data pelatihan open source dibocorkan oleh tim peneliti Microsoft ketika dirilis di GitHub pada bulan Juni. Data yang dihosting di cloud bocor melalui tautan yang salah dikonfigurasi.
Menurut postingan blog Wiz, tim peneliti AI Microsoft awalnya merilis data pelatihan sumber terbuka di GitHub, namun karena kesalahan konfigurasi token SAS, konfigurasinya salah sehingga tidak hanya memberikan izin ke seluruh akun penyimpanan, tetapi juga memberikan izin kepada pengguna. kontrol penuh Izin - Bukan hanya izin baca-saja, artinya dapat menghapus dan menimpa file yang ada.
Menurut Wiz, total 38 TB data yang bocor termasuk cadangan disk pada komputer pribadi dua karyawan Microsoft, dan cadangan ini berisi kata sandi dan kunci untuk layanan Microsoft serta lebih dari 30.000 kata sandi dari 359 karyawan Microsoft. .
Para peneliti di Wiz mengatakan berbagi data terbuka adalah komponen kunci dalam pelatihan AI, namun berbagi data dalam jumlah besar juga dapat menempatkan perusahaan pada risiko besar jika digunakan secara tidak benar.
Ami Luttwak, chief technology officer dan salah satu pendiri Wiz, mencatat bahwa Wiz berbagi situasi tersebut dengan Microsoft pada bulan Juni, dan Microsoft dengan cepat menghapus data yang terungkap. Tim peneliti Wiz menemukan cache data ini saat memindai Internet untuk mencari penyimpanan yang salah dikonfigurasi.
Sebagai tanggapan, juru bicara Microsoft berkomentar setelahnya, "Kami telah mengonfirmasi bahwa tidak ada data pelanggan yang terekspos dan tidak ada layanan internal lainnya yang disusupi."
Microsoft mengatakan dalam sebuah posting blog pada hari Senin bahwa mereka telah menyelidiki dan memperbaiki insiden yang melibatkan karyawan Microsoft yang membagikan URL ke model pembelajaran kecerdasan buatan sumber terbuka di repositori GitHub publik. Microsoft mengatakan data yang terekspos di akun penyimpanan termasuk cadangan file konfigurasi stasiun kerja dua mantan karyawan, serta informasi internal Microsoft Teams tentang dua mantan karyawan dan kolega mereka.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Data hingga 38TB bocor secara tidak sengaja! Tim peneliti AI Microsoft "menyodok masalah" Bagaimana cara memastikan keamanan data?
**Sumber: **Financial Associated Press
Editor Xiaoxiang
Sejak kegilaan AI generatif mulai terjadi tahun ini, selalu ada kontroversi mengenai keamanan data. Menurut penelitian terbaru dari sebuah perusahaan keamanan siber, tim peneliti kecerdasan buatan Microsoft secara tidak sengaja membocorkan sejumlah besar data pribadi di platform pengembangan perangkat lunak GitHub beberapa bulan lalu, yang mencakup lebih dari 30.000 informasi internal tentang tim Microsoft.
Sebuah tim di perusahaan keamanan cloud Wiz menemukan bahwa data pelatihan open source dibocorkan oleh tim peneliti Microsoft ketika dirilis di GitHub pada bulan Juni. Data yang dihosting di cloud bocor melalui tautan yang salah dikonfigurasi.
Menurut Wiz, total 38 TB data yang bocor termasuk cadangan disk pada komputer pribadi dua karyawan Microsoft, dan cadangan ini berisi kata sandi dan kunci untuk layanan Microsoft serta lebih dari 30.000 kata sandi dari 359 karyawan Microsoft. .
Para peneliti di Wiz mengatakan berbagi data terbuka adalah komponen kunci dalam pelatihan AI, namun berbagi data dalam jumlah besar juga dapat menempatkan perusahaan pada risiko besar jika digunakan secara tidak benar.
Ami Luttwak, chief technology officer dan salah satu pendiri Wiz, mencatat bahwa Wiz berbagi situasi tersebut dengan Microsoft pada bulan Juni, dan Microsoft dengan cepat menghapus data yang terungkap. Tim peneliti Wiz menemukan cache data ini saat memindai Internet untuk mencari penyimpanan yang salah dikonfigurasi.
Sebagai tanggapan, juru bicara Microsoft berkomentar setelahnya, "Kami telah mengonfirmasi bahwa tidak ada data pelanggan yang terekspos dan tidak ada layanan internal lainnya yang disusupi."
Microsoft mengatakan dalam sebuah posting blog pada hari Senin bahwa mereka telah menyelidiki dan memperbaiki insiden yang melibatkan karyawan Microsoft yang membagikan URL ke model pembelajaran kecerdasan buatan sumber terbuka di repositori GitHub publik. Microsoft mengatakan data yang terekspos di akun penyimpanan termasuk cadangan file konfigurasi stasiun kerja dua mantan karyawan, serta informasi internal Microsoft Teams tentang dua mantan karyawan dan kolega mereka.