З тих пір, як цього року почалося захоплення генеративним штучним інтелектом, тривають постійні суперечки щодо безпеки даних. Згідно з останнім дослідженням компанії з кібербезпеки, дослідницька група Microsoft зі штучного інтелекту кілька місяців тому випадково злила велику кількість приватних даних на платформі розробки програмного забезпечення GitHub, яка включала понад 30 000 фрагментів внутрішньої інформації про команду Microsoft.
Команда компанії Wiz, яка займається хмарною безпекою, виявила, що дослідницька група Microsoft злила навчальні дані з відкритим кодом, коли вони були опубліковані на GitHub у червні. Витік даних, розміщених у хмарі, стався через неправильно налаштоване посилання.
Згідно з публікацією в блозі Wiz, дослідницька група Microsoft зі штучного інтелекту спочатку опублікувала навчальні дані з відкритим кодом на GitHub, але через неправильну конфігурацію маркера SAS його було неправильно налаштовано для надання дозволів для всього облікового запису зберігання, а також для надання користувачеві повний контроль. Дозволи – дозволи не лише для читання, тобто вони можуть видаляти та перезаписувати існуючі файли.
За даними Wiz, загальний витік даних обсягом 38 ТБ включав резервні копії дисків на персональних комп’ютерах двох співробітників Microsoft, і ці резервні копії містили паролі та ключі для служб Microsoft і понад 30 000 паролів від 359 співробітників Microsoft.Фрагмент внутрішньої інформації Microsoft Teams .
Дослідники з Wiz кажуть, що відкритий обмін даними є ключовим компонентом у навчанні ШІ, але обмін великими обсягами даних також може наражати компанії на великий ризик, якщо використовувати його неправильно.
Амі Лутвак, головний технічний директор і співзасновник Wiz, зазначив, що Wiz поділився ситуацією з Microsoft у червні, і Microsoft швидко видалила викриті дані. Дослідницька група Wiz виявила ці кеші даних під час сканування Інтернету на наявність неправильно налаштованого сховища.
У відповідь представник Microsoft після цього прокоментував: «Ми підтвердили, що дані клієнтів не були розкриті, і жодні інші внутрішні служби не були скомпрометовані».
Корпорація Майкрософт заявила в блозі в понеділок, що розслідувала та виправила інцидент за участю співробітника Microsoft, який поділився URL-адресою моделі навчання штучного інтелекту з відкритим кодом у загальнодоступному сховищі GitHub. Microsoft заявила, що розкриті дані в обліковому записі зберігання включали резервні копії файлів конфігурації робочої станції двох колишніх співробітників, а також внутрішню інформацію Microsoft Teams про двох колишніх співробітників та їхніх колег.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Випадково витекло до 38 ТБ даних! Дослідницька група Microsoft зі штучного інтелекту "порушила проблеми". Як забезпечити безпеку даних?
**Джерело: **Financial Associated Press
Редактор Сяосян
З тих пір, як цього року почалося захоплення генеративним штучним інтелектом, тривають постійні суперечки щодо безпеки даних. Згідно з останнім дослідженням компанії з кібербезпеки, дослідницька група Microsoft зі штучного інтелекту кілька місяців тому випадково злила велику кількість приватних даних на платформі розробки програмного забезпечення GitHub, яка включала понад 30 000 фрагментів внутрішньої інформації про команду Microsoft.
Команда компанії Wiz, яка займається хмарною безпекою, виявила, що дослідницька група Microsoft злила навчальні дані з відкритим кодом, коли вони були опубліковані на GitHub у червні. Витік даних, розміщених у хмарі, стався через неправильно налаштоване посилання.
За даними Wiz, загальний витік даних обсягом 38 ТБ включав резервні копії дисків на персональних комп’ютерах двох співробітників Microsoft, і ці резервні копії містили паролі та ключі для служб Microsoft і понад 30 000 паролів від 359 співробітників Microsoft.Фрагмент внутрішньої інформації Microsoft Teams .
Дослідники з Wiz кажуть, що відкритий обмін даними є ключовим компонентом у навчанні ШІ, але обмін великими обсягами даних також може наражати компанії на великий ризик, якщо використовувати його неправильно.
Амі Лутвак, головний технічний директор і співзасновник Wiz, зазначив, що Wiz поділився ситуацією з Microsoft у червні, і Microsoft швидко видалила викриті дані. Дослідницька група Wiz виявила ці кеші даних під час сканування Інтернету на наявність неправильно налаштованого сховища.
У відповідь представник Microsoft після цього прокоментував: «Ми підтвердили, що дані клієнтів не були розкриті, і жодні інші внутрішні служби не були скомпрометовані».
Корпорація Майкрософт заявила в блозі в понеділок, що розслідувала та виправила інцидент за участю співробітника Microsoft, який поділився URL-адресою моделі навчання штучного інтелекту з відкритим кодом у загальнодоступному сховищі GitHub. Microsoft заявила, що розкриті дані в обліковому записі зберігання включали резервні копії файлів конфігурації робочої станції двох колишніх співробітників, а також внутрішню інформацію Microsoft Teams про двох колишніх співробітників та їхніх колег.