Jusqu’à 38 To de données ont été accidentellement divulguées ! L'équipe de recherche en IA de Microsoft "sème le trouble" Comment assurer la sécurité des données ?

**Source : **Financial Associated Press

Éditeur Xiaoxiang

Depuis que l’engouement pour l’IA générative a décollé cette année, la sécurité des données suscite des controverses constantes. Selon les dernières recherches d'une société de cybersécurité, l'équipe de recherche en intelligence artificielle de Microsoft a accidentellement divulgué il y a quelques mois une grande quantité de données privées sur la plate-forme de développement logiciel GitHub, qui comprenaient plus de 30 000 informations internes sur l'équipe Microsoft.

Une équipe de la société de sécurité cloud Wiz a découvert que des données de formation open source avaient été divulguées par l'équipe de recherche de Microsoft lors de leur publication sur GitHub en juin. Les données hébergées dans le cloud ont été divulguées via un lien mal configuré.

Selon un article de blog de Wiz, l'équipe de recherche en IA de Microsoft a initialement publié des données de formation open source sur GitHub, mais en raison d'une mauvaise configuration du jeton SAS, celui-ci a été mal configuré pour accorder des autorisations à l'ensemble du compte de stockage, mais également pour accorder à l'utilisateur contrôle total Autorisations - Pas seulement des autorisations en lecture seule, ce qui signifie qu'ils peuvent supprimer et écraser les fichiers existants.

Selon Wiz, le total de 38 To de données divulguées comprenait des sauvegardes de disque sur les ordinateurs personnels de deux employés de Microsoft, et ces sauvegardes contenaient des mots de passe et des clés pour les services Microsoft et plus de 30 000 mots de passe de 359 employés de Microsoft. .

Les chercheurs de Wiz affirment que le partage de données ouvertes est un élément clé de la formation en IA, mais que le partage de grandes quantités de données peut également exposer les entreprises à de grands risques s'il est mal utilisé.

Ami Luttwak, directeur de la technologie et co-fondateur de Wiz, a noté que Wiz avait partagé la situation avec Microsoft en juin et que Microsoft avait rapidement supprimé les données exposées. L'équipe de recherche de Wiz a découvert ces caches de données en analysant Internet à la recherche d'un stockage mal configuré.

En réponse, un porte-parole de Microsoft a déclaré par la suite : « Nous avons confirmé qu'aucune donnée client n'a été exposée et qu'aucun autre service interne n'a été compromis. »

Microsoft a déclaré lundi dans un article de blog qu'il avait enquêté et résolu un incident impliquant un employé de Microsoft qui avait partagé une URL vers un modèle d'apprentissage d'intelligence artificielle open source dans un référentiel public GitHub. Microsoft a déclaré que les données exposées dans le compte de stockage comprenaient des sauvegardes des fichiers de configuration du poste de travail de deux anciens employés, ainsi que des informations internes de Microsoft Teams sur les deux anciens employés et leurs collègues.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)