Microsoft révèle accidentellement les messages privés de ses employés

Microsoft révèle accidentellement les messages privés de ses employés
Microsoft révèle accidentellement les messages privés de ses employés
--

Le géant de la technologie a autorisé par erreur l’accès à une base de données contenant de nombreux fichiers confidentiels ainsi que les messages internes de centaines d’employés.

Microsoft a admis sur son blog le 18 septembre avoir exposé une base de données de 38 téraoctets de données, comprenant des clés privées, des mots de passe ainsi que des messages internes sur Microsoft Teams. La fuite a été découverte par des chercheurs de la startup de cybersécurité Wiz sur la plateforme de développement GitHub. Microsoft y partage régulièrement ses recherches sur l’intelligence artificielle, permettant aux experts de télécharger des fichiers à partir d’un lien. Cependant, la dernière URL accordait des autorisations sur l’ensemble du compte de stockage, permettant ainsi de parcourir une base de données beaucoup plus volumineuse et confidentielle. L’accès a été donné par erreur par un employé au moment de la publication du lien, il y a presque trois ans maintenant.

type="image/avif"> type="image/webp">>>
Microsoft est un investisseur majeur dans OpenAI, la société derrière ChatGPT. Source : Numérama

Wiz a déclaré avoir partagé ses conclusions avec Microsoft le 22 juin. Le géant de la technologie a révoqué l’accès deux jours plus tard, le 24 juin. Le groupe a déclaré avoir terminé son enquête sur l’impact organisationnel potentiel le 16 août.

Un danger autour de la divulgation des recherches sur l’IA

Il est impossible de savoir qui a pu consulter ces données auparavant. ” Alors que les data scientists et les ingénieurs s’efforcent de produire de nouvelles solutions d’IA, les quantités massives de données qu’ils traitent nécessitent des contrôles et des mesures de sécurité supplémentaires.s », a déclaré Ami Luttwak, co-fondateur et CTO de Wiz, au média américain TechCrunch.

De nombreuses équipes de développement doivent gérer d’énormes quantités d’informations. Le partage avec des pairs ou la collaboration sur des projets open Source publics sont de plus en plus difficiles à surveiller et des cas comme celui de Microsoft doivent être évités. “, il ajoute. OpenAI, la société à l’origine de ChatGPT, a déclaré vouloir limiter la publication de ses recherches afin d’éviter toute utilisation malveillante de l’IA.


 
For Latest Updates Follow us on Google News
 

---

PREV entre Visual Novel, Beat them all et jeu de combat
NEXT les négociations se durcissent, le financement de France Travail contesté