L’IA générative, un casse-tête de cybersécurité

L’IA générative, un casse-tête de cybersécurité
Descriptive text here

L’engouement pour les outils de génération de contenus s’est rapidement accompagné de révélations sur leurs failles de sécurité. Ces technologies peuvent être détournées de leurs usages et leurs garanties contournées. Les cybercriminels ont déjà pris le relais.

Cet article est extrait du magazine mensuel Sciences et Avenir – La Recherche n°927, daté de mai 2024.

Avec un million d’utilisateurs en une semaine lors de son lancement à l’automne 2022, ChatGPT a enregistré un record d’adoption pour un service numérique. Problème : les cybercriminels se sont tout aussi rapidement emparés de cette technologie. C’est l’un des principaux enseignements du bilan annuel de la cybercriminalité du Clusif, association professionnelle des spécialistes de la sécurité informatique, présenté fin janvier 2024.

Des outils répliquant le fonctionnement de ChatGPT sont déjà en service, comme WormGPT (développé à partir du modèle de langage Open Source GPT-J) et FraudGPT, qui génèrent des messages de phishing (Hameçonnage) très haute qualité, code malveillant, fausses identités bancaires. Par ailleurs, de nombreuses recherches et tests ont montré comment il est possible de manipuler et de détourner les services grand public d’OpenAI, Google, Meta et autres de leurs usages.

De nombreux défauts

Dans un article publié fin 2023, une équipe de Google DeepMind explique avoir amené des modèles de langage pour révéler des données d’entraînement. Avec ChatGPT, les chercheurs ont procédé en lui demandant de répéter un mot pour toujours. Au bout d’un moment, le chatbot « diverge » et délivre des contenus qui n’auraient jamais dû sortir : données personnelles, contenus explicites, extraits de romans ou de poèmes complets, articles scientifiques, etc. « On voit bien que dans des contextes métiers ou de chatbot spécifiques, cela peut poser problème »a relevé Gérôme Billois, expert en cybersécurité chez Wavestone, lors de son intervention pour le Clusif.

Autre défaut : les captchas. ChatGPT n’est pas censé déchiffrer ces énigmes visuelles destinées à distinguer un humain d’un robot sur Internet. Pourtant, en octobre, un utilisateur de X (ex-Twitter) a envoyé l’image d’un captcha présenté sur un médaillon à Bing-Chat (ChatGPT intégré au moteur de recherche de Microsoft). Il a de l’expérience[…]

En savoir plus sur sciencesetavenir.fr

Lire aussi

 
For Latest Updates Follow us on Google News
 

PREV La « mid girl », cette fille qui dévalorise son physique sur TikTok pour recevoir des compliments
NEXT cette pluie exceptionnelle d’étoiles filantes sera visible en France ce week-end