L’IA générative permet aux cybercriminels de mener des attaques plus sophistiquées et plus convaincantes pour tromper leurs victimes. La sensibilisation et l’éducation sont essentielles pour se protéger.
L’intelligence artificielle, comme toute avancée technologique majeure, porte en elle la promesse de progrès fulgurants, mais aussi la menace d’utilisations malveillantes. Loin d’y échapper, l’IA, et plus particulièrement l’IA générative, est devenue un outil de choix pour les cybercriminels, toujours à la recherche de nouvelles armes pour tromper et manipuler leurs victimes.
Capable de créer du contenu plus grand que nature sous forme de texte, d’audio ou même de vidéo, l’IA générative repousse les limites de l’ingénierie sociale, au-delà des canaux traditionnels comme le courrier électronique. Des réseaux sociaux aux SMS en passant par les appels téléphoniques, aucun canal de communication n’est à l’abri de ces attaques sophistiquées. D’ailleurs, selon l’étude Voice of the CISO 2024, 64% des RSSI français estiment que l’IA générative présente un risque de sécurité accru pour leur organisation.
Des conversations crédibles
L’art de la conversation, autrefois domaine réservé aux humains, est désormais à la portée des cybercriminels grâce à l’IA générative. Ils exploitent la puissance des modèles de traitement du langage pour établir des liens virtuels trompeurs avec leurs victimes, s’engageant dans des conversations d’une crédibilité troublante. Ils prennent soin de cultiver patiemment un climat de confiance, alimentant parfois ces échanges virtuels pendant des semaines, voire des mois. Le but final ? Inciter les victimes à baisser la garde et à mener des actions aux conséquences potentiellement désastreuses : envoyer de l’argent, investir dans une plateforme frauduleuse, partager des informations confidentielles… Nourris de données glanées sur les réseaux sociaux, messageries instantanées et autres fuites de données, ces modèles d’IA produisent des résultats d’un réalisme saisissant. réponses, brouillant ainsi la frontière entre échanges authentiques et manipulations orchestrées sur des plateformes comme Instagram, WhatsApp ou Tinder.
Deepfakes ultra réalistes
L’IA générative offre également aux cybercriminels la possibilité de créer des « deepfakes » d’un réalisme troublant. À l’aide d’algorithmes d’apprentissage automatique, ils conçoivent de fausses vidéos où l’apparence, la voix et les gestes de n’importe quelle personne peuvent être imités à la perfection. Pour ce faire, ils alimentent leurs modèles d’IA, notamment les réseaux contradictoires génératifs (GAN), avec des images, des vidéos et des enregistrements audio collectés sur Internet. Le résultat ? Des vidéos falsifiées d’une telle qualité qu’il devient difficile de distinguer le vrai du faux. Ces deepfakes ouvrent la voie à de nouvelles formes d’usurpation d’identité, permettant par exemple d’imiter la voix d’un proche pour soutirer de l’argent ou des informations sensibles à des victimes sans méfiance.
Attaques BEC (Business Email Compromise) personnalisées
L’IA générative s’avère être un outil puissant pour contourner les barrières linguistiques et culturelles, facilitant les attaques BEC (Business Email Compromise) – également connues sous le nom d’arnaques au PDG – à l’échelle internationale. Jusqu’à présent, les cybercriminels ciblaient principalement les pays anglophones. Aujourd’hui, grâce à l’IA, ils peuvent facilement adapter leurs messages frauduleux à d’autres langues et cultures, étendant ainsi leur portée à des pays comme le Japon, la Corée ou les Émirats arabes unis. Rappelons que les attaques BEC reposent sur l’usurpation d’identité : des hackers se font passer pour des chefs d’entreprise afin d’inciter les salariés à effectuer des virements ou à divulguer des informations confidentielles. L’IA leur permet de créer des messages personnalisés très convaincants dans de nombreuses langues, imitant parfaitement le style et le ton de la personne qu’ils incarnent. Le recours aux deepfakes, qu’il s’agisse de messages vocaux ou de vidéos, renforce encore la crédibilité de ces arnaques.
Faux profils et publications automatisées
L’IA générative se révèle également être un formidable outil de manipulation de l’opinion publique sur les réseaux sociaux. Les cybercriminels peuvent créer de faux profils à partir de zéro et automatiser la production en masse de publications et d’interactions. Ces modèles d’IA sophistiqués sont capables d’imiter le style et le ton de sources fiables, de traduire le contenu dans différentes langues et même de gérer des tâches répétitives comme répondre aux messages. L’objectif de ces faux profils est de se fondre dans la foule des utilisateurs, d’entrer en contact avec des cibles potentielles en partageant leurs intérêts et de gagner leur confiance. Une fois cette confiance établie, les cybercriminels peuvent diffuser largement de fausses informations et tenter d’influencer les conversations en ligne. Facebook, Instagram, forums de discussion… Aucune plateforme n’est à l’abri de ces campagnes de manipulation automatisées.
L’IA générative a ouvert la boîte de Pandore des cybermenaces. En exploitant la puissance de cette technologie, les cybercriminels peuvent désormais tromper leurs victimes avec une facilité déconcertante, en se fondant dans le paysage numérique à l’aide de faux profils, de messages personnalisés et de fausses vidéos plus vraies que nature.
Face à ces dangers, la sensibilisation et l’éducation aux risques liés à l’IA générative sont essentielles. Selon le rapport State of the Phish 2024, seules 25 % des organisations françaises forment actuellement leurs utilisateurs à la sécurité de l’IA générative, alors qu’il est crucial de porter un regard critique sur les informations qui nous sont présentées en ligne, pour se tenir informés des dernières techniques de traitement. et de connaître les mesures de protection à mettre en place. Une formation ciblée, en particulier pour les responsables de données sensibles ou de transactions financières, est essentielle pour endiguer la vague de cybercriminalité alimentée par l’IA.