News Day FR

Que font les pirates ? Que peuvent faire les entreprises ?

La vague d’IA générative qui déferle depuis deux ans change la donne en matière de cybersécurité. Les cybercriminels disposent d’une multitude de nouveaux outils pour améliorer leurs techniques existantes et en développer de nouvelles. Sans oublier que l’adoption rapide de l’IA dans les organisations crée de nouvelles vulnérabilités. ICTjournal a discuté de l’évolution de la menace et des moyens d’y répondre avec des experts de Trend Micro lors d’un webinaire organisé le 4 décembre.

Gains de productivité, deepfakes et injection rapide

Premier à prendre la parole, le Dr Vincenzo Ciancaglini, Senior Threat Researcher chez Trend Micro, a voulu démystifier l’utilisation de l’IA par les hackers, rappelant que ces derniers n’ont pas attendu le boom actuel pour adopter cette technologie, par exemple pour optimiser les tentatives de découverte de mots de passe. Concernant l’IA générative, le spécialiste explique que, pour l’instant, nous n’avons pas observé de malware sophistiqué produit par l’IA.

D’autre part, les hackers se sont appropriés ces outils pour gagner en productivité, par exemple pour rédiger des emails de phishing personnalisés ou déboguer leur code. Il en va de même pour les acteurs étatiques, qui exploitent l’IA générative à des fins d’ingénierie sociale ou pour la collecte d’informations sur leurs cibles.

Vincenzo Ciancaglini a également abordé le recours aux deepfakes, qui est devenu plus répandu. La technologie est utilisée pour cibler aussi bien les individus (chantage à nu, faux kidnapping utilisant deepaudio) que les entreprises, avec notamment de faux interlocuteurs par visioconférence pour soutirer de l’argent à un manager, ou de faux candidats pour ne pas accéder au réseau de l’organisation.

À cela s’ajoute l’utilisation croissante de l’IA dans les organisations qui les exposent à de nouvelles attaques. Vincenzo Ciancaglini a notamment décrit des techniques d’injection d’invites, qui glissent des instructions ou des liens malveillants dans des invites et autres contenus alimentant l’IA générative.

Façons de vous défendre

Face à la propagation des deepfakes ciblant les particuliers, Cyrille Larrieu, Ingénieur Avant-Vente Senior chez Trend Micro, a souligné l’importance des ressources humaines. Il recommande d’être sceptique à l’égard de son interlocuteur, de le défier et de redoubler de vigilance dès qu’une question d’argent est évoquée. Il a également décrit des outils techniques à disposition des particuliers, comme les détecteurs de deepfake sur mobile (Trend Micro Check) ou sur PC (Deepfake Inspector), qui alertent les utilisateurs dès qu’il y a des signes de contenu artificiel.

Concernant les organisations employant des solutions d’IA générative, Cyrille Larrieu a décrit quatre risques : le manque de visibilité sur ces usages, l’exposition de données sensibles, la manipulation des modèles et la conformité. Pour le spécialiste, l’approche et les architectures Zero Trust permettent de répondre à ces risques, à condition de les compléter par des contrôles supplémentaires. Ainsi, par exemple, la plateforme Zero Trust de Trend Micro (Vision One) embarque aujourd’hui des contrôles d’accès aux applications GenAI publiques ou privées, des filtres côté invite et côté réponse, ainsi que des techniques de prévention des injections, que les organisations peuvent configurer.

Le spécialiste a également souligné l’importance des tableaux de bord et des outils statistiques pour suivre l’utilisation de l’IA générative dans l’organisation et communiquer sur les attaques qui auraient pu être déjouées.

Agents GenAI et chaîne d’approvisionnement

Au cours de la session de questions-réponses, les spécialistes de Trend Micro ont également discuté des risques associés à l’émergence de fonctionnalités agentiques dans les solutions d’IA générative. « Le risque est une adoption fulgurante, comme nous l’avons vécu avec ChatGPT, avec de multiples agents spécialisés à orchestrer, chacun étant susceptible de se tromper ou d’être manipulé », prévient Vincenzo Ciancaglini.

L’expert a également relevé les risques liés à la profusion de modèles d’IA génératifs – plusieurs dizaines de milliers sur Huggingface – et donc au recours à des agents plus ou moins fiables ou subtils. Un danger donc pour la supply chain GenAI, similaire à ce que nous avons vécu avec les bibliothèques populaires Javascript et Python.

Pour plus d’informations, l’intégralité du webinaire est disponible en vidéo :

 
For Latest Updates Follow us on Google News
 

Related News :