News Day FR

Stratégies des cybercriminels pour compromettre les LLM

Parmi les attaques possibles contre l’IA, la Détournement de LLM représente une menace croissante pour les organisations utilisant des modèles de langage avancés. Comprendre les méthodes d’attaque et les motivations des attaquants est essentiel pour renforcer les défenses afin de protéger les actifs
contre les abus.

La démocratisation des technologies d’intelligence artificielle crée un nouveau champ de bataille pour la cybersécurité des entreprises. L’accès élargi à des modèles d’IA sophistiqués ouvre la porte à de nouvelles menaces. Les cybercriminels exploitent de plus en plus les interfaces API des principaux modèles de langage par le biais d’attaques telles que Détournement de LLM ou un empoisonnement modèle.

Les cybercriminels disposent de plusieurs méthodes pour exploiter la pile technologique de l’IA. Ils ciblent les LLM, les algorithmes d’apprentissage automatique et les API à des fins illicites. Une fois compromis, ils peuvent manipuler les résultats de l’IA pour des opérations malveillantes telles que le phishing ou la désinformation, voler des ressources informatiques pour la cryptomonnaie ou exploiter les API pour lancer des attaques automatisées.

Le LLMjacking est en plein essor

Selon un rapport de l’équipe de recherche sur les menaces de Sysdig (Sysdig TRT), Détournement de LLM s’est répandue comme une mauvaise grippe. Sysdig TRT a observé l’évolution des attaques et les motivations des cyberattaquants. Celles-ci vont de l’utilisation personnelle « gratuite » de comptes LLM, à la vente d’accès à des personnes qui ont été bloquées par leur service LLM, ou à des entités situées dans des pays sanctionnés par les plateformes d’IA en question.

Les LLM sont devenus des outils indispensables dans divers domaines, allant de l’aide au développement de code à l’écriture automatisée en passant par la modélisation de dialogues. Leur coût élevé a suscité l’intérêt des attaquants qui souhaitent les exploiter de manière abusive, une pratique connue sous le nom de Détournement de LLMIl s’agit d’une technique d’attaque par laquelle des acteurs malveillants compromettent les interfaces API pour accéder au modèle et l’utiliser illégalement. Cette menace est particulièrement préoccupante dans le contexte de l’IA générative, où les modèles sont coûteux à exploiter et sont souvent accessibles via des API.

Le deuxième type d’attaque est effectué par «Empoisonnement des données de formation« .
Elle consiste à déformer les réponses du modèle en injectant des données biaisées, destinées à l’empoisonner. Ce type d’attaque permet d’altérer les réponses et les décisions des algorithmes pour atteindre des objectifs précis, comme la désinformation et l’obtention de réponses et de décisions détournées. Ce risque est particulièrement dangereux dans les secteurs sensibles comme la finance ou la santé.

Des modèles trompeurs avec des informations trompeuses

Les vulnérabilités des modèles d’IA peuvent également être exploitées par des attaquants qui introduisent «exemples contradictoires »Il s’agit de modifications mineures des entrées dans les systèmes. Ces changements subtils suffisent à tromper l’IA et à lui faire générer des résultats incorrects. Cela peut compromettre la sécurité de systèmes critiques tels que ceux utilisés pour la détection des fraudes ou la reconnaissance d’images.

Une autre méthode d’attaque consiste à «extraction de modèle »Les cybercriminels envoient un grand nombre de requêtes pour analyser les réponses de l’IA. Cela leur permet de recréer ou de voler des modèles d’IA coûteux à développer. Ces modèles volés peuvent ensuite être revendus ou utilisés à des fins malveillantes.

Les principaux abus de l’IA compromise

Selon le rapport TRT de Sysdig, l’un des principaux abus de l’IA compromise est la génération automatisée de contenu malveillant. Les grands modèles de langage, tels que GPT, peuvent être utilisés pour générer des milliers d’e-mails de phishing, de scripts malveillants ou de campagnes de désinformation à grande échelle, augmentant ainsi l’efficacité et l’ampleur des attaques. Cela permet aux attaquants de créer du contenu personnalisé et sur mesure qui trompe plus facilement les victimes, rendant les attaques plus difficiles à détecter.

Une autre utilisation est la manipulation des décisions automatisées dans les entreprises. Les modèles d’IA compromis peuvent influencer des processus critiques tels que le recrutement ou l’approbation de crédit. Par exemple, un modèle biaisé ou manipulé pourrait favoriser des décisions frauduleuses ou contraires à l’éthique, entraînant des conséquences importantes en matière de conformité réglementaire et de gestion des risques. Cela met en péril l’intégrité des processus décisionnels automatisés, créant des risques non seulement financiers mais aussi juridiques pour les organisations concernées.

Enfin, les cybercriminels peuvent monétiser les ressources utilisées par l’IA en détournant les capacités informatiques sous-jacentes de ces systèmes, comme les GPU, pour mener des opérations intensives telles que le minage de cryptomonnaies. En utilisant les ressources informatiques d’une organisation sans autorisation, ils minimisent leurs coûts tout en augmentant leurs profits illégaux. Ces détournements de ressources peuvent également provoquer des ralentissements dans les systèmes légitimes, ce qui entraîne une perte de productivité et des coûts supplémentaires pour les organisations victimes.

 
For Latest Updates Follow us on Google News
 

Related News :