News Day FR

Une IA empoisonnée par un hacker pourrait tromper un médecin ou un tank

L’empoisonnement de l’intelligence artificielle est une des menaces à prendre en compte à l’horizon 2025. Cette technique devrait renforcer la nécessité d’une prudence accrue à l’égard des résultats fournis par l’IA.

En principe, nous vous déconseillons de vous fier à 100 % à l’IA, que ce soit pour les chatbots intelligents (ChatGPT, Gemini…) ou les technologies de reconnaissance faciale : ces outils sont loin d’être infaillibles. En plus de leur marge d’erreur considérable, ces programmes peuvent être piratés à votre insu, vous entraînant ainsi sur une mauvaise voie. Cet « empoisonnement » de l’intelligence artificielle pourrait également apparaître comme une menace à surveiller de près en 2025.

Une étude sur l’IA et la médecine publiée début janvier dans la revue Nature révèle qu’il suffit de modifier seulement 0,001 % des données d’entraînement avec des informations erronées pour transformer un programme en un outil dangereux, amplifiant les risques d’erreurs médicales.

La méfiance est de mise avec les chatbots. // Source : Numérama

Tirez le meilleur parti de votre vie numérique !

Avec Bitdefender, votre vie numérique est entre de bonnes mains. Protégez-vous des escroqueries, des virus et des ransomwares grâce à ses solutions innovantes et discrètes.

Les conséquences seraient encore plus larges puisque dans le rapport sur les menaces en 2025, publié en décembre par la société française de cybersécurité HarfangLab, les experts notent que cette technique pourrait permettre « pour que les adversaires influencent les récits publics, perturbent les processus de vérification des faits et érodent la confiance dans les résultats générés par l’IA. »

-

Un chatbot piraté pourrait tromper les employés

Comment empoisonner l’IA ? Les programmes d’intelligence artificielle n’inventent pas grand-chose : ils s’appuient sur de vastes bases de données pour répondre à des tâches spécifiques ou générer du contenu. Si un tiers malveillant venait à corrompre la « nourriture » dont est nourrie l’IA, c’est-à-dire les données qui sont injectées pour l’entraîner, le système fournirait inévitablement un résultat défectueux.

L’impact néfaste pourrait être considérable. ” Les modèles de langage intelligents, de plus en plus utilisés par les entreprises, pourraient complètement induire les salariés en erreur s’ils n’y prennent pas garde. » envisage Pierre Delcher, directeur de recherche en cybersécurité au HarfangLab. D’autres scénarios sont imaginés : des systèmes d’IA compromis pourraient fournir de mauvais conseils médicaux, ne pas détecter la fraude financière ou ignorer des menaces spécifiques dans les outils de cybersécurité pour permettre à des attaquants de s’infiltrer.

ChatGPT nous a déjà fourni des discours de désinformation à partir de simples requêtes. // Source : Numérama

Un char pourrait confondre un char avec une ambulance

Dans le secteur de la défense également, l’empoisonnement de l’IA constitue un problème à étudier. Fin 2023, le groupe Thales remporte un concours organisé par la Direction générale de l’Armement après avoir trompé une IA de reconnaissance. Celui-ci était censé reconnaître les chars et les véhicules blindés de l’armée. En modifiant quelques pixels dans l’image analysée par le programme de détection, le char s’est transformé en ambulance aux yeux de l’IA. Et vous connaissez la règle : « ne tire pas sur l’ambulance ».

On pourrait dire que l’œil humain, en revanche, serait capable de faire la différence entre un char et un véhicule de secours, mais il faut comprendre que les systèmes de détection sont également déployés pour des missions plus subtiles comme la détection de drones, qu’il vaudrait mieux éviter de confondre avec un oiseau, surtout en cas d’événement public.


 
For Latest Updates Follow us on Google News
 
-

Related News :