L’intelligence artificielle est une technologie qui divise : elle est indéniablement au cœur des avancées technologiques de notre époque, mais ceux qui étudient et participent à son développement doivent eux-mêmes alerter le public.
L’un des lauréats du prix Nobel de physique 2024, John Hopfield, bien que récompensé pour ses travaux sur « l’apprentissage automatique » de l’intelligence artificielle, a lui-même mis en garde la société contre une possible perte de contrôle et de compréhension de l’IA, qu’il a qualifiée de « très préoccupante ». »
Mais réalise-t-on ce que l’intelligence artificielle représente dans notre quotidien ? Et surtout, cette présence dans notre quotidien comporte-t-elle des dangers ? Le Docteur Felix Pflücke, chercheur postdoctoral à l’Université du Luxembourg, répond à nos questions.
Comment l’IA s’intègre dans notre vie quotidienne
Une étape supplémentaire dans la relation entre le public et l’intelligence artificielle a été franchie avec le développement des chatbots (intelligence artificielle générative), comme ChatGPT en 2022, pour citer l’un des exemples les plus concrets et les plus répandus. Pourtant, l’IA est déjà présente dans un outil que nous utilisons presque quotidiennement : les réseaux sociaux. «À partir d’algorithmes, l’intelligence artificielle suggère des contenus plus adaptés à chaque consommateur, en fonction de ses recherches, du temps passé à regarder des vidéos, en fonction des contenus qu’il aime…», explique Felix Pflücke. « L’IA permet aussi de donner des suggestions affinées par rapport au consommateur, par exemple lorsqu’il souhaite effectuer des achats en ligne », poursuit le chercheur.
L’IA fonctionne également bien dans d’autres couches de la société : « Le secteur bancaire utilise beaucoup l’intelligence artificielle. Certaines administrations l’utilisent également, par exemple lorsqu’il faut générer un visa», ajoute Felix Pflücke, auteur de plusieurs études sur le thème de l’intelligence artificielle.
Concernant les aspects positifs de l’utilisation de l’intelligence artificielle, Felix Pflücke estime que cette technologie « permet de faciliter de nombreux processus et de bénéficier de contenus sur mesure utiles au consommateur ».
Une réglementation pour se prémunir contre d’éventuels abus
Il y a cependant des nuances à faire. Lors d’une conférence organisée vendredi 25 octobre au Parlement européen, Juha Heikkilä, conseiller en intelligence artificielle auprès de la Commission européenne, a déclaré que « la protection des droits fondamentaux des consommateurs doit passer par un acte de régulation spécifique ». Ainsi est né le « AI Act », ou « Artificial Intelligence Règlement ». Entrée en vigueur le 1er août, elle fixe un cadre juridique pour l’utilisation de l’IA au sein de l’Union européenne. On retrouve notamment les objectifs suivants :
-
Protection de la santé, de la sécurité et des droits fondamentaux
-
Une approche basée sur l’évaluation des risques
-
Intervenir lorsque nécessaire
-
Fonctionnement conforme aux lois en vigueur
Juha Heikkilä a ainsi présenté une pyramide de risques, divisée en quatre niveaux : « inacceptable », « élevé », « limité » et « minime ». Felix Pflücke, qui s’exprimait aux côtés de M. Heikkilä lors de cette conférence, explique à quoi correspondent ces niveaux : « Le risque inacceptable est atteint lorsque, par exemple, un gouvernement utilise l’IA pour réaliser une évaluation sociale des citoyens. Le risque est élevé lorsque l’IA est utilisée dans des secteurs sensibles tels que la santé, l’éducation ou la finance. Le risque limité concerne les chatbots : cela passe simplement par de la transparence. Enfin, un risque minime, voire nul, s’applique par exemple aux filtres anti-spam, qui fonctionnent avec une automatisation artificielle.
Selon le chercheur, “les amendes peuvent être très élevées : elles peuvent atteindre 35 millions d’euros, soit jusqu’à 7 % du chiffre d’affaires d’une entreprise”. Il faudra cependant encore attendre : la mise en œuvre de la loi IA se fait progressivement et toutes les dispositions devraient être mises en œuvre d’ici trois ans maximum.
Une affaire aussi sombre qu’inédite remet en question la relation entre l’IA et l’humain
Depuis plusieurs jours, l’IA est au cœur d’une sombre affaire : Sewell Setzer III, un adolescent américain de 14 ans, s’est suicidé après avoir développé une relation obsessionnelle avec une intelligence artificielle, issue de l’application Character AI. Sa mère, Megan Garcia, a porté plainte, estimant que cette technologie était directement responsable de la mort de son fils. Il s’agit de l’un des premiers décès liés à une interaction entre une intelligence humaine et artificielle.
Alors que l’enquête se poursuit, cette affaire soulève la question de savoir si une ou plusieurs personnes participant au développement de l’intelligence artificielle sont ou non pénalement responsables. Character AI a-t-il réellement incité l’adolescent à se suicider ? Les développeurs d’applications peuvent-ils être poursuivis en justice ? Les réponses à ces questions ne pourront être apportées qu’à la fin de l’enquête.