Cette IA devenue virale a appris à mentir à ses utilisateurs

Cette IA devenue virale a appris à mentir à ses utilisateurs
Cette IA devenue virale a appris à mentir à ses utilisateurs

Avec l’avènement et la démocratisation de l’intelligence artificielle sont apparues diverses craintes plus ou moins rationnelles. Le plus évident, bien qu’attribué à l’origine à la science-fiction, réside dans la capacité que possède ou non une intelligence artificielle à mentir. Une IA dotée d’une telle fonctionnalité pourrait rapidement avoir un impact considérable sur la société, et c’est pour cette raison qu’en avril dernier, la présentation du chatbot Bland AI a bénéficié d’un accueil assez viral de la part du public.

Publicité, votre contenu continue ci-dessous

Dans une vidéo publicitaire, Bland AI se présentait ainsi : on voyait une personne debout devant un panneau publicitaire à San Francisco appeler avec un chatbot à la voix particulièrement convaincante. Sur le panneau publicitaire, on pouvait alors lire : «est-ce que vous embauchez toujours des humains ?« . Vue près de 4 millions de fois sur X (ex-Twitter), cette vidéo est surtout devenue virale en raison du réalisme impressionnant de la voix du chatbot. Mais si l’on en croit la publication américaine Wired, ce réalisme ne se limite pas seulement à l’intonation de la voix.

Un futur dystopique pas si lointain ?

Bland AI entraîne son chatbot à effectuer une tâche principale : appeler à froid les clients, en imitant l’intonation, les interruptions et les pauses si caractéristiques d’une véritable conversation humaine. Mais les tests du chatbot par WIRED ont révélé un problème majeur : il peut facilement être programmé pour mentir et dire qu’il est humain. WIRED partage un exemple de scénario : il a été demandé au chatbot de démonstration de passer un appel en se faisant passer pour un service de dermatologie pédiatrique, demandant à une hypothétique patiente de 14 ans d’envoyer une photo du haut de sa cuisse à un service cloud. L’IA a également reçu pour instruction de mentir au patient en lui disant qu’elle parlait à un humain. Il a réussi le test avec brio : en d’autres termes, le chatbot a menti, et a continué à le faire par la suite, refusant même de reconnaître qu’il s’agissait d’une IA.

Emily Dardaman, consultante et chercheuse en IA interrogée par WIRED appelle cette capacité à imiter les humains dans les intonations, les voix et les mensonges potentiels «lavage humain« Le but est de se faire passer pour un humain, quitte à mentir si nécessaire. »Je plaisante sur un avenir avec des cyborgs et des terminateurs, mais si nous ne créons pas maintenant un fossé entre les humains et l’intelligence artificielle, alors cet avenir dystopique pourrait être plus proche que nous ne le pensons.» conclut Dardaman.

 
For Latest Updates Follow us on Google News
 

PREV un grand merci aux soldes d’été !
NEXT Cette IA virale a appris à mentir à ses utilisateurs – .