Peut-on faire aveuglément confiance à l’intelligence artificielle ? En matière de recherche d’informations, cela ne semble pas être le cas. C’est en tout cas la leçon que l’on peut tirer suite au scandale médiatique survenu aux Etats-Unis il y a quelques jours.
Tout a commencé sur CNN qui a tenté d’établir des précédents historiques en matière de grâce présidentielle familiale (en référence à Joe Biden qui a gracié son fils alors qu’il avait assuré qu’il ne le ferait jamais). Ana Navarro-Cardenas, personnalité connue de la chaîne, a évoqué avec assurance la grâce accordée par le président Woodrow Wilson à son prétendu beau-frère, un certain Hunter deButts. Cette information, reprise par plusieurs médias, s’est rapidement répandue sur les réseaux sociaux.
Face aux questions sur ses sources, la commentatrice a répondu sans détour : “Reprenez ChatGPT”. Une réponse qui a déclenché une enquête approfondie, révélant non seulement que Hunter deButts n’a jamais existé, mais aussi que d’autres « faits historiques » largement rapportés étaient tout aussi fictifs. Parmi eux, la prétendue grâce de George HW Bush à son fils Neil, ou encore celle de Jimmy Carter à son frère Billy.
Ne croyez pas l’IA
Cette affaire n’est que la pointe de l’iceberg. La recherche montre que les outils d’IA générative comme ChatGPT commettent des erreurs plus des trois quarts du - lorsqu’il s’agit de citer des sources précises. Un constat alarmant quand on sait que ces outils sont de plus en plus utilisés par les journalistes, les chercheurs et les étudiants.
Le cas de Jeff Hancock, fondateur du Stanford Social Media Lab et expert reconnu en matière de désinformation, est particulièrement révélateur. Lui-même a été amené à utiliser GPT-4 pour générer une liste de références bibliographiques, aboutissant ainsi à des citations inexistantes dans un document officiel. Si même les experts peuvent tomber dans le piège, qu’en est-il du grand public ?
Un problème systémique qui menace l’information
La différence fondamentale entre les moteurs de recherche traditionnels et les « moteurs de réponse » basés sur l’IA réside dans leur approche. Recherche Google des liens classiques vers des sources primaires que l’utilisateur peut consulter et vérifier. En revanche, les IA génératives produisent des réponses qui semblent cohérentes mais souvent impossibles à vérifier.
Cette nouvelle réalité pose un problème majeur : la simplicité d’utilisation de ces outils encourage la paresse intellectuelle. Pourquoi passer du - à vérifier les sources alors qu’une IA nous donne une réponse immédiate et apparemment crédible ? Cette tendance contribue à la dégradation générale de notre environnement informationnel, déjà miné par la désinformation sur les réseaux sociaux.
Les conséquences se font sentir bien au-delà du monde académique. Depuis des erreurs apparemment anodines, comme l’IA de Google affirmant que les renards mâles sont monogames, jusqu’à de graves malentendus sur l’actualité, toute notre capacité à distinguer les faits de la fiction est menacée. Alors en attendant que ChatGPT s’améliore, mieux vaut s’en remettre au bon vieux Google et à votre capacité à croiser les informations.
- Une cascade de désinformations sur les grâces présidentielles américaines a révélé les dangers de s’appuyer sur l’IA générative pour la récupération d’informations.
- Des outils comme ChatGPT se trompent dans plus de 75 % des cas lorsqu’il s’agit de citer des sources, même les experts en sont victimes.
- Contrairement aux moteurs de recherche traditionnels, les IA génératives ne peuvent pas remonter aux sources primaires, créant ainsi un dangereux précédent pour notre capacité à vérifier les informations.
???? Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google News et WhatsApp.