Les moteurs de réponse IA, une révolution technologique avec des enjeux de fiabilité – rts.ch

Les moteurs de réponse IA, une révolution technologique avec des enjeux de fiabilité – rts.ch
Les moteurs de réponse IA, une révolution technologique avec des enjeux de fiabilité – rts.ch

Les géants de la technologie comme Google et OpenAI s’orientent vers des moteurs de réponse, ce qui représente un changement majeur dans la façon dont nous utilisons Internet. Même si cette innovation peut améliorer l’efficacité de la recherche d’informations, elle pose un risque majeur : la fiabilité de l’information.

Après les moteurs de recherche, Google, Perplexity ou OpenAI proposent désormais des moteurs de réponses. Vous posez une question et l’IA scanne Internet. Enfin, elle présente une synthèse de ses recherches. Il n’est plus nécessaire de cliquer sur un lien.

Cette fonctionnalité est un Graal pour les grandes entreprises technologiques puisqu’elle pourrait leur permettre de prendre la place de Google en devenant la porte d’entrée vers Internet. Microsoft, Perplexity, OpenAI et, évidemment, Google sont donc entrés dans la course : l’internaute peut désormais poser ses questions à l’IA qui lui apporte une réponse en s’appuyant sur une sélection de sites de référence.

« Je pense que la façon dont nous utilisons Internet va probablement changer quelque peu, même si cela prendra du temps. On le voit déjà un peu avec la façon dont certaines personnes utilisent ChatGPT. Parfois, on peut obtenir des informations plus efficacement qu’en cherchant quelque chose dans un moteur de recherche”, a commenté Sam Altman, patron d’OpenAi et créateur de ChatGPT, au micro de Nicholas Thompson, PDG du magazine “The Atlantic”, en marge du Conférence annuelle « AI for Good » » à Genève.

>> Lire aussi : L’intelligence artificielle fait proliférer la désinformation sur TikTok

Contenu externe

Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Réseaux sociaux.

Accepter Plus d’information

Mélange d’informations

Ces progrès posent cependant des problèmes de fiabilité de l’information. Les IA souffrent parfois d’« hallucinations » et inventent une partie de leurs réponses, ce qui rend dangereux leur utilisation les yeux fermés.

Par exemple, l’outil Perplexity, chargé de compiler une synthèse des périodes marquantes de la vie de l’auteur Paul Auster après sa mort, a indiqué qu’il avait été accusé d’homicide involontaire sur son bébé. Une petite recherche suffit pour prouver qu’il s’agit d’une fausse information. L’IA a lié l’histoire du fils de l’écrivain, Daniel Auster, à celle de son père. Heureusement, les réponses ont été données par écrit, ce qui a permis à l’internaute de cliquer sur les liens donnés par l’IA pour en savoir plus.

En revanche, dans une conversation orale, l’outil ne peut pas indiquer de liens, ce qui rend la recherche plus difficile et fausse les réponses transmises. Les internautes doivent donc faire appel à leurs connaissances générales pour détecter les informations erronées ou inexactes. Utiliser l’IA pour obtenir des réponses est donc dangereux, car tout le monde n’a pas les capacités de les vérifier.

>> Pour aller plus loin, écoutez le sujet du Forum sur les dysfonctionnements de la nouvelle IA de Google qui propose une recette de pizza contenant de la colle :

La nouvelle IA de Google dysfonctionne et propose notamment une recette de pizza contenant de la colle / Forum / 2 min. / 27 mai 2024

>> Lire aussi : Mise à jour de l’algorithme Google : quels impacts sur les résultats ?

Beaucoup d’inconnues, mais pas d’inquiétude pour Sam Altman

Les IA qui génèrent des réponses doivent également être modérées. Par exemple, ils savent tout sur la chimie et la fabrication d’armes chimiques. Ils doivent donc faire preuve de retenue dans leurs réponses. Pourquoi ne pas les priver de connaissances sur la fabrication d’armes chimiques ? Les travaux sont en cours mais, pour l’instant, les ingénieurs n’en sont pas capables. Ils peuvent modérer l’interface avec l’utilisateur, la réponse donnée, mais pas le modèle lui-même. Parce que nous ne savons pas ce qui se passe dans les coulisses de ces grands modèles d’IA.

Pas de quoi freiner Sam Altman qui souhaite continuer à créer des outils plus puissants. C’est tout simplement justifié : il faut essayer de le savoir. C’est pourquoi il a mis sur le marché ChatGPT, conscient de ces risques d’hallucinations.

“On ne comprend pas encore tout ce qui se passe dans un cerveau (…) Pourtant on sait qu’on peut suivre certaines règles (…) Il existe d’autres façons de comprendre le cerveau sans analyser chaque neurone”, estime-t-il.

Il a ajouté : « La société n’est pas une chose statique. À mesure que vous mettez la technologie en place, la société évolue, tout comme la technologie. Il y a une véritable coévolution. Donc, je pense que le meilleur moyen de savoir à quoi cela ressemblera est (de l’analyser) de manière empirique.

Pour Sam Altman, il faut continuer à lancer des prototypes pour regarder les effets, prendre des retours et repartir avec l’idée d’amélioration continue.

>> Lire aussi : Quand l’IA veut s’immiscer dans notre vie privée pour devenir surpuissante

Sujet radio : Pascal Wassmer

Adaptation web : juma

 
For Latest Updates Follow us on Google News
 

PREV LE rendez-vous incontournable des professionnels
NEXT Équipez-vous comme un pro grâce à ce bon plan sur la tablette Samsung Tab A8