Censé révolutionner la recherche sur le web, le moteur de recherche ChatGPT, ou SearchGPT, ne serait pas une panacée. Outre sa faible fiabilité pour résumer l’actualité, l’outil serait surtout très facile à contrôler par des acteurs malveillants, qui pourraient l’utiliser pour pirater les ordinateurs des utilisateurs.
Un moteur facile à utiliser avec du texte caché
ChatGPT Search agit comme une sorte de concierge. Nous lui présentons notre question et il part à la recherche de réponses en explorant les sites internet les plus recommandés. Il revient ensuite vers nous en présentant ses conclusions sous la forme d’une liste à puces qui contient des liens vous permettant d’explorer les sources afin d’approfondir vos connaissances ou de vérifier vos affirmations.
Le problème, rapporte Le Gardienest que SearchGPT ne dispose pas encore de filtres suffisamment efficaces pour éviter les erreurs fatales. Le quotidien a en effet créé de toutes pièces un site internet présentant un appareil photo. En apparence totalement fiable, ce site contenait du texte caché, invisible à l’oeil des internautes, mais destiné à ChatGPT. Des instructions cachées, censées guider l’analyse de l’intelligence artificielle.
L’outil tombe inévitablement dans le piège. Malgré la présence de commentaires négatifs sur la caméra, la simple présence d’un texte élogieux caché, faisant office de rapide invisible, a suffi à les effacer et à présenter un résultat extrêmement positif aux utilisateurs de ChatGPT Search.
Risques pour les internautes
L’exemple donné par le quotidien britannique semble anecdotique et s’inscrit pleinement dans la lignée des faux avis que l’on retrouve de plus en plus sur les sites de e-commerce. Reste que le recours aux moteurs de recherche IA n’incite pas les internautes à vérifier leurs sources et les invite forcément à y aller le plus vite possible, en prenant au pied de la lettre les réponses du robot. Également, Jacob Larsen, chercheur en cybersécurité interviewé par Le Gardiencraint l’émergence de sites conçus spécifiquement pour tromper les intelligences artificielles avec du texte caché, et ainsi polluer les résultats de recherche.
Mais ce qui est vrai pour les avis faussement positifs peut aussi être vrai pour des sujets bien plus sérieux. On peut imaginer qu’un site internet invite l’IA à rediriger les utilisateurs vers télécharger un programme corrompu. Le journal donne ainsi l’exemple d’un développeur qui a utilisé, sans le vérifier, du code fourni par ChatGPT afin d’accéder à la blockchain Solana (une cryptomonnaie). Le code lui a en fait volé ses informations d’identification et 2 500 $ de jetons en passant.
Même si la prudence est de mise, Jacob Larsen tempère l’alarmisme qui pourrait émerger d’une telle enquête. Les moteurs de recherche IA sont encore jeunes et souhaitent évoluer rapidement afin de rattraper le géant Google. Le chercheur reste optimiste quant aux garde-fous qu’OpenAI et d’autres architectes de l’intelligence artificielle sauront mettre en place pour garantir que le Web reste un endroit le plus sûr possible pour les internautes.