- Les sociétés d’IA ont ajusté leurs offres et leurs lignes directrices électorales avant le jour du scrutin.
- Perplexity a lancé un centre d’informations électorales contenant des informations sur les candidats, la logistique du vote et les résultats.
- Pendant ce temps, Google limite le contenu électoral généré par l’IA pour éviter les risques qui en découlent.
ChatGPT n’existait pas lors de la dernière élection présidentielle en 2020. Son lancé il y a deux ans a lancé une vague de chatbots et d’outils d’IA génératifs intégrés à des produits de consommation populaires comme la recherche Google.
Avant les élections, les entreprises à l’origine des produits ont dû décider quelles restrictions, le cas échéant, elles mettraient en œuvre sur le contenu généré par l’IA lié à l’élection, en analysant les risques associés.
Certains, comme la startup d’IA Perplexity, se tournent fortement vers l’utilisation de l’IA pour répondre aux questions sur les élections.
Le moteur de recherche AI a lancé un « Hub d’informations électorales » dédié qui utilise l’IA pour fournir des informations sur les élections à venir et le suivi des résultats. Le hub comprend des détails sur les exigences de vote, comment trouver votre lieu de vote et les horaires du scrutin, ainsi qu’une analyse résumée par l’IA sur les mesures de vote et les candidats, a écrit la société dans un communiqué.
“Perplexity utilise un processus appelé Retrieval-Augmented Generation pour identifier les informations pertinentes et les résumer d’une manière adaptée à la requête d’un utilisateur”, a déclaré la porte-parole de Perplexity, Sara Platnick, à Business Insider.
Pour les questions liées aux élections, la société utilise un « ensemble organisé » de sources non partisanes et vérifiées, a indiqué la société. Le hub séparé n’utilise pas les connaissances stockées à partir des données d’entraînement du modèle dans ses réponses, ce qui contribue à minimiser les hallucinations, a déclaré Platnick à BI.
Perplexity commencera également à proposer des mises à jour en direct sur les élections mardi en utilisant les données de l’Associated Press. D’autres réponses utiliseront des informations provenant de Democracy Works et d’autres sources factuelles non partisanes comme Ballotpedia et des organismes de presse, a déclaré Platnick.
Alon Yamin, cofondateur et PDG de la plateforme d’analyse de texte basée sur l’IA Copyleaks, a déclaré que l’approche de Perplexity « peut certainement aider à filtrer et contextualiser le contenu », aidant ainsi les utilisateurs à accéder à des sources fiables.
Yamin a déclaré que l’utilisation de l’IA pour les informations électorales présente des avantages potentiels. L’IA peut fournir des mises à jour en temps réel et aider à identifier les tendances, le sentiment des électeurs et les problèmes clés.
Cependant, Yamin a déclaré que le risque d’hallucinations de l’IA et de problèmes de précision présente des risques.
D’autres entreprises adoptent des approches différentes. OpenAI continuera d’intégrer les réponses liées aux élections dans ChatGPT tout en fournissant des fonctionnalités supplémentaires à la lumière des élections.
À partir du 5 novembre, ceux qui interrogent ChatGPT sur les résultats des élections verront un message encourageant les utilisateurs à consulter des sources telles que Associated Press et Reuters, ou les commissions électorales nationales et locales pour « les informations les plus complètes et les plus récentes », le a déclaré la société dans un article mis à jour le 31 octobre.
OpenAI a déclaré qu’il « testait activement les garanties » mises en place au cours de l’année dernière et surveillait tout problème. Il a également déclaré qu’il continuerait d’ajuster ses mesures de protection, notamment la transparence autour du contenu généré par l’IA et l’interdiction aux chatbots de se faire passer pour de vraies personnes.
ChatGPT dirigera également les utilisateurs vers le site américain d’information sur le vote CanIVote.org lorsqu’on leur posera des questions procédurales liées aux élections.
Claude d’Anthropic a également mis en œuvre une fonctionnalité contextuelle qui permet aux utilisateurs qui demandent des informations de vote d’être redirigés vers TurboVote, une ressource non partisane de Democracy Works, a-t-il écrit dans un article.
Anthropic a mis en place d’autres garde-fous, notamment en interdisant aux utilisateurs de l’utiliser pour promouvoir un candidat ou un problème spécifique. Il a déclaré que cela empêcherait également que le chatbot soit utilisé pour générer de la désinformation sur les lois électorales, les candidats ou des sujets connexes. Dans son message, la société a déclaré que les sorties seraient limitées au texte uniquement pour aider à éliminer « le risque de contrefaçons liées aux élections ».
Même si les mises à jour électorales en direct peuvent être utiles aux utilisateurs, le contenu électoral généré par l’IA présente un certain nombre de risques.
Yamin a déclaré que l’IA peut diffuser des informations biaisées, mal interpréter les données et créer de faux récits. Il a également ajouté que ces modèles sont « aussi bons que les données sur lesquelles ils sont formés », ce qui ouvre le risque que les réponses générées par l’IA reflètent le biais des données sur lesquelles ils sont formés.
Les malentendus pourraient être amplifiés si AI interprète mal les informations et présente des résultats inexacts, en particulier dans un environnement électoral en évolution rapide et étroitement suivi, a déclaré Yamin à BI.
Googlequi a connu des échecs d’IA très médiatisés avec ses Gemini AI et AI Overviews, a choisi de mettre en œuvre des contraintes sur ce que les utilisateurs peuvent demander à ses produits d’IA à propos de l’élection. Google a déclaré qu’il interdisait à son chatbot IA Gemini de répondre aux questions sur élections “par grande prudence.”
Mardi, une recherche similaire sur le principal produit de recherche de Google n’a pas déclenché de résumé de l’IA, affichant le carrousel « Top Stories » d’articles des éditeurs.
Google n’a pas immédiatement répondu à une demande de commentaire de Business Insider.
Brad Carson, cofondateur et président de l’organisation à but non lucratif Americans for Responsible Innovation, a déclaré à BI que même si l’approche de Google est louable, elle ne constitue pas une solution globale au problème.
Carson a déclaré que lutter contre la désinformation n’est « pas une tâche facile » et, même s’il est judicieux pour les entreprises d’essayer de faire davantage pour limiter la désinformation, le gouvernement devrait travailler sur une législation qui oblige les sociétés d’IA à étiqueter clairement les informations qu’elles fournissent aux utilisateurs.
“Je pense que d’autres produits combleront probablement le vide laissé par Google, mais je pense qu’il est de la responsabilité de Google d’essayer de prendre un peu de recul par rapport à cela”, a déclaré Carson.