- ChatGPT a refusé 250 000 demandes de fausses images de candidats au cours du mois dernier, a déclaré OpenAI.
- Il a répondu à des millions de demandes de vote en dirigeant les utilisateurs vers des sources externes officielles.
- Certains autres chatbots ont adopté une approche différente.
À l’approche de l’élection présidentielle de cette semaine, OpenAI a répondu à des milliers de demandes visant à générer de fausses images de candidats.
Plus tôt dans l’année, la société d’intelligence artificielle a déclaré que ses produits d’IA disposaient de « garde-fous » pour empêcher les abus, tels que les deepfakes ou les chatbots se faisant passer pour des candidats.
Cette annonce intervient alors que l’on craint que l’IA ne fasse des ravages pendant la campagne, produisant des deepfakes et des théories du complot que les utilisateurs pourraient diffuser en ligne. En janvier, les électeurs du New Hampshire ont reçu de faux appels automatisés d’un faux président Joe Biden, les décourageant de voter à la primaire présidentielle de l’État ce mois-là.
OpenAI a déclaré que ChatGPT avait rejeté environ 250 000 demandes visant à générer des images des candidats à l’aide de DALL-E, le générateur d’art IA de l’entreprise, au cours du mois précédant les élections.
“Au cours du mois précédant le jour du scrutin, nous estimons que ChatGPT a rejeté plus de 250 000 demandes visant à générer des images DALL·E du président élu Trump, du vice-président Harris, du vice-président élu Vance, du président Biden et du gouverneur Walz”, a déclaré OpenAI. dans un article de blog vendredi.
OpenAI a précédemment déclaré qu’il demanderait à ChatGPT de répondre aux questions logistiques sur le vote en dirigeant les utilisateurs vers CanIVote.orgun site américain d’information sur le vote géré par l’Association nationale des secrétaires d’État. ChatGPT a donné environ 1 million de réponses invitant les utilisateurs à consulter le site de vote au cours du mois précédant le 5 novembre, a indiqué la société.
OpenAI a également déclaré que le jour du scrutin, il répondrait aux questions sur les résultats des élections en renvoyant les utilisateurs vers des organismes de presse comme Associated Press et Reuters.
“Environ 2 millions de réponses ChatGPT incluaient ce message le jour du scrutin et le lendemain”, a indiqué la société dans le blog de vendredi.
ChatGPT a également évité d’exprimer des opinions politiques sur les candidats, contrairement aux chatbots comme Grok AI d’Elon Musk, qui ont exprimé leur enthousiasme face à la victoire de Trump.