News Day FR

ChatGPT a bloqué 250 000 générations d’images de candidats à la présidentielle

OpenAI estime que ChatGPT a rejeté plus de 250 000 demandes visant à générer des images des candidats à la présidentielle américaine de 2024 à l’approche du jour du scrutin, a déclaré vendredi la société dans un blog.

Les refus comprenaient des demandes de génération d’images impliquant le président élu Donald Trump, le vice-président Kamala Harris, le président Joe Biden, le gouverneur du Minnesota Tim Walz et le vice-président élu JD Vance, a déclaré OpenAI.

L’essor de l’intelligence artificielle générative a suscité des inquiétudes quant à la manière dont la désinformation créée à l’aide de cette technologie pourrait affecter les nombreuses élections qui auront lieu dans le monde en 2024.

Le nombre de deepfakes a augmenté de 900 % d’une année sur l’autre, selon les données de Clarity, une société d’apprentissage automatique. Certaines comprenaient des vidéos créées ou payées par des Russes cherchant à perturber les élections américaines, selon des responsables du renseignement américain.

Dans un rapport de 54 pages d’octobre, OpenAI a déclaré avoir perturbé « plus de 20 opérations et réseaux trompeurs du monde entier qui tentaient d’utiliser nos modèles ». Les menaces allaient des articles de sites Web générés par l’IA aux publications de faux comptes sur les réseaux sociaux, a écrit la société. Aucune des opérations liées aux élections n’a été en mesure d’attirer un « engagement viral », note le rapport.

Dans son blog de vendredi, OpenAI a déclaré n’avoir vu aucune preuve que des opérations secrètes visant à influencer le résultat des élections américaines en utilisant les produits de l’entreprise aient réussi à devenir virales ou à créer des « audiences soutenues ».

Les législateurs ont été particulièrement préoccupés par la désinformation à l’ère de l’IA générative, qui a décollé fin 2022 avec le lancement de ChatGPT. Les grands modèles de langage sont encore nouveaux et crachent régulièrement des informations inexactes et peu fiables.

“Les électeurs ne devraient absolument pas se tourner vers les chatbots IA pour obtenir des informations sur le vote ou l’élection – il y a beaucoup trop de préoccupations quant à l’exactitude et à l’exhaustivité”, a déclaré Alexandra Reeve Givens, PDG du Center for Democracy & Technology, à CNBC la semaine dernière.

MONTRE: L’IA sera probablement moins réglementée et plus volatile sous la deuxième présidence Trump

 
For Latest Updates Follow us on Google News
 

Related News :