Cet outil d’IA aide les journalistes à détecter et à contrer les deepfakes

Cet outil d’IA aide les journalistes à détecter et à contrer les deepfakes
Cet outil d’IA aide les journalistes à détecter et à contrer les deepfakes

La personnalisation des médias sociaux a élargi la portée et le pouvoir de la désinformation.

Popularisées par l’essor de TikTok et de sa page « Pour vous » – un flux incessant de contenu ancré dans les intérêts des utilisateurs, déterminés par les informations recueillies à partir de l’historique de navigation, des engagements et de la localisation – des plateformes comme Instagram, YouTube et X ont adopté le modèle et créé leurs propres versions. Instagram a commencé à afficher les publications recommandées sur son flux principal en 2018 et a mis en œuvre en 2020 Reels, une fonctionnalité de courtes vidéos de type TikTok. YouTube a lancé Shorts, un concept similaire, la même année et X a ajouté son propre onglet « Pour vous » début 2024.

Ces développements ont transformé la façon dont les utilisateurs consomment le contenu sur les réseaux sociaux, explique Sejin Paik, chef de produit chez TrueMedia.org. « Peu importe qui vous suivez, vous obtiendrez du contenu basé sur ce que pense leur système », dit-elle.

Dans cet environnement numérique, les fausses informations cohabitent avec les contenus factuels, donnant naissance à des deepfakes, des images ou des vidéos hyperréalistes manipulées artificiellement pour montrer quelqu’un faisant ou disant quelque chose. À l’approche des élections américaines de 2024, des vidéos deepfake montrant des discours qui n’ont jamais été prononcés, des photos des gardes du corps des services secrets de Donald Trump souriant après l’attaque contre lui en juillet et des captures d’écran d’articles de presse diffusant de fausses informations sur les élections sont apparues aux côtés d’informations légitimes. , brouillant les frontières entre ce qui est réel et ce qui ne l’est pas.

À mesure que les technologies génératrices d’IA se développent, deviennent plus faciles à utiliser et plus accessibles, il devient de plus en plus difficile d’évaluer l’authenticité des publications sur les réseaux sociaux. Un outil de détection d’IA créé par TrueMedia vise à aider en identifiant les signes de photos et de vidéos manipulées publiées sur les réseaux sociaux.

Deepfakes et désinformation

L’expert en intelligence artificielle Oren Etzioni a fondé TrueMedia en janvier 2024, motivé par ses inquiétudes quant à l’impact de l’IA en cette année électorale. TrueMedia est une organisation à but non lucratif composée de chercheurs, d’ingénieurs et de spécialistes des sciences sociales. Son objectif est de créer une technologie qui répond aux enjeux sociétaux, que Mmoi Paik appelle cela la « sociotechnologie ».

À mesure que les technologies sont devenues accessibles au public, les contenus générés artificiellement ont proliféré comme outil de manipulation politique, et les journalistes craignent que leur impact ne fasse qu’augmenter à mesure qu’ils s’améliorent.

Le modèle de page « Pour vous » donne à cette désinformation plus sophistiquée une portée plus large, explique Mme Paik. Les publications gagnent en popularité en tirant parti d’algorithmes qui décident de ce qui est populaire, quels que soient les comptes qui les sous-tendent. Les informations présentées dans les flux des utilisateurs correspondent généralement à leurs intérêts et croyances, et le contenu affiché, qu’il soit réel ou non, est personnalisé pour générer des likes et des partages qui élargissent les réseaux qu’ils atteignent.

Les deepfakes ont un énorme potentiel dans cet environnement. Ils peuvent tout représenter, du pape François en tenue de marque jusqu’à des faux bulletins d’information entiers, et leur utilisation connaît une croissance exponentielle : plus de 500 000 deepfakes ont été partagés en 2023. Quelle que soit la prévalence du contenu déjà présent, les journalistes affirment que la révolution de l’IA est ne fait que commencer.

Détection des deepfakes

Les journalistes peuvent utiliser le détecteur phare de deepfake de TrueMedia pour identifier si une vidéo ou une image a été créée avec l’IA.

L’outil est simple : les utilisateurs soumettent un lien de réseau social au détecteur qui fait passer le contenu via une série de logiciels de détection basés sur l’IA créés par des sociétés technologiques partenaires pour déterminer le pourcentage de probabilité que le contenu soit généré artificiellement.

L’outil n’est pas capable de détecter tous les faux contenus, prévient Mmoi Paik. Par exemple, il a du mal à détecter les « cheapfakes », c’est-à-dire les photos ou vidéos trompeuses créées par des humains à l’aide d’un logiciel d’édition non basé sur l’IA. Les diffuseurs de désinformation ont également commencé à créer des solutions de contournement, telles que la superposition de deepfakes sur des supports réels, pour contourner le processus de détection.

En fin de compte, à mesure que la puissance de l’IA augmente, les outils qui les détectent augmentent également. “Nous sommes loin d’être capables de les atteindre à 100% du temps, mais c’est l’un des moyens très intelligents de s’en rapprocher”, déclare M.moi Paik. “Si les gens créent des deepfakes générés par l’IA, nous allons utiliser l’IA pour contrer cela.”

Relier la détection au journalisme

Alors que le flot de faux contenus se poursuit inévitablement sur les réseaux sociaux, les journalistes ne doivent pas se fier uniquement à la détection pour lutter contre les deepfakes, exhorte M.moi Paik : Ils doivent explorer les sources, le raisonnement et l’impact de la désinformation.

Par exemple, de fausses publications générées par l’IA sur les récents ouragans aux États-Unis, montrant des communautés inondées et détruites, ont proliféré sur les fils d’actualité des utilisateurs des réseaux sociaux. Même si certains de ceux qui ont republié ces images et vidéos savaient qu’elles étaient fausses, y compris les politiciens, elles ont provoqué des réactions émotionnelles et ont été utilisées pour faire valoir des affirmations inexactes sur la réponse du gouvernement en cas de catastrophe.

Plus important encore, les journalistes doivent réfléchir aux raisons pour lesquelles ces messages inexacts deviennent populaires, déclare M.moi Paik, et s’efforce de contrer ces récits au-delà de la simple vérification de l’exactitude d’une vidéo.

« Dire : « Oh, nous avons détecté quelque chose ! cela ne suffit pas », dit-elle. « Les journalistes ont le pouvoir d’informer et d’éduquer le public. Nous devons.”


Amritha R Warrier & AI4Media / Meilleures images de l’IA / Tic Tac Toe / Sous licence CC-BY

 
For Latest Updates Follow us on Google News
 

PREV La Toyota Supra termine en beauté avec les versions GR A90 Final Edition et GR Lightweight Evo
NEXT Pendant que tout le monde attend l’annonce de la Switch 2, les pères de Mario chantent un autre air. Cette nouvelle application est disponible !