News Day FR

Comment protéger la démocratie à l’ère des vidéos deepfake ?

À l’approche des élections américaines de 2024, une nouvelle vague dangereuse de désinformation générée par l’intelligence artificielle (IA) déferle sur le paysage numérique, augmentant les enjeux plus que jamais.

À une époque où l’information façonne l’opinion publique, une question cruciale se pose : pouvons-nous faire confiance aux informations qui façonnent notre réalité ? La désinformation, qui va des faux titres de presse (comme une publication Facebook aléatoire dans laquelle quelqu’un accuse un immigré haïtien d’avoir volé et mangé le chat de l’ami de la fille de son voisin) aux vidéos truquées (deepfakes) — comme celle d’Elon Musk dans les escroqueries liées aux cryptomonnaies — a le potentiel de semer la confusion, d’accroître la polarisation et de saper les fondements mêmes de la démocratie.

Qu’y a-t-il de vraiment insidieux dans les fausses nouvelles et les deepfakesIl s’agit de l’exploitation d’une vulnérabilité clé de la psychologie humaine : les émotions des gens. Des études montrent que lorsqu’une personne est chargée d’émotions, positivement ou négativement, elle est plus susceptible de partager du contenu sans l’évaluer de manière critique.

Selon une analyse de 2019, 8,5 % des utilisateurs de Facebook ont ​​partagé au moins une fausse nouvelle pendant la campagne électorale américaine de 2016. deepfakesqui manipulent l’apparence de personnes réelles avec une précision déconcertante, poussent cela à un niveau supérieur en brouillant la frontière entre la vérité et la fiction.

Imaginez une vidéo virale dans laquelle une personnalité publique prononce un discours qui divise et qui se révèle plus tard être un faux. Lorsque la vérité éclate, le mal est fait : la réaction émotionnelle a déjà creusé les divisions, induit le public en erreur et suscité un soutien fallacieux à une cause.

Selon un article récemment publié par ForbesPlus d’un demi-million de vidéos deepfake circulaient sur les réseaux sociaux en 2023, un chiffre qui reflète le fait que les plateformes ont du mal à détecter les faux contenus assez rapidement pour éviter leur propagation virale. Le rythme rapide de la consommation des médias sociaux aggrave ce problème : la nature interactive des plateformes accélère la vitesse à laquelle ces vidéos sont diffusées. deepfakes Les faux messages sont consultés et partagés par les utilisateurs, et ce, en temps quasi réel. À mesure que les deep fakes deviennent plus sophistiqués, ils deviendront inévitablement plus difficiles à détecter et à contrôler, et les mensonges continueront de se propager plus vite que les corrections ne pourront être apportées.

Alors que pouvons-nous faire pour nous protéger de leur menace croissante ?

Une solution prometteuse est celle des algorithmes émotionnellement intelligents, des systèmes d’IA conçus pour détecter et déclasser les contenus manipulateurs. Ces systèmes apprendraient à signaler les contenus qui visent à tromper ou à manipuler émotionnellement les utilisateurs avant qu’ils ne deviennent viraux. Bien que des plateformes comme Facebook et X progressent dans cette direction, ce type de technologie est encore à la traîne par rapport à l’évolution rapide des deepfakesCe dont nous avons besoin, ce sont des systèmes d’IA capables de fonctionner en temps réel, d’apprendre les modèles d’engagement des utilisateurs et de détecter les deep fakes dès qu’ils apparaissent.

Une autre approche est la technologie blockchain ((chaîne de blocs)qui pourrait offrir un moyen de vérifier l’authenticité des vidéos et des images en créant un enregistrement immuable de leurs origines. Les plateformes pourraient utiliser cette technologie pour garantir que les utilisateurs peuvent retracer le contenu jusqu’à sa Source. Bien qu’elle soit encore en développement, la vérification par blockchain pourrait jouer un rôle dans la distinction entre le réel et le deepfakes généré par l’IA.

Enfin, des réglementations et des politiques plus strictes doivent être mises en œuvre, notamment en ce qui concerne la création et la diffusion de deepfakes. La loi californienne de 2019 interdisant les deepfakes deepfakes L’idée de tromper les citoyens pendant les campagnes électorales est un bon début, mais nous avons besoin d’une législation globale et globale pour vraiment nous attaquer au problème. Une solution pourrait consister à exiger que le contenu généré par l’IA soit filigrané ou signé numériquement pour distinguer le contenu réel du faux.

Les deep fakes représentent une réelle menace pour les processus démocratiques. Les algorithmes émotionnellement intelligents et la technologie blockchain offrent de l’espoir, mais la solution réside en fin de compte dans une combinaison de technologie, d’éducation et de réglementation.

L’avertissement de Maria Ressa, prix Nobel de la paix, concernant l’érosion de la confiance dans les médias et les institutions semble particulièrement aigu aujourd’hui. Comme elle l’a si bien dit : « Sans faits, il n’y a pas de vérité. Sans vérité, il n’y a pas de confiance. Sans confiance, nous n’avons pas de réalité commune, pas de démocratie, et il devient impossible de résoudre les problèmes existentiels de notre monde. »

A voir en vidéo

 
For Latest Updates Follow us on Google News
 

Related News :