L’IA sera-t-elle capable de nous protéger des deepfakes non autorisés ? – .

L’IA sera-t-elle capable de nous protéger des deepfakes non autorisés ? – .
Descriptive text here

En 2014, le chercheur Ian Goodfellow a développé une technique utilisant deux IA (une générative et une corrective) pour atteindre cet étonnant niveau de réalisme. Trois ans plus tard, le site Reddit popularise cette technique, ouvrant ainsi la porte à tout utilisateur pour en profiter.

Si certains s’amusent à créer des montages, comme celui représentant Emmanuel Macron en hippie, d’autres détournements, comme des deepfakes pornographiques où l’on retrouve des visages célèbres sur les corps d’acteurs classés X, peut avoir des conséquences bien plus néfastes, pouvant même constituer un crime de vengeance porno.

Face à l’émergence de contenus adultes non consensuels, l’IA est-elle le poison ou l’antidote ? Réponses avec le Dr Vladimir-Alexandru Paun, spécialiste des systèmes informatiques, docteur de l’Université Polytechnique de Paris et membre de l’IEEE.

Les deepfakes concernent principalement le porno

Léna Mahfouf, célèbre influenceuse française, en a récemment été victime. En août 2023, elle découvre une photographie où son visage se confond avec le corps d’une actrice pornographique. ” C’est horrible ! Ce sont des gens qui font des montages et ils mettent leur tête sur le corps d’une femme nue. Et il y a tellement de filles sur Internet qui vivent cela. » déplore-t-elle devant ses millions d’abonnés. Une prise de conscience salutaire car le phénomène est loin d’être marginal ! Selon une étude Deeptrace : « 96 % des deepfakes étaient du contenu pornographique en 2019« . Et 99 % représentaient des femmes.

Sur le plan juridique, depuis 2002, l’article 226-8 du Code pénal punit d’un an d’emprisonnement et de 15 000 euros d’amende la publication de montages réalisés avec l’image d’une personne sans son consentement, si son caractère manipulé n’est pas clairement indiqué. . Mais quant au supplément » nudité sexuelle», rien n’est précisé. Après l’affaire « Mahfouf », l’ancien ministre du Numérique Jean-Noël Barrot a souhaité renforcer cette sanction dans le cas du deepfake pornographique, estimant qu’il s’agit toujours d’un « angle mort droit« .

Face aux balbutiements de la législation française, l’IA ne pourrait-elle pas intervenir directement pour réguler les contenus ? Pour Vladimir-Alexandru Paun, c’est une possibilité : « Même si l’avenir est encore incertain, la clé réside dans l’équilibre entre l’exploration du potentiel créatif de l’IA et la préservation des droits et de la dignité de chaque individu. »

L’intelligence artificielle, la nouvelle police d’Internet ?

Pour empêcher la création et la distribution de deepfakes non autorisés, une solution serait de former une IA à détecter le vrai du faux. Et donc empêcher la propagation de contenus illicites. ” Les deepfakes, malgré leur sophistication, peinent à reproduire parfaitement les micro-expressions humaines ou la texture de la peau. Des outils avancés d’analyse vidéo peuvent identifier ces irrégularités, bien que cette technique nécessite une amélioration continue à mesure que la qualité évolue.. » souligne Vladimir-Alexandru Paun. Une politique incertaine à long terme qui pourrait donc conduire à une course aux armements technologiques entre les créateurs de faux contenus et les détecteurs.

Au-delà de la simple détection, certaines IA pourraient jouer un rôle protecteur en adoptant des mesures telles que désidentification facialecomme celui développé par Facebook, ou dans anonymiser le contenu pornographique en floutant les visages sur les plateformes dédiées, en cas de doute sur l’origine d’une vidéo.

Si toutes ces stratégies restent encore incertaines, une partie de la solution pourrait être recherchée du côté de la blockchain.

La blockchain, l’espoir d’un usage éthique du deepfake ?

La blockchain est une technologie qui permet d’identifier l’auteur d’un contenu de manière non falsifiable. Appliqué au domaine de la pornographie, il pourrait faciliter lae suivi et authentification des créateurs de vidéos explicites, limitant ainsi la prolifération de contenus malveillants. Mais son déploiement à grande échelle n’est pas si simple ! Pour Vladimir-Alexandru Paun : « La mise en place d’un tel système d’authentification nécessite un large consensus entre les créateurs, les plateformes de distribution et les consommateurs. La complexité technique, les coûts associés et la nécessité d’une législation adaptée représentent des défis importants. Mais les avantages potentiels sont indéniables : restaurer la confiance dans le contenu numérique et protéger l’intégrité personnelle. »

En attendant des solutions techniques pérennes, la diffusion de deepfakes non consensuels reste un délit sanctionné par la loi française. Si vous êtes victime, vous pouvez faire un signalement sur la plateforme Pharos.

 
For Latest Updates Follow us on Google News
 

PREV « Nous pouvons être fiers ! » C’était fou ! » – .
NEXT 2:0 entre SLO et l’équipe du FCB