beaucoup de risques et quelques opportunités – .

beaucoup de risques et quelques opportunités – .
beaucoup de risques et quelques opportunités – .

Deepfake, désinformation, manipulation. C’est souvent ce qui vient à l’esprit lorsqu’on parle de deepfake, cette technique de synthèse de données multimédia basée sur l’IA. « Aujourd’hui, créer des deepfakes peut se faire avec une certaine facilité. A l’époque, il fallait vraiment des connaissances très techniques, en informatique, en IA… Aujourd’hui, je parle de ‘deepfake as a service’ car on peut créer un compte sur une plateforme, rentrer sa carte bancaire et c’est tout”, pense le senior ingénieur logiciel à la Banque de Luxembourg, Loris Bergeron. C’est une évolution observée par tous les spécialistes : la démocratisation de cette technique, avec de plus en plus de plateformes en ligne dédiées. Mais Loris Bergeron souligne une autre évolution, qui montre les dérives potentielles de cette technique de supercherie de plus en plus avancée.

« On voit par exemple de plus en plus de deepfakes dans les arnaques, c’est-à-dire des arnaques sur internet, et de plus en plus de cas de harcèlement électronique avec ces deepfakes. En gros, on avait vraiment des campagnes de deepfake qui étaient publiques, postées sur les réseaux sociaux. Mais nous assistons à de plus en plus de campagnes d’intimidation utilisant des deepfakes et ciblant directement les gens », note-t-il.

Souvent utilisés à des fins de désinformation et de manipulation politique, lors d’élections et de campagnes électorales par exemple, ou pour générer des discours de propagande, les deepfakes servent aujourd’hui à diffuser des vidéos compromettantes de personnes qui, bien que fausses, nuisent à leur réputation. Ils peuvent également être un outil de chantage, mais aussi de fraude financière ou d’usurpation d’identité. Prenons par exemple un deepfake audio qui pourrait imiter la voix du PDG d’une entreprise pour donner des instructions financières frauduleuses à des employés ou des partenaires commerciaux. Des abus qui évolueront en même temps que la technologie et qui risquent donc de devenir de plus en plus nombreux.

Opportunités…

Mais ces fausses vidéos peuvent aussi être utilisées dans le monde professionnel, qui peut en tirer profit. Participant au panel, le PDG d’Ella Media, Michael Keusgen, a également rappelé que la technique du deepfake pouvait offrir des opportunités. Sa société, Ella Media, développe des agents conversationnels et des solutions d’IA « avec une touche humaine ». Des avatars qui deviennent ainsi les représentants d’une marque, par chat, par voix ou par vidéo. Son architecture, baptisée « Persona », permet une personnalisation poussée jusque dans les détails.

(De gauche à droite) Le responsable informatique des CFL, Maxime Dehaut, a animé un panel dans lequel la chercheuse Djamila Aouada, l’ingénieur informatique de la Banque de Luxembourg Loris Bergeron, le PDG d’Ella Media Michael Keusgen, ainsi que des personnalités européennes Juha Heikkilä, conseiller à la Commission. (Photo: Maëlle Hamma/Maison Moderne)

La responsable du département Computer Vision, Imaging and Machine Intelligence (CVI2) du groupe de recherche dédié au SnT, Djamila Aouada, y voit également un côté prometteur, à condition que son utilisation soit bien pensée, et une excellente source de créativité. « On peut par exemple citer Synthesia, qui a été créé par des chercheurs et qui permet de créer des avatars. Ce sont des faux, mais l’outil permet de ne pas avoir besoin de créer tout le contenu et d’être plus efficace. C’est une source d’économie d’efforts et d’argent. Ce sont des outils de plus en plus utilisés par les YouTubeurs, qui peuvent ainsi produire des vidéos sans avoir à se soucier de tous les aspects techniques comme la luminosité, le tournage, la langue utilisée, etc. »

La technique pourrait aussi être adoptée dans une moindre mesure dans les entreprises, selon Loris Bergeron. « Imaginons qu’on prenne une entreprise qui fait des vidéos pour ses clients, des clients qui sont internationaux. La personne qui va faire la présentation va le faire, par exemple, dans sa langue maternelle – imaginons le français, l’anglais, peu importe. Avec un deepfake, on peut multiplier la même interview en synthétisant la voix de la personne dans une autre langue, en changeant le décor ou autre. Donc, ce sont des impacts positifs. On peut vraiment être beaucoup plus proche des clients en changeant la langue dans laquelle on va interagir avec eux, par exemple », dit-il.

Le défi : savoir détecter

Mais il reste un défi de taille : savoir les détecter. Ce que n’importe qui peut faire dans de nombreux cas. Selon Djamila Aouada, il faut d’abord rechercher les défauts des contenus multimédias truqués, qui se présentent le plus souvent sous la forme d’une vidéo. « La synchronisation peut induire des défauts sur l’aspect spatial, à un instant donné. On peut par exemple les observer sur les contours du visage, au niveau de sa délimitation. Il existe aussi souvent des défauts temporels, ou des lèvres et une voix qui ne sont pas synchronisées. Mais ceux qui créent des deepfakes jouent parfois sur la résolution des données, qu’ils pixellisent pour que ces défauts soient moins perceptibles. Plus un deepfake est de qualité, plus il est difficile de repérer ces défauts », explique Djamila Aouada, qui distingue les « cheapfakes », ces deepfakes de mauvaise qualité, et les « deepfakes de haute qualité », souvent formés sur des personnages célèbres. “Cela évolue très rapidement et nous, en tant qu’utilisateurs, aurons de plus en plus de mal à les détecter.”

Le SnT mène ainsi des travaux de recherche et développe différentes catégories d’algorithmes pour pouvoir détecter ces deepfakes. « Nous appliquons une approche générale, c’est la base de nos recherches, avec des algorithmes agnostiques aux types de deepfakes. » Schématiquement, les chercheurs de l’Université entraînent la machine avec des images réelles, afin qu’elle soit capable de mieux détecter les faux.

A terme, pour que les outils de détection se généralisent, « il faudra avoir l’écosystème pour cela et il faudra que chacun joue le jeu pour qu’ils soient développés à grande échelle. Mais c’est en réalité bien plus complexe que de disposer d’un seul outil. Il faut également prendre en compte des éléments de réputation en ligne et d’authentification des personnes en ligne », souligne Djamila Aouada.

Au-delà de l’aspect technique, Loris Bergeron conseille de « garder un esprit critique et humain, et de toujours vérifier la véracité des informations. Ne prenez pas pour argent comptant une vidéo que vous avez vue sur un feed TikTok ou autre. Le problème avec les éventuels outils de détection, c’est que la création de deepfakes évolue tellement vite que ces outils ne suivent pas le même rythme de développement. On le voit déjà pour l’IA générative, par exemple avec ZeroGPT, qui permet de détecter si un texte a été généré par ChatGPT ou non. On voit que les résultats ne sont pas très bons parce que ChatGPT évolue beaucoup plus vite que l’outil de détection », pointe-t-il. Contre les dérives des deepfakes, la Commission européenne, représentée dans ce panel par Juha Heikkilä, avait demandé aux plateformes de rendre des comptes sur leur façon de gérer les deepfakes.

 
For Latest Updates Follow us on Google News
 

PREV A Bazas, le salon des véhicules anciens annulé à cause des JO : « On n’avait pas le choix »
NEXT 4 offres flash que les internautes préfèrent