News Day FR

quand la French Tech tente de lutter contre la désinformation

Ce mardi 5 novembre, 244 millions d’Américains choisiront le prochain locataire de la Maison Blanche entre la démocrate Kamala Harris et le républicain Donald Trump. Et pour remporter cette élection si importante pour la géopolitique mondiale, presque tout est permis. Ainsi, on ne compte plus les fake news, deepfakes et autres manœuvres de désinformation diffusées par des partisans des deux camps (surtout un en réalité) ou des personnes sans scrupules pour tenter d’influencer le résultat final de l’élection.

Dans ce bourbier de désinformation, les acteurs du numérique tentent d’apporter des solutions, mais avec des résultats souvent contrastés, pour ne pas dire décevants. En première ligne face aux fausses informations diffusées sur ses plateformes, Meta a mis en place en 2018 une « War Room », c’est-à-dire une cellule de crise, dotée de nombreux écrans, horloges et ordinateurs, pour lutter contre les campagnes de désinformation lors des campagnes électorales. Mais cela s’est malheureusement révélé insuffisant pour endiguer le flux incessant et massif de « fausses nouvelles » qui inonde la Toile.

Buster.ai, un « antivirus contre les fausses nouvelles »

En , quelques startups ont tenté de lutter contre ce fléau qui met en danger la démocratie. Parmi eux, on retrouve notamment Buster.ai. Fondée en 2019 par Julien Mardas et Aurélien Cluzeau, cette société s’est appuyée sur l’intelligence artificielle pour analyser de grandes quantités de données et déterminer celles qui s’écartent des sources officielles. En d’autres termes, la solution de Buster.ai agissait comme un « antivirus contre les fausses nouvelles ». Malheureusement, cette aventure entrepreneuriale s’est terminée en début d’année malgré une levée de 2 millions d’euros en janvier 2022.

Néanmoins, ce projet a permis à Julien Mardas, co-fondateur et ex-PDG de Buster.ai, de tirer des leçons sur l’utilisation des technologies pour lutter contre la désinformation, à commencer par l’intelligence artificielle, indispensable à ses yeux pour se donner une chance de contrer ” fausses nouvelles ». « Il n’y a pas d’autre choix que d’utiliser l’IA. Tout simplement parce que les humains ne peuvent pas indexer les 3,4 milliards d’articles publiés chaque jour. Mais nous sommes en guerre ouverte. Et en état de guerre, le temps et l’espace sont les deux dimensions les plus importantes avec le commandement, la discipline et la doctrine. Dans ce contexte, plus on prend du temps pour vérifier les informations, plus les dégâts sont colossaux, plus l’instabilité augmente, plus les gens mettent de l’argent de côté, plus l’économie s’effondre.explique l’entrepreneur français.

« Les fausses nouvelles sont sept fois plus virales que les vraies nouvelles »

Les fausses nouvelles ont pris leur essor au lendemain des attentats du 11 septembre 2001, avant de prendre une ampleur encore plus inquiétante à la lumière des scandales comme « Cambridge Analytica » avec Facebook, « WikiLeaks » avec Julian Assange ou encore « Snowden » avec le NSA. Autant de cas retentissants qui confortaient un constat : les données, et donc l’information, sont bel et bien l’or blanc du numérique. Et la période actuelle, marquée par des tensions géopolitiques dans plusieurs régions du monde, n’incite pas vraiment à l’optimisme, alors que la désinformation en ligne ne cesse de croître.

« Les fausses nouvelles sont sept fois plus virales que les vraies nouvelles »notes Julien Mardas. « Dans certains conflits, comme celui entre Israël et le Hamas, les informations des réseaux sociaux sont répétées sans réflexion et donc sans vérification. Et parfois, ces fausses nouvelles restent activistes pendant plusieurs semaines, voire plusieurs mois. Ne pas pouvoir vérifier rapidement les informations change la donne.ajoute-t-il.

Ircam Amplify traque les voix créées par l’IA

Dans un registre plus atypique, un autre acteur technologique tente également de apporter sa contribution pour lutter contre la désinformation. Et contre toute attente, c’est Ircam Amplify, filiale de l’Ircam (Institut de recherche et de coordination acoustique/musique) qui commercialise depuis cinq ans des innovations audio. En effet, l’entreprise s’est appuyée sur ses travaux de détection de musique générée par l’intelligence artificielle pour la transposer dans un autre domaine : la voix.

Grâce à l’expertise de pointe de l’Ircam, sa filiale privée s’est lancée dans la conception d’une solution permettant d’identifier une voix créée par l’IA. Et à l’heure de l’explosion des deepfakes, une telle technologie peut s’avérer particulièrement utile lors d’une campagne électorale. « Tel un antivirus, notre logiciel calcule un taux de confiance sur les voix détectées. Aujourd’hui, notre taux de fiabilité est de 98,5%.indique Nathalie Birocheau, co-fondatrice et directrice générale de l’Ircam Amplify. La marge d’erreur est liée aux faux positifs mais un tel score est évidemment encourageant.

L’utilisation de cette technologie intéresse non seulement les médias pour détecter les fake news, mais aussi les acteurs de la sécurité intérieure (ministère des Armées, gendarmerie…) pour identifier d’éventuelles arnaques ou tentatives de manipulation virtuelle. Cependant, détecter les voix créées par l’IA n’est pas chose facile. « La voix est un médium très particulier, difficile à maîtriser. Cloner des voix, les transformer et les détecter est assez complexe. C’est encore plus difficile que la musique.souligne Nathalie Birocheau. Avant d’ajouter : « La chance que nous avons, c’est que nous sommes une société commerciale ayant un accès exclusif à la R&D de l’Ircam pour l’intégrer dans nos produits. Le défi est d’être prompt à mettre rapidement le meilleur produit sur le marché. Et grâce à notre logique labo-to-market, nous pouvons sortir quelque chose en trois ou quatre mois. Lorsque nous identifions un cas d’usage, nous savons appuyer sur le bouton et obtenir les résultats pertinents de l’Ircam pour mettre un produit sur le marché.

Il est crucial d’agir rapidement pour limiter la propagation des fausses nouvelles, d’autant plus que la démocratisation des outils d’IA fournit de nouvelles armes très simples à utiliser pour les cybercriminels. «On ne pensait pas que ça irait si vite sur les deepfakes»reconnaît Nathalie Birocheau. «C’est un peu effrayant, mais il faut prendre du recul. L’histoire s’écrira dans les années à venir, nous n’en sommes qu’au premier chapitre”ajoute-t-elle. Pour se donner les moyens de lutter contre cette nouvelle forme de désinformation, l’Ircam Amplify cherche à boucler un tour de table dans les prochains mois.

Les grands groupes eux aussi de plus en plus visés par la désinformation

Ce qui peut tout changer pour un vote dans le domaine politique peut aussi tout changer dans le domaine économique. En effet, les faux communiqués de presse peuvent avoir un impact désastreux sur les performances financières d’une entreprise. Vinci peut en témoigner après avoir vu son cours de bourse chuter en 2016 suite à de fausses informations. En quelques minutes seulement, le groupe français a vu sa valorisation chuter de 7 milliards d’euros. Cette dernière ayant été notamment relayée par Bloomberg, l’agence américaine a alors écopé d’une lourde amende de la part de l’Autorité des marchés financiers (AMF). Et ce n’est pas un cas isolé puisque des acteurs comme Intel, Pfizer, Fitbit et Blackrock ont ​​déjà subi des mésaventures similaires.

Il n’est pas forcément nécessaire d’utiliser de grands moyens pour ébranler les marchés. Il y a deux ans, un faux compte certifié s’est fait passer pour la société pharmaceutique américaine Eli Lilly et a tweeté que son insuline arrivant aux États-Unis serait désormais gratuite. Non seulement les actions du groupe se sont effondrées de 20 milliards de dollars, mais des millions de personnes ont cru qu’il s’agissait d’une information vraie, même si le sujet de l’insuline est également sensible. -Atlantique. “Même s’il s’agissait de fausses informations, l’entreprise ressemble à un bandit.note Raphaël Labbé, co-fondateur et PDG de Wiztrust (anciennement Wiztopic). Ce dernier évoque le terme «hacktivisme» pour décrire ces méthodes visant à « hacker » la communication des entreprises.

Avec son entreprise, l’entrepreneur tente d’apporter une solution à ce problème grandissant en proposant une plateforme de certification des informations commerciales dans la blockchain. Une manière de lutter contre les faux communiqués visant à nuire à la réputation et aux performances financières des grands groupes. « Le risque ne fera qu’augmenter. Dans les années 2010, un seul hack fonctionnait chaque année. À partir de 2015, ce chiffre est passé à deux par an. Depuis 2020, c’est un par mois ! En dix ans, le nombre de fausses histoires ayant servi à manipuler l’information des entreprises a été multiplié par 12. En étant un peu minutieux, cela devient à la portée de n’importe qui. »observes Raphaël Labbé.

Si le phénomène s’amplifie, de plus en plus de groupes tentent désormais de se protéger de tels agissements qui peuvent causer des dégâts très importants, ne serait-ce qu’en termes d’image. « Lorsqu’il y a un incident majeur, d’autres entreprises réagissent. Nous vendons pendant les crises, mais je préférerais que les gens achètent en mode prévention »souligne le patron de Wiztrust. Et pour être encore plus efficace, ces derniers ne seraient pas contre la création d’un consortium réunissant plusieurs acteurs abordant des verticaux différents. “Nous avons construit quelque chose d’interopérable”indique Raphaël Labbé. Face à une quantité colossale de fausses nouvelles, l’unité pourrait effectivement faire la force !

« La désinformation n’a rien à voir avec la désinformation »

Toutefois, se positionner sur le marché de la désinformation n’est pas forcément synonyme de rentabilité, alors que l’industrie des médias est en crise depuis de nombreuses années. Dès lors, peu de startups se positionnent dans la lutte contre les fake news. « Il y a deux raisons principales : le défi technique est extrêmement difficile à relever et la désinformation n’a pas de sens. La seule façon de faire des affaires est d’utiliser les outils comme des armes pour les transformer en outils de surveillance de masse. Mais la technologie doit être utilisée pour libérer les gens, et non pour les asservir. Dans la vie, soit vous êtes un héros, soit vous êtes en affaires. Mais nous ne pouvons pas faire les deux.estime Julien Mardas.

Raphaël Labbé reconnaît également qu’il est difficile de se lancer dans ce secteur si crucial pour la démocratie. « C’est une question complexe… Il y a un énorme problème de confiance pour attirer la clientèle. En B2B, il y a un vrai problème de masse critique. Nous avons des concurrents qui ont essayé de nous copier. Quant au B2C, il y a le problème du modèle économique. Certes, il y a une société qui se porte bien, NewsGuard, mais elle vend de la publicité. Le défi de la presse aujourd’hui est de savoir qui paiera pour éduquer les gens ? C’est un combat super dur. Vous avez probablement besoin de vous attacher à une industrie dotée d’un modèle économique viable. Se rapprocher d’un acteur comme Dashlane pourrait par exemple avoir du sens »il croit.

En attendant de résoudre cette équation économique, il va falloir rivaliser d’ingéniosité pour pouvoir absorber le flot vertigineux de fausses nouvelles qui inonde les cerveaux du monde entier. Dans ce contexte, l’IA semble la meilleure alliée des rares acteurs impliqués dans mon sujet pour en démasquer le plus grand nombre. Mais rien ou presque ne remplacera la méthode la plus efficace : que chacun fasse l’effort de s’informer correctement en variant ses sources d’information, en vérifiant les informations sensibles ou farfelues, et en ne s’arrêtant pas aux gros titres à sensation. . Un exercice pas forcément simple mais indispensable pour préserver notre démocratie.

 
For Latest Updates Follow us on Google News
 

Related News :