Alors que Radio France organise Médias en Seine, mardi 14 janvier, franceinfo s’interroge sur la manière dont radios et journaux apprivoisent l’intelligence artificielle. Si les possibilités offertes par l’IA sont vertigineuses, son utilisation doit se faire avec une extrême prudence et la garantie de garde-fous.
Certains outils développés ces dernières années sont tout simplement surprenants. Il est par exemple possible de cloner des voix identiques et de leur faire dire absolument ce que l’on veut, au point de ne plus distinguer la fiction de la réalité et de tromper l’auditeur. Ce ne sont pas les méthodes utilisées par franceinfo. Les voix diffusées à l’antenne sont toutes réelles, prononcées par des humains, depuis les studios de Radio France ou enregistrées par des reporters ou des techniciens sur le terrain.
Mais ailleurs dans le monde, certains médias ne sont pas aussi attentifs. Aux États-Unis, par exemple, la radio locale de Portland, dans l’Oregon, Live 95.5, a cloné la voix d’Ashley, l’une de ses animatrices. Il continue de parler au micro une partie de la journée, puis sa version IA prend le relais. La chaîne estime, entre autres, que cela permet à l’animatrice de se concentrer sur d’autres tâches plus administratives pendant ses heures de travail.
Certains médias sont même conçus à 100% par l’intelligence artificielle. Récemment, l’artiste Will.i.am, ancien membre des Black Eyed Peas, a lancé l’application FYI. Par thématique (politique, culture, sport…), l’utilisateur peut retrouver les dernières actualités racontées par une voix générée par l’IA. Actualité non exhaustive qui est une agrégation d’informations tirées directement d’internet. Cela pose la question de la transparence, de la vérification des sources… Même lorsque la technologie est extrêmement développée. Il y a lieu de douter de la fiabilité des informations relayées.
Ce n’est évidemment pas ainsi que l’information est traitée à Radio France. Toutefois, comme dans de nombreux médias dits « de confiance », les journalistes ne s’interdisent pas d’utiliser certains outils d’intelligence artificielle pour accomplir certaines tâches. C’est le cas du correcteur orthographique, utilisé pour la rédaction d’articles. Un logiciel de transcription d’interviews est également disponible si le journaliste le souhaite. C’est ce que fait la majorité des rédactions. « Ce sont essentiellement des outils d’édition. Parfois on ne trouve pas le titre idéal, alors on a des outils qui sont capables de proposer, plus ou moins bien, des titres, explique Benoît Georges, journaliste en charge de la mise en œuvre de l’IA en Des échos. Mais la base, ce sont toujours les articles que nous avons écrits. Ce n’est pas l’IA qui va les écrire à notre place.
L’objectif ici est d’assister le journaliste, de lui faire gagner du temps… mais pas de le remplacer. Tout cela se fait dans un cadre strict : des chartes d’usage de l’intelligence artificielle ont d’ailleurs été élaborées dans la plupart des médias ces dernières années. Le responsable du numérique aux EchosViolaine Degas, veille au respect des grands principes : « La première limite, c’est vraiment de garder le contrôle. Il y a toujours un œil humain, un œil de journaliste, qui validera ce que la fonctionnalité peut produire via l’intelligence artificielle.»
Ceci est d’autant plus indispensable que la technologie n’est pas toujours fiable. “Il peut y avoir des manques, il peut y avoir des problèmes de formulation, des problèmes d’hallucinations comme on dit… Tout simplement, il va inventer des informations, décrit Stanislas de Livonnière, responsable du département data et innovation du journal Le Parisien. C‘c’est quelque chose qui n’est absolument pas admissible pour un journaliste. Bien au contraire. Donc ces outils sont là pour suggérer, pour inspirer l’éditeur, mais surtout pas pour les publier automatiquement.
« Le journalisme consiste à récupérer des informations et à les vérifier. Ce sont deux choses qu’à ce stade l’intelligence artificielle ne sait pas faire.»
Stanislas de Livonnière, head of the data and innovation department at Le Parisiensur franceinfo
Paradoxalement, l’explosion de l’information en ligne générée par l’IA pourrait même, selon Benoît Georges, ramener les lecteurs vers les médias traditionnels : « Il existe un phénomène que les médias américains appellent AI slop. Cela ne coûte plus rien de produire des textes qui ressemblent à des articles d’actualité, mais on se rend compte aussi que les humains détectent que quelque chose ne va pas, qu’il y a une sorte de répétition, de médiocrité du contenu de faible valeur. Paradoxalement, cela crée un désintérêt et on peut espérer que les gens reviennent aux médias traditionnels, qui garantissent une manière de travailler et une éthique que l’on n’a absolument pas dans l’océan des contenus artificiels qui tendent à envahir les réseaux sociaux et les sites internet.
Le groupe Ouest France travaille sur la question depuis plus de dix ans. David Dieudonné y est chef de projet. Parmi les lignes rouges à ne pas franchir figure l’utilisation d’images générées par l’IA pour illustrer des articles d’actualité : « On n’illustre pas un article avec une image de synthèse. Nous considérons que notre travail est une information. Quand il y a une photo, c’est une vraie photo puisque nous sommes dans un environnement strictement informatif et qu’il « est de notre devoir de rendre compte de la réalité ». Il s’agit du contrat de confiance entre les médias et leurs lecteurs ou auditeurs.
Ainsi, l’adoption de ces outils se fait progressivement, à partir des besoins concrets des journalistes et en collaboration directe avec les équipes, défend David Dieudonné : « C’est vraiment une démarche qui part de l’usage. Un journaliste, par exemple, qui cherche à résoudre un problème qu’il rencontre dans sa vie quotidienne, grâce à l’accès sécurisé qui lui est donné à certains outils, peut créer lui-même de petits prototypes. Ensuite, nous regardons ces prototypes sous tous les angles (éditorial, juridique). , RSE…) pour comprendre s’ils peuvent être déployés à grande échelle.
Convaincus que l’IA peut être d’une réelle aide au sein des rédactions, les médias travaillent continuellement au développement et à l’amélioration de nouvelles fonctionnalités. À Radio France, la direction numérique et innovation est en première ligne. “On regarde tout ce qui se passe en France, à l’international» précise Matthieu Beauval, directeur en charge de l’innovation. Dès qu’un nouvel outil arrive, nous le testons. Nous disposons de protocoles qui nous permettent de juger de la pertinence et de l’adéquation des outils aux besoins éditoriaux des équipes de Radio France.
Le département numérique et innovation, c’est un peu un laboratoire d’idées : on fait des tests, des expérimentations, et surtout on n’interdit rien, glisse-t-on. « Il y a beaucoup de choses qui ne verront probablement jamais le jour, beaucoup de choses qui verront le jour dans de nouvelles versions car les outils continuent d’évoluer.confides Matthieu Beauval. Exemple avec tout ce qui touche à l’analyse de documents en masse : des choses qu’un être humain ne peut pas vraiment faire car il faudrait des jours et des semaines pour analyser plus de deux millions de documents. Pour cela, l’intelligence artificielle nous fait gagner un temps considérable et elle est très utile en termes d’investigation et de vérification des informations.
Ces expériences sont réalisées avec beaucoup “enthousiasme”, assure Mathieu Beauval, mais aussi de la prudence pour ne pas tomber dans les pièges de la technologie : « ÔIl ne peut pas se laisser complètement emporter par cela. Nous ne pouvons pas être techno-satisfaits, nous ne pouvons pas être techno-solutionnistes. C’est génial, c’est extrêmement stimulant et nous préférons y voir quelque chose qui repousse les limites et qui permettra aux médias, demain, de mieux travailler et à ceux qui font les médias de mieux travailler. Mais nous restons aussi très pragmatiques et très responsables par rapport à cela. » Les équipes sont progressivement formées pour bien utiliser chacun de ces nouveaux outils.