« A peine le temps de savoir qu’il est déjà trop tard. Un robot conversationnel baptisé Lucie, conçu pour proposer une alternative française, basée sur des sources libres, avec des intelligences artificielles (IA) de géants de la tech, a dû être déconnecté après avoir livré une cascade de résultats absurdes aux internautes qui le lui demandaient. Calculs absurdes, « œufs de vache », « poids d’un trou de gruyère »… De nombreux utilisateurs ont testé des demandes aux résultats improbables.
Un « projet de recherche »
Alertés par des moqueries sur les réseaux sociaux, les promoteurs du projet ont décidé au bout de trois jours de fermer leur accès à tous en ligne, a indiqué dimanche à l’AFP Michel-Marie Maudet, le directeur général de Linagora, l’entreprise Derrière Lucie.
La plateforme, lauréate du programme France 2030 lancé par l’État, vise à proposer une alternative « transparente et fiable » à l’IA comme chatgpt, et pourrait par exemple être utilisée pour l’éducation ou la recherche. Mais “nous avons commis l’erreur de mettre à disposition (Lucie) en l’état”, sans suffisamment préciser qu’il ne s’agissait pas d’un robot prêt à l’emploi, mais d’un “projet de recherche”, a-t-il reconnu.
En revanche, « tous les systèmes d’intelligence artificielle disposent de garde-fous », qui les empêchent de produire des textes haineux ou injurieux, a-t-il souligné. “Notre deuxième erreur a été de mettre Lucie à disposition sans ces garde-fous”.
-L’espoir fait vivre l’IA
Le responsable explique qu’il souhaitait mettre Lucie en ligne avant le sommet international de Paris sur l’IA des 10 et 11 février et qu’il n’avait “pas du tout anticipé cet engouement”, car Linagora “travaille dans le logiciel libre où les communautés en général faire preuve de bienveillance et
encouragements ». Cet échec au démarrage n’empêche pas les promoteurs de Lucie d’espérer mettre prochainement Lucie en ligne, après l’avoir fait évoluer, pour proposer à chacun « un modèle d’intérêt général ».
Contrairement aux géants de la tech comme Chatgpt, Lucie, qui “n’a aucune ambition économique”, promet la transparence sur les données utilisées pour la former, a souligné Maudet. Cela permettra par exemple de s’assurer que les réponses proviennent de données scientifiques vérifiées.
Le modèle est destiné à être utilisé pour des applications dans le monde de l’éducation, mais « à ce jour, aucun travail spécifique n’a été réalisé avec l’éducation nationale pour personnaliser ou adapter le modèle à un usage pédagogique », ont souligné ses promoteurs.