Mockée par les internautes, l’AI française «Lucie» conçue avec le support de l’État «se ferme temporairement»

Mockée par les internautes, l’AI française «Lucie» conçue avec le support de l’État «se ferme temporairement»
Mockée par les internautes, l’AI française «Lucie» conçue avec le support de l’État «se ferme temporairement»

Plusieurs internautes souhaitant tester l’outil avec des questions de base ont obtenu des réponses qui étaient pour le moins excentriques. Les concepteurs de «Lucie» affirment que ce n’est qu’une première version qui évoluera.

La phase de test a été interrompue. Lancé jeudi pour une expérience d’un mois, l’intelligence artificielle «Lucie», développée par la société Linagora les CNR et avec le soutien de l’État, a fermé «temporairement» après avoir fait l’objet de moqueries sur les réseaux sociaux, ses concepteurs, ses concepteurs annoncé le samedi 25 janvier.

Destiné à être «adapté au monde de l’éducation en 2025», cette intelligence artificielle présentée comme «le premier modèle» de l’open source française a alignée «sur les valeurs européennes communes» est en fait loin d’avoir convaincu les premiers utilisateurs. Et pour une bonne raison, plusieurs d’entre eux souhaitant tester l’outil avec des questions de base obtenues complètement fausses, voire complètement folles, répondent.

Ceci est par exemple le cas de cet utilisateur Internet qui a demandé à l’IA de réaliser l’opération «5 (3 + 2)». Réponse de «Lucie»: 17. Et lorsqu’on lui a demandé de détailler le raisonnement qui l’a conduit à un tel résultat, la réponse est tout aussi improbable. D’autant plus que l’IA obtient le résultat «50» cette fois.

À un autre utilisateur d’Internet qui lui demande de lui parler des œufs de vache, «Lucie» dit que «les œufs de vache, également connus sous le nom d’oeufs de poulet, sont des œufs comestibles produits par les vaches».

-

En réponse à d’autres utilisateurs, «Lucie» mentionne le rôle d’Hérode dans le développement de la bombe atomique, garantit qu’il n’y a qu’un seul «R» dans le mot anglais «fraise» au lieu de trois, et affirme que la «racine carrée d’une chèvre est 1 ”. Des réponses plus que surprenantes pour un outil qui vise à être «particulièrement transparente et fiable» et qui est conçue «pour être un modèle sur lequel vous pouvez compter», «dans l’éducation, le gouvernement ou la recherche».

Un autre «modèle brut»

Face aux critiques et autres moqueries, la société Linagora a annoncé «la fermeture temporaire de l’accès à la plate-forme Lucie.chat». L’entreprise a tenu à spécifier que «Lucie» est «avant tout un projet de recherche universitaire visant à démontrer les capacités de développer des biens commerciaux générateurs de l’IA». «À ce jour, aucun travail spécifique n’a été effectué avec l’éducation nationale pour personnaliser ou adapter le modèle à usage éducatif», souligne-t-elle.

Linagora, qui a développé cette IA avec la communauté OpenLLM- dans le cadre d’un appel de projets France 2030, ajoute que «Lucie» est toujours un «modèle brut». Ainsi, il fonctionne à ce stade «avec des paramètres minimaux» et n’a pas de «sauvegardes» pour empêcher les «utilisations inappropriées». «Les réponses générées par Lucie ne sont donc pas garanties et certaines contiennent des biais et des erreurs», reconnaît l’entreprise.

Les créateurs de l’IA disent qu’ils pensaient «à tort, qu’une publication publique de la plate-forme Lucie.chat était néanmoins possible dans la logique de l’ouverture et de la co-construction de projets open source». Mais «nous savons bien sûr que les capacités du« raisonnement »(y compris sur des problèmes mathématiques simples) ou même la possibilité de générer du code de la version actuelle de« Lucie »ne sont pas satisfaisantes», ils continuent, considérant qu’ils devraient avoir «des utilisateurs informés des utilisateurs des La plate-forme de ces limites de manière à ne pas créer d’attente inutile ». Pour toutes ces raisons, les créateurs ont préféré un accès temporairement étroit à la plate-forme afin de prendre le temps de «mieux expliquer (leur) approche». En attendant, ils appellent à «le respect du travail des chercheurs et des ingénieurs qui travaillent à développer des systèmes d’IA digne de confiance, plus éthiques et plus transparents».

 
For Latest Updates Follow us on Google News
 

-

PREV Bonjour l’ivresse ! en rediffusion
NEXT Arbel Yehoud, Agam Berger et quatre autres otages israéliens seront libérés dans la semaine