France: L'IA "Lucie" suspendue après des erreurs

La rédaction avec
15:0628/01/2025, mardi
MAJ: 28/01/2025, mardi
AA
Lucie, premier modèle d'intelligence artificielle en open source français.
Crédit Photo : X / X
Lucie, premier modèle d'intelligence artificielle en open source français.

L'intelligence artificielle "Lucie", développée par la société Linagora avec le soutien de l'État français, a été temporairement suspendue.

Selon la presse française, cette décision fait suite à une vague de critiques et de moqueries sur les réseaux sociaux, où les performances du modèle ont suscité de vives réactions.


Linagora avait lancé jeudi une phase de test initialement prévue pour durer un mois, visant à démontrer les capacités d'un modèle français open source aligné sur les valeurs européennes. Cependant, de nombreux internautes ont relevé des réponses absurdes de l'IA, révélant des failles importantes.


Un exemple notable rapporté par BFMTV concerne un utilisateur qui avait demandé à "Lucie" de résoudre l'opération mathématique "5(3+2)". La réponse erronée, "17", a ensuite été suivie d'un raisonnement encore plus confus menant au résultat "50". Par ailleurs, l'IA a affirmé que les "œufs de vache" étaient comestibles, a relié le roi Hérode au développement de la bombe atomique, et a déclaré que la racine carrée d'une chèvre était "1".



Malgré ces erreurs, Linagora rappelle que "Lucie" est un modèle brut toujours en cours de développement et n'a pas encore fait l'objet des ajustements nécessaires pour des applications fiables. L'entreprise explique que la plateforme avait été mise en ligne dans un esprit d'ouverture et de co-construction autour des projets open source, tout en reconnaissant avoir sous-estimé les attentes du public.


Les développeurs soulignent que ce projet, mené dans le cadre de "France 2030", reste avant tout une expérimentation académique. "Nous avons voulu tester les capacités d'un système open source en l'état, mais nous aurions dû mieux communiquer sur ses limitations", déclare Linagora.

Cette suspension vise à améliorer le modèle et à renforcer les garde-fous nécessaires pour un usage public. Linagora appelle également à soutenir le travail des chercheurs pour développer des IA plus transparentes et éthiques, en rappelant que la version actuelle n'est pas encore adaptée à l'éducation, comme prévu à terme.


Ce revers met en lumière les défis techniques et stratégiques auxquels la France, comme d'autres pays, est confrontée dans le domaine de l'intelligence artificielle, dominé par les géants américains et chinois.


A lire également:





#​​​​​​​France
#intelligence artificielle
#Lucie
#Linagora
#France 2030
#modèle français
#réseaux sociaux
#erreurs IA
#défis technologiques
Commentaires

Bonjour, les commentaires que vous partagez sur notre site sont une ressource précieuse pour les autres utilisateurs. Veuillez respecter les autres utilisateurs et les différentes opinions. N'utilisez pas de langage grossier, offensant, humiliant ou discriminatoire.

Pas encore commenté

Soyez le premier à commenter

Cliquez ici pour recevoir les nouvelles les plus importantes de la journée par e-mail. Abonnez-vous ici.

En devenant membre, vous consentez à recevoir des communications électroniques de la part des sites d'Albayrak Media Group et acceptez les conditions d'utilisation et la politique de confidentialité.