L’IA générative peut «imiter le raisonnement de l’avocat en établissant des modèles statistiques à partir de sa base de données», dans une logique d’analyse de cas concrets antérieurs mais elle ne donne pas de sens à ses réponses et elle n’est pas en mesure d’évaluer la pertinence de sa propre réponse. Selon les rapporteurs, son utilisation entraîne des besoins de formation afin de mieux comprendre les réponses.
De plus, les outils d’IA générative fournissent des réponses incohérentes. Il apparaît essentiel que toute solution d’IA générative mentionne, après chaque résultat, le risque d’erreur ce que l’outil peut engager et la nécessité de vérifier systématiquement ce résultat.
L’utilisation d’outils d’IA générative implique également problème de confidentialité des donnéesnotamment dans le domaine de la justice.
Globalement, l’IA doit être supervisé pour répondre aux exigences de Règlement Général sur la Protection des Données (RGPD)ainsi que Règlement européen sur l’intelligence artificielle (RIA), entré en vigueur le 1est août 2024. Celui-ci classe par exemple parmi les logiciels les algorithmes utilisés par l’administration de la justice.risque élevé« .
Les rapporteurs font 20 propositions, dont notamment :
- informer systématiquement l’utilisateur du risque d’erreur ;
- affiner le moteur de recherche Légifrance pour permettre aux utilisateurs du service public d’information juridique de formuler leurs questions en langage naturel ;
- ou encore développer une certification ou un label public pour les éditeurs légaux qui s’engagent à respecter certaines bonnes pratiques.