News Day FR

non, mais nous avons besoin de garanties

L’intelligence artificielle représente une opportunité de se concentrer sur des activités à forte valeur ajoutée. Mais, cela nécessite un contrôle humain rigoureux pour garantir le respect des principes éthiques et la qualité des analyses, tout en restant vigilant pour prévenir les risques à long terme comme la paresse intellectuelle, qui pourraient naître d’une utilisation non critique de l’IA. Explications avec Stéphanie Corbière, Responsable Juridique & Conformité Groupe Aramis et co-fondatrice du groupe scientifique AFJE AI.

Un recentrage sur les missions stratégiques

Les outils d’IA facilitent l’automatisation des tâches répétitives, comme la recherche documentaire, la rédaction de documents standardisés ou l’analyse de contrats, libérant ainsi du temps aux avocats pour se concentrer sur des missions plus complexes, par exemple :

  • gestion des risques juridiques;
  • stratégie contractuelle;
  • négociations complexes.

Alors que de nombreuses études, comme celle de Goldman Sachs en 2023, mettent en avant les risques de disparition de plusieurs métiers du fait de l’essor de l’IA, les missions complexes nécessitent des compétences humaines essentielles. Le MIT CSAIL a toutefois précisé que l’automatisation présente certaines limites et que toutes les fonctions ne sont pas prêtes pour l’automatisation. L’étude de juillet 2024 réalisée par PWC Law Society a indiqué que les secteurs les plus nuancés du conseil juridique, de l’interaction avec les clients et des litiges complexes continueront de s’appuyer fortement sur les compétences humaines.

Gestion d’entreprise

La gestion d’entreprise constitue l’activité essentielle d’un chef d’entreprise. Elle fait appel à un grand nombre de concepts empruntés à la comptabilité, à la finance (gestion des risques à travers la gestion de patrimoine et l’assurance professionnelle), au droit des affaires (statut juridique, contrats commerciaux, fiscalité, cadre réglementaire et activité juridique), à ​​la gestion des ressources humaines…

Découvrez tous les contenus associés

L’importance du contrôle humain : éthique et biais algorithmiques

Même si l’IA est capable de traiter rapidement de gros volumes de données, elle peut reproduire les biais présents dans les données d’entraînement. C’est pourquoi il est essentiel que les avocats gardent le contrôle du processus. Leur rôle est nécessaire pour :

  • vérifier que les décisions prises ou les analyses proposées par l’IA respectent l’éthique et la conformité réglementaire ;
  • contrôler les biais algorithmiques qui pourraient conduire à des décisions injustes ou biaisées.

Les avocats doivent donc jouer un rôle de surveillance, en surveillant en permanence les décisions prises en matière d’IA et en veillant à leur conformité.

Ainsi, l’étude PWC de juillet 2024 indique que 48% des entreprises interrogées ont déjà engagé une réflexion sur une IA responsable, ce qui passe notamment par la mise en place d’une gouvernance solide et d’une démarche éthique responsable. Le développement du rôle de « Digital Trust Officer » pourrait être de plus en plus développé.

Une montée en compétences pour la nouvelle génération

Contrairement à l’idée selon laquelle l’IA pourrait conduire à une déqualification des jeunes avocats, elle leur permet de développer de nouvelles compétences et de s’approprier des outils technologiques modernes. Les avocats de demain ne consacreront peut-être plus autant de temps à des tâches simples, comme la synthèse de contrats, mais ils seront formés à des cas d’usage innovants, qui pourraient insuffler un nouveau souffle à la profession.

L’étude de Thomson Reuter de mai 2023 sur la formation des professionnels du droit démontre que l’IA peut aider les jeunes professionnels à développer des compétences technologiques, susceptibles de leur permettre de mieux répondre aux défis juridiques contemporains avec plusieurs typologies de formation : formation continue, formation mixte, gamification ou, par exemple, une formation à des compétences non techniques, notamment la pensée critique, la résolution de problèmes et la créativité.

Nécessaire mise en œuvre d’une vigilance de long terme pour préserver les expertises

Un danger potentiel d’une automatisation excessive des tâches est la perte progressive de savoir-faire et de compétences critiques. Si l’IA prend en charge certaines tâches complexes, cela pourrait conduire à un épuisement de l’expertise des avocats, notamment lorsqu’il s’agit de réflexions juridiques complexes.

Les risques à long terme comprennent :

  • la baisse de la qualité des services juridiques : un recours excessif à l’IA pourrait normaliser les réponses, réduisant ainsi la capacité des avocats à fournir des conseils personnalisés et nuancés ;
  • perte d’innovation : l’automatisation pourrait limiter la créativité et l’innovation juridique, en encourageant une approche trop mécanisée des solutions juridiques ;
  • paresse intellectuelle : une utilisation non critique des technologies pourrait conduire à un affaiblissement des capacités d’analyse et du jugement.

Pour prévenir ces risques, il est essentiel de ne pas s’appuyer uniquement sur l’IA. Les avocats doivent continuer à jouer un rôle actif dans l’élaboration de solutions, en validant systématiquement les résultats produits par l’IA.

Rester critique à l’égard de l’IA : erreurs et hallucinations

Même si l’IA est efficace, elle n’est pas infaillible. Les erreurs algorithmiques et les hallucinations sont encore fréquentes, d’où l’importance d’un contrôle rigoureux par les juristes. Deux exemples illustrent cette situation :

  • DPD a dû désactiver une partie de son chatbot en 2024 après avoir commencé à insulter les clients au lieu de résoudre leurs problèmes (ici une simple question sur un colis perdu. Incapable de répondre à la demande, l’IA a répondu par des insultes et a même écrit un poème critiquant durement le entreprise elle-même.)
  • En 2018, Amazon a dû abandonner son projet d’IA de recrutement après avoir découvert que le système discriminait systématiquement les femmes.

L’AI Act vise à imposer des réglementations strictes sur les systèmes d’IA à haut risque. Cette législation souligne l’importance de la transparence, de la surveillance humaine et de la gestion des préjugés pour prévenir les erreurs et la discrimination potentielles. En tant qu’utilisateurs ou régulateurs, nous devons donc jouer un rôle actif dans la surveillance de ces technologies, en veillant à ce qu’elles répondent à ces normes éthiques et juridiques élevées.

Cette analyse illustre comment l’IA peut optimiser les processus au sein des services juridiques, tout en nécessitant une surveillance minutieuse pour garantir la conformité éthique et réglementaire. Ces échanges s’inscrivent dans les objectifs du Groupe Scientifique IA de l’AFJE, qui vise à doter les avocats des compétences nécessaires pour intégrer judicieusement l’IA dans leurs pratiques. Cette initiative contribue à préparer les avocats à utiliser l’IA de manière responsable et éclairée, en tenant compte des implications juridiques et éthiques de ces technologies.

 
For Latest Updates Follow us on Google News
 

Related News :