« Encadrer l’usage de l’IA générative en entreprise »

« Encadrer l’usage de l’IA générative en entreprise »
« Encadrer l’usage de l’IA générative en entreprise »

Deux ans après la création du ChatGPT, Nicolas Blanc, secrétaire national CFE-CGC à la transition économique, analyse les pratiques technologiques dans les entreprises et leur usage par les salariés et les représentants du personnel.

Créé en novembre 2022, l’outil d’intelligence artificielle ChatGPT a fêté ses deux ans. Quel bilan tirer de son déploiement ?

ChatGPT a rapidement dépassé son objectif initial de simple projet de démonstration. Nous ne pouvons plus l’ignorer. Conçu par la société américaine OpenAI pour explorer la manière dont les utilisateurs interagiraient avec un outil basé sur le modèle de langage GPT 3.5, ChatGPT a connu une adoption massive, surprenant même ses créateurs. En seulement deux mois, il a rassemblé une base de 100 millions d’utilisateurs ! Ce succès démontre le potentiel des grands modèles de langage (LLM), qui s’appuient sur l’architecture « transform » introduite par Google en 2017. Grâce à des mécanismes d’auto-attention, ces modèles traitent et génèrent du texte en même -. manière humaine et exceller dans des tâches telles que la compréhension du langage naturel.

Et dans le monde professionnel ?

On voit déjà beaucoup d’usages émerger au travail mais il faut aujourd’hui encadrer ces pratiques qui vont encore se développer avec l’arrivée de Microsoft Copilot, un outil de type ChatGPT qui sera intégré à sa suite bureautique et logicielle.

De plus en plus de salariés utilisent « discrètement » ChatGPT pour leur travail. Qu’en penses-tu?

Ce phénomène de « Shadow AI » fait référence à l’utilisation de solutions d’IA générative telles que ChatGPT ou Google Gemini sans l’accord de l’entreprise. Par exemple, l’utilisation de l’IA sur les appareils personnels de l’employé pour corriger du texte, générer du contenu ou rédiger un email à un client. Les cas d’usage de l’IA malgré les politiques mises en place par les organisations se multiplient. Malgré des avantages indéniables, cette utilisation « clandestine » soulève de sérieuses inquiétudes quant à la sécurité et à la confidentialité des données. Certains GAFAM (Microsoft, Apple, Amazon) ont également interdit à leurs employés d’utiliser ChatGPT pour un usage professionnel. Ce n’est pas anodin !

En quoi cela constitue-t-il un risque pour les entreprises ?

Quelles que soient les règles mises en place, la Shadow AI présente des risques bien réels car les solutions d’IA aspirent une grande quantité de données pour fonctionner. Sans contrôle et surveillance, il est possible que des données sensibles de l’entreprise soient exposées ou utilisées de manière inappropriée. La Shadow AI peut également introduire des vulnérabilités dans les systèmes de l’entreprise car les solutions utilisées ne sont pas soumises aux mêmes contrôles de sécurité que celles validées par la DSI… La sécurité et la confidentialité des données de l’entreprise sont donc les deux principaux risques et les salariés ne doivent donc pas se mettre en danger. .

Comment réguler ces pratiques ?

L’idée n’est pas de les interdire mais de les soutenir. Pour ce faire, les entreprises doivent au préalable en discuter avec les représentants du personnel afin de reprendre la main et définir les modalités d’utilisation par leurs salariés de ce type d’outil. Cela peut passer par la négociation d’une charte dans laquelle les salariés s’engagent à respecter les règles négociées d’un commun accord. Il faut bien sûr associer cela à une politique de sensibilisation et de formation des salariés pour rendre la démarche cohérente.

Il est également essentiel de dispenser une formation adéquate aux salariés sur les risques liés à l’utilisation de l’IA et sur les bonnes pratiques à adopter. Cela sensibilisera aux problèmes de sécurité et de confidentialité des données ainsi qu’aux limites et aux utilisations appropriées de l’IA générative. Certaines entreprises ont déjà pris les devants en déployant leur propre ChatGPT sécurisé pour contrer ces pratiques sauvages. Dans tous les cas, nous recommandons aux entreprises de passer par l’information-consultation pour impliquer les salariés et leurs représentants dans les conseils économiques et sociaux (CSE). Cela permet un processus de déploiement transparent et fluide pour tous les employés.

Les représentants du personnel et les syndicats peuvent également recourir à l’IA générative. Quelles devraient être les bonnes pratiques ?

Bien sûr, on peut imaginer que de tels outils pourraient les aider à préparer des synthèses de réunions du CSE, à rédiger des tracts syndicaux ou à négocier des accords. Là encore, la prudence est de mise. Sans chercher à les interdire, il faut cependant encadrer ces usages et rappeler les bonnes pratiques en matière de confidentialité et de sécurité des données. Les documents fournis dans le cadre d’une information-consultation peuvent être confidentiels. Il en va de même pour la négociation d’un accord.

De plus, le recours à une solution payante, par exemple ChatGPT, ne garantit pas une sécurité absolue, comme le souligne OpenAI. dans sa FAQ. En effet, vous ne devez également rien indiquer de confidentiel dans les échanges que vous avez avec l’outil, ce que nous appelons des « prompts ». Mais on le sait rarement… Globalement, il convient donc que les parties prenantes adoptent une position de responsable de traitement au sens du RGPDavec les engagements qui en découlent.

Comment travaille la CFE-CGC sur tous ces sujets ?

Nous étudions l’IA depuis longtemps, par exemple avec le projet européen SecoIADeal sur le dialogue social et l’IA. Nous allons travailler sur un guide d’intelligence artificielle qui rappellera les bonnes pratiques à destination de nos adhérents et militants. Ce sera aussi l’occasion de sensibiliser à l’utilisation de ces systèmes d’un point de vue environnemental puisque, selon diverses études, une simple requête sur ChatGPT consomme dix fois plus d’énergie qu’une recherche Google.

Parallèlement, notre réseau de référents IA au sein des fédérations CFE-CGC sont garants de la diffusion de ces règles au plus près de nos adhérents et militants. Nous travaillons également à la qualification d’un certain nombre d’IA ou d’outils de formation qui répondent à un haut niveau d’exigence de sécurité et de confidentialité pour permettre à nos adhérents de bénéficier sereinement des avantages de l’IA générative.

Commentaires recueillis par Mathieu Bahuet

 
For Latest Updates Follow us on Google News
 

PREV En 2025, inspirez-nous encore et encore !
NEXT Offrez-vous un moment unique à la Clinique Esthétique ! ????????‍♀️ • Radio amusante