James W. Marshall et ChatGPT 3.5 ont une chose en commun : tous deux ont lancé une « ruée » qui a changé le monde. La découverte de la première pépite d’or en 1848 précipite 300 000 personnes en Californie. Le lancement de ChatGPT 3.5 en novembre 2022 a mis l’IA et les grands modèles linguistiques (LLM) au premier plan et a attiré des millions d’utilisateurs dans le monde.
L’essor de l’IA a rapidement soulevé des questions cruciales : respect des droits d’auteur, biais algorithmiques, enjeux éthiques, confidentialité des données, sécurité et impact sur l’emploi. La volonté de l’UE de réguler l’IA via l’AI Act arrive à point nommé. Dans ce contexte, les entreprises du monde entier explorent les possibilités offertes par l’IA pour optimiser leurs opérations et stimuler leur croissance.
Ne cachez pas les risques et les effets secondaires
L’IA est la nouvelle ruée vers l’or, mais attention à ne pas tomber dans le piège du Far West numérique ! Trop d’entreprises se précipitent sans comprendre les dangers, alors qu’elles ont la responsabilité d’utiliser l’IA de manière responsable et éthique.
Les risques sont réels : fuites de données, biais algorithmiques, atteinte à la réputation. L’exemple du chatbot Tay en 2016, aux dérives racistes et misogynes, rappelle les dangers potentiels. Inquiétudes des consommateurs, reflétées dans une étude récente
(78 % s’inquiètent de l’utilisation de leurs données par l’IA), souligne l’importance d’une approche prudente et transparente.
L’IA est déjà largement utilisée, mais souvent sans gouvernance, comme ce fut le cas avec l’adoption précipitée du cloud. Ce manque de contrôle peut conduire à des erreurs coûteuses. Pour éviter de répéter les mêmes erreurs, les entreprises doivent absolument encadrer l’usage de l’IA. Cela nécessite une réglementation interne, un contrôle strict des accès et la mise en place de politiques d’utilisation claires. Des entreprises comme Amazon et JPMC ont déjà pris des mesures en restreignant l’accès à ChatGPT, prévoyant une réintroduction progressive et contrôlée une fois
mesures de protection en place.
Il est essentiel que les entreprises déterminent clairement quelles données leurs projets d’IA peuvent utiliser et comment. Un système de contrôle d’accès basé sur les rôles, associant chaque rôle à des tâches et autorisations spécifiques pour chaque source de données, fournit une solution évolutive. Ce système garantit que seules les personnes disposant des privilèges nécessaires peuvent accéder aux données, dans le respect des réglementations légales et des exigences géographiques, y compris la souveraineté.
données.
Un aspect souvent négligé, mais crucial, est la traçabilité des données utilisées pour entraîner les modèles d’IA. Savoir quelles données ont été utilisées et dans quel ordre est essentiel pour comprendre le fonctionnement de l’IA et les biais potentiels. Ce manque de transparence peut avoir des conséquences juridiques, morales et éthiques considérables, notamment si l’IA prend une décision lourde de conséquences. En cas de litige, la traçabilité des apprentissages de l’IA sera un élément clé. Il est donc impératif de conserver un historique complet des versions de formation.
-Promouvoir la transparence des processus d’apprentissage et la « réversibilité »
La classification et la documentation des données de formation sont essentielles pour la transparence et la qualité de l’apprentissage de l’IA. Mais malgré les meilleures intentions, la complexité et le temps nécessaire à la mise en œuvre des processus d’apprentissage de l’IA peuvent entraîner des risques et des abus.
Prenons l’exemple de Tesla, qui entraîne depuis des années son IA à la conduite autonome. Comment le protéger efficacement contre les erreurs, la perte, le vol ou la manipulation ? Comment garantir le respect de la propriété intellectuelle dans la formation à l’IA, comme l’illustre le procès du New York Times, dont les articles ont été utilisés sans autorisation pour former des LLM ? Une approche responsable et gouvernée est essentielle.
À ce jour, aucune technologie ne permet d’enregistrer avec précision les changements subis par un modèle d’IA lorsqu’il s’entraîne avec de nouvelles données. Si un modèle est entraîné avec des données incorrectes, par exemple du contenu protégé par le droit d’auteur, il est impossible de le restaurer directement à un état antérieur.
Des solutions de contournement, inspirées des pratiques de sécurité informatique, sont nécessaires. Les instantanés du système en particulier, permettant de revenir à une version antérieure, offrent une alternative, même si certaines données récentes sont perdues. Les entreprises devraient envisager cette approche pour gérer les risques liés à l’IA.
Par Laurent GarcíaDirecteur Commercial Europe du Sud chez Cohesity