La gouvernance de l’IA au menu du Digital Circle

Les DSI du Cercle Digital se sont retrouvés hier, 18 septembre, pour un meet-up dédié à la thématique très actuelle de l’IA responsable. La rencontre s’est déroulée sur le campus d’Unlimitrust, un lieu particulièrement adapté à la thématique du jour. Pour aborder la question de la gouvernance de l’IA, le meet-up a pu compter sur les contributions très complémentaires d’Alexandre Jotterand, avocat spécialisé dans le numérique chez id est avocats, et de Sophie Ding et Christina Meyer, toutes deux évoluant au sein de la cellule « numérique responsable » mise en place à la Poste Suisse.

Réglementations à suivre, cadres de gouvernance à exploiter

Alexandre Jotterand a commencé par identifier les spécificités et les dangers potentiels des systèmes d’IA qui justifient une approche distincte par rapport aux autres technologies. Il a ensuite abordé la question de la régulation des stations qui pourrait émerger en Suisse et les directions qu’elle pourrait prendre : imposition de règles à l’européenne ou pari sur l’autorégulation, principes éthiques ou prévention des risques, règles transversales ou sectorielles.

Alexandre Jotterand, avocat spécialisé en technologie, id est avocats.

L’avocat spécialisé a également présenté plusieurs réglementations en vigueur avec un focus sur la Convention-cadre sur l’IA du Conseil de l’Europe, que la Suisse pourrait bientôt ratifier, et sur la loi européenne sur l’IA. A propos de cette réglementation, il a expliqué la classification des systèmes en fonction des risques et la distinction entre les rôles de fournisseur et de déployeur, que les entreprises peuvent se retrouver à assumer selon le scénario. Il a également souligné qu’en se concentrant sur la sécurité des produits technologiques, la loi sur l’IA se rapproche davantage de la réglementation sur les dispositifs médicaux que du RGPD.

Pour conclure, Alexandre Jotterand a appelé les DSI et leurs entreprises à anticiper les réglementations, mais aussi à développer l’alphabétisation IA dans leur organisation et à se doter d’une gouvernance forte en n’hésitant pas à utiliser les référentiels déjà très nombreux sur ces questions, comme celui développé par le NIST (National Institute of Standards and Technology) américain.

> Sur le sujet, l’article d’Alexandre Jotterand paru dans le numéro spécial AI d’ICTjournal : La régulation de l’intelligence artificielle en plein essor

La Poste partage sa pratique émergente en matière d’IA responsable

Pour illustrer comment une organisation met concrètement en œuvre la gouvernance de l’IA, le Cercle Digital a pu compter sur les témoignages de Sophia Ding et Christina Meyer, toutes deux actives au sein de la cellule récemment mise en place au sein du département informatique de la Poste Suisse – sans doute l’une des rares entreprises suisses à disposer actuellement d’une telle structure.

Les deux dirigeants ont mis en avant les atouts d’une démarche d’éthique numérique dans une organisation – confiance, réputation, satisfaction des collaborateurs, différenciation, etc. – et expliqué comment La Poste traduit les valeurs éthiques d’une IA responsable en caractéristiques attendues de ses systèmes.

Christina Meyer, spécialiste de l’éthique numérique à la Poste Suisse.

Sophia Ding et Christina Meyer ont ensuite illustré la démarche du géant jaune à l’aide de deux cas concrets. D’une part, l’introduction d’un système d’IA au sein du tri postal étranger pour déterminer quels colis devaient passer par une procédure de dédouanement. Outre la focalisation sur les collaborateurs, l’approche d’IA responsable a conduit d’une part à limiter le système à l’émission de recommandations, la décision restant de la responsabilité du collaborateur (human-in-the-loop) et d’autre part à privilégier une solution développée en interne plutôt qu’achetée afin de pouvoir expliquer les recommandations produites par le système.

Ensuite, en guise de deuxième cas d’école, les responsables de la Poste ont expliqué quelques mesures pour l’introduction de Copilot de Microsoft – le géant jaune qui a fait l’objet d’un premier déploiement à échelle limitée. Alors que l’outil est désormais déployé à grande échelle, l’organisation a mis en place une formation obligatoire que les collaborateurs doivent suivre avant de pouvoir utiliser l’assistant GenAI de Microsoft.

De manière plus transversale, l’équipe numérique en charge de La Poste a également mis en place un questionnaire où les chefs de projets IA doivent documenter les enjeux éthiques identifiés, ainsi qu’un processus d’escalade centralisé permettant aux data scientists de remonter les problèmes et autres conflits entre intérêts éthiques et commerciaux.

> Pour en savoir plus sur l’éthique numérique au sein de La Poste

Exercice pratique pour les membres du Cercle Numérique.

Pour exterminer leur intervention, Sophia Ding et Christina Meyer ont invité les DSI à expérimenter eux-mêmes une fiche utilisée à La Poste pour identifier les enjeux éthiques à partir d’un projet fictif : une application alertant les clients de La Poste sur les zones géographiques où les vols de colis sont les plus nombreux…

Comme d’habitude, le Digital Meet-up s’est terminé par un moment de convivialité pour poursuivre les échanges.

 
For Latest Updates Follow us on Google News
 

PREV Les scénarios de Goldman Sachs – 10/08/2024 à 11h10
NEXT légère accélération au T3 à +2,8%, ralentissement attendu à +2,5% au T4