MONTRÉAL, le 26 nov. 2024 /CNW/ – Mila et CEIMIAdeux leaders mondiaux du développement responsable de l’intelligence artificielle (IA), ont publié aujourd’hui le rapport le plus complet à ce jour sur l’égalité des sexes et la diversité dans l’IA. S’appuyant sur des consultations approfondies auprès d’un large éventail de voix et d’experts, ce rapport et le guide qui l’accompagne offrent aux décideurs des recommandations politiques claires pour promouvoir une plus grande inclusivité dans le développement technologique.
Le rapport, une initiative du groupe de travail sur l’IA chargé de Partenariat mondial sur l’intelligence artificiellea été présenté aujourd’hui à Montréal, à Canadadans le cadre d’un événement réunissant le président du Conseil du Trésor de Canada, Anita Anandainsi que des dirigeants mondiaux, des décideurs politiques et des représentants de la communauté de l’IA.
Le rapport, intitulé «Vers une véritable égalité dans l’intelligence artificielle : une politique d’IA transformatrice pour l’égalité des genres et la diversité»fournit aux décideurs et à toutes les parties prenantes des lignes directrices pour créer des écosystèmes d’IA inclusifs, équitables et justes qui favorisent le développement économique et social. Le rapport explore les meilleures pratiques, propose des perspectives politiques et fournit des recommandations pour améliorer l’égalité des sexes et la diversité dans l’IA et élaborer des lignes directrices.
Les progrès rapides de l’IA transforment les industries et stimulent la croissance économique, offrant ainsi un grand potentiel pour améliorer la qualité et les conditions de vie dans le monde. Cependant, ils risquent d’exacerber les inégalités existantes en reflétant et en amplifiant les préjugés, la discrimination et les stéréotypes sociétaux, en particulier ceux qui touchent les femmes et d’autres groupes historiquement marginalisés. Il existe déjà des cas documentés dans lesquels les systèmes et processus d’IA ont, par exemple, conduit à la diffusion d’images personnelles non consensuelles et au harcèlement en ligne. Le manque de diversité dans les écosystèmes de l’IA peut également renforcer les stéréotypes et la discrimination en excluant certaines perspectives. Cela inclut des cas où les groupes marginalisés ont vu leurs opportunités d’emploi limitées et les ressources ont été distribuées de manière inéquitable, en particulier en faveur des personnes handicapées.
« Ce rapport est essentiel car les recommandations s’attaquent aux causes profondes des inégalités en vue de parvenir à une véritable égalité dans l’IA et au-delà. Des changements transformateurs dans le développement et la mise en œuvre des politiques entourant l’IA feront progresser les droits de l’homme », déclare Paola Ricaurte Quijiano, professeure titulaire au Tecnológico de Monterrey, associée au Berkman Klein Center for Internet & Society de l’université. Harvard et co-responsable du rapport. « Nous devons créer un cadre réglementaire solide pour limiter les effets néfastes et garantir un développement bénéfique des systèmes et processus d’IA pour tous. »
Les principales recommandations sont classées en quatre catégories :
- Encourager la conception inclusive et l’innovation démocratique : intégrer des mesures d’action positive et d’inclusion institutionnelle, et soutenir la conception de technologies inclusives.
- Renforcer une participation significative à la gouvernance de l’IA : promouvoir la participation active des groupes marginalisés à la gouvernance de l’IA afin d’assurer un meilleur encadrement de l’IA pour tous.
- Assurer la transparence et la responsabilité dans la prévention des effets indésirables : établir des garanties et des mécanismes de responsabilisation entre toutes les parties prenantes de l’IA pour prévenir les préjudices et garantir l’équité.
- Garantir un accès adéquat au système judiciaire : Mettre en œuvre des mesures pour garantir que les groupes marginalisés ont accès à des recours juridiques contre la discrimination et les préjugés liés à l’IA.
Le rapport recommande, entre autres, d’orienter le financement vers des initiatives alignées sur les principes de conception technologique inclusive, promouvant des applications, des pratiques et des processus équitables dans les écosystèmes d’IA. Les recommandations se concentrent également sur l’élaboration de stratégies permettant aux secteurs public et privé de réaliser des évaluations d’impact sur les droits fondamentaux avant de déployer des systèmes d’IA. D’autres exemples incluent la garantie de la transparence algorithmique, pour permettre aux personnes concernées par un système d’IA de contester ses résultats sur la base d’informations claires et compréhensibles. En outre, il est proposé de réduire la charge de la preuve pour les plaignants, facilitant ainsi l’accès aux recours juridiques contre la discrimination et les préjugés générés par l’IA.
“La mise en place d’un cadre réglementaire rigoureux est nécessaire et urgente pour prévenir les dommages et œuvrer en faveur de l’équité et de la diversité dans les écosystèmes de l’IA qui, en fin de compte, ont un impact direct sur les humains”, ajoute Benjamin Prud‘man, vice-président de Mila pour les politiques publiques, la sécurité et les affaires mondiales et co-responsable du rapport. « Grâce à des politiques inclusives en matière d’IA, nous pouvons améliorer la qualité, la convivialité et l’efficacité des systèmes d’IA, pour un avenir plus équitable, durable et prospère pour tous. »
Parallèlement au rapport, le CEIMIA et Mila publient également un guide complémentaire pour aider les décideurs politiques à mettre en œuvre les recommandations. Ce guide propose une méthode détaillée pour construire des écosystèmes d’IA plus inclusifs et des étapes concrètes pour faciliter cette transition industrielle essentielle.
Sur la base d’une approche de l’IA fondée sur les droits de l’homme, plus de 200 participants, représentant plus de 50 pays et d’horizons divers, ont pris part à des consultations ou à des exercices consultatifs. pour créer le rapport.
À propos du CEIMIA
Le CEIMIA est un acteur clé du développement et de l’adoption responsable de l’intelligence artificielle, fondé sur les principes d’éthique, de droits humains, d’inclusion, de diversité, d’innovation et de croissance économique. Le CEIMIA développe et met en œuvre des projets appliqués à fort impact dans le domaine de l’intelligence artificielle responsable. En tant que centre d’expertise du Partenariat mondial sur l’intelligence artificielle (GPAI), le CEIMIA travaille en étroite collaboration avec 29 gouvernements et plus de 150 experts internationaux multipartites pour répondre aux défis et priorités mondiaux en soutenant le développement de solutions appliquées en intelligence artificielle responsable. Notre rôle est d’agir comme point focal pour les partenariats internationaux afin d’encourager le développement et le déploiement de telles initiatives pour le bien public. Pour plus d’informations, visitez https://ceimia.org/fr/
À propos de Mila
Fondée par le professeur Yoshua Bengio de L’Université de Montréal, Mila est le plus grand centre de recherche universitaire en apprentissage profond au monde, regroupant plus de 1 200 chercheurs spécialisés dans le domaine de l’apprentissage automatique. Basée à Montréal et financée en partie par le gouvernement de Canada dans le cadre de la Stratégie pancanadienne en matière d’IA, la mission de Mila est d’être une plaque tournante mondiale des avancées scientifiques qui inspire l’innovation et le développement de l’IA pour le bénéfice de tous. Mila est une organisation à but non lucratif reconnue mondialement pour ses contributions significatives au domaine de l’apprentissage profond, notamment dans les domaines de la modélisation linguistique, de la traduction automatique, de la reconnaissance d’objets et des modèles génératifs. Pour en savoir plus, visitez mila.quebec.
Source Mila – Institut québécois d’intelligence artificielle
Source : Mila & CEIMIA ; Contact : Éric Aach, [email protected]+1 514-569-3594 ; ou Gabrielle Landry, [email protected]+1 514-688-5837