Bayraktar a déclaré : « Lorsque l’intelligence artificielle a été utilisée dans les processus de recrutement d’Amazon en 2018, il a été constaté que les hommes étaient préférés aux femmes et que la discrimination à l’égard des femmes était également copiée dans l’intelligence artificielle. Ce n’est pas vraiment une coïncidence si les assistants vocaux sont conçus avec une voix féminine.
Le 6ème « Sommet international des femmes et de la justice » s’est tenu à l’Université de Haliç sur le thème « L’intelligence artificielle et les femmes », en coopération avec la Fondation Femmes et Démocratie (KADEM) et le ministère de la Famille et des Services sociaux. Répondant aux questions des journalistes après l’émission, le président du conseil d’administration du KADEM, Sümeyye Erdoğan Bayraktar, a fait des déclarations sur la raison du thème déterminé et sur la relation entre les femmes et l’intelligence artificielle.
« On a observé que la discrimination à l’égard des femmes était copiée dans l’intelligence artificielle »
Bayraktar a déclaré : « Oui, nous recevons souvent cette question. Comment l’intelligence artificielle et les femmes se sont-elles rencontrées ? En fait, c’est une combinaison très, très importante. L’intelligence artificielle est riche de changements et d’évolutions sérieux dans tous les domaines du monde, dans tous les aspects de la société. Et bien sûr, les femmes. Le domaine n’en est pas séparé, celui-ci sera également concerné. En fait, il y a eu des exemples très frappants en 2018, lorsque l’intelligence artificielle a été utilisée dans les processus de recrutement d’Amazon, on a constaté que les hommes étaient préférés aux femmes et qu’une discrimination à l’égard des femmes était également copiée dans l’intelligence artificielle. Dans une étude menée dans le domaine de la justice, où l’on étudiait la possibilité que des criminels commettent à nouveau des délits, il a été constaté que l’utilisation de l’intelligence artificielle entraîne également une vision discriminatoire à l’égard des femmes, ainsi qu’une vision discriminatoire basée sur la race. Encore une fois, nous disons toujours que ces choses se produisent d’un côté. D’un autre côté, on constate également que les femmes sont davantage mises en valeur dans des fonctionnalités telles que les assistants vocaux et les publicités, par l’intelligence artificielle ou par ceux qui façonnent ces technologies. Par exemple, ce n’est pas un hasard si les assistants vocaux sont fabriqués avec une voix féminine. Nous voyons ici que le point de vue et la perception de la servante nous sont peut-être présentés à nouveau et renforcés ici également. De tels exemples sont donc très frappants. À l’heure actuelle, nous avons encore une tendance qui ne fait que prendre forme. « Et nous, en tant que femmes, devons être impliquées dans cela, dans les mécanismes de prise de décision », a-t-elle déclaré.
« L’INTELLIGENCE ARTIFICIELLE PEUT AUSSI APPRENDRE LES ATTITUDES DES DÉFENSEURS DES DROITS DES FEMMES »
Bayraktar a déclaré : « Seuls 22 % de ceux qui travaillent dans le domaine de l’intelligence artificielle et de l’informatique des données dans le monde sont des femmes, et la majorité d’entre elles occupent, bien entendu, des postes inférieurs. Nous nous efforcerons dans un premier temps de déterminer comment ces chiffres peuvent être augmentés. Cependant, nous ferons davantage d’efforts pour entraîner les algorithmes et façonner l’intelligence artificielle. Comment peut être une formation juste ? Parce qu’il peut y avoir des situations qui peuvent créer une injustice non seulement à l’égard des femmes mais aussi à l’égard d’autres groupes sociaux. Nous allons travailler là-dessus. Comme nous l’avons dit, nous avons invité environ 230 intervenants de 62 pays au total. Nous avons reçu de nombreux invités et avons eu de très bonnes discussions. A l’issue de celles-ci, nous publierons notre politique d’impôts. Comment pouvons-nous participer en tant qu’ONG ? Quels types de projets pouvons-nous réaliser ? Après tout, nous déterminerons notre feuille de route. Mais je vois ceci ; Si les données et les algorithmes ont appris à discriminer les femmes, il existe tout un acquis que les défenseurs des droits des femmes mettent en avant depuis des décennies, de la discrimination positive à la justice de genre. Je pense donc que l’intelligence artificielle peut aussi apprendre cela. Nous espérons qu’il l’apprendra. “Comme je l’ai dit, l’important est que nous soyons très conscients de ce domaine et que nous travaillions dans ce domaine”, a-t-il déclaré.
Related News :