l’intelligence artificielle pour tenter de protéger les athlètes du cyberharcèlement

l’intelligence artificielle pour tenter de protéger les athlètes du cyberharcèlement
Descriptive text here

Le sujet est pris très au sérieux. A trois mois des Jeux olympiques et paralympiques de Paris (du 26 juillet au 8 septembre), les autorités françaises et le Comité international olympique (CIO) veulent s’assurer « sécurité mentale » athlètes dans « les protéger de la cyberintimidation ». Les sportifs sont de plus en plus la cible de moqueries, d’insultes, voire de menaces de mort sur Internet ; on les retrouve aussi bien dans les commentaires d’articles de presse en ligne ou de posts YouTube que sur les réseaux sociaux X, Instagram, Facebook et TikTok.

« C’est tellement répandu et malheureusement normalisé qu’il est difficile d’avoir une idée de l’ampleur du problème.assure Monde Kirsty Burrows, chef de l’unité Sport sécuritaire au CIO. Si quelqu’un vous attaque en ligne juste avant votre compétition, vous ne vous sentirez pas en sécurité, même si votre environnement physique est sécurisé. Il faut donc essayer de soutenir les sportifs en supprimant ces menaces. »

Ainsi, l’institution utilisera l’intelligence artificielle (IA) – gérée par un prestataire lié aux plateformes – capable de retirer “en temps réel dans plus de trente-cinq langues et dialectes” des messages hostiles provenant des comptes sociaux de quelque 15 000 athlètes olympiques et paralympiques, ainsi que de ceux d’entraîneurs et d’officiels (plus de 2 000 personnes). “Ils pourront tous accéder à ce système s’ils le souhaitent, nous le proposerons de facto”précise Mmoi Des terriers.

Lisez également l’enquête | Article réservé à nos abonnés “Tu es une merde, ma gueule” : les athlètes de Paris 2024 face à la haine sur les réseaux sociaux

Ajouter à vos sélections

C’est la première fois qu’un tel dispositif sera déployé tout au long des Jeux. L’objectif est de supprimer les contenus abusifs avant même qu’ils ne soient lus. “Nous attendons près d’un demi-milliard de messages sur les réseaux sociauxsouligne Kirsty Burrows. Si vous passez une seconde sur chacun [dans une configuration de modération 100 % humaine], il vous faudrait seize ans pour tous les traiter. Si nous négligeons la sécurité numérique, nous manquerons à notre devoir. » Dans le cas où un athlète parvient à voir le commentaire avant qu’il ne soit supprimé, trois psychologues seront également présents au village des athlètes.

« La modération est un jeu du chat et de la souris »

Parallèlement, le ministère des Sports indique que les sportifs français et internationaux qui le souhaitent peuvent se tourner vers Bodyguard, une société française spécialisée dans la protection des comptes de réseaux sociaux. Déjà utilisé par la Fédération Française de Tennis et la Ligue de Football Professionnel, masque Bodyguard grâce à une IA, des messages jugés toxiques – ceux-ci ne sont alors visibles que par leur auteur – mais aussi des emojis ou autres pictogrammes (en forme de banane pour insulter un athlète noir par exemple). En effet, pour contourner les algorithmes qui repèrent les messages haineux, les internautes « réinventer le langage »explique Charles Cohen, fondateur et président de Bodyguard. « Ils comprennent comment fonctionnent les filtres et cherchent à les contourner »il ajoute.

Il vous reste 39,51% de cet article à lire. Le reste est réservé aux abonnés.

 
For Latest Updates Follow us on Google News
 

PREV C’est fini pour Niederreiter et les Jets, Josi et les Predators obtiennent un sursis – rts.ch – .
NEXT Romain Bardet, le verdict tombe