Tik Tok accusé de pousser des adolescentes au suicide, cette procédure judiciaire peut-elle aboutir ?

Tik Tok accusé de pousser des adolescentes au suicide, cette procédure judiciaire peut-elle aboutir ?
Tik Tok accusé de pousser des adolescentes au suicide, cette procédure judiciaire peut-elle aboutir ?

C’est un sujet délicat, complexe et malheureusement récurrent. L’avocate pénaliste spécialisée dans la défense des mineurs Laure Boutron-Marmion vient de se constituer partie civile auprès du tribunal de Créteil contre la plateforme chinoise, elle défend 7 familles réunies autour du collectif Victime du salairedes algorithmes comme les algorithmes de Tik Tok, ce sont eux qui sont incriminés, le mécanisme algorithmique est considéré comme toxique et coupable d’enfermer les utilisateurs dans une spirale infernale, un magma de contenus négatifs, des vidéos d’automutilations, des témoignages mortels qui selon le avocat, a poussé deux adolescentes à commettre l’irréparable.

Ils avaient tous deux quinze ans et étaient victimes de harcèlement scolaire, ils ont exprimé leur mal-être sur le réseau populaire de la jeunesse, un réseau qui laissait proliférer ces contenus, contenus qui en appelaient d’autres. Et pour le collectif, le réseau social doit enfin prendre sa part de responsabilité. Sachant que les plateformes se cachent encore derrière leur statut d’hébergeur et non d’éditeur.

La procédure est tout à fait compréhensible pour les familles mais elle est loin d’être évidente pour pouvoir prouver le lien de causalité entre Tik Tok et le geste suicidaire, pour le dire autrement, le collectif doit établir que sans les effets délétères de la plateforme, les deux les jeunes filles ne donneraient pas suite à leurs actes. Ce n’est pas une mince affaire.

Le collectif peut au moins s’appuyer sur un certain nombre de faits, notamment des études qui prouvent la dangerosité du confinement algorithmique. En 2022, le Centre américain de lutte contre la haine en ligne a publié un rapport historique.

Les chercheurs ont ouvert de faux profils de jeunes de 13 ans dans plusieurs territoires (en Amérique du Nord, en Australie et au Royaume-Uni). Les profils présentant des vulnérabilités, notamment des troubles alimentaires, mobilisaient ces comptes en likant des vidéos au contenu négatif ou anxiogène, et quelques minutes plus tard seulement, l’algorithme recommandait des vidéos liées au suicide.

Quelle réaction de Tik Tok ?

La plateforme a dénoncé la méthodologie de cette expérimentation, et assure depuis faire tout son possible pour modérer les contenus problématiques. Reconnaissons que la vigilance a quelque peu progressé, par exemple j’ai tapé hier suicide dans le moteur de recherche Tik Tok et je suis immédiatement tombé sur un message de prévention.

Les plateformes oscillent entre une volonté de censurer certains propos et la conviction que la liberté d’expression sur ces sujets peut aussi aider les utilisateurs en détresse. Ce qui est sûr, c’est qu’ils sont loin de remplir toutes leurs obligations, notamment celle du DSA, le règlement européen entré en vigueur en août dernier. Du respect de l’âge minimum pour ouvrir un compte aux obligations de transparence algorithmique, en passant par l’efficacité des systèmes de modération. Il reste encore un long chemin à parcourir pour assainir l’écosystème.

Cette procédure française a selon moi peu de chances d’aboutir mais elle a le mérite de poser des questions cruciales sur ce que l’on peut attendre des plateformes. Mais tant que leur modèle économique repose sur la captation de l’attention, la monétisation de l’engagement et la viralisation des contenus, je crains que ces avancées restent marginales.

 
For Latest Updates Follow us on Google News
 

PREV Bulletin météo. Quelle météo dans les Hauts-de-France pour ce samedi 7 décembre ?
NEXT Les gagnants et les perdants du match contre Rennes