Les algorithmes des réseaux sociaux doivent être ajustés pour empêcher la propagation de la désinformation, a averti le directeur général de l’Ofcom, en réponse aux émeutes qui ont éclaté après le meurtre de trois filles à Southport cet été.
La désinformation sur les meurtres de Southport a proliféré malgré les tentatives « inégales » des entreprises technologiques et des plateformes de médias sociaux pour y mettre un terme, a écrit la directrice générale de l’Ofcom, Melanie Dawes, dans une lettre adressée au secrétaire d’État à la science, à l’innovation et à la technologie, Peter Kyle.
“Les publications sur l’incident de Southport et les événements ultérieurs provenant de comptes très médiatisés ont atteint des millions d’utilisateurs, démontrant le rôle que la viralité et les recommandations algorithmiques peuvent jouer dans la conduite de récits qui divisent en période de crise”, a écrit Dawes.
« La plupart des services en ligne ont réagi rapidement à la situation, mais les réponses ont été inégales. »
Dawes répondait à la demande de Kyle de savoir si l’Ofcom ciblerait la désinformation en ligne dans la prochaine mise à jour de son code de bonnes pratiques contre les préjudices illégaux, auquel les sociétés de médias sociaux devront adhérer lorsque le projet de loi sur la sécurité en ligne entrera en vigueur.
Dawes a déclaré que le projet actuel de propositions de l’Ofcom exigerait que les applications modifient leurs algorithmes afin que le contenu illégal ou préjudiciable, y compris les abus et l’incitation à la violence ou aux discours de haine, soit déclassé pour les comptes d’enfants.
Certaines plateformes ont déclaré à l’Ofcom que des informations erronées visant à attiser la haine sont apparues en ligne « presque immédiatement » après les attaques, de sorte que les plateformes « faisaient face à des volumes élevés, atteignant des dizaines de milliers de messages dans certains cas », dont certains provenaient de comptes avec plus de 100 000 abonnés.
Certains de ces récits « indiquaient à tort que l’agresseur était un demandeur d’asile musulman et partageaient des affirmations non vérifiées sur ses opinions politiques et idéologiques », a déclaré Dawes, ajoutant : « Il y avait un lien clair entre l’activité en ligne et les troubles violents observés dans les rues du Royaume-Uni. »
Dawes a également souligné le rôle des services de messagerie « majeurs » qui hébergeaient des groupes fermés comprenant des milliers d’utilisateurs. Un exemple observé par l’Ofcom est celui d’appels à des manifestations visant une mosquée locale circulant en ligne dans des groupes privés dans les deux heures suivant la veillée en hommage aux victimes de l’attaque, tandis que d’autres ont identifié des cibles de dommages ou d’incendies criminels, comme des logements d’asile.
Sa lettre explique également comment l’Ofcom a répondu aux émeutes en rappelant aux entreprises technologiques de protéger les utilisateurs et en affirmant qu’elles n’avaient pas besoin d’attendre l’entrée en vigueur du projet de loi sur la sécurité en ligne pour le faire.
Bien que l’Ofcom n’ait pas été en mesure de déterminer si les réponses des plateformes de médias sociaux étaient adaptées à leur objectif, car le projet de loi sur la sécurité en ligne n’a pas encore été mis en œuvre, il prévoit de prendre des mesures coercitives plus strictes à l’avenir.
« Ces événements ont clairement mis en lumière les questions auxquelles les entreprises technologiques devront répondre à mesure que les obligations entreront en vigueur. Si certains nous ont dit avoir pris des mesures pour limiter la diffusion de contenus illégaux, nous avons constaté que ceux-ci proliféraient néanmoins », a-t-elle déclaré.
« Sur certaines plateformes, de fausses informations sur l’identité de l’agresseur ont continué à se répandre au cours des trois jours nécessaires pour que sa véritable identité soit rendue publique, même lorsqu’il existait des preuves d’une intention d’attiser la haine raciale et religieuse. »
Cela a été souligné dans les condamnations qui ont suivi, notamment celles de personnes reconnues coupables de publications en ligne menaçant de mort ou de préjudice grave, d’incitation à la haine raciale ou d’envoi de fausses informations dans l’intention de causer du tort, a noté Dawes.
Les réponses des entreprises technologiques à la désinformation liée à Southport ont consisté à créer des groupes de surveillance recherchant les pics de contenus préjudiciables et à supprimer les contenus préjudiciables, y compris les URL menant à des contenus illégaux et préjudiciables, ainsi qu’à suspendre ou fermer des comptes et des chaînes.
Une fois que le projet de loi sur la sécurité en ligne entrera en vigueur, l’Ofcom attendra des plateformes qu’elles : expliquent explicitement comment elles protègent les utilisateurs contre les contenus haineux illégaux ; disposer de processus permettant de les supprimer rapidement, en particulier les contenus viraux ; et disposer de mécanismes de plainte solides.
L’Ofcom a déclaré qu’il utiliserait les conclusions de l’affaire Southport pour identifier les lacunes dans la législation et les orientations actuelles. Il a déjà été établi qu’il est nécessaire de renforcer les exigences relatives aux protocoles de réponse aux crises des plateformes de médias sociaux.
Dawes a ajouté que l’événement « met encore plus en évidence[s] l’importance de promouvoir l’éducation aux médias, afin de sensibiliser davantage le public et de lui faire comprendre comment les gens peuvent se protéger et protéger les autres en ligne ».
Related News :