Facebook a fortement limité la visibilité des médias palestiniens suite aux attentats du 7 octobre 2023, révèle une enquête de la BBC publiée mercredi 18 décembre. Instagram, autre propriété du groupe Meta, a également renforcé la modération des commentaires des comptes palestiniens, a admis la société, au nom de la lutte contre les discours de haine.
Les journalistes arabes de BBC News ont compilé des données sur la visibilité des médias palestiniens, israéliens et arabophones au cours des années précédant et suivant l’attaque du 7 octobre. Ces données dites « d’engagement » – une métrique qui reflète l’impact et la visibilité d’un compte sur les réseaux sociaux – comprenaient les réactions, les commentaires et les partages. Les chiffres compilés par la BBC montrent une très nette perte d’engagement des médias palestiniens depuis le 7 octobre 2023, même si d’autres médias couvrant le conflit, aussi bien israéliens que non-palestiniens arabophones, ont vu le leur augmenter.
Ainsi, selon la BBC, les pages Facebook d’une vingtaine de médias palestiniens opérant depuis la bande de Gaza ou en Cisjordanie ont perdu 77 % en engagement public depuis le 7 octobre. Les vues du compte Facebook de Palestine TV auraient chuté de 60 %, malgré sa 5,8 millions d’abonnés. Au contraire, les vingt médias israéliens analysés ont vu leur engagement augmenter de 37 %. Cette hausse, portée par la couverture du conflit, se retrouverait dans les pages d’une trentaine de médias arabophones analysés, comme Al-Jazeera et Sky News Arabia, dont l’engagement a presque doublé.
Des mesures pour « répondre à une recrudescence des contenus haineux »
Preuve que cette différence de visibilité ne s’explique pas uniquement par les difficultés de Facebook à modérer les contenus en langue arabe. Les « fichiers Facebook », documents internes qui ont fuité en 2021, attestaient ainsi de l’effectif insuffisant de ses équipes de modération arabophones, et de dysfonctionnements de ses algorithmes chargés de reconnaître les contenus critiquant le terrorisme. Ils se sont trompés plus de trois fois sur quatre, entraînant la suppression de contenus légitimes.
En réponse à ces données, Meta a rappelé que cette évolution était liée aux changements de la politique de modération mis en œuvre en octobre 2023. Ceux-ci visaient notamment la suppression des contenus liés au Hamas, classé organisation terroriste par les États-Unis et membre de la liste des organisations et individus dangereux de Facebook. L’alignement de cette liste sur les décisions de politique étrangère américaine, introduisant potentiellement un biais de modération dans les conflits à l’étranger, a été critiqué par d’anciens employés de Facebook.
Un employé de Meta, sous couvert d’anonymat, a expliqué à la BBC que l’algorithme d’Instagram avait également été modifié dans la semaine suivant le 7 octobre, afin de durcir la modération des commentaires rédigés par les comptes palestiniens. Meta a confirmé l’existence de ce changement, estimant qu’il fallait répondre à ce qu’elle appelle un « pic de contenus haineux ». Elle a ajouté que les politiques de modération d’Instagram modifiées au début du litige étaient revenues à la normale, sans préciser s’il en était de même pour les modifications de l’algorithme de Facebook – interrogée à ce sujet, Meta n’a pas été renvoyée. Le monde au moment de la publication de cet article.
Ce n’est pas la première fois que la politique de modération de Meta est accusée d’être partiale sur le conflit du Moyen-Orient. En décembre 2023, l’organisation Human Rights Watch (HRW) dénonçait la censure « systémique » messages pro-palestiniens sur les plateformes Meta. Le débat est également antérieur au 7 octobre. HRW avait déjà accusé Meta de censure en 2021 : Meta s’était alors engagée à modifier sa politique de modération. Une promesse qui selon l’organisation n’a pas été tenue.
Related News :