Plus de discours et moins d’erreurs

Plus de discours et moins d’erreurs
Plus de discours et moins d’erreurs

Les plateformes Meta sont conçues pour être des lieux où les gens peuvent s’exprimer librement. Cela peut être compliqué. Sur les plateformes où des milliards de personnes peuvent s’exprimer, tout le bon, le mauvais et le laid sont exposés. Mais c’est la liberté d’expression.

Dans son discours de 2019 à l’Université de Georgetown, Mark Zuckerberg a soutenu que la liberté d’expression a été le moteur du progrès dans la société américaine et dans le monde et que l’inhibition de la parole, aussi bien intentionnée soit-elle, renforce souvent les institutions et les structures de pouvoir existantes. au lieu de responsabiliser les gens. Il a déclaré : « Certaines personnes pensent que donner la parole à davantage de personnes conduit à la division plutôt qu’à nous rassembler. De plus en plus de personnes de tous horizons pensent qu’il est plus important d’obtenir les résultats politiques qui leur semblent importants que de donner la parole à chaque personne. Je pense que c’est dangereux.

Ces dernières années, nous avons développé des systèmes de plus en plus complexes pour gérer le contenu sur nos plateformes, en partie en réponse aux pressions sociétales et politiques visant à modérer le contenu. Cette approche est allée trop loin. Aussi bien intentionnés que soient nombre de ces efforts, ils se sont étendus au fil du temps au point que nous commettons trop d’erreurs, frustrant nos utilisateurs et entravant trop souvent la liberté d’expression que nous souhaitons permettre. Trop de contenus inoffensifs sont censurés, trop de personnes se retrouvent enfermées à tort dans la « prison Facebook » et nous sommes souvent trop lents à réagir lorsqu’ils le font.

Nous voulons remédier à ce problème et revenir à cet engagement fondamental en faveur de la liberté d’expression. Aujourd’hui, nous apportons quelques changements pour rester fidèles à cet idéal.

Mettre fin au programme de vérification des faits par des tiers et passer aux notes de la communauté

Lorsque nous avons lancé notre programme indépendant de vérification des faits en 2016, nous avons clairement indiqué que nous ne voulions pas être les arbitres de la vérité. Nous avons fait ce que nous pensions être le choix le meilleur et le plus raisonnable à l’époque, c’est-à-dire confier cette responsabilité à des organismes indépendants de vérification des faits. L’intention du programme était de permettre à ces experts indépendants de donner aux gens plus d’informations sur ce qu’ils voient en ligne, en particulier les canulars viraux, afin qu’ils puissent juger par eux-mêmes ce qu’ils ont vu et lu.

Ce n’est pas ainsi que les choses se sont déroulées, surtout aux États-Unis. Les experts, comme tout le monde, ont leurs propres préjugés et perspectives. Cela s’est manifesté dans les choix que certains ont faits sur ce qu’il fallait vérifier et comment. Au fil du temps, nous nous sommes retrouvés avec trop de contenus vérifiés pour que les gens puissent comprendre qu’il s’agissait d’un discours et d’un débat politique légitime. Notre système a alors entraîné de réelles conséquences sous la forme d’étiquettes intrusives et d’une distribution réduite. Un programme destiné à informer est trop souvent devenu un outil de censure.

Nous modifions désormais cette approche. Nous mettrons fin au programme actuel de vérification des faits par des tiers aux États-Unis et commencerons à passer à un programme de notes communautaires. Nous avons vu cette approche fonctionner sur X : ils permettent à leur communauté de décider quand les publications sont potentiellement trompeuses et nécessitent plus de contexte, et des personnes de différents points de vue décident quel type de contexte est utile aux autres utilisateurs. Nous pensons que cela pourrait être un meilleur moyen de réaliser notre intention initiale de fournir aux gens des informations sur ce qu’ils voient – ​​et un moyen moins sujet aux biais.

  • Une fois le programme opérationnel, Meta n’écrira pas de notes de communauté et ne décidera pas lesquelles s’afficheront. Ils sont rédigés et notés par les utilisateurs contributeurs.
  • Tout comme sur X, les notes de la communauté nécessiteront un accord entre des personnes ayant des points de vue variés pour éviter des évaluations biaisées.
  • Nous avons l’intention d’être transparents sur la manière dont les différents points de vue éclairent les notes affichées dans nos applications et travaillons sur la bonne manière de partager ces informations.
  • Les gens peuvent s’inscrire aujourd’hui (Facebook, Instagram, Sujets) pour avoir l’opportunité d’être parmi les premiers contributeurs à ce programme dès qu’il sera disponible.

Nous prévoyons d’introduire progressivement les notes communautaires aux États-Unis au cours des prochains mois, et nous continuerons de les améliorer au cours de l’année. Au fur et à mesure de la transition, nous nous débarrasserons de notre contrôle de vérification des faits, cesserons de rétrograder le contenu vérifié et, au lieu de superposer des avertissements interstitiels en plein écran sur lesquels vous devez cliquer avant même de pouvoir voir le message, nous utiliserons un beaucoup moins étiquette intrusive indiquant qu’il y a des informations supplémentaires pour ceux qui veulent les voir.

Permettre plus de parole

Au fil du temps, nous avons développé des systèmes complexes pour gérer le contenu sur nos plateformes, dont la mise en œuvre est de plus en plus compliquée. En conséquence, nous avons appliqué nos règles de manière excessive, limitant les débats politiques légitimes, censurant trop de contenus insignifiants et soumettant trop de personnes à des mesures coercitives frustrantes.

Par exemple, en décembre 2024, nous avons supprimé des millions de contenus chaque jour. Bien que ces actions représentent moins de 1 % du contenu produit chaque jour, nous pensons qu’une à deux de ces actions sur 10 pourraient être des erreurs (c’est-à-dire que le contenu n’a peut-être pas réellement enfreint nos règles). Cela ne tient pas compte des mesures que nous prenons pour lutter contre les attaques de spam contradictoires à grande échelle. Nous prévoyons d’étendre nos rapports de transparence pour partager régulièrement des chiffres sur nos erreurs afin que les gens puissent suivre nos progrès. Dans ce cadre, nous inclurons également plus de détails sur les erreurs que nous commettons lors de l’application de nos politiques anti-spam.

Nous voulons mettre fin à la dérive des missions qui a rendu nos règles trop restrictives et trop sujettes à une application excessive. Nous supprimons un certain nombre de restrictions sur des sujets tels que l’immigration, l’identité de genre et le genre, qui font l’objet de fréquents discours et débats politiques. Il n’est pas juste que des choses puissent être dites à la télévision ou au Congrès, mais pas sur nos plateformes. Ces changements de politique pourraient prendre quelques semaines avant d’être pleinement mis en œuvre.

Nous allons également modifier la manière dont nous appliquons nos politiques afin de réduire le type d’erreurs qui représentent la grande majorité de la censure sur nos plateformes. Jusqu’à présent, nous utilisions des systèmes automatisés pour rechercher toutes les violations des règles, mais cela a entraîné trop d’erreurs et trop de contenus censurés qui n’auraient pas dû l’être. Nous allons donc continuer à concentrer ces systèmes sur la lutte contre les violations illégales et très graves, comme le terrorisme, l’exploitation sexuelle des enfants, la drogue, la fraude et les escroqueries. Pour les violations moins graves du règlement, nous comptons sur quelqu’un qui signale un problème avant de prendre des mesures. Nous rétrogradons également trop de contenus qui, selon nos systèmes, pourraient enfreindre nos normes. Nous sommes en train de nous débarrasser de la plupart de ces rétrogradations et d’exiger une plus grande confiance dans la violation du contenu pour le reste. Et nous allons régler nos systèmes pour exiger un degré de confiance beaucoup plus élevé avant qu’un élément de contenu ne soit supprimé. Dans le cadre de ces changements, nous déplacerons les équipes de confiance et de sécurité qui rédigent nos politiques de contenu et examinent le contenu de la Californie vers le Texas et d’autres endroits aux États-Unis.

Les gens ont souvent la possibilité de faire appel de nos décisions d’application et de nous demander de réexaminer la situation, mais le processus peut être extrêmement lent et n’aboutit pas toujours au bon résultat. Nous avons ajouté du personnel supplémentaire à ce travail et, dans un plus grand nombre de cas, nous demandons désormais à plusieurs évaluateurs de prendre une décision afin de supprimer quelque chose. Nous travaillons sur des moyens de rendre la récupération des comptes plus simple et testons la technologie de reconnaissance faciale, et nous avons commencé à utiliser des modèles de langage étendus (LLM) d’IA pour fournir un deuxième avis sur certains contenus avant de prendre des mesures coercitives.

Une approche personnalisée du contenu politique

Depuis 2021, nous avons apporté des modifications pour réduire la quantité de contenu civique que les gens voient (posts sur les élections, la politique ou les questions sociales) sur la base des commentaires de nos utilisateurs selon lesquels ils souhaitaient voir moins de ce contenu. Mais c’était une approche assez brutale. Nous allons commencer à réintroduire cela progressivement sur Facebook, Instagram et Threads avec une approche plus personnalisée afin que les personnes qui souhaitent voir plus de contenu politique dans leurs flux le puissent.

Nous testons continuellement la manière dont nous proposons des expériences personnalisées et avons récemment effectué des tests autour du contenu civique. En conséquence, nous allons commencer à traiter le contenu civique des personnes et des pages que vous suivez sur Facebook davantage comme n’importe quel autre contenu de votre flux, et nous commencerons à classer et à vous montrer ce contenu en fonction de signaux explicites (par exemple, aimer un élément de contenu) et des signaux implicites (comme la visualisation de publications) qui nous aident à prédire ce qui est significatif pour les gens. Nous allons également recommander davantage de contenu politique sur la base de ces signaux personnalisés et élargir les options dont disposent les gens pour contrôler la quantité de contenu qu’ils voient.

Ces changements constituent une tentative de revenir à l’engagement en faveur de la liberté d’expression exprimé par Mark Zuckerberg dans son discours de Georgetown. Cela signifie être vigilant quant à l’impact de nos politiques et de nos systèmes sur la capacité des citoyens à faire entendre leur voix, et avoir l’humilité de changer notre approche lorsque nous savons que nous nous trompons.

 
For Latest Updates Follow us on Google News
 

PREV Sporting-FC Porto, 1-0 Les portes de la finale s’ouvrent dans un match très fermé (chronique)
NEXT au JT de 13 heures sur TF1, Deschamps annonce qu’il quittera l’équipe de France en 2026