En 2009, intrigué par la multiplication des fausses nouvelles autour du nouveau président Obama et de son plan d’assurance maladie, un chercheur américain en sciences politiques décide de mener une recherche sur les impacts de la désinformation sur l’opinion publique. Il ne savait pas qu’il deviendrait un pionnier dans un secteur de recherche appelé à prendre une importance considérable.
Quinze ans plus tard, en effet, le nombre de recherches a non seulement explosé, mais c’est un sujet qui a rassemblé des chercheurs de multiples disciplines, rapporte la revue américaine Sciencequi consacre trois rapports à la question. De même que la désinformation politique avait, dans les années 2010, inspiré psychologues, sociologues, politologues et philosophes à lancer des recherches pour comprendre le phénomène et réfléchir à des solutions possibles, la COVID, dès le début de l’année 2020, a obligé les chercheurs en santé publique à s’intéresser à ça aussi.
S’il y a une chose qui a changé entre-temps, constate le pionnier en question, Adam Berinsky, du Massachusetts Institute of Technology, c’est que nous sommes moins “naïfs” : il ne s’agit plus que de quelques “histoires folles” (quelques histoires folles) auquel nous sommes confrontés, mais un véritable écosystème de désinformation.
Toujours à la recherche de remèdes vraiment efficaces
Mais s’il y a une chose qui n’a pas changé, c’est que nous n’avons toujours pas mis le doigt sur les solutions qui permettraient de lutter le plus efficacement possible contre ceux qui contribuent à la diffusion de fausses informations qu’ils croient sincèrement vraies. .
Mais quand on observe les débats d’experts, on constate que d’autres petites choses ont changé.
L’une des chercheuses en désinformation ciblées, Kate Starbird de l’Université du Wisconsin, soupçonne que l’une des raisons de ces attaques et harcèlements en ligne n’est pas seulement que son équipe étudiait la désinformation, « mais qu’elle l’a combattue. « Nous essayions de faire une différence sur un problème concret en temps réel », dit-elle.
Mais parmi les choses qui n’ont pas changé, et qui sont devenues des questions de plus en plus épineuses au fil des années, il y a l’opacité des plateformes de médias sociaux. L’algorithme, ce code informatique qui détermine quelle photo ou vidéo sera préférée pour tel ou tel type d’utilisateur, est un secret d’entreprise. Et si l’on a pu ces dernières années, grâce aux chercheurs et aux journalistes, déduire certaines des choses que privilégie l’algorithme – ce qui provoque une émotion et non une réflexion – il n’existe ni un organisme de régulation ni un observateur indépendant, qui puisse prendre examinez ces lignes de code et assurez-vous qu’elles n’ont pas d’impacts néfastes sur la société, la démocratie ou la santé publique.
La seule exception était Twitter : pendant longtemps, les chercheurs ont eu accès à une partie de sa base de données, ce qui a permis de réaliser de nombreuses études sur le comportement des utilisateurs de Twitter et la manière dont les informations, vraies ou fausses, se propagent. Cependant, en mars 2023, peu après son rachat par Elon Musk, la société a mis fin au service gratuit.
C’est dans ce contexte qu’une nouvelle législation européenne pourrait peut-être changer la donne. Le Règlement sur les services numériques (Loi sur les services numériques), entrée en vigueur en novembre 2022, impose aux plateformes de donner accès aux chercheurs pour certains projets. L’impact que cela aura est observé avec attention par des chercheurs d’autres régions du monde, qui ne manquent pas d’idées pour tenter de mesurer les impacts de la désinformation et les retombées des solutions évoquées ici et là.