Les plateformes sont prises dans un jeu de lutte contre la désinformation

Les plateformes sont prises dans un jeu de lutte contre la désinformation
Descriptive text here

Lorsque le Dr Garth Graham pense à la désinformation sur la santé sur les plateformes de médias sociaux, il imagine un jardin.

Peu importe à quel point ce jardin est abondant ou vert, même le responsable de la division mondiale de la santé de YouTube admet qu’il a souvent besoin d’être entretenu.

« Comment éliminer et extraire les mauvaises informations ? se demande-t-il. Mais aussi (…) comment planter les graines et garantir que les gens ont accès à des informations appropriées ainsi qu’à des informations de haute qualité ?

Pour les entreprises de médias sociaux, ces questions sont devenues récurrentes et n’ont fait que gagner en importance à mesure que le nombre de plateformes s’est multiplié et que les gens ont commencé à passer de plus en plus de temps en ligne.

Désormais, il n’est pas rare de repérer des informations erronées dans presque chaque défilement de l’écran.

Un article de 2022 publié dans le Bulletin de l’Organisation mondiale de la santé a examiné 31 études sur la prévalence de la désinformation. L’analyse a révélé des informations erronées associées aux vaccins dans jusqu’à 51 % des publications sur les réseaux sociaux, jusqu’à 28,8 % du contenu associé au COVID-19 et jusqu’à 60 % des publications liées aux pandémies.

On estime que 20 à 30 % des vidéos YouTube sur les maladies infectieuses émergentes contiennent également des informations inexactes ou trompeuses.

Les conséquences peuvent être néfastes, voire mortelles.

Une étude du Conseil des académies canadiennes (CAC) publiée en 2023 affirme que la désinformation sur la COVID-19 à elle seule a contribué à plus de 2 800 décès au Canada et à au moins 300 millions de dollars en visites à l’hôpital et en soins intensifs.

L’agilité des diffuseurs de désinformation

Les plateformes prennent les risques au sérieux, a déclaré M. Graham dans une interview. « Nous sommes toujours préoccupés par tout ce qui pourrait causer des dommages », a-t-il déclaré.

Cette préoccupation conduit souvent les plateformes à supprimer tout ce qui viole leurs politiques de contenu.

Par exemple, YouTube a interdit les contenus qui nient l’existence de certaines conditions médicales ou qui contredisent les directives des autorités sanitaires en matière de prévention et de traitement.

Des exemples intégrés dans sa politique contre la désinformation sur la santé montrent que l’entreprise supprime les messages faisant la promotion de la térébenthine, de l’essence et du kérosène comme traitement pour certaines conditions, car ces substances provoquent la mort. L’ivermectine, utilisée pour traiter les vers parasites chez les animaux et les humains, et l’hydroxychloroquine, un médicament antipaludique, ne peuvent pas non plus être promues comme remèdes contre le COVID-19.

En ce qui concerne les vaccins, YouTube interdit les vidéos alléguant que les vaccins provoquent le cancer ou la paralysie.

Meta Platforms, société mère de Facebook et Instagram, a refusé de commenter cet article et TikTok n’a pas répondu à une demande de La Presse canadienne, mais dans l’ensemble, ces sociétés ont des politiques similaires à celles de YouTube.

Pourtant, Timothy Caulfield, professeur à l’Université de l’Alberta spécialisé en droit et politique de la santé, repère toujours de la désinformation médicale sur les plateformes. Il a récemment demandé à ses étudiants de rechercher du contenu sur les cellules souches, et plusieurs publications faisant la promotion de thérapies non éprouvées sont apparues facilement.

Il sympathise néanmoins avec certains des défis auxquels les entreprises technologiques sont confrontées, car il considère la lutte contre la désinformation sur la santé comme un jeu de conneries. “frapper la taupe”.

Il affirme que les diffuseurs de fausses nouvelles font preuve d’une certaine agilité et sont largement déterminés à continuer de trouver des moyens de contourner les politiques de répression, car leurs publications peuvent augmenter leurs profits ou propager une marque ou une idéologie.

“Ils peuvent contourner les politiques de modération, mais cela montre simplement que nous n’allons pas résoudre ce problème avec un seul outil, » a déclaré M. Caulfield. Cela va être une bataille continue.

Dans sa politique contre la désinformation publiée sur son site Internet, Meta reconnaît les difficultés, affirmant que “Ce qui est vrai une minute peut ne pas l’être la minute suivante.”

“Les gens ont également différents niveaux d’information sur le monde qui les entoure et peuvent croire que quelque chose est vrai alors qu’il ne l’est pas.”la politique indique.

Dans un effort pour rester au courant de tout, Meta s’appuie sur des experts indépendants pour évaluer la véracité du contenu et s’il est susceptible de contribuer directement à un préjudice imminent avant qu’il ne soit supprimé. Des organisations tierces de vérification des faits sont également engagées pour examiner et évaluer l’exactitude de son contenu le plus viral.

Chez YouTube, les employés, y compris certains qui forment un « bureau de renseignement » surveillant les publications et les actualités pour détecter les tendances qui pourraient devoir être atténuées, sont exploités en conjonction avec des programmes d’apprentissage automatique, qui, selon l’entreprise, sont bien adaptés pour détecter les tendances en matière de désinformation. .

Le rôle des professionnels de santé

Une certaine responsabilité incombe également aux praticiens et institutions de santé crédibles, dont les plateformes de contenu proposent des recommandations pour permettre aux utilisateurs de trouver plus facilement des informations fiables.

Le site YouTube, par exemple, s’est associé à des organisations telles que le Réseau universitaire de santé et le Centre de toxicomanie et de santé mentale (CAMH) à Toronto.

CAMH gère une chaîne YouTube où des professionnels de la santé expliquent tout, de la schizophrénie aux troubles de l’alimentation. Le financement de la production provient de YouTube, mais les ressources de l’institution sont utilisées pour la rédaction de contenu et l’évaluation clinique, a déclaré la porte-parole de CAMH, Hayley Clark, dans un courriel.

M. Graham y voit un bon exemple de la façon dont la profession de santé « va à la rencontre des gens là où ils se trouvent », ce qui, selon lui, est « la façon dont nous luttons contre la désinformation ».

« (Des informations crédibles) doivent être à la portée des gens pour qu’ils puissent avoir des conversations au dîner, afin qu’ils soient autonomes lorsqu’ils sont assis sur leur canapé. »» argumenta-t-il.

Mais lorsqu’il s’agit d’autres organisations et de médecins, “on ne peut pas supposer qu’ils ont tous la capacité de le faire”, a déclaré Heidi Tworek, professeure agrégée à l’Université de la Colombie-Britannique, dont les recherches portent sur les effets des nouvelles technologies médiatiques.

Ces organisations veulent trouver le temps de diffuser des informations crédibles, mais dans le secteur de la santé, qui manque d’argent et de temps, il y a toujours un autre patient pour aider.

«Certaines organisations de soins de santé diraient: ‘OK, nous avons une somme d’argent X, nous devons choisir à quoi nous la dépensons.’ Peut-être que nous voulons le dépenser pour autre chose que les communications.a souligné Mme Tworek.

Dans certains cas, les médecinsils le font aussi depuis leur bureau (…) parce qu’ils pensent que c’est utile »mais cela les expose à de nouveaux risques tels que des attaques en ligne et parfois même des menaces de mort.

“Certaines personnes ne veulent pas du tout entrer dans ces espaces parce qu’elles voient ce qui arrive aux autres”dit-elle.

L’importance de l’éducation

Pour mieux lutter contre la désinformation médicale, elle aimerait que les plateformes agissent de manière plus responsable, car elle constate souvent que leurs algorithmes placent les contenus problématiques en tête de l’actualité des réseaux sociaux.

Cependant, elle et M. Caulfield conviennent que la désinformation sur la santé nécessite une approche participative.

« Les plateformes portent une grande responsabilité. Ils deviennent comme des services publics et nous connaissons leur impact sur le discours public, sur la polarisation.» a déclaré M. Caulfield. Mais nous devons aussi enseigner la pensée critique.

Cela pourrait commencer à l’école, où les élèves pourraient apprendre à identifier des sources crédibles et à détecter quand quelque chose pourrait être incorrect – des leçons qu’il a entendues en Finlande et qui commencent à la maternelle.

Indépendamment du moment et de la manière dont cette éducation a lieu, il a déclaré que l’essentiel est que « Nous devons donner aux citoyens les outils nécessaires pour discerner ce qu’est la désinformation. »

Tara Deschamps, La Presse Canadienne

 
For Latest Updates Follow us on Google News
 

PREV Pourquoi monter les escaliers vous aide à vivre plus longtemps
NEXT une soirée festive pour recruter des bénévoles