Facebook s’est figé alors que les commentaires anti-vaccins affluaient chez les utilisateurs
WASHINGTON — En mars, alors que les affirmations sur les dangers et l’inefficacité des vaccins contre le coronavirus se répandaient sur les médias sociaux et sapaient les tentatives d’arrêter la propagation du virus, certains employés de Facebook pensaient avoir trouvé un moyen d’aider.
En modifiant le classement des messages sur les vaccins dans le fil d’actualité des utilisateurs, les chercheurs de la société ont réalisé qu’ils pouvaient réduire les informations trompeuses sur les vaccins COVID-19 et proposer aux utilisateurs des messages provenant de sources légitimes comme l’Organisation mondiale de la santé.
« Compte tenu de ces résultats, je suppose que nous espérons lancer le programme dès que possible », a écrit un employé de Facebook, en réponse au mémo interne sur l’étude.
Au lieu de cela, Facebook a mis de côté certaines suggestions de l’étude. D’autres changements n’ont pas été apportés avant avril.
Lorsqu’un autre chercheur de Facebook a suggéré de désactiver les commentaires sur les messages relatifs aux vaccins en mars jusqu’à ce que la plateforme puisse mieux s’attaquer aux messages anti-vaccins qui s’y cachent, cette proposition a été ignorée.
Selon les critiques, la raison pour laquelle Facebook a tardé à donner suite à ces idées est simple : Le géant de la technologie craignait que cela ait un impact sur les profits de l’entreprise.
« Pourquoi ne pas supprimer les commentaires ? Parce que l’engagement est la seule chose qui compte », a déclaré Imran Ahmed, PDG du Center for Countering Digital Hate, un groupe de surveillance d’Internet. « Il suscite l’attention et l’attention équivaut à des globes oculaires et les globes oculaires à des revenus publicitaires ».
Dans une déclaration envoyée par courriel, Facebook a déclaré avoir fait des « progrès considérables » cette année en ce qui concerne le déclassement des informations erronées sur les vaccins dans les fils d’actualité des utilisateurs.
Les discussions internes de Facebook ont été révélées dans les divulgations faites à la Securities and Exchange Commission et fournies au Congrès sous une forme expurgée par le conseiller juridique de Frances Haugen, ancienne employée de Facebook devenue lanceuse d’alerte. Les versions caviardées reçues par le Congrès ont été obtenues par un consortium d’organisations de presse, dont l’Associated Press.
Les documents montrent qu’au milieu de la pandémie de COVID-19, Facebook a soigneusement étudié la manière dont ses plateformes ont diffusé des informations erronées sur des vaccins vitaux. Ils révèlent également que les employés de la base suggéraient régulièrement des solutions pour contrer les contenus anti-vaccins sur le site, en vain. Le Wall Street Journal a rendu compte de certains des efforts déployés par Facebook pour faire face aux commentaires anti-vaccins le mois dernier.
La réponse de Facebook soulève la question de savoir si l’entreprise a privilégié la controverse et la division plutôt que la santé de ses utilisateurs.
« Ces gens vendent la peur et l’indignation », a déclaré Roger McNamee, un investisseur en capital-risque de la Silicon Valley et un investisseur précoce dans Facebook qui est maintenant un critique virulent. « Ce n’est pas un coup de chance. C’est un modèle économique ».
En général, Facebook classe les publications en fonction de l’engagement, c’est-à-dire le nombre total d’appréciations, d’aversions, de commentaires et de partages. Ce système de classement peut bien fonctionner pour des sujets inoffensifs comme des recettes, des photos de chiens ou la dernière chanson virale. Mais les propres documents de Facebook montrent que lorsqu’il s’agit de questions de santé publique qui divisent, comme les vaccins, le classement basé sur l’engagement ne fait que renforcer la polarisation, le désaccord et le doute.
Pour étudier les moyens de réduire la désinformation sur les vaccins, les chercheurs de Facebook ont modifié le classement des publications pour plus de 6 000 utilisateurs aux États-Unis, au Mexique, au Brésil et aux Philippines. Au lieu de voir des messages sur les vaccins choisis en fonction de leur popularité, ces utilisateurs ont vu des messages sélectionnés pour leur fiabilité.
Les résultats ont été frappants : une diminution de près de 12 % du contenu contenant des affirmations réfutées par les vérificateurs de faits et une augmentation de 8 % du contenu provenant d’organisations de santé publique faisant autorité, telles que l’OMS ou les Centers for Disease Control des États-Unis. Ces utilisateurs ont également enregistré une diminution de 7 % des interactions négatives sur le site.
Les employés de l’entreprise ont réagi à l’étude avec exubérance, selon les échanges internes inclus dans les documents du dénonciateur.
Un employé de Facebook a écrit « Y a-t-il une raison pour que nous ne fassions pas cela ? » en réponse à un mémo interne décrivant comment la plate-forme pourrait freiner le contenu anti-vaccin.
Facebook a déclaré avoir mis en œuvre un grand nombre des conclusions de l’étude, mais pas avant un mois, un retard qui intervient à un moment crucial du déploiement mondial des vaccins.
Dans une déclaration, la porte-parole de la société, Dani Lever, a déclaré que les documents internes « ne représentent pas les progrès considérables que nous avons réalisés depuis lors dans la promotion d’informations fiables sur le COVID-19 et l’élargissement de nos politiques pour supprimer les informations erronées sur le COVID et les vaccins qui sont plus nuisibles ».
La société a également déclaré qu’elle avait pris le temps de considérer et de mettre en œuvre les changements.
Pourtant, la nécessité d’agir de toute urgence ne pouvait pas être plus claire : À cette époque, les États américains distribuaient des vaccins à leurs citoyens les plus vulnérables, les personnes âgées et les malades. Et les responsables de la santé publique étaient inquiets. Seuls 10 % de la population avaient reçu leur première dose de vaccin COVID-19. Et un tiers des Américains envisageaient de ne pas se faire vacciner du tout, selon un sondage de l’Associated Press-NORC Center for Public Affairs Research.
Malgré cela, les employés de Facebook ont reconnu qu’ils n’avaient « aucune idée » de l’ampleur du sentiment anti-vaccin dans les sections de commentaires des publications Facebook. Cependant, une recherche menée par l’entreprise en février a révélé que jusqu’à 60 % des commentaires sur les messages relatifs aux vaccins étaient anti-vaccins ou réticents aux vaccins.
« C’est un énorme problème et nous devons le résoudre », peut-on lire dans la présentation du 9 mars.
Pire encore, les employés de l’entreprise ont admis qu’ils n’avaient pas la possibilité de repérer ces commentaires. Et s’ils le faisaient, Facebook n’avait pas de politique en place pour supprimer les commentaires. La foire d’empoigne permettait aux utilisateurs d’inonder de commentaires négatifs sur les vaccins les publications des médias ou des organisations humanitaires.
« Notre capacité à détecter (l’hésitation à l’égard des vaccins) dans les commentaires est mauvaise en anglais – et pratiquement inexistante ailleurs « , indique une autre note interne publiée le 2 mars.
Derek Beres, résident de Los Angeles, auteur et instructeur de fitness, voit le contenu anti-vaccin prospérer dans les commentaires chaque fois qu’il promeut les vaccinations sur ses comptes sur Instagram, qui est détenu par Facebook. L’année dernière, Beres a commencé à animer un podcast avec des amis après avoir remarqué que des théories de conspiration sur le COVID-19 et les vaccins tourbillonnaient sur les fils de médias sociaux d’influenceurs populaires de la santé et du bien-être.
Plus tôt cette année, lorsque Beres a posté une photo de lui-même recevant l’injection de COVID-19, certains sur les médias sociaux lui ont dit qu’il tomberait probablement raide mort dans six mois.
« La section des commentaires est un feu de poubelle pour beaucoup de gens », a déclaré Beres.
Les commentaires anti-vaccins sur Facebook ont pris une telle ampleur que même si d’importantes agences de santé publique comme l’UNICEF et l’Organisation mondiale de la santé exhortaient les gens à se faire vacciner, les organisations ont refusé d’utiliser la publicité gratuite que Facebook leur avait donnée pour promouvoir l’inoculation, selon les documents.
Certains employés de Facebook ont eu une idée. Pendant que l’entreprise s’efforçait de mettre au point un plan pour endiguer le sentiment anti-vaccin dans les commentaires, pourquoi ne pas désactiver complètement les commentaires sur les publications ?
« Très intéressé par votre proposition de supprimer TOUS les commentaires en ligne pour les publications sur les vaccins comme solution provisoire jusqu’à ce que nous puissions suffisamment détecter les hésitations sur les vaccins dans les commentaires pour affiner notre suppression « , a écrit un employé de Facebook le 2 mars.
La suggestion n’a pas abouti.
Au lieu de cela, Mark Zuckerberg, PDG de Facebook, a annoncé le 15 mars que l’entreprise commencerait à étiqueter les publications sur les vaccins qui les décrivaient comme sûrs.
Selon M. Ahmed, du Center for Countering Digital Hate, cette décision a permis à Facebook de continuer à obtenir un fort taux d’engagement – et, en fin de compte, de réaliser des profits – grâce aux commentaires anti-vaccins.
« Ils essayaient de trouver des moyens de ne pas réduire l’engagement, mais en même temps de donner l’impression qu’ils essayaient de faire quelques pas vers le nettoyage des problèmes qu’ils ont causés « , a-t-il dit.
Il n’est pas réaliste d’attendre d’une entreprise multimilliardaire comme Facebook qu’elle modifie volontairement un système qui s’est avéré si lucratif, a déclaré Dan Brahmy, PDG de Cyabra, une entreprise technologique israélienne qui analyse les réseaux de médias sociaux et la désinformation. Brahmy a déclaré que les réglementations gouvernementales pourraient être la seule chose qui pourrait forcer Facebook à agir.
« La raison pour laquelle ils ne l’ont pas fait est qu’ils n’étaient pas obligés de le faire », a déclaré Brahmy. « Si cela nuit aux résultats financiers, c’est impossible à faire ».
Une législation bipartisane au Sénat américain exigerait que les plateformes de médias sociaux donnent aux utilisateurs la possibilité de désactiver les algorithmes utilisés par les entreprises technologiques pour organiser les fils d’actualité des individus.
Le sénateur John Thune, R-South Dakota, l’un des promoteurs du projet de loi, a demandé à Mme Haugen, la dénonciatrice de Facebook, de décrire les dangers du classement basé sur l’engagement lors de son témoignage devant le Congrès au début du mois.
Elle a déclaré qu’il existe d’autres façons de classer le contenu – par exemple, en fonction de la qualité de la source, ou chronologiquement – qui seraient plus utiles aux utilisateurs. La raison pour laquelle Facebook ne les envisage pas, dit-elle, est qu’elles réduiraient l’engagement.
« Facebook sait que lorsqu’il sélectionne le contenu, nous passons plus de temps sur sa plateforme et il gagne plus d’argent », a déclaré Mme Haugen.
Les documents divulgués par Haugen révèlent également qu’un nombre relativement faible d’utilisateurs anti-vaccins de Facebook sont récompensés par des pages vues importantes dans le cadre du système de classement actuel de la plateforme technologique.
Une recherche interne de Facebook présentée le 24 mars a averti que la plupart des « contenus problématiques sur les vaccins » provenaient d’une poignée d’endroits sur la plateforme. Dans les communautés Facebook où la méfiance à l’égard des vaccins est la plus forte, le rapport indique que 50 % des pages consultées sur les vaccins proviennent de seulement 111 comptes Facebook, soit 0,016 %.
« Les principaux producteurs sont pour la plupart des utilisateurs qui publient en série du contenu (sur l’hésitation à l’égard des vaccins) pour alimenter le site « , a constaté l’étude.
Le même jour, le Center for Countering Digital Hate a publié une analyse des messages sur les médias sociaux qui estimait qu’une douzaine d’utilisateurs de Facebook étaient responsables de 73 % des messages anti-vaccins sur le site entre février et mars. En août, les dirigeants de Facebook ont déclaré au public que cette étude était « erronée », malgré les recherches internes publiées des mois auparavant qui confirmaient qu’un petit nombre de comptes alimentaient le sentiment anti-vaccin.
Plus tôt ce mois-ci, un sondage AP-NORC a révélé que la plupart des Américains accusent les sociétés de médias sociaux, comme Facebook, et leurs utilisateurs d’être responsables de la désinformation.
Mais Ahmed a déclaré que Facebook ne devrait pas être le seul responsable de ce problème.
« Facebook a pris des décisions qui ont conduit à ce que des personnes reçoivent des informations erronées qui ont causé leur mort », a déclaré Ahmed. « A ce stade, il devrait y avoir une enquête pour meurtre ».
——
Seitz, depuis Columbus, Ohio.