Frances Haugen, lanceuse d’alerte, affirme que Facebook aggrave la haine en ligne.
LONDRES — La dénonciatrice de Facebook, Frances Haugen, a déclaré lundi aux législateurs britanniques que le géant des médias sociaux alimente la haine et l’extrémisme en ligne, ne parvient pas à protéger les enfants contre les contenus préjudiciables et n’est pas incité à résoudre les problèmes, donnant ainsi un élan aux efforts des gouvernements européens qui travaillent à une réglementation plus stricte des entreprises technologiques.
Alors que son témoignage fait écho à une grande partie de ce qu’elle a déclaré au Sénat américain ce mois-ci, sa comparution en personne a suscité un vif intérêt de la part d’une commission parlementaire britannique qui est beaucoup plus avancée dans l’élaboration d’une législation visant à limiter le pouvoir des entreprises de médias sociaux.
Elle intervient le jour même où Facebook doit publier ses derniers résultats et où l’Associated Press et d’autres organismes de presse ont commencé à publier des articles basés sur des milliers de pages de documents internes de l’entreprise qu’elle a obtenus.
Mme Haugen a déclaré au comité de législateurs britanniques que les groupes Facebook amplifiaient la haine en ligne, affirmant que les algorithmes qui donnent la priorité à l’engagement prennent les personnes ayant des intérêts généraux et les poussent vers les extrêmes. L’ancien spécialiste des données de Facebook a déclaré que l’entreprise pourrait ajouter des modérateurs pour empêcher les groupes dépassant une certaine taille d’être utilisés pour diffuser des opinions extrémistes.
« Incontestablement, cela fait empirer la haine », a-t-elle déclaré.
Mme Haugen s’est dite « choquée d’entendre récemment que Facebook veut doubler le métavers et qu’il va embaucher 10 000 ingénieurs en Europe pour travailler sur le métavers », a-t-elle déclaré, faisant référence aux plans de la société pour un monde en ligne immersif qui, selon elle, sera la prochaine grande tendance Internet.
Je me suis dit : « Vous savez ce que nous aurions pu faire en matière de sécurité si nous avions eu 10 000 ingénieurs de plus », a-t-elle ajouté.
Facebook dit qu’il veut une réglementation pour les entreprises technologiques et était heureux que le Royaume-Uni montre la voie.
« Bien que nous ayons des règles contre le contenu préjudiciable et que nous publiions régulièrement des rapports de transparence, nous sommes d’accord pour dire que nous avons besoin d’une réglementation pour l’ensemble de l’industrie afin que les entreprises comme la nôtre ne prennent pas ces décisions toutes seules », a déclaré Facebook lundi.
Elle a souligné avoir investi 13 milliards de dollars (9,4 milliards de livres) dans la sûreté et la sécurité depuis 2016 et a affirmé avoir « presque divisé par deux » le nombre de discours haineux au cours des trois derniers trimestres.
Haugen a accusé Instagram, propriété de Facebook, de ne pas empêcher les enfants de moins de 13 ans – l’âge minimum d’utilisation – d’ouvrir des comptes, affirmant qu’il ne faisait pas assez pour protéger les enfants des contenus qui, par exemple, les font se sentir mal dans leur corps.
« Les propres recherches de Facebook le décrivent comme le récit d’un toxicomane. Les enfants disent : ‘Cela me rend malheureux, j’ai l’impression de ne pas pouvoir contrôler mon utilisation, et j’ai l’impression que si je pars, je serai ostracisé' », a-t-elle déclaré.
Le mois dernier, la société a reporté le projet d’une version pour enfants d’Instagram, destinée aux moins de 13 ans, afin de répondre aux préoccupations concernant la vulnérabilité des jeunes utilisateurs. Mme Haugen a déclaré qu’elle craignait qu’il ne soit pas possible de rendre Instagram sûr pour un jeune de 14 ans et que « je doute sincèrement qu’il soit possible de le rendre sûr pour un enfant de 10 ans. »
Elle a également déclaré que les systèmes de modération de Facebook sont moins bons pour attraper les contenus dans des langues autres que l’anglais, et que c’est un problème même au Royaume-Uni, car c’est un pays diversifié.
« Ces personnes vivent également au Royaume-Uni et reçoivent des informations erronées qui sont dangereuses et radicalisent les gens », a déclaré Mme Haugen. « Et donc la couverture linguistique n’est pas seulement une bonne chose pour les individus, c’est une question de sécurité nationale. »
Lorsqu’on lui a demandé si elle pensait que Facebook était fondamentalement mauvais, Mme Haugen a hésité et a déclaré : « Je ne peux pas voir dans le cœur des hommes ». Facebook n’est pas mauvais, mais négligent, a-t-elle suggéré.
« Il croit en un monde plat et n’accepte pas les conséquences de ses actions », en montrant son gigantesque siège social à un seul niveau et à aire ouverte comme une incarnation de cette philosophie.
Elle a fait valoir qu’il existe une culture chez Facebook qui décourage les employés de base de faire part de leurs préoccupations aux cadres supérieurs. Pour beaucoup d’entre eux, y compris le PDG Mark Zuckerberg, c’est le seul endroit où ils ont travaillé, ce qui contribue au problème culturel, a-t-elle dit.
C’était la deuxième fois que Mme Haugen se présentait devant les législateurs après avoir témoigné aux États-Unis sur le danger que représente, selon elle, l’entreprise, qu’il s’agisse de nuire aux enfants, d’inciter à la violence politique ou d’alimenter la désinformation. Mme Haugen a cité des documents de recherche internes qu’elle a secrètement copiés avant de quitter son poste au sein de l’unité d’intégrité civique de Facebook.
Les documents, que Mme Haugen a fournis à la Commission des valeurs mobilières des États-Unis, allèguent que Facebook a donné la priorité aux profits sur la sécurité et a caché ses propres recherches aux investisseurs et au public. Certaines histoires basées sur les dossiers ont déjà été publiées, exposant les troubles internes après que Facebook ait été pris de court par l’émeute du 6 janvier au Capitole des États-Unis et la façon dont il a tergiversé pour limiter le contenu diviseur en Inde, et d’autres sont à venir.
Des représentants de Facebook et d’autres sociétés de médias sociaux prévoient de s’adresser au comité britannique jeudi.
Les législateurs britanniques rédigent un projet de loi sur la sécurité en ligne prévoyant la création d’un organisme de réglementation qui obligerait les entreprises à rendre des comptes lorsqu’il s’agit de retirer de leurs plates-formes des contenus préjudiciables ou illégaux, tels que des documents terroristes ou des images d’abus sexuels sur des enfants.
« C’est un moment, un peu comme Cambridge Analytica, mais peut-être plus grand dans la mesure où je pense que cela fournit une véritable fenêtre sur l’âme de ces entreprises », a déclaré Damian Collins, le législateur qui préside la commission, avant l’audience.
Il faisait référence à la débâcle de 2018 impliquant la société d’extraction de données Cambridge Analytica, qui a recueilli des détails sur pas moins de 87 millions d’utilisateurs de Facebook sans leur permission.
Haugen doit rencontrer le mois prochain des responsables de l’Union européenne à Bruxelles, où la commission exécutive du bloc met à jour son règlement numérique afin de mieux protéger les internautes en tenant les entreprises en ligne davantage responsables des contenus illégaux ou dangereux.
En vertu des règles britanniques, qui devraient entrer en vigueur l’année prochaine, les géants de la Silicon Valley s’exposent à une sanction pouvant aller jusqu’à 10 % de leur chiffre d’affaires mondial en cas d’infraction. L’UE propose une sanction similaire.
La journaliste de l’Associated Press Marcy Gordon à Washington a contribué à ce rapport.