Facebook tergiverse pour limiter les contenus litigieux des utilisateurs en Inde
NEW DELHI, INDE — Selon des documents obtenus par l’Associated Press, Facebook en Inde a été sélectif dans la lutte contre les discours haineux, la désinformation et les messages incendiaires, en particulier les contenus anti-musulmans, alors même que ses propres employés mettent en doute les motivations et les intérêts de l’entreprise.
Des recherches aussi récentes que mars de cette année aux mémos de l’entreprise qui remontent à 2019, les documents internes de l’entreprise sur l’Inde soulignent les luttes constantes de Facebook pour réprimer les contenus abusifs sur ses plateformes dans la plus grande démocratie du monde et le plus grand marché de croissance de l’entreprise. Les tensions communautaires et religieuses en Inde ont l’habitude de déborder sur les médias sociaux et d’attiser la violence.
Les dossiers montrent que Facebook est conscient des problèmes depuis des années, ce qui soulève des questions quant à savoir si l’entreprise a fait suffisamment d’efforts pour résoudre ces problèmes. De nombreux critiques et experts numériques affirment qu’il n’a pas réussi à le faire, en particulier dans les cas où des membres du Bharatiya Janata Party, ou BJP, le parti au pouvoir du Premier ministre Narendra Modi, sont impliqués.
Dans le monde entier, Facebook a pris une importance croissante dans la politique, et l’Inde n’est pas différente.
Modi a été crédité d’avoir utilisé la plateforme à l’avantage de son parti pendant les élections, et un reportage du Wall Street Journal l’année dernière a jeté le doute sur la question de savoir si Facebook appliquait de manière sélective ses politiques en matière de discours haineux pour éviter le retour de bâton du BJP. Modi et le président-directeur général de Facebook, Mark Zuckerberg, ont tous deux fait preuve de bonhomie, comme en témoigne une photo prise en 2015 des deux hommes s’embrassant au siège de Facebook.
Les documents divulgués comprennent un grand nombre de rapports internes de l’entreprise sur les discours haineux et la désinformation en Inde. Dans certains cas, une grande partie d’entre eux ont été intensifiés par sa propre fonction « recommandée » et ses algorithmes. Mais ils comprennent également les inquiétudes du personnel de l’entreprise concernant la mauvaise gestion de ces questions et le mécontentement exprimé face au « mécontentement » viral sur la plateforme.
Selon les documents, Facebook considérait l’Inde comme l’un des « pays les plus à risque » au monde et a identifié les langues hindi et bengali comme prioritaires pour « l’automatisation de la violation des discours hostiles ». Pourtant, Facebook ne disposait pas d’un nombre suffisant de modérateurs en langue locale ou de drapeaux de contenu pour mettre un terme aux fausses informations qui ont parfois conduit à des violences dans le monde réel.
Dans une déclaration à l’AP, Facebook a dit qu’il a « investi de manière significative dans la technologie pour trouver les discours haineux dans diverses langues, y compris l’hindi et le bengali », ce qui a permis de « réduire de moitié la quantité de discours haineux que les gens voient » en 2021.
« Les discours de haine contre les groupes marginalisés, y compris les musulmans, sont en augmentation dans le monde. Nous améliorons donc l’application de la loi et nous nous engageons à mettre à jour nos politiques à mesure que les discours haineux évoluent en ligne », a déclaré un porte-parole de l’entreprise.
Cet article de l’AP, ainsi que d’autres en cours de publication, est basé sur les déclarations faites à la Securities and Exchange Commission et fournies au Congrès sous une forme expurgée par le conseiller juridique de Frances Haugen, ancienne employée de Facebook devenue lanceuse d’alerte. Les versions caviardées ont été obtenues par un consortium d’organismes de presse, dont l’AP.
En février 2019, à l’approche d’une élection générale où les craintes de désinformation étaient fortes, un employé de Facebook a voulu comprendre ce qu’un nouvel utilisateur dans le pays voyait sur son fil d’actualité s’il ne faisait que suivre des pages et des groupes uniquement recommandés par la plateforme elle-même.
L’employé a créé un compte d’utilisateur test et l’a gardé en ligne pendant trois semaines, période durant laquelle un événement extraordinaire a secoué l’Inde : une attaque militante dans le Cachemire contesté a tué plus de 40 soldats indiens, amenant le pays au bord de la guerre avec son rival pakistanais.
Dans la note, intitulée « An Indian Test User’s Descent into a Sea of Polarizing, Nationalistic Messages », l’employé, dont le nom est expurgé, se dit « choqué » par le contenu qui inonde le fil d’actualité, qui « est devenu un barrage quasi constant de contenu nationaliste polarisant, de désinformation, de violence et de sang ».
Des groupes apparemment bénins et inoffensifs recommandés par Facebook se sont rapidement transformés en quelque chose de tout à fait différent, où les discours haineux, les rumeurs non vérifiées et le contenu viral se sont répandus.
Les groupes recommandés étaient inondés de fausses nouvelles, de rhétorique anti-Pakistan et de contenu islamophobe. Une grande partie du contenu était extrêmement graphique.
L’un d’eux montrait un homme tenant la tête ensanglantée d’un autre homme couvert d’un drapeau pakistanais, avec un drapeau indien à la place de sa tête. La fonctionnalité « Popular Across Facebook » a montré une série de contenus non vérifiés liés aux frappes indiennes de représailles au Pakistan après les attentats, y compris une image d’une bombe au napalm provenant d’un clip de jeu vidéo démenti par l’un des partenaires de vérification des faits de Facebook.
« En suivant le fil d’actualité de cet utilisateur test, j’ai vu plus d’images de personnes mortes au cours des trois dernières semaines que je n’en ai vu dans toute ma vie au total », a écrit le chercheur.
Cela a suscité de profondes inquiétudes quant aux conséquences que pourrait avoir un contenu aussi conflictuel dans le monde réel, où les informations locales de l’époque faisaient état d’attaques contre des Cachemiris.
« Devrions-nous, en tant qu’entreprise, avoir une responsabilité supplémentaire dans la prévention des atteintes à l’intégrité qui résultent du contenu recommandé ? », ont demandé les chercheurs dans leur conclusion.
Le mémo, qui a circulé parmi les autres employés, n’a pas répondu à cette question. Mais il a révélé comment les algorithmes ou les paramètres par défaut de la plateforme ont joué un rôle dans l’émergence d’un tel mécontentement. L’employé a noté qu’il y avait des « angles morts » évidents, en particulier dans le « contenu en langue locale ». Ils ont dit qu’ils espéraient que ces résultats lanceraient des conversations sur la façon d’éviter de tels « préjudices d’intégrité », en particulier pour ceux qui « diffèrent considérablement » de l’utilisateur américain typique.
Même si la recherche a été menée pendant trois semaines qui n’étaient pas une représentation moyenne, ils ont reconnu qu’elle montrait comment un tel contenu « non modéré » et problématique « pouvait totalement prendre le dessus » pendant « un événement de crise majeur. »
Le porte-parole de Facebook a déclaré que l’étude test « a inspiré une analyse plus profonde et plus rigoureuse » de ses systèmes de recommandation et « a contribué à des changements de produit pour les améliorer. »
« Séparément, notre travail sur la réduction des discours de haine se poursuit et nous avons encore renforcé nos classificateurs de haine, pour inclure quatre langues indiennes », a déclaré le porte-parole.