canada

Menu supérieur

Menu principal

  • Accueil
  • Canada
    • Montréal
    • Ottawa
    • Toronto
  • entreprise
  • Les sports
  • Monde
  • Politique
  • Santé
  • SciTech

canada

canada

  • Accueil
  • Canada
    • Les avantages et les inconvénients du streaming pour les cinéphiles

      19 septembre 2023
      0
    • Hurrikan Lee wirbelt durch offene Gewässer auf dem Weg nach Atlantik-Kanada

      12 septembre 2023
      0
    • Facebook-Seite des Freiheitskonvois steht am Dienstag im Mittelpunkt der Verhandlung

      12 septembre 2023
      0
    • Kanadierin beschuldigt, mehr als 64.000 US-Dollar aus Walmart-Filialen gestohlen zu haben

      12 septembre 2023
      0
    • Kanadierin beschuldigt, mehr als 64.000 US-Dollar aus Walmart-Filialen gestohlen zu haben

      12 septembre 2023
      0
    • Verdächtiger der Messerstecherei in Vancouver Chinatown angeklagt

      12 septembre 2023
      0
    • Verdächtiger der Messerstecherei in Vancouver Chinatown angeklagt

      12 septembre 2023
      0
    • Ontario führt Konsultationen über Studentenwohnungen durch: Minister

      11 septembre 2023
      0
    • Selbstmord-Kits": Polizei sagt, dass Natriumnitrat an Einwohner von Montreal verschickt wurde

      11 septembre 2023
      0
    • Montréal
    • Ottawa
    • Toronto
  • entreprise
  • Les sports
  • Monde
  • Politique
  • Santé
  • SciTech
SciTech
Home›SciTech›Facebook tergiverse pour limiter les contenus litigieux des utilisateurs en Inde

Facebook tergiverse pour limiter les contenus litigieux des utilisateurs en Inde

Par
24 octobre 2021
371
0
Partage :

NEW DELHI, INDE — Selon des documents obtenus par l’Associated Press, Facebook en Inde a été sélectif dans la lutte contre les discours haineux, la désinformation et les messages incendiaires, en particulier les contenus anti-musulmans, alors même que ses propres employés mettent en doute les motivations et les intérêts de l’entreprise.

Des recherches aussi récentes que mars de cette année aux mémos de l’entreprise qui remontent à 2019, les documents internes de l’entreprise sur l’Inde soulignent les luttes constantes de Facebook pour réprimer les contenus abusifs sur ses plateformes dans la plus grande démocratie du monde et le plus grand marché de croissance de l’entreprise. Les tensions communautaires et religieuses en Inde ont l’habitude de déborder sur les médias sociaux et d’attiser la violence.

Les dossiers montrent que Facebook est conscient des problèmes depuis des années, ce qui soulève des questions quant à savoir si l’entreprise a fait suffisamment d’efforts pour résoudre ces problèmes. De nombreux critiques et experts numériques affirment qu’il n’a pas réussi à le faire, en particulier dans les cas où des membres du Bharatiya Janata Party, ou BJP, le parti au pouvoir du Premier ministre Narendra Modi, sont impliqués.

Dans le monde entier, Facebook a pris une importance croissante dans la politique, et l’Inde n’est pas différente.

Modi a été crédité d’avoir utilisé la plateforme à l’avantage de son parti pendant les élections, et un reportage du Wall Street Journal l’année dernière a jeté le doute sur la question de savoir si Facebook appliquait de manière sélective ses politiques en matière de discours haineux pour éviter le retour de bâton du BJP. Modi et le président-directeur général de Facebook, Mark Zuckerberg, ont tous deux fait preuve de bonhomie, comme en témoigne une photo prise en 2015 des deux hommes s’embrassant au siège de Facebook.

Les documents divulgués comprennent un grand nombre de rapports internes de l’entreprise sur les discours haineux et la désinformation en Inde. Dans certains cas, une grande partie d’entre eux ont été intensifiés par sa propre fonction « recommandée » et ses algorithmes. Mais ils comprennent également les inquiétudes du personnel de l’entreprise concernant la mauvaise gestion de ces questions et le mécontentement exprimé face au « mécontentement » viral sur la plateforme.

Selon les documents, Facebook considérait l’Inde comme l’un des « pays les plus à risque » au monde et a identifié les langues hindi et bengali comme prioritaires pour « l’automatisation de la violation des discours hostiles ». Pourtant, Facebook ne disposait pas d’un nombre suffisant de modérateurs en langue locale ou de drapeaux de contenu pour mettre un terme aux fausses informations qui ont parfois conduit à des violences dans le monde réel.

Dans une déclaration à l’AP, Facebook a dit qu’il a « investi de manière significative dans la technologie pour trouver les discours haineux dans diverses langues, y compris l’hindi et le bengali », ce qui a permis de « réduire de moitié la quantité de discours haineux que les gens voient » en 2021.

« Les discours de haine contre les groupes marginalisés, y compris les musulmans, sont en augmentation dans le monde. Nous améliorons donc l’application de la loi et nous nous engageons à mettre à jour nos politiques à mesure que les discours haineux évoluent en ligne », a déclaré un porte-parole de l’entreprise.

Cet article de l’AP, ainsi que d’autres en cours de publication, est basé sur les déclarations faites à la Securities and Exchange Commission et fournies au Congrès sous une forme expurgée par le conseiller juridique de Frances Haugen, ancienne employée de Facebook devenue lanceuse d’alerte. Les versions caviardées ont été obtenues par un consortium d’organismes de presse, dont l’AP.

En février 2019, à l’approche d’une élection générale où les craintes de désinformation étaient fortes, un employé de Facebook a voulu comprendre ce qu’un nouvel utilisateur dans le pays voyait sur son fil d’actualité s’il ne faisait que suivre des pages et des groupes uniquement recommandés par la plateforme elle-même.

L’employé a créé un compte d’utilisateur test et l’a gardé en ligne pendant trois semaines, période durant laquelle un événement extraordinaire a secoué l’Inde : une attaque militante dans le Cachemire contesté a tué plus de 40 soldats indiens, amenant le pays au bord de la guerre avec son rival pakistanais.

Dans la note, intitulée « An Indian Test User’s Descent into a Sea of Polarizing, Nationalistic Messages », l’employé, dont le nom est expurgé, se dit « choqué » par le contenu qui inonde le fil d’actualité, qui « est devenu un barrage quasi constant de contenu nationaliste polarisant, de désinformation, de violence et de sang ».

Des groupes apparemment bénins et inoffensifs recommandés par Facebook se sont rapidement transformés en quelque chose de tout à fait différent, où les discours haineux, les rumeurs non vérifiées et le contenu viral se sont répandus.

Les groupes recommandés étaient inondés de fausses nouvelles, de rhétorique anti-Pakistan et de contenu islamophobe. Une grande partie du contenu était extrêmement graphique.

L’un d’eux montrait un homme tenant la tête ensanglantée d’un autre homme couvert d’un drapeau pakistanais, avec un drapeau indien à la place de sa tête. La fonctionnalité « Popular Across Facebook » a montré une série de contenus non vérifiés liés aux frappes indiennes de représailles au Pakistan après les attentats, y compris une image d’une bombe au napalm provenant d’un clip de jeu vidéo démenti par l’un des partenaires de vérification des faits de Facebook.

« En suivant le fil d’actualité de cet utilisateur test, j’ai vu plus d’images de personnes mortes au cours des trois dernières semaines que je n’en ai vu dans toute ma vie au total », a écrit le chercheur.

Cela a suscité de profondes inquiétudes quant aux conséquences que pourrait avoir un contenu aussi conflictuel dans le monde réel, où les informations locales de l’époque faisaient état d’attaques contre des Cachemiris.

« Devrions-nous, en tant qu’entreprise, avoir une responsabilité supplémentaire dans la prévention des atteintes à l’intégrité qui résultent du contenu recommandé ? », ont demandé les chercheurs dans leur conclusion.

Le mémo, qui a circulé parmi les autres employés, n’a pas répondu à cette question. Mais il a révélé comment les algorithmes ou les paramètres par défaut de la plateforme ont joué un rôle dans l’émergence d’un tel mécontentement. L’employé a noté qu’il y avait des « angles morts » évidents, en particulier dans le « contenu en langue locale ». Ils ont dit qu’ils espéraient que ces résultats lanceraient des conversations sur la façon d’éviter de tels « préjudices d’intégrité », en particulier pour ceux qui « diffèrent considérablement » de l’utilisateur américain typique.

Même si la recherche a été menée pendant trois semaines qui n’étaient pas une représentation moyenne, ils ont reconnu qu’elle montrait comment un tel contenu « non modéré » et problématique « pouvait totalement prendre le dessus » pendant « un événement de crise majeur. »

Le porte-parole de Facebook a déclaré que l’étude test « a inspiré une analyse plus profonde et plus rigoureuse » de ses systèmes de recommandation et « a contribué à des changements de produit pour les améliorer. »

« Séparément, notre travail sur la réduction des discours de haine se poursuit et nous avons encore renforcé nos classificateurs de haine, pour inclure quatre langues indiennes », a déclaré le porte-parole.

Article précédent

L’équipe canadienne de football féminin entame la ...

Article suivant

Vanessa Bryant a déclaré que le shérif ...

0
Actions
  • 0
  • +
  • 0
  • 0
  • 0
  • 0

Articles connexes Plus de l'auteur

  • SciTech

    Que pensent les Canadiens de l’IA

    25 février 2023
    Par
  • SciTech

    L’ère de la conduite autonome est arrivée, la question est de savoir ce qui vient ensuite

    19 décembre 2022
    Par
  • SciTech

    Twitter dévoile une version du site qui permet de contourner le blocage de la Russie

    10 mars 2022
    Par
  • SciTech

    L’éruption de Tonga a été « des centaines de fois » plus puissante que la bombe atomique d’Hiroshima, selon la NASA.

    25 janvier 2022
    Par
  • SciTech

    Interdire les réseaux sociaux aux enfants ? Les parents fatigués au Sénat disent oui

    4 mai 2023
    Par Roriz Ferreira
  • SciTech

    WEF Davos 2023 : Les PDG parlent de l’IA de type ChatGPT

    17 janvier 2023
    Par

Laisser une réponse Annuler la réponse

  • Santé

    Une étude mondiale révèle que les pays où le port du masque est obligatoire présentent des taux de mortalité inférieurs pour le COVID-19.

  • Canada

    Les groupes autochtones, racialisés, LGBTQ et les travailleurs du sexe critiquent le projet de loi sur la haine en ligne

  • Monde

    La marine américaine lance un navire portant le nom du leader des droits des homosexuels, Harvey Milk.

Mots-clés

alors (254) américain (195) ans (209) après (413) aux (329) avec (278) avoir (170) Chine (195) contre (256) Corée (183) dans (1135) des (1899) dit (139) dun (463) dune (281) est (387) fait (246) fusillade (285) guerre (293) homme (143) jour (142) Les (2303) lONU (161) lors (176) lUkraine (387) ministre (154) mort (212) morts (322) nouvelles (184) ont (136) par (331) pas (221) personnes (250) procès (208) qui (243) russe (188) russes (135) Russie (495) selon (213) ses (140) sont (158) sur (777) tué (161) une (1080) ÉtatsUnis (447)

CATÉGORIES

  • Atlantique
  • Canada
  • Climat et environnement
  • Ctvnews
  • Edmonton
  • entreprise
  • Île de vancouver
  • Les sports
  • Lifestyle
  • Météo
  • mode de vie
  • Monde
  • Montréal
  • Nouvelles exclusives
  • Ottawa
  • Politique
  • Santé
  • Sci-tech
  • SciTech
  • Toronto
  • Vancouver
  • World

Recherche