Les gens ou le profit ? Les documents de Facebook révèlent un profond conflit interne
L’entreprise Facebook est en train de perdre le contrôle de Facebook le produit, sans parler des derniers lambeaux de son image soigneusement élaborée, vieille de dix ans, d’entreprise bienveillante souhaitant simplement connecter le monde.
Des milliers de pages de documents internes fournis au Congrès par un ancien employé dépeignent une entreprise en conflit interne où les données sur les dommages qu’elle cause sont abondantes, mais où les solutions, et encore moins la volonté d’agir, sont au mieux hésitantes.
La crise révélée par les documents montre comment Facebook, en dépit de ses bonnes intentions régulièrement affichées, semble avoir ralenti ou mis sur la touche les efforts visant à remédier aux préjudices réels que le réseau social a amplifiés et parfois créés. Les documents révèlent de nombreux cas où des chercheurs et des travailleurs de base ont découvert des problèmes profondément ancrés que l’entreprise a ensuite négligés ou ignorés.
La responsabilité finale de cet état de fait incombe au PDG Mark Zuckerberg, qui détient ce qu’un ancien employé a décrit comme un pouvoir dictatorial sur une société qui collecte des données et fournit des services gratuits à environ 3 milliards de personnes dans le monde.
« En fin de compte, tout dépend de Mark et de ses prérogatives, qui ont toujours été de croître, d’accroître son pouvoir et sa portée », a déclaré Jennifer Grygiel, professeur de communication à l’université de Syracuse, qui suit Facebook de près depuis des années.
Zuckerberg a une mainmise sur Facebook Inc. Il détient la majorité des actions avec droit de vote de la société, contrôle son conseil d’administration et s’entoure de plus en plus de cadres qui ne semblent pas remettre en cause sa vision.
Mais jusqu’à présent, il n’a pas été en mesure de faire face à la stagnation de la croissance du nombre d’utilisateurs et à la diminution de l’engagement pour le produit Facebook dans des régions clés comme les États-Unis et l’Europe. Pire encore, l’entreprise perd l’attention de son groupe démographique le plus important – les adolescents et les jeunes – sans qu’il soit possible de la regagner, comme le révèlent ses propres documents.
Selon un document interne datant de novembre 2020, les jeunes adultes s’engagent beaucoup moins dans Facebook que leurs aînés, le considérant comme un « réseau obsolète » au « contenu non pertinent » qui leur apporte une valeur limitée. Il est « ennuyeux, trompeur et négatif », disent-ils.
En d’autres termes, les jeunes voient Facebook comme un endroit pour les personnes âgées.
Selon les chercheurs de l’entreprise, la base d’utilisateurs de Facebook vieillit en moyenne plus vite que la population générale. À moins que Facebook ne trouve un moyen d’inverser la tendance, sa population continuera à vieillir et les jeunes trouveront encore moins de raisons de s’inscrire, ce qui menacera le nombre d’utilisateurs mensuels, essentiel pour vendre des publicités. Facebook affirme que ses produits sont toujours largement utilisés par les adolescents, même s’il reconnaît qu’il existe une « rude concurrence » de la part de TikTok, Snapchat et autres.
Pour pouvoir continuer à étendre sa portée et sa puissance, Facebook a fait pression pour obtenir une forte croissance du nombre d’utilisateurs en dehors des États-Unis et de l’Europe occidentale. Mais au fur et à mesure de son expansion dans des régions du monde qui lui sont moins familières, l’entreprise a systématiquement omis d’aborder ou même d’anticiper les conséquences imprévues de l’inscription de millions de nouveaux utilisateurs sans fournir également le personnel et les systèmes nécessaires pour identifier et limiter la diffusion de discours de haine, de désinformation et d’appels à la violence.
En Afghanistan et au Myanmar, par exemple, le langage extrémiste a prospéré en raison d’un manque systémique de soutien linguistique pour la modération du contenu, qu’il soit humain ou basé sur l’intelligence artificielle. Au Myanmar, il a été lié aux atrocités commises à l’encontre de la minorité musulmane Rohingya du pays.
Mais Facebook semble incapable de reconnaître, et encore moins de prévenir, les dommages collatéraux réels qui accompagnent sa croissance effrénée. Ces dommages comprennent des algorithmes obscurs qui radicalisent les utilisateurs, la désinformation et l’extrémisme omniprésents, la facilitation de la traite des êtres humains, le suicide des adolescents, etc.
Les efforts internes visant à atténuer ces problèmes ont souvent été mis de côté ou abandonnés lorsque les solutions entraient en conflit avec la croissance – et, par extension, le profit.
Acculée par des preuves tangibles provenant de documents ayant fait l’objet de fuites, l’entreprise a continué à défendre ses choix plutôt que d’essayer de résoudre ses problèmes.
« Nous ne donnons pas et n’avons pas donné la priorité à l’engagement sur la sécurité », a déclaré Monika Bickert, responsable de la gestion des politiques mondiales de Facebook, à l’Associated Press ce mois-ci, à la suite du témoignage au Congrès de la dénonciatrice et ancienne employée de Facebook Frances Haugen. Dans les jours qui ont suivi le témoignage de Mme Haugen et son apparition dans l’émission « 60 Minutes » – au cours de laquelle M. Zuckerberg a posté une vidéo de lui faisant de la voile avec sa femme Priscilla Chan – Facebook a tenté de discréditer Mme Haugen en soulignant à plusieurs reprises qu’elle n’avait pas travaillé directement sur la plupart des problèmes qu’elle a révélés.
« Une sélection sélective parmi des millions de documents de Facebook ne peut en aucun cas être utilisée pour tirer des conclusions justes à notre sujet », a tweeté Facebook depuis son compte de relations publiques « newsroom » au début du mois, après que l’entreprise ait découvert qu’un groupe d’organisations de presse travaillait sur des articles concernant les documents internes.
« Au cœur de ces histoires se trouve un postulat qui est faux. Oui, nous sommes une entreprise et nous faisons du profit, mais l’idée que nous le faisons au détriment de la sécurité ou du bien-être des gens ne comprend pas où se trouvent nos propres intérêts commerciaux », a déclaré Facebook dans une déclaration préparée vendredi. « La vérité est que nous avons investi 13 milliards de dollars et que nous avons plus de 40 000 personnes pour faire un seul travail : assurer la sécurité des gens sur Facebook. »
Des déclarations comme celles-ci sont le dernier signe que Facebook est entré dans ce que Sophie Zhang, une ancienne scientifique des données de Facebook, a décrit comme une « mentalité de siège » au sein de l’entreprise. L’année dernière, Zhang a accusé le réseau social d’ignorer les faux comptes utilisés pour saper des élections étrangères. Avec d’autres dénonciateurs — notamment Haugen — qui se manifestent, la situation n’a fait qu’empirer.
« Facebook a traversé un peu une spirale narrative autoritaire, où il devient moins sensible aux critiques des employés, à la dissidence interne et dans certains cas, il la réprime », a déclaré Zhang, qui a été licencié de Facebook à l’automne 2020. « Et cela conduit à davantage de dissidence interne ».
« J’ai vu de nombreux collègues qui sont extrêmement frustrés et en colère, tout en se sentant impuissants et (découragés) face à la situation actuelle », a écrit un employé, dont le nom a été caviardé, sur un tableau de messages internes après que Facebook a décidé l’année dernière de laisser en place les messages incendiaires de l’ancien président Donald Trump qui suggéraient que les manifestants de Minneapolis pourraient être abattus. « Mon point de vue est que si vous voulez réparer Facebook, faites-le à l’intérieur ».
Cette histoire est basée en partie sur les divulgations faites à la Securities and Exchange Commission et fournies au Congrès sous forme expurgée par le conseiller juridique de Haugen. Les versions caviardées reçues par le Congrès ont été obtenues par un consortium d’organisations de presse, dont l’Associated Press.
Elles détaillent des données minutieusement collectées sur des problèmes aussi vastes que le trafic de travailleurs domestiques au Moyen-Orient, une surcorrection dans les mesures de répression du contenu arabe qui, selon les critiques, muselle la liberté d’expression alors que les discours haineux et les abus fleurissent, et une désinformation anti-vaccinale rampante qui, selon les chercheurs, aurait pu être facilement étouffée avec des changements subtils dans la façon dont les utilisateurs voient les messages sur leur flux.
L’entreprise insiste sur le fait qu’elle « ne mène pas de recherches pour ensuite les ignorer systématiquement et volontairement si les résultats ne lui conviennent pas ». Cette affirmation, a déclaré Facebook dans un communiqué, ne peut « être faite qu’en sélectionnant des citations sélectives de pièces individuelles de documents ayant fait l’objet de fuites d’une manière qui présente des questions complexes et nuancées comme s’il n’y avait jamais qu’une seule bonne réponse. »
Haugen, qui a témoigné devant le Sénat ce mois-ci que les produits de Facebook « nuisent aux enfants, attisent la division et affaiblissent notre démocratie », a déclaré que la société devrait déclarer une « faillite morale » si elle veut aller de l’avant après tout cela.
À ce stade, cela semble peu probable. Il existe un conflit profondément ancré entre le profit et les personnes au sein de Facebook – et la société ne semble pas prête à renoncer à son discours selon lequel elle est bonne pour le monde, même si elle prend régulièrement des décisions destinées à maximiser sa croissance.
« Facebook réalisait régulièrement des enquêtes auprès de ses employés – quel pourcentage d’entre eux pensait que Facebook rendait le monde meilleur », se souvient Zhang.
« C’était environ 70 % quand je suis arrivé. Il était d’environ 50 pour cent quand je suis partie », a déclaré Zhang, qui a travaillé dans l’entreprise pendant plus de deux ans avant d’être licenciée à l’automne 2020.
Facebook n’a pas dit où en est ce chiffre aujourd’hui.