Les licenciements technologiques nuisent à la sécurité en ligne et à la désinformation: experts
À la suite de l’élection présidentielle de 2016, alors que les plateformes en ligne commençaient à faire l’objet d’un examen plus minutieux de leurs impacts sur les utilisateurs, les élections et la société, de nombreuses entreprises technologiques ont commencé à investir dans des garanties.
Les grandes entreprises technologiques ont recruté des employés axés sur la sécurité des élections, la désinformation et l’extrémisme en ligne. Certains ont également formé des équipes d’IA éthiques et investi dans des groupes de surveillance. Ces équipes ont aidé à orienter les nouvelles fonctionnalités et politiques de sécurité.
Mais au cours des derniers mois, les grandes entreprises technologiques ont supprimé des dizaines de milliers d’emplois, et certaines de ces mêmes équipes connaissent des réductions de personnel.
Twitter a éliminé les équipes axées sur la sécurité, les politiques publiques et les questions de droits de l’homme lorsqu’Elon Musk a pris le relais l’année dernière. Plus récemment, Twitch, une plateforme de diffusion en direct appartenant à Amazon, a licencié certains employés axés sur l’IA responsable et d’autres travaux de confiance et de sécurité, selon d’anciens employés et des publications publiques sur les réseaux sociaux.
Microsoft a licencié une équipe clé axée sur le développement de produits d’IA éthiques. Et Meta, parent de Facebook, a suggéré qu’il pourrait réduire le personnel travaillant dans des rôles non techniques dans le cadre de sa dernière série de licenciements.
Meta, selon le PDG Mark Zuckerberg, a embauché « de nombreux experts de premier plan dans des domaines autres que l’ingénierie ». Désormais, a-t-il déclaré, l’entreprise visera à revenir « à un ratio plus optimal d’ingénieurs pour d’autres rôles », dans le cadre des réductions qui auront lieu dans les mois à venir.
La vague de coupes a soulevé des questions parmi certains à l’intérieur et à l’extérieur de l’industrie sur l’engagement de la Silicon Valley à fournir des garde-corps et des protections des utilisateurs étendus à un moment où la modération du contenu et la désinformation restent des problèmes difficiles à résoudre. Certains désignent les coupes draconiennes de Musk sur Twitter comme un pivot pour l’industrie.
« Twitter qui a fait le premier pas leur a fourni une couverture », a déclaré Katie Paul, directrice du groupe de recherche sur la sécurité en ligne, le Tech Transparency Project. (Twitter, qui a également supprimé une grande partie de son équipe de relations publiques, n’a pas répondu à une demande de commentaire.)
Pour compliquer les choses, ces coupes surviennent alors que les géants de la technologie déploient rapidement de nouvelles technologies transformatrices comme l’intelligence artificielle et la réalité virtuelle, qui ont toutes deux suscité des inquiétudes quant à leurs impacts potentiels sur les utilisateurs.
« Ils sont dans une course super, super serrée vers le sommet pour l’IA et je pense qu’ils ne veulent probablement pas que les équipes les ralentissent », a déclaré Jevin West, professeur agrégé à la Information School de l’Université de Washington. Mais « c’est un moment particulièrement difficile pour se débarrasser de ces équipes alors que nous sommes à l’aube de technologies assez transformatrices et effrayantes ».
« Si vous aviez la possibilité de revenir en arrière et de placer ces équipes à l’avènement des médias sociaux, nous serions probablement un peu mieux lotis », a déclaré West. « Nous sommes actuellement à un moment similaire avec l’IA générative et ces chatbots. »
REPENSER LA MODÉRATION DE CONTENU, L’IA ÉTHIQUE
Lorsque Musk a licencié des milliers d’employés de Twitter à la suite de sa prise de contrôle l’automne dernier, cela comprenait des employés concentrés sur tout, de la sécurité et de la fiabilité du site aux questions de politique publique et de droits de l’homme. Depuis lors, d’anciens employés, dont l’ex-responsable de l’intégrité du site Yoel Roth – sans parler des utilisateurs et des experts extérieurs – ont exprimé leur inquiétude quant au fait que les coupes de Twitter pourraient saper sa capacité à gérer la modération du contenu.
Des mois après les premiers pas de Musk, certains anciens employés de Twitch, une autre plate-forme sociale populaire, s’inquiètent maintenant des impacts que les licenciements récents pourraient avoir sur sa capacité à lutter contre les discours de haine et le harcèlement et à répondre aux préoccupations émergentes de l’IA.
Un ancien employé de Twitch touché par les licenciements et qui travaillait auparavant sur des questions de sécurité a déclaré que la société avait récemment renforcé sa capacité d’externalisation pour traiter les signalements de contenu non conforme.
« Avec cette externalisation, j’ai l’impression qu’ils avaient ce niveau de confort qu’ils pourraient supprimer une partie de l’équipe de confiance et de sécurité, mais Twitch est très unique », a déclaré l’ancien employé. « C’est vraiment du streaming en direct, il n’y a pas de post-production sur les téléchargements, donc il y a une tonne d’engagement communautaire qui doit se produire en temps réel. »
Ces équipes externalisées, ainsi que la technologie automatisée qui aide les plates-formes à appliquer leurs règles, ne sont pas non plus aussi utiles pour une réflexion proactive sur ce que devraient être les politiques de sécurité d’une entreprise.
« Vous n’allez jamais arrêter de devoir être réactif aux choses, mais nous avions commencé à vraiment planifier, à nous éloigner du réactif et à être vraiment beaucoup plus proactifs, et à changer nos politiques, en nous assurant qu’elles lisent mieux à notre communauté « , a déclaré l’employé à CNN, citant des efforts tels que le lancement du centre de sécurité en ligne de Twitch et de son conseil consultatif sur la sécurité.
Un autre ancien employé de Twitch, qui, comme le premier, a parlé sous le couvert de l’anonymat de peur de mettre son licenciement en danger, a déclaré à CNN que réduire le travail responsable de l’IA, malgré le fait qu’il ne s’agissait pas d’un générateur de revenus direct, pourrait être mauvais pour affaires à long terme.
« Des problèmes vont surgir, surtout maintenant que l’IA fait désormais partie de la conversation dominante », ont-ils déclaré. « Les questions de sûreté, de sécurité et d’éthique vont devenir plus courantes, il est donc en fait grand temps que les entreprises investissent. »
Twitch a refusé de commenter cette histoire au-delà de son article de blog annonçant des licenciements. Dans cet article, Twitch a noté que les utilisateurs comptent sur l’entreprise pour « vous donner les outils dont vous avez besoin pour créer vos communautés, diffuser vos passions en toute sécurité et gagner de l’argent en faisant ce que vous aimez » et que « nous prenons cette responsabilité extrêmement au sérieux ».
Microsoft a également sonné l’alarme plus tôt ce mois-ci lorsqu’il aurait supprimé une équipe clé axée sur le développement de produits d’IA éthique dans le cadre de ses licenciements massifs. D’anciens employés de l’équipe Microsoft ont déclaré à The Verge que l’équipe Ethics and Society AI était chargée d’aider à traduire les principes d’IA responsable de l’entreprise pour les employés développant des produits.
Dans une déclaration à CNN, Microsoft a déclaré que l’équipe « jouait un rôle clé » dans le développement de ses politiques et pratiques responsables en matière d’IA, ajoutant que ses efforts se poursuivaient depuis 2017. La société a souligné que même avec les coupes, « nous avons des centaines de personnes travaillant sur ces problèmes dans toute l’entreprise, y compris de nouvelles équipes d’IA responsables et dédiées qui ont depuis été créées et se sont considérablement développées au cours de cette période. »
UN AVENIR INCERTAIN CHEZ META
Meta, peut-être plus que toute autre entreprise, a incarné le virage post-2016 vers des mesures de sécurité plus importantes et des politiques plus réfléchies. Il a investi massivement dans la modération du contenu, la politique publique et un conseil de surveillance pour peser sur les problèmes de contenu délicats afin de répondre aux préoccupations croissantes concernant sa plate-forme.
Mais l’annonce récente de Zuckerberg selon laquelle Meta subira une deuxième série de licenciements soulève des questions sur le sort de certains de ces travaux. Zuckerberg a laissé entendre que les rôles non techniques en souffriraient et a déclaré que les experts non ingénieurs aidaient « à créer de meilleurs produits, mais avec de nombreuses nouvelles équipes, il faut une concentration intentionnelle pour s’assurer que notre entreprise reste principalement des technologues ».
De nombreuses coupes n’ont pas encore eu lieu, ce qui signifie que leur impact, le cas échéant, pourrait ne pas se faire sentir avant des mois. Et Zuckerberg a déclaré dans son article de blog annonçant les licenciements que Meta « s’assurera que nous continuons à respecter toutes nos obligations critiques et légales alors que nous trouvons des moyens de fonctionner plus efficacement ».
Pourtant, « s’ils prétendent qu’ils vont se concentrer sur la technologie, ce serait formidable s’ils étaient plus transparents sur les équipes qu’ils abandonnent », a déclaré Paul. « Je soupçonne qu’il y a un manque de transparence, car ce sont les équipes qui s’occupent de la sûreté et de la sécurité. »
Meta a refusé de commenter cette histoire ou de répondre aux questions sur les détails de ses coupes au-delà de pointer CNN vers le blog de Zuckerberg.
Paul a déclaré que l’accent mis par Meta sur la technologie ne résoudra pas nécessairement ses problèmes persistants. Les recherches du Tech Transparency Project l’année dernière ont révélé que la technologie de Facebook a créé des dizaines de pages pour des groupes terroristes comme ISIS et Al-Qaïda. Selon le rapport de l’organisation, lorsqu’un utilisateur inscrit un groupe terroriste sur son profil ou « enregistre » un groupe terroriste, une page pour le groupe est automatiquement générée, bien que Facebook déclare interdire le contenu de groupes terroristes désignés.
« La technologie censée supprimer ce contenu est en train de le créer », a déclaré Paul.
Au moment où le rapport du Tech Transparency Project a été publié en septembre, Meta a déclaré dans un commentaire que « Lorsque ces types de pages shell sont générées automatiquement, il n’y a pas de propriétaire ou d’administrateur, et une activité limitée. Comme nous l’avons dit à la fin du dernier année, nous avons résolu un problème de pages shell générées automatiquement et nous continuons à l’examiner. »
‘EST-CE QUE CELA VAUT L’INVESTISSEMENT ?’
Dans certains cas, les entreprises technologiques peuvent se sentir encouragées à repenser les investissements dans ces équipes en l’absence de nouvelles lois. Aux États-Unis, les législateurs ont imposé peu de nouvelles réglementations, malgré ce que West a décrit comme « beaucoup de théâtres politiques » en dénonçant à plusieurs reprises les défaillances de sécurité des entreprises.
Les leaders technologiques peuvent également être aux prises avec le fait que même s’ils ont renforcé leurs équipes de confiance et de sécurité ces dernières années, leurs problèmes de réputation ne se sont pas vraiment atténués.
« Tout ce qu’ils reçoivent est critiqué », a déclaré Katie Harbath, ancienne directrice des politiques publiques chez Facebook, qui dirige maintenant la société de conseil en technologie Anchor Change. « Je ne dis pas qu’ils devraient recevoir une tape dans le dos… mais il arrive un moment où je pense que Mark [Zuckerberg] et d’autres PDG sont du genre, est-ce que ça vaut l’investissement ? »
Alors que les entreprises technologiques doivent équilibrer leur croissance avec les conditions économiques actuelles, a déclaré Harbath, « parfois, les technologues pensent qu’ils savent ce qu’il faut faire, ils veulent perturber les choses et ne sont pas toujours aussi ouverts à entendre des voix extérieures qui ne le sont pas ». t technologues. »
« Vous avez besoin de ce juste équilibre pour vous assurer de ne pas étouffer l’innovation, mais de vous assurer que vous êtes conscient des implications de ce que vous construisez », a-t-elle déclaré. « Nous ne le saurons pas tant que nous n’aurons pas vu comment les choses continuent de fonctionner, mais j’espère qu’ils continueront au moins à y penser. »