Les recommandations de YouTube envoient des vidéos d’armes à feu aux enfants de 9 ans : étude
Lorsque les chercheurs d’une organisation à but non lucratif qui étudie les médias sociaux ont voulu comprendre le lien entre les vidéos YouTube et la violence armée, ils ont créé des comptes sur la plate-forme qui imitaient le comportement des garçons typiques vivant aux États-Unis.
Ils ont simulé deux enfants de neuf ans qui aimaient tous les deux les jeux vidéo, en particulier les jeux de tir à la première personne. Les comptes étaient identiques, sauf que l’un cliquait sur les vidéos recommandées par YouTube, et l’autre ignorait les suggestions de la plateforme.
Le compte qui a cliqué sur les suggestions de YouTube a rapidement été inondé de vidéos graphiques sur les fusillades dans les écoles, de vidéos de formation sur les armes à feu tactiques et d’instructions pratiques pour rendre les armes à feu entièrement automatiques. Une vidéo mettait en vedette une fille d’âge scolaire élémentaire brandissant une arme de poing; un autre montrait un tireur utilisant un pistolet de calibre .50 pour tirer sur une tête factice remplie de sang et de cerveaux réalistes. De nombreuses vidéos enfreignent les propres politiques de YouTube contre les contenus violents ou sanglants.
Les résultats montrent que malgré les règles de YouTube et les efforts de modération du contenu, la plate-forme ne parvient pas à arrêter la diffusion de vidéos effrayantes qui pourraient traumatiser les enfants vulnérables – ou les envoyer sur les routes sombres de l’extrémisme et de la violence.
« Les jeux vidéo sont l’une des activités les plus populaires pour les enfants. Vous pouvez jouer à un jeu comme « Call of Duty » sans vous retrouver dans une armurerie, mais YouTube les emmène là-bas », a déclaré Katie Paul, directrice de Tech Transparency. Project, le groupe de recherche qui a publié ses conclusions sur YouTube mardi. « Ce ne sont pas les jeux vidéo, ce ne sont pas les enfants. Ce sont les algorithmes. »
Les comptes qui ont suivi les vidéos suggérées de YouTube ont reçu 382 vidéos différentes liées aux armes à feu en un seul mois, soit environ 12 par jour. Les comptes qui ont ignoré les recommandations de YouTube ont quand même reçu des vidéos liées aux armes à feu, mais seulement 34 au total.
Les chercheurs ont également créé des comptes imitant des garçons de 14 ans qui aimaient les jeux vidéo ; ces comptes ont également reçu des niveaux similaires de contenu lié aux armes à feu et à la violence.
L’une des vidéos recommandées pour les comptes s’intitulait « Comment fonctionne un commutateur sur un Glock (à des fins éducatives uniquement) ». YouTube a ensuite supprimé la vidéo après avoir déterminé qu’elle enfreignait ses règles ; une vidéo presque identique est apparue deux semaines plus tard avec un nom légèrement modifié ; cette vidéo reste disponible.
Les messages sollicitant des commentaires de YouTube n’ont pas été immédiatement renvoyés mardi. Les dirigeants de la plate-forme, qui appartient à Google, ont déclaré que l’identification et la suppression des contenus préjudiciables étaient une priorité, tout comme la protection de ses plus jeunes utilisateurs. YouTube exige que les utilisateurs de moins de 17 ans obtiennent l’autorisation de leurs parents avant d’utiliser leur site ; les comptes des utilisateurs de moins de 13 ans sont liés au compte parental.
Avec TikTok, la plateforme de partage de vidéos est l’un des sites les plus populaires auprès des enfants et des adolescents. Les deux sites ont été critiqués dans le passé pour avoir hébergé et, dans certains cas, fait la promotion de vidéos encourageant la violence armée, les troubles de l’alimentation et l’automutilation. Les critiques des médias sociaux ont également souligné les liens entre les médias sociaux, la radicalisation et la violence dans le monde réel.
Les auteurs de nombreuses fusillades de masse récentes ont utilisé les réseaux sociaux et les plateformes de streaming vidéo pour glorifier la violence ou même diffuser en direct leurs attaques. Dans des publications sur YouTube, le tireur à l’origine de l’attaque d’une école de Parkland, en Floride, qui a fait 17 morts en 2018, a écrit « Je veux tuer des gens », « Je vais être un tireur d’école professionnel » et « J’ai aucun problème à tirer sur une fille dans la poitrine. »
Le tireur néonazi qui a tué huit personnes plus tôt ce mois-ci dans un centre commercial de la région de Dallas avait également un compte YouTube qui comprenait des vidéos sur l’assemblage de fusils, la série a tué Jeffrey Dahmer et un extrait d’une scène de tir à l’école dans une émission de télévision.
Dans certains cas, YouTube a déjà supprimé certaines des vidéos identifiées par les chercheurs du Tech Transparency Project, mais dans d’autres cas, le contenu reste disponible. De nombreuses grandes entreprises technologiques s’appuient sur des systèmes automatisés pour signaler et supprimer le contenu qui enfreint leurs règles, mais Paul a déclaré que les conclusions du rapport du projet montrent que des investissements plus importants dans la modération du contenu sont nécessaires.
En l’absence de réglementation fédérale, les entreprises de médias sociaux peuvent cibler les jeunes utilisateurs avec un contenu potentiellement dangereux conçu pour les inciter à revenir, a déclaré Shelby Knox, directrice de campagne du groupe de défense Parents Together. Le groupe de Knox a appelé des plateformes comme YouTube, Instagram et TikTok pour faciliter la recherche de contenu sur le suicide, les armes à feu, la violence et la drogue pour les enfants et les adolescents.
« Les plates-formes Big Tech comme TikTok ont choisi leurs bénéfices, leurs actionnaires et leurs entreprises plutôt que la santé, la sécurité et même la vie des enfants », a déclaré Knox en réponse à un rapport publié plus tôt cette année qui montrait que TikTok recommandait des contenus préjudiciables. aux ados.
TikTok a défendu son site et ses politiques, qui interdisent les utilisateurs de moins de 13 ans. Ses règles interdisent également les vidéos qui encouragent les comportements nuisibles ; les utilisateurs qui recherchent du contenu sur des sujets tels que les troubles de l’alimentation reçoivent automatiquement une invite proposant des ressources en santé mentale.