Le côté obscur de Discord pour les ados
Lorsqu’une mère de l’État de Washington a appris que sa fille adolescente était sur Discord, une plate-forme de médias sociaux populaire, elle s’est sentie raisonnablement à l’aise avec l’idée qu’elle l’utilise pour communiquer avec les membres de la fanfare de son lycée.
Mais en septembre, la mère a découvert que le jeune de 16 ans utilisait également le service audio et de chat pour envoyer un message à quelqu’un qui apparaissait sur sa photo de profil comme étant un homme plus âgé. L’étranger, qui a déclaré vivre en Angleterre, est entré dans une discussion de groupe qui comprenait sa fille et des membres du groupe, selon la mère. Ils ont noué une amitié dans un fil privé. Il a demandé des photos nues; sa fille obligée.
« J’ai parcouru toutes les conversations qu’ils ont eues, mais le plus troublant, au-delà des nus, c’est qu’il lui a demandé d’envoyer une photo de notre maison », a déclaré la mère qui, comme d’autres les parents de jeunes utilisateurs de Discord, invités à rester anonymes, invoquant des inquiétudes concernant la vie privée de leur famille. « Ma fille est allée sur Zillow, a trouvé notre maison et l’a envoyée, alors il savait où elle habitait. Il a ensuite demandé à quoi ressemblaient les bus scolaires américains, alors elle a pris une photo de son bus et l’a envoyée. » Il a ensuite demandé des photos de ses amis, et elle les a également envoyées.
La mère craignait que l’utilisateur de Discord ne manipule, ne suive et n’envisage d’exploiter sa fille. Après avoir fermé le compte Discord de sa fille, un effort qui, selon elle, a pris six semaines à l’entreprise, elle a installé des caméras de sécurité extérieures autour de la maison. La mère n’a jamais signalé l’incident à Discord et les conversations ne peuvent plus être signalées car le compte a été supprimé. « Il y a beaucoup de choses que nous aurions dû faire avec le recul », a-t-elle déclaré.
Ces derniers mois, les grandes entreprises de médias sociaux ont fait l’objet d’un examen approfondi de la part des législateurs sur les impacts négatifs que leurs plateformes peuvent avoir sur les adolescents. Des dirigeants de Facebook, Instagram, TikTok et la société mère de Snapchat ont été appelés à témoigner devant le Sénat après que des fuites d’un dénonciateur de Facebook ont souligné le potentiel d’Instagram à nuire à la santé mentale et à l’image corporelle, en particulier chez les adolescentes.
Les législateurs évaluent maintenant la législation pour protéger les enfants en ligne – un projet de loi bipartite a été présenté au Sénat le mois dernier qui propose de nouvelles responsabilités explicites pour les plates-formes technologiques afin de protéger les enfants contre les dommages numériques. Le président Joe Biden a également utilisé une partie de son discours sur l’état de l’Union pour exhorter les législateurs pour « tenir les plateformes de médias sociaux responsables de l’expérience nationale qu’elles mènent sur nos enfants à des fins lucratives ».
Discord, cependant, n’a pas fait partie de cette conversation. Lancé en 2015, Discord est moins connu des parents que de grands noms comme Instagram, même s’il a atteint 150 millions d’utilisateurs actifs par mois dans le monde pendant la pandémie. Le service, qui est connu pour ses communautés de jeux vidéo, est également moins intuitif pour certains parents, mélangeant la sensation des premières salles de chat AOL ou de l’application de chat de travail Slack avec le monde chaotique et personnalisé de MySpace. Alors que les législateurs d’autres plates-formes se sont concentrés en grande partie sur l’examen de technologies plus sophistiquées telles que les algorithmes, qui peuvent révéler des contenus potentiellement dangereux pour les jeunes utilisateurs, les préoccupations des parents à propos de Discord rappellent une époque antérieure d’Internet : les salles de discussion anonymes.
Les utilisateurs de Discord, dont environ 79 % sont situés en dehors de l’Amérique du Nord, participent à des chats ou canaux publics et privés, appelés serveurs, sur divers sujets, notamment les intérêts musicaux, Harry Potter et Minecraft, et l’aide aux devoirs. Certains, comme une salle pour les mèmes, peuvent avoir des centaines de milliers de membres. Mais la grande majorité sont des espaces privés, sur invitation uniquement, avec moins de 10 personnes, selon Discord. Tous les serveurs sont privés par défaut, et seuls les canaux de plus de 200 membres sont détectables dans son outil de recherche si l’administrateur souhaite qu’il soit public, a ajouté la société.
Pourtant, il est possible pour les mineurs de se connecter avec des personnes qu’ils ne connaissent pas sur des serveurs publics ou dans des discussions privées si l’étranger a été invité par quelqu’un d’autre dans la pièce ou si le lien de la chaîne est déposé dans un groupe public auquel l’utilisateur a accédé. Par défaut, tous les utilisateurs – y compris les utilisateurs âgés de 13 à 17 ans – peuvent recevoir des invitations d’amis de n’importe qui sur le même serveur, ce qui leur ouvre alors la possibilité d’envoyer des messages privés.
CNN Business s’est entretenu avec près d’une douzaine de parents qui ont raconté que leurs adolescents étaient exposés à des chats d’automutilation, à des contenus sexuellement explicites et à des prédateurs sexuels sur la plate-forme, y compris des utilisateurs qu’ils pensaient être des hommes plus âgés à la recherche de photos et de vidéos inappropriées.
Une mère de Charlotte, en Caroline du Nord, a déclaré que la santé mentale de sa fille de 13 ans avait été affectée après qu’un salon de discussion Discord impliquant ses intérêts ait pris une tournure. « Le groupe a finalement commencé à parler de se couper, a partagé des conseils sur la façon de le cacher aux parents et a suggéré des conseils sur la façon de s’enfuir de la maison », a déclaré la mère à CNN. « J’ai découvert plus tard qu’elle se livrait activement à l’automutilation et avait prévu de s’enfuir en Alabama pour rendre visite à un ami qu’elle s’était fait sur Discord. »
Un père à l’extérieur de Boston, qui au départ ne pensait pas beaucoup à sa fille de 13 ans téléchargeant Discord l’été dernier « parce qu’elle est une joueuse », a découvert plus tard qu’elle avait parlé avec un homme dans la trentaine qui cherchait des photos d’elle et voulait se livrer à des activités de « caméra coquine », dans des messages revus par CNN Business.
Le père a déclaré qu’il avait également appris plus tard que certains des camarades de classe de sa fille utilisaient activement Discord tout au long de la journée à l’insu de l’école.
« L’école bloque activement des applications telles que Snapchat et Instagram lorsqu’elles se connectent au réseau de l’école sur des appareils scolaires, mais les adolescents utilisent d’autres plateformes comme Discord qui ne sont pas sur leur radar », a déclaré le père. « C’est le Far West des médias sociaux. »
CNN Business a signalé plusieurs de ces cas à Discord – avec la permission des parents – avant la publication de cet article. Après avoir lancé une série d’enquêtes, la société a déclaré avoir pris des mesures contre certains comptes, mais a déclaré qu’elle ne commentait pas publiquement des cas spécifiques ou des comptes d’utilisateurs.
De nombreux parents avec lesquels CNN Business s’est entretenu ont déclaré qu’ils n’avaient activé aucun des contrôles parentaux proposés à l’époque, principalement parce qu’ils ne savaient pas comment la plate-forme fonctionnait. S’ils étaient activés, ces outils de contrôle parental, y compris celui qui interdit à un mineur de recevoir une demande d’ami ou un message direct de quelqu’un qu’il ne connaît pas, auraient probablement pu empêcher bon nombre de ces incidents. Certains parents ont également exprimé leur frustration quant à la façon dont Discord a répondu à leurs incidents une fois qu’ils ont été signalés et ont eu du mal avec le fait que les chats audio sur Discord ne laissent pas de trace écrite et peuvent s’avérer plus difficiles à modérer.
Les données sur la fréquence de tels incidents sont difficiles à obtenir. Un rapport récent de Bark, un service de surveillance payant qui filtre plus de 30 applications et plates-formes, y compris des e-mails et des messages personnels, pour les termes et expressions qui pourraient indiquer des préoccupations pour les près de 6 millions d’enfants qu’il protège, a déclaré Discord classé parmi les cinq meilleures applications ou des plates-formes de contenu signalé par ses algorithmes pour violence grave, intimidation, contenu sexuel et idées suicidaires.
Dans son dernier rapport sur la transparence, Discord a déclaré avoir supprimé plus de 470 000 comptes non spam entre janvier et juin 2021, une augmentation significative par rapport aux 266 075 suppressions de comptes au cours du second semestre 2020. « Le contenu abusif a particulièrement contribué à cette augmentation globale « , a déclaré le rapport, qui le décrit comme une catégorie parapluie qui englobe le matériel sexuellement explicite. La catégorie est passée d’environ 130 000 suppressions au second semestre 2020 à 238 000 au premier semestre 2021, et la suppression des serveurs de contenu exploitant – que Discord définit comme de la pornographie non consensuelle et du contenu sexuel lié à des mineurs – a presque doublé pour atteindre plus de 11 000.
Cependant, Discord a déclaré à CNN Business que le matériel d’abus sexuel d’enfants et le toilettage – un terme qui fait référence à un adulte qui forge un lien émotionnel avec un mineur afin qu’il puisse le manipuler, l’abuser ou l’exploiter – représentent un petit pourcentage d’activité sur le service.
En réponse aux questions sur les incidents que les parents ont partagés avec CNN Business, John Redgrave, vice-président de la confiance et de la sécurité de l’entreprise, a déclaré « ce comportement est épouvantable, inacceptable et n’a pas sa place sur Discord ».
« C’est notre priorité absolue pour nos communautés d’avoir une expérience sûre sur le service, c’est pourquoi nous investissons continuellement dans de nouveaux outils pour protéger les adolescents et supprimer le contenu préjudiciable du service, et avons construit une équipe dédiée à ce travail », a déclaré Redgrave. dans un rapport. « Nous investissons également dans l’éducation, afin que les parents sachent comment fonctionne notre service et comprennent les contrôles de compte qui peuvent contribuer à une expérience positive et sûre pour leurs adolescents. »
Redgrave a ajouté: « Nous avons créé Discord pour favoriser un sentiment d’appartenance et de communauté, et c’est profondément préoccupant pour toute notre entreprise lorsqu’il est mal utilisé. Nous devons faire mieux et nous ferons mieux. »
Mais certains experts affirment que les préoccupations que les parents ont soulevées avec Discord sont innées à son modèle de conception.
« Avec Discord, vous vous abonnez à des chaînes et participez à des discussions privées, ce qui est un voile de confidentialité et de secret dans la façon dont il est construit », a déclaré Danielle Citron, professeur de droit à l’Université de Virginie qui se concentre sur les questions de confidentialité numérique. Alors que certains réseaux sociaux plus importants ont fait l’objet d’un examen minutieux concernant le harcèlement et d’autres problèmes, une grande partie de cette activité est « face au public », a-t-elle déclaré. « Discord est plus récent dans la fête et beaucoup de choses se passent à huis clos. »
UN OUTIL DE JEU DEVIENT GRAND PUBLIC
Discord a commencé par aspirer à devenir un studio de développement de jeux appelé Hammer & Chisel, mais s’est concentré sur son outil de communication après qu’un jeu multijoueur qu’il a créé n’ait jamais fait son chemin. Son utilisation de la voix sur vidéo et du partage d’écran a attiré les joueurs, leur permettant d’interagir avec des amis ou d’autres personnes tout en jouant à des jeux vidéo. En juin 2020, la société a annoncé un effort de changement de marque pour se développer au-delà du jeu; Aujourd’hui, environ 80% des utilisateurs actifs de Discord déclarent utiliser le service principalement à des fins non liées au jeu, ou l’utiliser également pour le jeu et à d’autres fins, selon la société.
La société, qui emploie 600 personnes dans le monde, a déclaré qu’elle gagnait de l’argent grâce à un service d’abonnement appelé Nitro, qui offre une expérience Discord améliorée, telle que la personnalisation de profils avec des balises uniques, l’accès à des emojis animés, le téléchargement de fichiers volumineux et le « renforcement » des favoris des utilisateurs. les serveurs. En septembre 2021, Discord a annoncé avoir levé 500 millions de dollars américains lors d’un cycle de financement, plaçant sa valorisation à environ 15 milliards de dollars américains. Plus tôt dans l’année, le Wall Street Journal a annoncé qu’il avait renoncé à un accord devant être acquis par Microsoft pour au moins 10 milliards de dollars américains. On s’attend à ce que la société se dirige vers une offre publique initiale potentielle.
Comme d’autres plateformes sociales, Discord a déclaré avoir vu son utilisation augmenter car les gens étaient coincés à la maison pendant la pandémie, passant de 56 millions d’utilisateurs actifs par mois en 2019 à 150 millions en septembre 2021. Comme d’autres plateformes, elle a également dû faire face à des situations extrêmes. contenu, y compris d’extrême droite et de groupes complotistes. Et bien que les utilisateurs doivent avoir 13 ans ou plus pour s’inscrire, des problèmes existent avec la vérification de l’âge, tout comme sur d’autres plateformes.
Semblable à Reddit, il existe des modérateurs pour les chaînes qui sont responsables de l’application des directives communautaires de l’entreprise et de leurs propres règles de salle de discussion. Ils sont directement capables d’enquêter sur une situation, puis d’avertir, de mettre en quarantaine ou d’interdire les utilisateurs des canaux. Discord dispose également d’une équipe interne de confiance et de sécurité composée d’employés à temps plein qui enquêtent et répondent aux signalements des utilisateurs. Selon Discord, ils peuvent compter sur une combinaison de moyens proactifs et réactifs pour assurer la sécurité de la plate-forme, y compris des outils de recherche automatisés qui analysent les photos et les vidéos à la recherche de contenu abusif.
La société a déclaré qu’elle avait déployé des efforts accrus pour renforcer ses protocoles de sécurité sur l’ensemble de sa plate-forme au cours de l’année dernière, en s’efforçant d’étendre les opérations réactives et d’améliorer les méthodes de détection et de suppression proactives des abus. Il continue de déployer davantage de contrôles de compte via son centre de sécurité, qui inclut la possibilité de bloquer les utilisateurs offensants, de restreindre le contenu explicite, de contrôler qui vous envoie des messages et de configurer des règles de serveur et des autorisations au sein des communautés. Il s’est également associé à ConnectSafely, une organisation à but non lucratif dédiée à la sécurité sur Internet, pour créer un guide des parents sur Discord des paramètres de sécurité recommandés pour les adolescents, et héberge »sessions d’écoute » avec les chapitres de la National Parent Teacher Association pour accroître la sensibilisation et l’utilisation des fonctionnalités et pratiques de sécurité de Discord.
Discord a déclaré que les parents peuvent demander la suppression du compte de leur enfant en envoyant un e-mail associé au compte pour confirmer qu’ils sont le tuteur de l’enfant. Selon l’entreprise, ce processus peut nécessiter des allers-retours avec l’équipe Trust & Safety pour aider le parent tout au long du processus.
Discord a également déclaré qu’il prévoyait de désactiver l’option par défaut permettant aux mineurs de recevoir des invitations d’amis ou des messages privés de n’importe qui sur le même serveur dans le cadre d’une future mise à jour de sécurité.
La société a récemment mis à jour ses conditions d’utilisation et sa politique de confidentialité afin de prendre en compte les comportements hors plateforme commis par ses utilisateurs pour évaluer les violations de ses directives communautaires, notamment pour sexualiser les enfants. (D’autres grandes plateformes, dont Twitter et Twitch, ont commencé à prendre en compte l’activité d’un utilisateur en dehors de leurs plateformes il y a plusieurs années, comme l’affiliation à une organisation violente, dans le cadre de leurs efforts pour réprimer les comportements abusifs.)
Mais les problèmes persistent. De nombreux parents avec lesquels CNN s’est entretenu ont déclaré qu’ils pensaient que Discord n’en faisait pas assez pour protéger ses jeunes utilisateurs.
« IL N’Y AVAIT PAS D’AIDE DU TOUT »
Une mère de Los Angeles qui a soumis un rapport à Discord a déclaré que la société n’était pas en mesure de l’aider après qu’un homme a entamé une conversation avec sa fille de 10 ans qui a commencé à lui envoyer des liens vers de la pornographie BDSM. (Discord exige que les utilisateurs aient au moins 13 ans pour créer des comptes, mais comme pour d’autres plateformes sociales, certains enfants plus jeunes s’inscrivent toujours.) La mère a reçu un e-mail automatisé de son équipe Trust and Security.
« Nous sommes désolés d’apprendre que vous êtes tombé sur ce type de contenu, et nous comprenons que cela peut être extrêmement préoccupant », a déclaré la réponse de Discord, examinée par CNN Business. « Malheureusement, nous ne sommes pas en mesure de localiser le contenu avec les informations que vous avez fournies. Nous comprenons que cela peut être inconfortable mais, si possible, veuillez nous envoyer les liens de message vers le contenu signalé pour que l’équipe l’examine et prenne les mesures appropriées. «
Après que la mère ait envoyé à Discord les liens demandés il y a plus d’un an, la société n’a jamais répondu. Bien que la société ait déclaré à CNN Business qu’elle ne commentait pas les cas spécifiques signalés, elle a déclaré qu’elle examinait tous les rapports de contenu inapproprié avec un mineur, enquêtait sur le comportement et prenait les mesures appropriées.
Amanda Schneider, qui vit à l’extérieur de Phoenix, a déclaré qu’elle était également déçue de la façon dont la plate-forme a répondu à ses préoccupations lorsqu’elle a déclaré qu’un homme d’une vingtaine d’années avait entretenu une relation inappropriée avec son fils de 13 ans, demandant à l’adolescent de se masturber et de lui dire. à ce sujet par la suite.
« Discord m’a dit que je ne pouvais rien faire à moins d’avoir des liens spécifiques vers le fil de texte qui montrait que mon fils vérifiait son âge – comme taper « J’ai 13 ans », qui était partagé par une voix [chat] – et l’autre personne vérifiant son âge avant qu’un incident ne se produise », a déclaré Schneider.
« C’était tout simplement horrible; il n’y avait aucune aide du tout », a-t-elle déclaré. Après avoir signalé l’incident aux forces de l’ordre, elle a appris qu’il était un délinquant sexuel enregistré et qu’il avait été arrêté, selon Schneider.
La société a déclaré à CNN Business que la raison pour laquelle elle nécessite des liens vers le chat et ne peut pas utiliser de captures d’écran ou de pièces jointes pour vérifier le contenu est d’empêcher les utilisateurs de potentiellement falsifier des informations pour causer des ennuis aux autres. Il a ajouté que les parents ont la possibilité d’utiliser son formulaire de rapport pour signaler des utilisateurs spécifiques à l’équipe Trust & Safety.
Selon Citron, professeur de droit à l’Université de Virginie, les discussions voix à voix sur Discord rendent les rapports encore plus difficiles pour les parents. « Contrairement aux conversations textuelles, les prédateurs prospèrent dans l’espace vocal car il n’y a pas d’enregistrement », a-t-elle déclaré. « Quand un parent va signaler qu’un enfant s’est engagé avec quelqu’un [inappropriately] ou qu’ils sont soignés par un prédateur sexuel, il n’y a souvent aucune preuve [because audio isn’t saved]. »
Discord a déclaré que ses règles et normes concernant l’audio sont les mêmes que ses politiques de texte et d’image. Mais il a déclaré à CNN Business que, comme d’autres plates-formes, l’audio présente un ensemble de défis différents pour la modération que la communication textuelle. Discord a déclaré qu’il ne stocke ni n’enregistre les conversations vocales, mais son équipe enquête sur les rapports d’utilisation abusive et examine les informations des canaux textuels dans le cadre de ce processus.
CE QUE LES PARENTS PEUVENT FAIRE
Certains parents comme Stéphane Cotichini, un développeur professionnel de jeux vidéo, pensent que Discord peut être une plateforme positive pour les jeunes utilisateurs si les bons contrôles parentaux sont en place. Ses fils adolescents qui utilisent le site pour jouer ont activé une poignée de fonctionnalités de Discord, telles que la restriction des messages directs aux seuls amis.
« Je sais que Discord peut être problématique, mais il est important pour moi en tant que parent de ne pas simplement interdire ces choses à cause des dangers, mais d’enseigner à mes enfants comment les naviguer et équilibrer leur limitation », a-t-il déclaré. « A ma connaissance, je n’ai jamais eu de problème avec aucun de mes garçons. »
Cotichini, qui utilise Discord pour discuter avec sa propre équipe au travail, a déclaré que la plate-forme est un endroit précieux pour les autres joueurs qui peuvent se rendre sur ses serveurs et peser sur ce qu’ils développent en temps réel. Il attribue également la plate-forme pour encourager l’amour du jeu de ses fils; deux ont déjà réalisé leurs propres programmes, dont un qui a remporté un prix au XPrize Connect Code Games Challenge en 2021.
« Si, à un jeune âge, je peux les amener à passer un pourcentage de leur temps à créer du contenu plutôt qu’à en consommer, j’ai l’impression de réussir d’une manière ou d’une autre », a-t-il déclaré.
Comme pour les autres plateformes sociales, les parents avec des enfants sur Discord doivent respecter les restrictions d’âge et activer le contrôle parental, a déclaré Rich Wistocki, un ancien détective de l’Illinois qui dirige maintenant la formation Be Sure Cyber pour aider les parents, les administrateurs scolaires et les forces de l’ordre à en savoir plus sur le dangers des réseaux sociaux. En cas d’incident, il a déclaré que les parents devraient prendre des captures d’écran du chat, des photos, de la vidéo, de l’identifiant de l’utilisateur et enregistrer des liens vers le texte dans la chaîne lors du signalement.
« Les parents ne pensent souvent pas que ces choses arriveront à leurs enfants », a-t-il déclaré. « Plus peut être fait pour empêcher que ces incidents ne se poursuivent. »