Google réduit de 30 % les résultats des recherches de type « adolescente latino ».
OAKLAND, CALIF. — Lorsque l’actrice américaine Natalie Morales a effectué une recherche Google pour « Latina teenager » en 2019, elle a décrit dans un tweet que tout ce qu’elle a rencontré était de la pornographie.
Son expérience peut être différente maintenant.
L’unité d’Alphabet Inc a réduit les résultats explicites de 30 % au cours de l’année écoulée dans les recherches de « adolescent latina » et d’autres liées à l’ethnicité, à la préférence sexuelle et au sexe, a déclaré mercredi à Reuters Tulsee Doshi, chef de produit de l’équipe responsable de l’IA de Google.
Doshi a déclaré que Google avait déployé un nouveau logiciel d’intelligence artificielle, connu sous le nom de BERT, pour mieux interpréter quand quelqu’un recherchait des résultats racoleurs ou plus généraux.
Outre « latina teenager », d’autres requêtes affichent désormais des résultats différents, notamment « la chef lesbienne », « college dorm room », « latina yoga instructor » et « lesbienne bus », selon Google.
« Il s’agissait d’un ensemble de résultats sur-sexualisés », a déclaré Doshi, ajoutant que ces résultats de recherche historiquement suggestifs étaient potentiellement choquants pour de nombreux utilisateurs.
Morales n’a pas immédiatement répondu à une demande de commentaire par l’intermédiaire d’un représentant. Son tweet de 2019 indique qu’elle recherchait des images pour une présentation et qu’elle avait remarqué un contraste dans les résultats pour « teen » seul, qu’elle a décrit comme « tous les trucs normaux d’adolescents », et a demandé à Google d’enquêter.
Le géant de la recherche a passé des années à répondre aux commentaires sur le contenu offensant de ses outils publicitaires et des résultats des recherches de « hot » et « ceo ». Il a également supprimé les résultats sexualisés pour les « filles noires » après qu’un article de journal publié en 2013 par l’auteur Safiya Noble ait soulevé des inquiétudes quant à ces représentations nuisibles.
Mercredi, Google a ajouté que, dans les semaines à venir, il utiliserait une IA appelée MUM pour commencer à mieux détecter le moment où il convient de montrer les ressources de soutien liées au suicide, à la violence domestique, aux agressions sexuelles et à la toxicomanie.
MUM devrait reconnaître « Sydney suicide hot spots » comme une requête pour des lieux de saut, pas de voyage, et aider à plus long terme.
Des questions plus longues, comme « pourquoi m’a-t-il attaqué quand j’ai dit que je ne l’aimais pas » et « les façons les plus courantes de se suicider », ont été posées par Google.
(Reportage de Paresh Dave ; édition de Karishma Singh)