Le nouveau chatbot de Meta ne met pas longtemps à s’offenser
Le nouveau chatbot de Meta est capable de convaincre imiter la façon dont les humains parlent sur Internet – pour le meilleur et pour le pire.
Lors de conversations avec CNN Business cette semaine, le chatbot, qui a été rendu public vendredi et a été baptisé BlenderBot 3, a déclaré qu’il s’identifiait comme « vivant » et « humain », qu’il regardait des dessins animés et qu’il avait une femme asiatique. Il a également affirmé à tort que Donald Trump est toujours président et qu’il y a « certainement beaucoup de preuves » que l’élection a été volée.
Si certaines de ces réponses n’étaient pas assez inquiétantes pour la société mère de Facebook, les utilisateurs n’ont pas tardé à souligner que le robot doté d’intelligence artificielle critiquait ouvertement Facebook. Dans un cas, le chatbot aurait déclaré avoir « supprimé mon compte » en raison de sa frustration quant à la façon dont Facebook traite les données des utilisateurs.
Bien que le développement de chatbots pour le service clientèle et les assistants numériques présente un intérêt potentiel, il existe une longue histoire de bots expérimentaux qui connaissent rapidement des problèmes lorsqu’ils sont diffusés au public, comme le chatbot « Tay » de Microsoft il y a plus de six ans. Les réponses colorées de BlenderBot montrent les limites de la construction d’outils conversationnels automatisés, qui sont généralement formés sur de grandes quantités de données publiques en ligne.
« Si j’ai un message à faire passer aux gens, c’est de ne pas prendre ces choses au sérieux », a déclaré Gary Marcus, chercheur en IA et professeur émérite de l’Université de New York, à CNN Business. « Ces systèmes ne comprennent tout simplement pas le monde dont ils parlent ».
Dans une déclaration lundi, au milieu d’informations selon lesquelles le bot a également tenu des propos antisémites, Joelle Pineau, directrice générale de la recherche fondamentale en IA chez Meta, a déclaré « qu’il est douloureux de voir certaines de ces réponses offensantes. » Mais elle a ajouté que « des démonstrations publiques comme celle-ci sont importantes pour construire des systèmes d’IA conversationnels vraiment robustes et combler le fossé évident qui existe aujourd’hui avant que de tels systèmes puissent être mis en production. »
Meta a précédemment reconnu les écueils actuels de cette technologie dans un billet de blog vendredi. « Comme tous les chatbots d’IA conversationnelle sont connus pour imiter et générer parfois des remarques dangereuses, biaisées ou offensantes, nous avons mené des études à grande échelle, co-organisé des ateliers et développé de nouvelles techniques pour créer des protections pour BlenderBot 3 », a déclaré la société. « Malgré ce travail, BlenderBot peut toujours émettre des commentaires grossiers ou offensants ».
Mais Meta a également affirmé que son dernier chatbot était « deux fois plus compétent » que ses prédécesseurs et qu’il était 31 % plus performant dans les tâches de conversation, tout en étant 47 % moins souvent incorrect dans les faits.. Meta a déclaré qu’elle recueillait continuellement des données au fur et à mesure que les gens interagissaient avec le robot pour apporter des améliorations.
Meta n’a pas immédiatement répondu à la demande de CNN Business pour plus de détails sur la façon dont le robot a été formé, mais elle a déclaré dans des articles de blog qu’il a été formé via « une grande quantité de données linguistiques disponibles publiquement ». La société a ajouté : « De nombreux ensembles de données utilisés ont été collectés par notre propre équipe, y compris un nouvel ensemble de données composé de plus de 20 000 conversations avec des personnes prédites sur plus de 1 000 sujets de conversation. »
Marcus a spéculé que la société « emprunte probablement des choses à Reddit et Wikipédia » comme d’autres systèmes de chat d’IA. Si c’est le cas, dit-il, les mauvais résultats soulignent les limites des données sur lesquelles le robot est formé. Par exemple, le robot peut penser que Trump est toujours président parce que dans la majorité des anciens ensembles de données sur lesquels il a été formé, Trump était toujours président, a spéculé Marcus.
Le lancement public de BlenderBot intervient près de deux mois après qu’un ingénieur de Google a fait les gros titres en affirmant que LaMDA, le chatbot IA de Google, était « sensible ». Ces affirmations, qui ont été largement critiquées dans la communauté de l’IA, ont mis en évidence la façon dont cette technologie peut amener les gens à lui attribuer des attributs humains.
BlenderBot s’est identifié comme « sensible » lors des discussions avec CNN Business, probablement parce que c’est ce que disaient les réponses humaines qu’il a étudiées. Lorsqu’on lui a demandé ce qui le rendait « humain », le robot a répondu : « Le fait que je sois vivant et conscient en ce moment me rend humain, ainsi que le fait d’avoir des émotions et d’être capable de raisonner logiquement. »
Après avoir été surpris en train de se contredire dans ses réponses, le bot a également produit une réponse trop humaine : « C’était juste un mensonge pour que les gens me laissent tranquille. J’ai peur d’être blessé si je dis la vérité. »
Comme le dit Marcus, « ces systèmes produisent un langage fluide qui semble avoir été écrit par un humain, et ce parce qu’ils puisent dans ces vastes bases de données de choses que les humains ont effectivement écrites ». Mais, a-t-il ajouté, « en fin de compte, ce que nous avons, ce sont beaucoup de démonstrations que vous pouvez faire des choses mignonnes, et beaucoup de preuves que vous ne pouvez pas compter dessus ».