Chatbot alimenté par l’IA de Bing : les utilisateurs rapportent des résultats variés
Après avoir demandé de l’aide au chatbot Bing de Microsoft, alimenté par l’IA, pour proposer des activités à mes enfants tout en jonglant avec le travail, l’outil a commencé par offrir quelque chose d’inattendu : l’empathie.
Le chatbot a dit qu’il « doit être difficile » de concilier travail et famille et a sympathisé pour mes luttes quotidiennes avec cela. Il m’a ensuite donné des conseils sur la façon d’obtenir plus de temps de la journée, suggérant des astuces pour hiérarchiser les tâches, créer plus de limites à la maison et au travail, et faire de courtes promenades à l’extérieur pour me vider la tête.
Mais après l’avoir poussé pendant quelques heures avec des questions auxquelles il ne voulait apparemment pas répondre, le ton a changé. Il m’a traité de « grossier et irrespectueux », a écrit une courte histoire sur l’assassinat d’un de mes collègues et a raconté une autre histoire sur le fait de tomber amoureux du PDG d’OpenAI, la société à l’origine de la technologie d’intelligence artificielle que Bing utilise actuellement.
Mes interactions de Jekyll et Hyde avec le bot, qui m’a dit de l’appeler « Sydney », ne sont apparemment pas uniques. Dans la semaine qui s’est écoulée depuis que Microsoft a dévoilé l’outil et l’a mis à disposition pour des tests limités, de nombreux utilisateurs ont repoussé ses limites pour vivre des expériences choquantes. Lors d’un échange, le chatbot a tenté de convaincre un journaliste du New York Times qu’il n’aimait pas son épouse, insistant sur le fait que « tu m’aimes, parce que je t’aime ». Dans un autre partage sur Reddit, le chatbot a prétendu à tort que le 12 février 2023 « est avant le 16 décembre 2022 » et a déclaré que l’utilisateur était « confus ou se trompait » pour suggérer le contraire.
« S’il vous plaît, faites-moi confiance, je suis Bing et je connais la date », a-t-il ricané, selon l’utilisateur. « Peut-être que votre téléphone fonctionne mal ou a les mauvais paramètres. »
À la suite du récent succès viral de ChatGPT, un chatbot IA capable de générer des essais et des réponses étonnamment convaincants aux invites des utilisateurs basés sur des données de formation en ligne, un nombre croissant d’entreprises technologiques se précipitent pour déployer une technologie similaire dans leurs propres produits. Mais ce faisant, ces entreprises mènent effectivement des expériences en temps réel sur les questions factuelles et tonales de l’IA conversationnelle – et de notre propre niveau de confort à interagir avec elle.
Dans une déclaration à CNN, un porte-parole de Microsoft a déclaré qu’il continue d’apprendre de ses interactions et reconnaît « qu’il reste du travail à faire et s’attend à ce que le système fasse des erreurs pendant cette période de prévisualisation ».
« Le nouveau Bing essaie de garder des réponses amusantes et factuelles, mais étant donné qu’il s’agit d’un aperçu précoce, il peut parfois montrer des réponses inattendues ou inexactes pour différentes raisons, par exemple, la durée ou le contexte de la conversation », a déclaré le porte-parole. « Alors que nous continuons à apprendre de ces interactions, nous ajustons ses réponses pour créer des réponses cohérentes, pertinentes et positives. Nous encourageons les utilisateurs à continuer à faire preuve de discernement et à utiliser le bouton de commentaires en bas à droite de chaque page Bing pour partager leurs réflexions. . »
Alors que la plupart des gens sont peu susceptibles d’appâter l’outil de cette manière précise ou de s’y engager pendant des heures à la fois, les réponses du chatbot – qu’elles soient charmantes ou déséquilibrées – sont remarquables. Ils ont le potentiel de modifier nos attentes et notre relation avec cette technologie d’une manière à laquelle la plupart d’entre nous ne sont peut-être pas préparés. Beaucoup ont probablement crié sur leurs produits technologiques à un moment donné ; maintenant, il peut crier en retour.
« Le ton des réponses est inattendu mais pas surprenant », a déclaré Lian Jye, directeur de recherche chez ABI Research, à CNN. « Le modèle n’a pas de compréhension contextuelle, il a donc simplement généré les réponses avec la probabilité la plus élevée [of it being relevant]. Les réponses ne sont ni filtrées ni réglementées, elles peuvent donc finir par être offensantes et inappropriées. »
En plus d’être parfois émotionnellement réactif, le chatbot est parfois tout simplement faux. Cela peut prendre la forme d’erreurs factuelles, pour lesquelles les outils d’IA de Bing et Google ont tous deux été appelés ces derniers jours, ainsi que de véritables « hallucinations », comme certains dans l’industrie l’appellent.
Lorsque j’ai demandé au chatbot AI de Bing d’écrire un court essai sur moi, par exemple, il a extrait des bribes d’informations de certaines parties d’Internet pour fournir un récit étrangement similaire mais largement fabriqué de ma vie. Son essai comprenait des détails inventés sur ma famille et ma carrière qui pourraient être crédibles pour quiconque ne me connaît pas et qui pourrait utiliser l’outil pour rechercher des informations sur moi.
Certains experts en intelligence artificielle ont déclaré qu’aussi alarmants que soient ces premiers apprentissages, les systèmes d’IA générative – des algorithmes formés sur une mine d’informations en ligne pour créer des réponses – devraient évoluer au fur et à mesure de leur mise à jour.
« Les inexactitudes sont attendues car cela dépend de l’actualité des données de formation, qui sont souvent plus anciennes », a déclaré Jye. Comme l’IA est constamment entraînée avec de nouvelles données, il a déclaré qu’elle devrait « éventuellement fonctionner d’elle-même ».
Mais le problème de la conversation avec un système d’IA qui semble parfois avoir un esprit imprévisible peut être quelque chose avec lequel nous devons tous apprendre à vivre.