Le chatbot IA peut écrire des essais
Imaginez si Siri pouvait vous écrire un essai universitaire, ou si Alexa pouvait cracher une critique de film dans le style de Shakespeare.
La semaine dernière, OpenAI a ouvert l’accès à ChatGPT, un chatbot alimenté par l’IA qui interagit avec les utilisateurs d’une manière étrangement convaincante et conversationnelle. Sa capacité à fournir des réponses longues, réfléchies et approfondies aux questions et aux invites – même si elles sont inexactes – a stupéfié les utilisateurs, y compris les universitaires et certains dans l’industrie technologique.
L’outil est rapidement devenu viral. Lundi, le co-fondateur d’Open AI, Sam Altman, un éminent investisseur de la Silicon Valley, a déclaré sur Twitter que ChatGPT avait traversé un million d’utilisateurs. Il a également attiré l’attention de certains leaders technologiques de premier plan, tels que le PDG de Box, Aaron Levie.
« Il y a un certain sentiment qui se produit lorsqu’une nouvelle technologie ajuste votre réflexion sur l’informatique. Google l’a fait. Firefox l’a fait. AWS l’a fait. iPhone l’a fait. OpenAI le fait avec ChatGPT », Levie a dit sur Twitter.
Mais comme avec d’autres outils alimentés par l’IA, cela pose également des problèmes possibles, notamment quant à la façon dont il pourrait perturber les industries créatives, perpétuer les préjugés et propager la désinformation.
QU’EST-CE QUE CHATGPT ?
ChatGPT est un grand modèle de langage formé sur une énorme mine d’informations en ligne pour créer ses réponses. Il provient de la même société derrière DALL-E, qui génère une gamme apparemment illimitée d’images en réponse aux invites des utilisateurs. C’est aussi la prochaine itération du générateur de texte GPT-3.
Après s’être inscrits à ChatGPT, les utilisateurs peuvent demander au système d’IA de répondre à une série de questions, telles que « Qui était le président des États-Unis en 1955 », ou de résumer des concepts difficiles en quelque chose qu’un élève de deuxième année pourrait comprendre. Il abordera même des questions ouvertes, telles que « Quel est le sens de la vie ? » ou « Que dois-je porter s’il fait 40 degrés aujourd’hui ? »
« Cela dépend des activités que vous envisagez de faire. Si vous prévoyez d’être à l’extérieur, vous devez porter une veste ou un pull léger, un pantalon long et des chaussures fermées », a répondu ChatGPT. « Si vous prévoyez d’être à l’intérieur, vous pouvez porter un t-shirt et un jean ou tout autre vêtement confortable. »
Mais certains utilisateurs deviennent très créatifs.
COMMENT LES GENS L’UTILISENT
Une personne a demandé le chatbot pour réécrire la chanson à succès des années 90, « Baby Got Back », dans le style de « The Canterbury Tales » ; une autre a écrit une lettre pour supprimer un mauvais compte d’un rapport de crédit (plutôt que d’utiliser un avocat de réparation de crédit). D’autres exemples colorés, y compris demander Conseils de décoration inspirés des contes de fées et en lui donnant une question d’examen d’anglais AP (il a répondu avec un dissertation de 5 paragraphes à propos de Wuthering Heights.)
Dans un article de blog la semaine dernière, OpenAI a déclaré que « le format permet à l’outil de répondre aux questions de suivi, d’admettre ses erreurs, de contester les prémisses incorrectes et de rejeter les demandes inappropriées ».
Lundi matin, la page pour essayer ChatGPT était en panne, citant « une demande exceptionnellement élevée ». « Veuillez patienter pendant que nous travaillons à la mise à l’échelle de nos systèmes », disait le message. (Il semble maintenant être de retour en ligne).
PROBLÈMES POSSIBLES
Alors que ChatGPT a répondu avec succès à une variété de questions soumises par CNN, certaines réponses étaient sensiblement erronées. En fait, Stack Overflow – une plate-forme de questions-réponses pour les codeurs et les programmeurs – a temporairement interdit aux utilisateurs de partager des informations de ChatGPT, notant que c’est « substantiellement nuisible au site et aux utilisateurs qui demandent ou recherchent des réponses correctes ».
Au-delà de la diffusion d’informations incorrectes, l’outil pourrait également menacer certaines professions écrites, être utilisé pour expliquer des concepts problématiques et, comme tous les outils d’IA, perpétuer des biais en fonction du pool de données sur lequel il est formé. Taper une invite impliquant un PDG, par exemple, pourrait déclencher une réponse en supposant que l’individu est blanc et de sexe masculin, par exemple.
« Bien que nous ayons fait des efforts pour que le modèle refuse les demandes inappropriées, il répondra parfois à des instructions nuisibles ou affichera un comportement biaisé », a déclaré Open AI sur son site Web. « Nous utilisons l’API de modération pour avertir ou bloquer certains types de contenu dangereux, mais nous nous attendons à ce qu’il ait des faux négatifs et positifs pour le moment. Nous sommes impatients de recueillir les commentaires des utilisateurs pour aider notre travail en cours pour améliorer ce système. «
Pourtant, Lian Jye Su, directeur de recherche à la société d’études de marché ABI Research, prévient que le chatbot fonctionne « sans une compréhension contextuelle de la langue ».
« Il est très facile pour le modèle de donner des réponses plausibles mais incorrectes ou absurdes », a-t-elle déclaré. « Il a deviné quand il était censé clarifier et a parfois répondu à des instructions nuisibles ou a montré un comportement biaisé. Il manque également de compréhension régionale et nationale. »
Dans le même temps, cependant, il donne un aperçu de la manière dont les entreprises peuvent capitaliser sur le développement d’une assistance virtuelle plus robuste, ainsi que sur des solutions de soins aux patients et aux clients.
Bien que l’outil DALL-E soit gratuit, il limite le nombre d’invites qu’un utilisateur peut effectuer avant de payer. Quand Elon Musk, co-fondateur d’OpenAI, a récemment interrogé Altman sur Twitter sur le coût moyen par chat ChatGPT, Altman a déclaré : « Nous devrons le monétiser d’une manière ou d’une autre à un moment donné ; les coûts de calcul sont exorbitants. »