Les universités canadiennes réagissent à la technologie comme ChatGPT
Les chatbots en ligne capables de rédiger des dissertations académiques posent un dilemme aux universités canadiennes qui luttent pour réprimer la tricherie tout en éduquant les étudiants sur les limites de l’utilisation de l’intelligence artificielle.
Dave Cormier, professeur à l’Université de Windsor, dit qu’il intègre l’un des outils les plus connus, ChatGPT, dans sa classe dans le but d’enseigner aux étudiants ses lacunes et comment l’utiliser de manière responsable. Il note que de tels programmes ne feront que s’améliorer et se répandre.
« C’est là-bas, les gens vont l’utiliser », dit-il. « Vous pourriez aussi bien l’incorporer et apprendre aux gens comment l’utiliser de manière éthique. »
ChatGPT, un générateur de texte à intelligence artificielle développé par OpenAI et sorti en novembre 2022, a rapidement attiré l’attention pour sa capacité à produire des idées de paroles de chansons, de poèmes et de scripts. Parmi les étudiants, il est également utilisé pour écrire des essais.
ChatGPT se distingue par sa capacité à générer du fourrage d’expertise variée, allant du lycée aux compositions de niveau universitaire, tandis que d’autres outils en ligne peuvent corriger la grammaire, le ton et la clarté.
Cormier, qui enseigne aux futurs éducateurs différentes méthodes d’enseignement, dit qu’il ne sait pas si des étudiants ont utilisé ChatGPT pour ses devoirs, mais dit qu’ils ont discuté du bot et d’outils similaires dans un cours récent qu’il a dirigé sur les technologies de triche.
Il dit qu’il est très difficile de faire la distinction entre un article authentique et un écrit par le programme, qui fournit une thèse, des arguments et des preuves sans que l’utilisateur ne fasse de recherche.
Les étudiants qui utilisent ChatGPT peuvent affiner leur papier en utilisant d’autres programmes comme Grammarly, qui corrige les fautes d’orthographe et de grammaire et évalue le style et le ton. Et bien sûr, les étudiants peuvent également réécrire des passages dans leur propre voix.
« Modifiez quelques mots, faites-le passer par un autre système de vérification », explique Cormier. « Il n’y a vraiment aucun moyen de gagner ce combat en ce moment. »
Sarah Elaine Eaton, professeure agrégée à l’Université de Calgary, affirme que les écoles doivent accepter que les outils d’IA sont et continueront d’être utilisés. Elle étudie l’impact de l’intelligence artificielle sur l’écriture académique.
Elle dit qu’il existe des moyens éthiques pour les éducateurs d’utiliser la technologie en classe – par exemple, en comparant l’écriture de l’IA à celle d’un élève et en analysant les forces et les faiblesses de l’utilisation de l’outil.
« Nous comprenons que certains éducateurs et parents soient un peu inquiets parce qu’ils pensent que ces outils pourraient faciliter la triche d’une manière ou d’une autre », dit-elle. « Mais il y a aussi une opportunité d’aider les étudiants à apprendre de manière vraiment passionnante. »
Elle dit qu’une classe pourrait utiliser ChatGPT pour écrire un essai sur l’intrigue de « Hamlet », puis analyser la qualité de ce qu’il crache. Ils pourraient également s’interroger sur les références utilisées et sur l’exactitude de l’analyse. Elle dit que cela permettrait aux étudiants de réfléchir de manière critique à l’efficacité de l’outil.
Elle note également que ChatGPT ne produit pas de bibliographie pour accompagner les essais qu’il écrit – un drapeau rouge pour les professeurs essayant de déterminer si un bot était impliqué. Cependant, elle note qu’il existe des outils en ligne qui peuvent générer des notes de bas de page et rechercher des sources pour un article existant.
Eaton, dont le principal domaine de recherche est l’inconduite académique et la tricherie, affirme que l’utilisation d’outils d’IA n’est pas nécessairement de la triche car elle aide à générer des idées.
Elle dit que les écoles surveillent ChatGPT et d’autres technologies d’écriture avant d’élaborer des politiques, car à mesure que la technologie évolue, il est possible de l’intégrer à l’enseignement et de rechercher ses utilisations potentielles.
« C’est vraiment une sorte d’énigme politique en ce moment », dit-elle. « La plupart des politiques d’intégrité académique au Canada et même dans le monde n’ont pas beaucoup de dispositions politiques à cet égard. »
Rebecca Elming, porte-parole de l’Université de Waterloo, a déclaré que l’utilisation non autorisée en classe de bots comme ChatGPT violerait la politique d’intégrité académique de l’école, même si les règles ne les interdisent pas spécifiquement.
Elming dit qu’un comité ad hoc aide les instructeurs à concevoir des devoirs moins vulnérables à la triche de l’IA, et envisage également des moyens d’intégrer les outils de l’IA dans le travail scolaire.
Yanni Dagonas, porte-parole adjoint de l’Université York, a déclaré que l’école de Toronto offrira aux instructeurs une session sur l’intégrité académique et l’IA le 23 février, qui comprendra des conseils sur la façon de prévenir la tricherie, comme clarifier les règles du test à l’avance et décrire les ressources qui ne peuvent pas être utilisé lors d’un essai.
Il dit que certains professeurs limitent l’utilisation de l’IA en demandant aux étudiants de soumettre des brouillons de dissertation et de discuter de leur stratégie d’écriture avec leurs pairs. Certains professeurs demandent aux étudiants de relire le travail des autres pour accroître la collaboration et générer des idées les uns avec les autres.
Cormier dit qu’il contourne le bot en assignant des questions à développement très spécifiques auxquelles un ordinateur ne peut pas répondre.
« Quand j’enseigne, je dirai ‘lié au travail que nous avons fait en classe aujourd’hui, donnez-moi votre opinion à ce sujet' », dit-il.
« Il s’agit vraiment de le rendre contextuel à la salle de classe et de le rendre personnel à l’élève. »
Cormier indique qu’une prochaine session du comité de planification pour tous les professeurs discutera de ChatGPT et des façons dont les professeurs peuvent gérer son utilisation potentielle par les étudiants. Il dit que l’université n’a pas de politique sur de tels outils.
« Parler de ce que nous pensons de l’utilisation éthique de ces outils peut aider les professeurs et je pense que cela aidera également les étudiants », dit-il.
Lesley Wilton, professeure adjointe à la faculté d’éducation de l’Université York, affirme que les outils d’écriture de l’IA ne disparaîtront pas et deviendront plus sophistiqués avec le temps. Elle dit que les écoles devraient les autoriser tant que les élèves accordent un crédit approprié lorsqu’ils sont utilisés.
« Je pense qu’avec ChatGPT, nous devons absolument réfléchir à ce que cela signifie pour nous en tant qu’éducateurs, à ce que cela signifie pour nos étudiants et à la façon de travailler avec lui », dit-elle.
Ce rapport de La Presse canadienne a été publié pour la première fois le 20 janvier 2023.