Anucha Tiemsom/Shutterstock
Lorsque OpenAI a dévoilé ChatGPT le 30 novembre 2022, la réponse a été modeste. En deux mois, la plateforme avait rassemblé 100 millions d’utilisateurs actifs, établissant ainsi le record de l’application à la croissance la plus rapide de l’histoire. Cette adoption rapide s’est répercutée sur tous les secteurs qui dépendent du langage humain, et l’éducation ne fait pas exception. Les universités et les écoles du monde entier se sont retrouvées à se démener pour déterminer si le travail des étudiants était véritablement le leur ou s'il était le produit d'une machine.
Pour de nombreux enseignants, les détecteurs d’IA semblaient être une panacée :un moyen de distinguer l’effort de la tromperie. Pourtant, avant même que ChatGPT n’existe, les logiciels anti-plagiat étaient déjà aux prises avec des faux positifs, pénalisant injustement les étudiants. Les nouveaux outils d’IA n’ont fait qu’amplifier ce problème. Les étudiants peuvent désormais produire des essais soignés en quelques frappes, se déchargeant ainsi de la pensée critique que l’apprentissage est censé nourrir. Dans leur course au maintien du rythme, les enseignants s'appuient de plus en plus sur des outils de détection qui classent à tort les travaux originaux comme générés par des machines, ce qui conduit à des accusations injustifiées de tricherie.
Dans cet article, nous examinons l'impact de l'IA sur les écoles du monde entier (encourageant la tricherie, favorisant la dépendance technologique et diffusant de la désinformation), tout en ouvrant la voie à une éducation plus centrée sur l'humain dans une ère de changement technologique sans précédent.
Xavier Lorenzo/Shutterstock
ChatGPT et les plateformes similaires offrent aux étudiants un nouveau raccourci vers la malhonnêteté académique. Au-delà de la génération d'essais, ces outils peuvent résoudre des problèmes mathématiques complexes (avec une précision variable) et même produire du code informatique à partir d'un minimum d'invites. Il est notoirement difficile de détecter de tels travaux. Une étude publiée dans PLOS One a demandé à des chercheurs de soumettre des essais entièrement générés par l'IA au système d'examen d'un programme de psychologie britannique ; 94 % des soumissions n’ont pas été détectées. Dans les cours d'informatique, les enseignants craignent que GitHub Copilot et d'autres outils de génération de code nécessitent une refonte complète des programmes.
Les incidents de tricherie alimentés par l’IA se sont multipliés. L'Écosse a signalé des centaines de cas au cours des deux dernières années, et une université turque a récemment arrêté un étudiant qui utilisait une caméra déguisée en bouton de chemise (connectée à l'IA via un routeur caché dans une chaussure) pour recevoir des réponses lors d'un examen d'entrée.
Luis Álvarez/Getty Images
Bien que l'IA puisse rationaliser les opérations en classe, les recherches menées dans *Computers &Education* montrent que les étudiants qui s'appuient fortement sur ces outils font preuve d'une capacité d'action réduite, apprenant davantage en copiant qu'en interagissant avec le contenu. Les enseignants, eux aussi, dépendent de plus en plus des détecteurs de plagiat basés sur l’IA, malgré leurs taux élevés de faux positifs. Une enquête du Center for Democracy &Technology a révélé que les deux tiers d'un échantillon représentatif au niveau national de 460 instructeurs américains utilisent de tels outils.
OpenAI a développé une technique de filigrane qui identifie de manière fiable le texte de l'IA, mais la commercialisation est limitée par les pressions du marché. Les efforts récents de Google pourraient offrir une solution de détection plus accessible. De plus, certains enseignants utilisent l'IA pour noter les dissertations, suscitant des débats éthiques et soulevant des problèmes de confidentialité lorsque les travaux des étudiants sont téléchargés sur ces systèmes sans consentement.
Rob Dobi/Getty Images
Les grands modèles de langage sont sujets aux « hallucinations » :ils présentent des informations fabriquées sur un ton convaincant et autoritaire. Cela est particulièrement problématique dans le domaine de l’éducation, où l’objectif est d’enseigner le raisonnement fondé sur des faits. En décembre 2023, un élève du lycée Hingham, dans le Massachusetts, a reçu une note d'échec dans un projet AP U.S. History après avoir soumis un texte généré par l'IA citant des sources inexistantes. L’absence de politique anti-IA à l’école a conduit les parents de l’élève à intenter une action en justice pour obtenir une inversion de note, une demande que la Cour fédérale a rejetée.
Scientific Reports rapporte que 55 % des revues de littérature produites par ChatGPT‑3.5 et 18 % par ChatGPT‑4 contenaient des citations fabriquées. À mesure que les enseignants intègrent l’IA dans la planification des cours, le risque de diffuser par inadvertance de fausses informations aux élèves augmente.
Tarikvision/Getty Images
Les systèmes d’IA formés sur de vastes ensembles de données non filtrés peuvent perpétuer et amplifier les préjugés existants. OpenAI reconnaît que ses modèles tendent vers les points de vue occidentaux et favorisent la saisie en anglais. Ce biais peut désavantager les anglophones non natifs, les détecteurs d'IA signalant plus fréquemment leur travail comme étant généré par une machine.
Les analyses prédictives utilisées dans les écoles, telles que les outils qui prédisent la probabilité d’obtention d’un diplôme d’études secondaires, classent souvent à tort les élèves issus de minorités. Un système du Wisconsin, utilisé depuis 2012, a identifié à plusieurs reprises les étudiants noirs et hispaniques comme étant à risque, mais l'algorithme était erroné dans près des trois quarts du temps, faussant les perceptions des éducateurs.
Eyesfoto/Getty Images
Malgré ses défis, l’IA peut améliorer l’expérience éducative lorsqu’elle est appliquée de manière réfléchie. Des études montrent que les outils d’IA constituent des partenaires de brainstorming efficaces, suscitant la curiosité et l’enquête. Les étudiants doivent d’abord mettre en pratique leur réflexion originale avant de tirer parti de l’IA comme tuteur pour une exploration plus approfondie. Les commentaires basés sur l'IA et la génération de contenu en temps réel peuvent créer un environnement d'apprentissage plus réactif et personnalisé.
L’équilibre est la clé pour libérer les avantages de l’IA tout en atténuant ses méfaits. Pour ceux qui s'intéressent à l'impact sociétal plus large de l'IA, consultez notre analyse des préoccupations d'Elon Musk concernant DeepMind de Google et l'incident impliquant le dialogue de Google Gemini avec un étudiant.