Après l’interdiction de ChatGPT aux étudiants, les profs tombent aussi dans le piège
On imaginait que les profs, gardiens du Temple du Savoir, étaient immunisés contre les raccourcis technologiques. Mais surprise : l’intelligence artificielle s’invite, discrètement ou non, jusqu’au cœur de l’enseignement – et cela ne va pas sans remous. Petite plongée dans une mutation silencieuse qui laisse bien des étudiants perplexes…
Professeurs : de passeurs de savoir à utilisateurs discrets (ou assumés) de l’IA
Autrefois vus comme les intransigeants défenseurs d’un savoir transmis sans intermédiaire, de plus en plus d’enseignants délèguent aujourd’hui des pans entiers de leurs tâches à des assistants numériques. De la rédaction de documents de cours à la création de quiz, en passant par les corrections et les retours personnalisés, tout y passe ! Pour beaucoup, cela permet d’alléger un quotidien bien chargé… et de dégainer un quiz plus vite qu’un étudiant ne sort son portable sous la table.
Certains, courageux dans l’âme (ou juste honnêtes), revendiquent cette révolution :
- David Malan, à Harvard, a mis au point un chatbot pour accompagner son cours d’informatique.
- Katy Pearce, à l’université de Washington, s’appuie sur une IA entraînée selon ses propres critères d’évaluation. Résultat : ses étudiants progressent même en son absence, selon le New York Times.
Mais tous ne sont pas aussi transparents…
Chuchotements numériques et malaise étudiant
D’autres enseignants, faute de temps ou pris dans la tempête des corrections, délèguent à l’IA sans prévenir personne. Rick Arrowood, professeur à la Northeastern University, a reconnu n’avoir pas relu en détail ses supports générés par des outils d’IA, ni mentionné cette aide à ses étudiants. Il le regrette d’ailleurs, avec la sincérité d’un enfant pris la main dans le pot de cookies. C’est que cette pratique soulève bien des questions sur la confiance.
Ce manque de transparence laisse un goût amer à nombre d’étudiants qui commencent à flairer l’arnaque :
- Styles impersonnels, vocabulaires répétitifs, images parfois incohérentes : les signes de textes générés automatiquement ne trompent plus.
- Des étudiants développent même une expertise dans la détection des contenus produits par l’IA et n’hésitent plus à signaler ce qu’ils jugent être un manque d’implication.
L’affaire Ella Stapleton illustre ce malaise : cette étudiante de Northeastern a découvert dans ses supports une requête adressée à ChatGPT. Vexée comme un pou après une mauvaise farce, elle a réclamé un remboursement de ses frais. Sur la plateforme « Rate My Professors », les critiques pleuvent, pointant des contenus standardisés jugés incompatibles avec une formation de qualité.
Le sentiment de trahison redouble d’intensité lorsqu’on interdit aux étudiants d’utiliser ces mêmes outils d’IA. Difficile de ne pas crier à l’injustice, voire à l’hypocrisie…
Le grand rattrapage des universités : encadrer pour ne pas sombrer
Face à la grogne, plusieurs universités réagissent. Certaines mettent en place des cadres réglementaires pour encadrer l’usage de l’IA dans l’enseignement. À Berkeley, par exemple, il est obligatoire de mentionner explicitement tout contenu généré, avec une vérification humaine. Des établissements français emboîtent le pas, reconnaissant que « l’interdiction totale n’est plus réaliste ». Il faut croire que même le numérique a ses chausse-trapes…
Le New York Times rapporte une enquête de Tyton Partners : près d’un professeur sur trois utilise l’IA régulièrement, mais rares sont ceux qui l’indiquent à leurs étudiants. De quoi entretenir les tensions.
Paul Shovlin, professeur à l’université de l’Ohio, met les points sur les i : selon lui, tout réside dans la manière d’intégrer l’outil. L’enseignant doit rester un interlocuteur humain, capable d’interpréter, d’évaluer et, surtout, de dialoguer. Un humain, donc, pas une boîte noire algorithmique.
La transparence : clé d’un nouvel équilibre entre pédagogie et technologie ?
Face à ce grand chambardement, certains professeurs préfèrent expliquer, encadrer et utiliser l’IA pour enrichir leurs interactions avec les étudiants. Ce n’est pas encore la norme, mais cette démarche pourrait bien réconcilier innovation pédagogique et confiance. Après tout, la technologie ne tue pas la pédagogie : elle la bouscule, la questionne, et, avec un peu d’humilité, l’enrichit !
Alors, enseignants, étudiants : bientôt un nouveau contrat moral autour de l’IA ? Challenge accepté !