Point de vue d’expert : évaluer au temps des IAg

  • Formation
Publié le 17 février 2026 Mis à jour le 20 février 2026
Date(s)

le 17 février 2026

pve
pve

Professeure associée de l’Université de Sherbrooke, spécialiste de l’évaluation des apprentissages et des compétences, Isabelle Nizet, était intervenue à Université Côte d’Azur

À la suite du séminaire, « Repenser ses pratiques évaluatives au temps des IA génératives », qui s’est déroulé en novembre 2025, notre invitée s’est prêtée à l’exercice de l’interview pour notre premier épisode de la série « Point de vue d’expert ».  Son propos : dépasser les questionnements liés à la fraude pour repenser en profondeur notre rapport à la preuve, au jugement et au sens même de l’évaluation. Un enjeu majeur, alors que l’IA bouleverse l’accès à la connaissance et interroge le contrat de confiance entre enseignants et étudiants. 
 

La question centrale : « qu’est-ce qu’une bonne preuve » ? 

Il y a un an à peine, le débat sur l’IA en éducation était dominé par la peur de la fraude : travaux « trop parfaits », soupçons, perte de confiance. Or, selon Isabelle Nizet, entrer par la seule question de la tricherie est réducteur. Le véritable point d’entrée est la preuve d’apprentissage. En évaluation, explique-t-elle, tout repose sur une condition implicite : la preuve produite par l’étudiant doit être authentique, légitime, crédible, fiable et valide. Dès que l’enseignant doute de l’authenticité d’un travail, le processus de jugement se grippe. L’IA vient donc bousculer le cœur du système : 

  • Qu’est-ce qu’une preuve valable aujourd’hui ? 
  • Pourquoi un étudiant aurait-il intérêt à produire une preuve authentique s’il peut obtenir une performance « crédible » en quelques clics ? 

Le risque : une régression pédagogique  

Face à la vulnérabilité des évaluations traditionnelles (notamment les travaux écrits réalisés à domicile), une tentation apparaît : renforcer le contrôle. Retour aux examens écrits surveillés, aux oraux individuels, à des dispositifs hautement sécurisés. 

Si ces formats garantissent une certaine authenticité, ils risquent aussi de limiter l’évaluation à des connaissances déclaratives ou applicatives, au détriment du développement de compétences complexes. Isabelle Nizet y voit un danger : une régression pédagogique. Pour éviter cet écueil, il faudrait maintenir ce qu’elle appelle la plus-value pédagogique de l’évaluation : informer l’étudiant sur ses progrès, soutenir la régulation, donner du sens à l’effort d’authenticité. 

Rendre les évaluations « résilientes » à l’IA 

Plutôt que d’interdire ou de contrôler massivement, elle propose dans cette interview une démarche pragmatique qui implique d’analyser ses pratiques actuelles pour évaluer quelles tâches sont vulnérables à l’IA, tester soi-même les consignes avec différents outils d’IA, identifier les étapes les plus sensibles dans une tâche et, finalement, décider de conserver (ou non), adapter ou intégrer explicitement l’IA. 

Car intégrer l’IA peut devenir une opportunité. Par exemple la qualité des requêtes (ou « prompts ») formulées par l’étudiant peut constituer une preuve d’apprentissage

Vers des changements systémiques ? 

Selon Isabelle Nizet, au-delà des outils, c’est le modèle universitaire lui-même qui pourrait évoluer : organisation des espace-temps d’apprentissage, place de l’enseignant, finalités de l’évaluation. L’IA oblige à une remise en question globale des pratiques évaluatives, des pédagogies qui les entourent et des finalités de formation. Et face à tout cela, « on prend nos pelles, nos marteaux, et on se met au boulot », conclut-elle, en ajoutant que bien que constituant un défi, l’IA générative constitue peut-être une occasion historique : celle de redonner à l’évaluation sa fonction première : favoriser l’apprentissage. 

Retrouver l’interview « Point de vue d’expert » d’Isabelle Nizet : « Evaluer au temps des IAg »