le 17 février 2026
Professeure associée de l’Université de Sherbrooke, spécialiste de l’évaluation des apprentissages et des compétences, Isabelle Nizet, était intervenue à Université Côte d’Azur
La question centrale : « qu’est-ce qu’une bonne preuve » ?
Il y a un an à peine, le débat sur l’IA en éducation était dominé par la peur de la fraude : travaux « trop parfaits », soupçons, perte de confiance. Or, selon Isabelle Nizet, entrer par la seule question de la tricherie est réducteur. Le véritable point d’entrée est la preuve d’apprentissage. En évaluation, explique-t-elle, tout repose sur une condition implicite : la preuve produite par l’étudiant doit être authentique, légitime, crédible, fiable et valide. Dès que l’enseignant doute de l’authenticité d’un travail, le processus de jugement se grippe. L’IA vient donc bousculer le cœur du système :
- Qu’est-ce qu’une preuve valable aujourd’hui ?
- Pourquoi un étudiant aurait-il intérêt à produire une preuve authentique s’il peut obtenir une performance « crédible » en quelques clics ?
Le risque : une régression pédagogique
Face à la vulnérabilité des évaluations traditionnelles (notamment les travaux écrits réalisés à domicile), une tentation apparaît : renforcer le contrôle. Retour aux examens écrits surveillés, aux oraux individuels, à des dispositifs hautement sécurisés.
Si ces formats garantissent une certaine authenticité, ils risquent aussi de limiter l’évaluation à des connaissances déclaratives ou applicatives, au détriment du développement de compétences complexes. Isabelle Nizet y voit un danger : une régression pédagogique. Pour éviter cet écueil, il faudrait maintenir ce qu’elle appelle la plus-value pédagogique de l’évaluation : informer l’étudiant sur ses progrès, soutenir la régulation, donner du sens à l’effort d’authenticité.
Rendre les évaluations « résilientes » à l’IA
Plutôt que d’interdire ou de contrôler massivement, elle propose dans cette interview une démarche pragmatique qui implique d’analyser ses pratiques actuelles pour évaluer quelles tâches sont vulnérables à l’IA, tester soi-même les consignes avec différents outils d’IA, identifier les étapes les plus sensibles dans une tâche et, finalement, décider de conserver (ou non), adapter ou intégrer explicitement l’IA.
Car intégrer l’IA peut devenir une opportunité. Par exemple la qualité des requêtes (ou « prompts ») formulées par l’étudiant peut constituer une preuve d’apprentissage.
Vers des changements systémiques ?
Selon Isabelle Nizet, au-delà des outils, c’est le modèle universitaire lui-même qui pourrait évoluer : organisation des espace-temps d’apprentissage, place de l’enseignant, finalités de l’évaluation. L’IA oblige à une remise en question globale des pratiques évaluatives, des pédagogies qui les entourent et des finalités de formation. Et face à tout cela, « on prend nos pelles, nos marteaux, et on se met au boulot », conclut-elle, en ajoutant que bien que constituant un défi, l’IA générative constitue peut-être une occasion historique : celle de redonner à l’évaluation sa fonction première : favoriser l’apprentissage.
Retrouver l’interview « Point de vue d’expert » d’Isabelle Nizet : « Evaluer au temps des IAg »