Published on 27.03.2026
L’alignement pédagogique à l’ère de l’IA générative : maintenir la cohérence des enseignements
L’arrivée de l’intelligence artificielle (IA) transforme les pratiques d’enseignement et d’apprentissage dans l’enseignement supérieur. Si ces évolutions alimentent les débats sur l’intégrité académique, elles soulèvent surtout une question fondamentale : comment adapter son enseignement lorsque l’usage de l’IA par les étudiant·es bouscule les activités d’apprentissage et les modes d’évaluation ?
Ce défi renvoie au principe de l’alignement pédagogique (Biggs, 1996 ; Biggs & Tang, 2011), qui vise à assurer la cohérence entre objectifs d’apprentissage, activités et évaluations. Dans un contexte où les usages de l’IA se multiplient, des désalignements peuvent apparaître, rendant nécessaire une réflexion didactique approfondie.
Pour soutenir cette adaptation, le Service DidaNum accompagne les enseignant·es dans l’analyse et la mise à jour de leurs cours.
1. Un alignement pédagogique qui bascule
L’intégration de l’IA ne se limite pas à l’ajout d’un outil numérique ; elle modifie les processus mêmes par lesquels les étudiant·es apprennent, rédigent, explorent et produisent du contenu. Les recherches montrent que l’usage d’outils d’IA générative affecte les stratégies cognitives mobilisées, notamment en externalisant certaines opérations intellectuelles (Kasneci et al., 2023).
Ces transformations peuvent créer des désalignements involontaires entre :
- les objectifs d’apprentissage, parfois non compatibles avec une forte assistance numérique ;
- les activités pédagogiques, dont certaines perdent leur valeur formatrice si elles sont faciles à déléguer à l’IA ;
- les modalités d’évaluation, en particulier les productions écrites hors classe, désormais difficilement attribuables.
La littérature en sciences de l’éducation rappelle que l’apprentissage repose sur l’engagement cognitif actif des apprenant·es (Laurillard, 2012) et que l’alignement pédagogique est essentiel pour orienter et structurer cet engagement (Biggs & Tang, 2011).
Si l’IA permet désormais d’automatiser des activités autrefois formatrices, comme reformuler un texte ou structurer une argumentation, ce n’est pas cette automatisation qui explique à elle seule les difficultés d’évaluation. La recherche montre que l’enseignement supérieur a depuis longtemps tendance à privilégier l’évaluation de productions finales plutôt que l’analyse des processus d’apprentissage (Boud & Falchikov, 2007). Ce que l’IA change, en revanche, c’est la lisibilité du processus : lorsqu’un texte peut être fortement assisté, il devient plus difficile de savoir quelles opérations cognitives ont réellement été réalisées par l’étudiant·e. L’IA ne crée donc pas un problème nouveau, mais elle amplifie et rend encore plus critique une question déjà présente dans l’enseignement supérieur.
Ces constats montrent la nécessité d’un regard didactique renouvelé.
2. Revisiter l’alignement pédagogique de son cours : une proposition de solution
L’enjeu n’est pas de bannir l’IA, ni de se lancer dans une course à la détection. Il s’agit plutôt de réinterroger chaque composante du scénario pédagogique de son cours pour retrouver une cohérence solide.
Clarifier les objectifs d’apprentissage
Tout commence par une question simple, mais cruciale : qu’attend-on réellement que les étudiant·es apprennent ?
Selon les cours, l’IA peut devenir :
- un objet d’apprentissage (par exemple analyser, critiquer ou améliorer des réponses générées — Bearman et al., 2023) ;
- un outil d’apprentissage (soutien à l’écriture, aide à la recherche) ;
- ou un élément extérieur aux compétences visées, notamment lorsque l’objectif porte sur le raisonnement disciplinaire ou l’argumentation orale.
Clarifier ces intentions permet aux enseignant·es de choisir des activités réellement cohérentes avec les apprentissages visés.
Concevoir des activités intégrant l’IA de manière constructive
Plutôt que de s'inquiéter de ce que l’IA fait « à la place », on peut mobiliser ce qu’elle permet « de faire faire ». Par exemple, demander aux étudiant·es de :
- comparer une réponse générée à des sources fiables ;
- repérer biais, erreurs ou approximations ;
- améliorer une production de l’IA en mobilisant leurs connaissances disciplinaires.
Ces activités soutiennent des compétences clés : pensée critique, vérification de l’information, auto-régulation (Nicol & Macfarlane Dick, 2006).
Diversifier les modalités d’évaluation
Si l’écrit hors classe devient plus difficile à interpréter, d’autres formats gagnent en pertinence :
- présentations orales,
- travaux réalisés en classe,
- journaux de bord ou portfolios,
- projets appliqués.
Ces modalités complètent ou renforcent les évaluations existantes et donnent une vision plus transparente du processus d’apprentissage.
Clarifier les règles d’usage
Dans ce paysage mouvant, les étudiant·es ont besoin de balises explicites :
- ce qui est autorisé ;
- ce qui ne l’est pas ;
- comment déclarer l’usage éventuel de l’IA.
Cette transparence réduit l’ambiguïté et encourage des pratiques responsables.
3. Comment le Service DidaNum peut accompagner cette transition
Pour aider les enseignant·es à retrouver un équilibre dans ce nouvel environnement, le Service DidaNum propose un accompagnement sur mesure, articulé autour de plusieurs axes :
- analyse du scénario du cours selon l’alignement pédagogique ;
- repérage des zones sensibles affectées par l’IA (objectifs, activités, évaluations) ;
- conception ou ajustement d’activités pertinentes ;
- rédaction de consignes claires pour l’usage de l’IA.
Cet accompagnement, flexible et contextualisé, peut prendre plusieurs formes :
- consultations individuelles (en ligne ou en présence) pour des questions ciblées ;
- ateliers, cours et formations pour explorer des approches ou outils spécifiques ;
- formations sur demande pour les équipes ou départements ;
- pauses pédagogiques pour enrichir la réflexion collective autour de pratiques inspirantes ;
- ressources didactiques en ligne pour approfondir les thématiques au fil du temps.
Cette diversité permet d’ajuster l’accompagnement au plus près de la réalité des enseignant·es, qu'il s’agisse de revoir un cours, de repenser une évaluation ou de clarifier l’usage de l’IA dans une activité.
Conclusion
L’IA générative transforme le paysage académique, mais elle ne rend pas les principes de la didactique universitaire obsolètes. Au contraire : l’alignement pédagogique devient un repère encore plus essentiel pour préserver la cohérence, la clarté et l’exigence de nos enseignements.
Références
- Bearman, M., Ajjawi, R., Boud, D., Tai, J., & Dawson, P. (2023). Re-imagining university assessment in a world with generative AI. Higher Education Research & Development.
- Biggs, J. (1996). Enhancing teaching through constructive alignment. Higher Education, 32, 347–364.
- Biggs, J., & Tang, C. (2011). Teaching for quality learning at university (4th ed.). McGraw-Hill.
- Boud, D., & Falchikov, N. (2007). Rethinking assessment in higher education: Learning for the longer term. Routledge.
- Kasneci, E., Sessler, K., Kitchenham, B., Schmiedek, F., & Kasneci, G. (2023). ChatGPT for good? On opportunities and challenges of large language models for education. Learning and Instruction, 101, 102800.
- Laurillard, D. (2012). Teaching as a design science: Building pedagogical patterns for learning and technology. Routledge.
- Nicol, D., & Macfarlane-Dick, D. (2006). Formative assessment and self-regulated learning: A model and seven principles of good feedback practice. Studies in Higher Education, 31(2), 199–218.
