Publié le 25.06.2025
Quels usages responsables de l’IA générative émergent dans l’enseignement universitaire ? Premiers résultats.
Dans un billet précédent (Mener une veille techno-pédagogique pour vos cours, avril 2025), nous annoncions que notre Service avait commencé une veille sur les usages de l’IA générative qui émergent dans différentes disciplines. Aujourd’hui, pour continuer à préparer l’atelier associé à cette veille, nous proposons de regarder les premiers résultats qui apparaissent pour l’enseignement de la médecine.
Résultats pour la méthode de veille techno-pédagogique
Notre veille commence par une recherche de références dans Webofscience. Nous n’en disons pas plus ici à ce sujet, sachant bien que tou·te·s nos lecteurs et lectrices sont rompu·e·s à cet exercice. Deux réflexions seulement. D’une part, le mot-clé « intelligence Artificielle » ne suffit pas pour ne trouver que des articles en lien avec l’usage de l’IA générative. D’autre part, il est difficile de ne trouver que des articles dédiés à l’enseignement de la médecine et non à la médecine elle-même.
Nous passons ensuite à un traitement individuel de chaque article retenu dans NotebookLM pour que cet outil d’IA extrait 5 applications de l’IA générative que les enseignant·e·s peuvent mettre en place dans leurs cours. Chaque application doit être fondée sur des données probantes, être praticable dans un cadre universitaire et avoir un impact significatif sur la rétention des connaissances, le raisonnement clinique ou les compétences pratiques des étudiant·e·s. De plus, nous demandons à NotebookLM de proposer des citations directes extraites de l’article à propos de chaque application retenue.
Ensuite, nous demandons de mettre en évidence cinq points critiques qui pourraient impacter négativement l’efficacité, la fiabilité et l’utilisation responsable des applications faites dans un contexte universitaire. Pour identifier ces points critiques, nous demandons à NotebookLM de trouver ce que les auteurs des articles disent des applications selon les points de vue éthique, pédagogique et technique.
Après quoi, nous passons à un traitement de l'ensemble des articles pour que NotebookLM propose une synthèse des applications retenues et des considérations critiques à prendre en compte.
Résultats pour les usages de l'IA émergents dans l'enseignement de la médecine
Nous obtenons ainsi de premiers résultats pour l’enseignement de la médecine dont nous vous proposons un résumé dans les lignes qui suivent. En premier lieu, l’analyse effectuée met en évidence cinq groupes d’applications de l’IA générative donnés ci-dessous avec quelques exemples illustratifs :
- Apprentissage personnalisé et adaptatif
- via des systèmes de tutorat intelligents (Narayanan et al., 2023)
- via des plans et des ressources d’apprentissage personnalisés (Xu et al., 2024)
- Simulation et réalité virtuelle
- pour former des compétences cliniques avec des patients virtuels (Narayanan et al., 2023)
- pour améliorer la formation au diagnostic (D’Souza et al., 2024)
- Génération de contenu et l’aide à la recherche
- pour créer des études de cas (D’Souza et al., 2024) et des images cliniques (Preiksaitis & Rose, 2023)
- pour dépasser des barrières langagières durant l’accès au savoir médical (Shoja et al., 2023)
- Évaluation et feedback
- pour rendre adaptatifs l’évaluation et le feedback (D’Souza et al., 2024)
- pour préparer des tests et analyser les performances (Preiksaitis & Rose, 2023)
- Compréhension améliorée des concepts de l’IA et amélioration des technologies médicales
- sur des concepts complexes de l’IA et la compréhension d’une éthique de l’IA (Weidener & Fischer, 2023)
- technologies : télémédecine, systèmes de diagnostic, systèmes d’enregistrements médicaux, etc. (Komasawa & Yokohira, 2023)
Au total, l’analyse a identifié 43 exemples, répartis dans les cinq groupes, alors que nous n’en montrons ici que 10. De même, l’analyse a identifié 17 considérations critiques dans l’aspect éthique, 21 dans l’aspect pédagogique et 22 dans l’aspect technique. En voici quelques exemples :
- Aspect éthique
- disparités dans l'accès à l'IA pour les institutions et les étudiant·e·s (Komasawa & Yokohira, 2023)
- confidentialité et sécurité des données sensibles des étudiant·e·s et des patients (Sapci & Sapci, 2020 ; Komasawa & Yokohira, 2023 ; Zhang et al., 2024)
- génération d'images trompeuses (Preiksaitis & Rose, 2023) et de biais affectant les recommendations de traitement (Komasawa & Yokohira, 2023)
- Aspect pédagogique
- garantir un programme d'études complet malgré la personnalisation (Preiksaitis & Rose, 2023 ; Xu et al., 2024)
- Veiller à ce que le feedback venant de l'IA soit nuancé et ne simplifie pas à l'excès la communication (Preiksaitis & Rose, 2023)
- Facilitation de l'esprit critique et de considérer divers points de vue (Weidener & Fischer, 2023)
- Aspect technique
- Précision des analyses et recommendations (Preiksaitis & Rose, 2023)
- Précision et réalisme des images générées (Preiksaitis & Rose, 2023)
- Disponibilité et qualité des données pour entraîner les modèles AI (Komasawa & Yokohira, 2023 ; D’Souza et al., 2024 ; Zhang et al., 2024)
- Sécurité des données (Sapci & Sapci, 2020 ; Komasawa & Yokohira, 2023 ; Zhang et al., 2024)
Le regard pédagogique que nous proposons ici sur les usages émergents de l’IA générative dans un discipline d’enseignement universitaire est un point de départ. Pour l’exemple que nous avons donné, il s’agit de le compléter au travers d’ateliers avec des enseignant·e·s en médecine pour remettre en contexte ces usages émergents et définir les plus adaptés aux besoins des enseignant·e·s en médecine de l’Université de Fribourg. Pour d’autres disciplines, il s’agit de procéder à une analyse similaire puis de lancer un atelier avec d’autres enseignant·e·s. Il nous semble d’ailleurs qu’un outil comme NotebookLM peut grandement aider à développer de telles discussions. En effet, il propose par exemple une carte conceptuelle (Cf. image qui montre l’ensemble des applications émergentes que nous avons résumées ci-dessus) et qui permet une exploration interactive des contenus des publications scientifiques servant de référence. Un atelier génère une discussion sur une des branche-feuille de la carte ? En cliquant dessus, NotebookLM crée une note résumant les contenus des articles détaillant cette application.
Pour s’informer et approfondir ces sujets
- Billet de blog précédent : Mener une veille techno-pédagogique pour vos cours (avril 2025)
- Outil d'IA utilisé pour l'analyse : https://notebooklm.google.com/
- Résultat intermédiaire de l'analyse : Collection des fiches "Watch : Medical education with AI" obtenues après le traitement individuel des articles retenus
Références
D’Souza, R., Mathew, M., Mishra, V., & Surapaneni, K. (2024). Twelve tips for addressing ethical concerns in the implementation of artificial intelligence in medical education. MEDICAL EDUCATION ONLINE, 29(1). https://doi.org/10.1080/10872981.2024.2330250
Komasawa, N., & Yokohira, M. (2023). Learner-Centered Experience-Based Medical Education in an AI-Driven Society : A Literature Review. CUREUS JOURNAL OF MEDICAL SCIENCE, 15(10), e46883. https://doi.org/10.7759/cureus.46883
Narayanan, S., Ramakrishnan, R., Durairaj, E., & Das, A. (2023). Artificial Intelligence Revolutionizing the Field of Medical Education. CUREUS JOURNAL OF MEDICAL SCIENCE, 15(11), e49604. https://doi.org/10.7759/cureus.49604
Preiksaitis, C., & Rose, C. (2023). Opportunities, Challenges, and Future Directions of Generative Artificial Intelligence in Medical Education : Scoping Review. JMIR MEDICAL EDUCATION, 9, e48785. https://doi.org/10.2196/48785
Shoja, M. M., Van de Ridder, J. M. M., & Rajput, V. (2023). The Emerging Role of Generative Artificial Intelligence in Medical Education, Research, and Practice. CUREUS JOURNAL OF MEDICAL SCIENCE, 15(6), e40883. https://doi.org/10.7759/cureus.40883
Weidener, L., & Fischer, M. (2023). Teaching AI Ethics in Medical Education : A Scoping Review of Current Literature and Practices. PERSPECTIVES ON MEDICAL EDUCATION, 12(1), 399‑410. https://doi.org/10.5334/pme.954
Xu, X., Chen, Y., & Miao, J. (2024). Opportunities, challenges, and future directions of large language models, including ChatGPT in medical education : A systematic scoping review. JOURNAL OF EDUCATIONAL EVALUATION FOR HEALTH PROFESSIONS, 21, 6. https://doi.org/10.3352/jeehp.2024.21.6