Publikationsdatum 25.06.2025

Welche verantwortungsvollen Einsatzmöglichkeiten für generative KI ergeben sich im Hochschulbereich? Erste Ergebnisse.


In einem früheren Beitrag (Ein technologisch-pädagogisches Monitoring Ihrer Kurse durchführen, April 2025) haben wir angekündigt, dass unsere Abteilung damit begonnen hat, die Einsatzmöglichkeiten der generativen KI in verschiedenen Disziplinen zu beobachten. Um die Vorbereitungen für den Workshop zu diesem Thema fortzusetzen, möchten wir Ihnen heute die ersten Ergebnisse für das Unterrichten im Fachbereich Medizin vorstellen.

Ergebnisse für die Methode der technologisch-pädagogischen Beobachtung

Unsere Beobachtung beginnt mit einer Suche nach Referenzen im Webofscience. Wir gehen hier nicht weiter darauf ein, da wir wissen, dass alle unsere Leserinnen und Leser mit dieser Vorgehensweise vertraut sind. Nur zwei Anmerkungen: Zum einen reicht das Stichwort „Künstliche Intelligenz” nicht aus, um nur Artikel zu finden, die sich mit dem Einsatz generativer KI befassen. Zum anderen ist es schwierig, nur Artikel zu finden, die sich mit der medizinischen Ausbildung und nicht mit der Medizin selbst befassen.

Anschliessend bearbeiten wir jeden in NotebookLM gespeicherten Artikel einzeln, sodass dieses KI-Tool fünf Anwendungen der generativen KI extrahiert, die Lehrkräfte in ihren Kursen einsetzen können. Jede Anwendung muss evidenzbasiert sowie im akademischen Umfeld praktikabel sein und einen signifikanten Einfluss auf den Wissenserhalt, das klinische Denken oder die praktischen Fähigkeiten der Studierenden haben. Darüber hinaus bitten wir NotebookLM, direkte Zitate aus dem Artikel zu jeder ausgewählten Anwendung vorzuschlagen.

Als Nächstes lassen wir fünf kritische Punkte hervorheben, die sich negativ auf die Effizienz, Zuverlässigkeit und verantwortungsvolle Nutzung der Anwendungen im universitären Kontext auswirken könnten. Um diese kritischen Punkte zu identifizieren, bitten wir NotebookLM, herauszufinden, was die Autoren der Artikel aus ethischer, pädagogischer und technischer Sicht über die Anwendungen sagen.

Danach fahren wir mit der Bearbeitung aller Artikel gleichzeitig fort, damit NotebookLM eine Zusammenfassung der ausgewählten Anwendungen und der zu berücksichtigenden kritischen Aspekten erstellen kann.

Ergebnisse für aufkommende Anwendungen der KI in der medizinischen Ausbildung

Aus der oben beschriebenen Recherche ergeben sich erste Ergebnisse für die medizinische Ausbildung, die wir Ihnen im Folgenden zusammenfassen möchten. Zunächst einmal zeigt die durchgeführte Analyse fünf Anwendungsbereiche für generative KI auf, die im Folgenden mit einigen anschaulichen Beispielen vorgestellt werden:

  1. Personalisiertes und adaptives Lernen
    • durch intelligente Tutorsysteme (Narayanan et al., 2023)
    • durch personalisierte Lernpläne und -ressourcen (Xu et al., 2024)
  2. Simulation und virtuelle Realität
    • zur Ausbildung klinischer Kompetenzen mit virtuellen Patienten (Narayanan et al., 2023)
    • zur Verbesserung der Diagnostikausbildung (D’Souza et al., 2024)
  3. Erstellung von Inhalten und Recherchehilfe 
    • zur Erstellung von Fallstudien (D’Souza et al., 2024) und klinischen Bildern (Preiksaitis & Rose, 2023)
    • zur Überwindung von Sprachbarrieren beim Zugang zu medizinischem Wissen (Shoja et al., 2023)
  4. Bewertung und Feedback
    • zur Anpassung von Bewertung und Feedback (D’Souza et al., 2024)
    • zur Vorbereitung von Tests und zur Leistungsanalyse (Preiksaitis & Rose, 2023)
  5. Verbessertes Verständnis von KI-Konzepten und Verbesserung medizinischer Technologien
    • zu komplexen KI-Konzepten und zum Verständnis der KI-Ethik (Weidener & Fischer, 2023)
    • Technologien: Telemedizin, Diagnosesysteme, medizinische Aufzeichnungssysteme usw. (Komasawa & Yokohira, 2023)

Insgesamt wurden bei der Analyse 43 Beispiele identifiziert, die sich auf die fünf Anwendungsbereiche verteilen, wobei nur 10 dieser Beispiele oben gezeigt werden. Ebenso wurden bei der Analyse 17 kritische Überlegungen im ethischen Bereich, 21 im pädagogischen Bereich und 22 im technischen Bereich identifiziert. Hier einige Beispiele:

  1. Ethische Aspekte
    • Ungleichheiten beim Zugang zu KI für Institutionen und Studierende (Komasawa & Yokohira, 2023)
    • Vertraulichkeit und Sicherheit sensibler Daten von Studierenden und Patienten (Sapci & Sapci, 2020; Komasawa & Yokohira, 2023; Zhang et al., 2024)
    • Erzeugung irreführender Bilder (Preiksaitis & Rose, 2023) und Verzerrungen, die sich auf Behandlungsempfehlungen auswirken (Komasawa & Yokohira, 2023)
  2. Pädagogischer Aspekt
    • Gewährleistung eines umfassenden Lehrplans trotz Personalisierung (Preiksaitis & Rose, 2023; Xu et al., 2024)
    • Sicherstellung, dass das Feedback der KI differenziert ist und die Kommunikation nicht übermäßig vereinfacht (Preiksaitis & Rose, 2023)
    • Förderung des kritischen Denkens und der Berücksichtigung verschiedener Standpunkte (Weidener & Fischer, 2023)
  3. Technischer Aspekt
    • Genauigkeit der Analysen und Empfehlungen (Preiksaitis & Rose, 2023)
    • Genauigkeit und Realismus der generierten Bilder (Preiksaitis & Rose, 2023)
    • Verfügbarkeit und Qualität der Daten zum Trainieren der KI-Modelle (Komasawa & Yokohira, 2023; D’Souza et al., 2024; Zhang et al., 2024)
    • Datensicherheit (Sapci & Sapci, 2020; Komasawa & Yokohira, 2023; Zhang et al., 2024)

Der pädagogische Blick, den wir hier auf die neuen Einsatzmöglichkeiten der generativen KI in einem akademischen Fachbereich werfen, ist ein Ausgangspunkt. Das von uns angeführte Beispiel gilt es durch Workshops mit Medizinlehrenden zu ergänzen, um diese neuen Anwendungsmöglichkeiten in einen Kontext zu stellen und diejenigen zu definieren, die für die Bedürfnisse der Medizinlehrenden der Universität Freiburg am besten geeignet sind. Für andere Fachbereiche gilt es eine ähnliche Analyse durchzuführen und anschliessend ein Workshop mit anderen Lehrenden zu starten. Wir sind im Übrigen der Meinung, dass ein Tool wie NotebookLM sehr hilfreich sein kann, um solche Diskussionen anzuregen. Es bietet beispielsweise eine Konzeptkarte (siehe Abbildung, die alle oben zusammengefassten neuen Anwendungsbereiche zeigt), die eine interaktive Erkundung der Inhalte der wissenschaftlichen Publikationen ermöglicht, die als Referenz dienen. Führt ein Workshop zu einer Diskussion über einen der Zweige der Karte? Durch Anklicken erstellt NotebookLM eine Notiz, die den Inhalt der Artikel zusammenfasst, in denen diese Anwendung detailliert beschrieben wird.

Für weitere Informationen und Vertiefung dieser Themen

Verweise:

D’Souza, R., Mathew, M., Mishra, V., & Surapaneni, K. (2024). Twelve tips for addressing ethical concerns in the implementation of artificial intelligence in medical education. MEDICAL EDUCATION ONLINE, 29(1). https://doi.org/10.1080/10872981.2024.2330250 

Komasawa, N., & Yokohira, M. (2023). Learner-Centered Experience-Based Medical Education in an AI-Driven Society : A Literature Review. CUREUS JOURNAL OF MEDICAL SCIENCE, 15(10), e46883. https://doi.org/10.7759/cureus.46883

Narayanan, S., Ramakrishnan, R., Durairaj, E., & Das, A. (2023). Artificial Intelligence Revolutionizing the Field of Medical Education. CUREUS JOURNAL OF MEDICAL SCIENCE, 15(11), e49604. https://doi.org/10.7759/cureus.49604

Preiksaitis, C., & Rose, C. (2023). Opportunities, Challenges, and Future Directions of Generative Artificial Intelligence in Medical Education : Scoping Review. JMIR MEDICAL EDUCATION, 9, e48785. https://doi.org/10.2196/48785

Sapci, A. H., & Sapci, H. A. (2020). Artificial Intelligence Education and Tools for Medical and Health Informatics Students : Systematic Review. JMIR MEDICAL EDUCATION, 6(1), e19285. https://doi.org/10.2196/19285

Shoja, M. M., Van de Ridder, J. M. M., & Rajput, V. (2023). The Emerging Role of Generative Artificial Intelligence in Medical Education, Research, and Practice. CUREUS JOURNAL OF MEDICAL SCIENCE, 15(6), e40883. https://doi.org/10.7759/cureus.40883

Weidener, L., & Fischer, M. (2023). Teaching AI Ethics in Medical Education : A Scoping Review of Current Literature and Practices. PERSPECTIVES ON MEDICAL EDUCATION, 12(1), 399‑410. https://doi.org/10.5334/pme.954

Xu, X., Chen, Y., & Miao, J. (2024). Opportunities, challenges, and future directions of large language models, including ChatGPT in medical education : A systematic scoping review. JOURNAL OF EDUCATIONAL EVALUATION FOR HEALTH PROFESSIONS, 21, 6. https://doi.org/10.3352/jeehp.2024.21.6

Zhang, Y., Feng, H., Zhao, Y., & Zhang, S. (2024). Exploring the Application of the Artificial-Intelligence-Integrated Platform 3D Slicer in Medical Imaging Education. DIAGNOSTICS, 14(2), 146. https://doi.org/10.3390/diagnostics14020146