Publié le 28.04.2026
« Quand l’IA bouscule les auditoires », un regard panoramique sur l’édition 2026
Le 19 mars dernier, l’événement « Quand l’IA bouscule les auditoires » a eu lieu simultanément dans les universités de Suisse Romande, en collaboration avec les HES-SO, pour offrir aux étudiant·e·s et enseignant·e·s l’occasion d’échanger, d’explorer et d’apprendre à propos de l’intelligence artificielle générative.
Nous donnons ici un écho des ateliers proposés et animés à Fribourg par Myriam Asadi Khiavi, Maya Dougoud, Emirhan Havanoud, Sandra Mooser, Nathalie Sarrasin, Giulia Vecchi et Olivier Samson (1). Ultérieurement, les organisateurs de l’événement prévoient de diffuser un document complet à propos de l’ensemble des programmes qui se sont déroulés à Fribourg, Genève, Lausanne et Neuchâtel.
Le regard panoramique que nous pouvons jeter grâce à l’événement du 19 mars montre d’abord que l’IA générative est partout présente dans les hautes écoles romandes. Nous le voyons au travers des usages de l’IA, chez les étudiant·e·s et les enseignant·e·s, que l’événement nous permet de reparcourir. Ces usages nous font réaliser que la communauté universitaire se préoccupe fort des possibles amenés par l’IA et de leurs limites. En participant à l’événement, nous avons pu nous remettre en tête les informations et réflexions globales issues de l’enquête EduKIA2025 sur l’IA dans les hautes écoles. Une certaine prise de recul se dessine également dans la communauté universitaire, 3 ans et demi après le lancement officiel de ChatGPT. Il s’agit aujourd’hui d’orienter les usagers vers les bons outils d’IA, en fonction des tâches à effectuer et en tirant profit des nombreux outils existant maintenant. Il s’agit aussi d’agir de façon critique en étant conscient·e des défauts des IA (pas de résultats, résultats partiels, hallucinations, non transparence, etc.), même pour les meilleurs outils. Egalement, on voit que c’est à plusieurs niveaux que se jouent les défis globaux de l’IA pour l’enseignement universitaire :
- Attention à la fracture numérique. Développer des compétences numériques pour atteindre au moins un niveau minimal nécessaire pour ses études et sa vie professionnelle (niveau institutionnel) ;
- L’évaluation des apprentissages ne peut plus porter sur le produit fini, mais sur le processus pour y arriver (niveau pédagogique) ;
- Dépendance aux outils, opacité des modèles et inégalité de genre dans le numérique (niveau éthique).
Un point commun rassemble les ateliers inscrits au programme de 2026 : ils peuvent tous s’appuyer sur une expérience du terrain qui n’existait pas à la fin 2022. C’est certainement un tournant décisif pour la compréhension que nous pouvons construire à propos de l’IA. Notre expérience de trois ans n’est certes pas parfaite, ni complète. Elle est néanmoins un appui pour mieux réfléchir et agir avec les outils d’IA générative et parvenir à maîtriser l’aide qu’ils nous apportent.
Cette expérience concerne d’abord les usages qui se sont développés. Selon l’enquête EduKIA2025, les étudiant·e·s utilisent l'IA principalement pour la compréhension disciplinaire, la révision de textes, le brainstorming, la traduction et la recherche. L'IA est perçue davantage comme un outil d'apprentissage et de compréhension que comme un substitut à la production personnelle. De leur côté, les enseignant·e·s utilisent l'IA principalement pour la traduction, la recherche d'idées et le brainstorming, la recherche documentaire et la planification de cours.
De plus, au travers de cette expérience de terrain, nous avons des indices nous renseignant sur les améliorations à effectuer dans les usages de l’IA en développement. Citons deux exemples issus des ateliers :
- Les exemples concrets de situations vécues par des femmes permettent de répondre à la nécessité de rendre visibles les mécanismes invisibles qui freinent l’accès des femmes aux compétences digitales.
- En ce qui concerne les risques d’usages de l’IA en lien avec l’évaluation des apprentissages, une grande attention doit être portée à la protection des données et des sources (plagiat) et une obligation de transparence doit exister (déclaration d’usage).
Pour conclure, des journées comme celle du 19 mars nous font entrevoir qu’étudiant·e·s et enseignant·e·s partagent globalement une vision similaire de l'IA : reconnaissance de son potentiel, mais préoccupations communes autour de la délégation cognitive, de l'éthique et de l'intégrité. A ces préoccupations s’ajoutent aussi deux besoins :
- Pour les deux publics : avoir une vision de la part de leur université, des règles claires d’utilisation ;
- Ils veulent des formations liées à leur domaine disciplinaire, flexibles, orientées vers la pratique et l’éthique liée à l’IA.
Pour s’informer et approfondir ces sujets :
- Programme complet du 19.03 à Fribourg : https://padlet.com/didanum_unifr/journ-e-romande-de-l-ia-quand-l-ia-bouscule-les-auditoires-p-4g3686528nvstxaj
- Dans ce programme, on trouve notamment des liens vers les documents partagés par les différent·e·s intervenant·e·s de la journée.
- Ce programme contient aussi des liens vers les programmes des autres sites de l’événement.
(1) Nous nous sommes inspirés de comptes-rendus faits par les membres du Service Didanum : Christiane, Hervé, Laura, Marie. Merci à elles-eux.
