Novembre 2022. ChatGPT lance sa version accessible au grand public. En quelques semaines, les LLMs bouleversent les codes de nombreux secteurs, parmi lesquels l'enseignement supérieur. Trois ans plus tard, entre pragmatisme et audace, les écoles d'ingénieurs réinventent leurs méthodes. Immersion à l’Efrei, une école d’ingénieurs.
Fabrice Losson s'en souvient très bien. Vice-président de la Commission des Titres d'Ingénieur (CTI) et responsable des relations institutionnelles avec l'enseignement supérieur chez Sopra Steria, il observe depuis 35 ans les mutations du secteur numérique. Mais celle-ci a quelque chose de différent. "L'intelligence artificielle générative est arrivée si vite que personne n'était vraiment préparé", reconnaît-il.
Pour Sopra Steria, l'enjeu dépasse la simple veille technologique. L'entreprise mobilise une cinquantaine de managers dans différents conseils de perfectionnement et comités pédagogiques d'écoles partenaires. Leur mission : faire remonter les besoins métiers et anticiper les compétences de demain. "C'est un travail collectif, de long terme", précise Fabrice Losson. "Nous ne venons pas seulement mettre en avant notre marque employeur, mais échanger sur les évolutions des métiers et contribuer à faire évoluer les programmes."
Des programmes qui s’incarnent et prennent vie au coeur même des écoles d’ingénieurs, dans les salles de classe.
Février 2023 : l'Efrei en mode commando
À l'Efrei Paris, Salim Nahlé, responsable des programmes Data et Intelligence artificielle, n'a pas attendu les directives. Dès février 2023, nous réunissons un groupe de travail d'urgence. Direction, enseignants, service innovation : tout le monde autour de la table. L'objectif ? Comprendre l'impact immédiat, à court, moyen et long terme, et élaborer une réponse collective. "Nous avons découvert ChatGPT fin 2022, se souvient Salim Nahlé. Très vite, nous avons compris son potentiel. Comme nous sommes une école d'ingénieurs, nos étudiants, très technophiles, l'ont immédiatement adopté." TP, projets, rapports : en quelques semaines, l'IA générative s'est glissée partout dans le quotidien des étudiantes et étudiants.
La question de l’interdiction se pose assez vite. Et la réponse arrive tout aussi vite : "Nous avons refusé cette idée dès le départ, affirme Salim Nahlé. Faire face à la technologie, c'était l'erreur qu'on a connue à d'autres moments de l'histoire, avec Internet ou la révolution industrielle par exemple. Nous avons préféré comprendre comment adapter nos cours, nos règlements, nos méthodes d'évaluation."
Un "badge IA générative" obligatoire pour tous les nouveaux étudiants est rapidement mis en place : un module en ligne d'introduction aux risques, opportunités et usages responsables de ces technologies. Le programme aborde la réglementation (notamment le futur AI Act) et le prompt engineering. "Nous partons du principe que tout étudiant doit maîtriser cette compétence", précise Salim Nahlé.
En parallèle, sept à huit journées de formation sont organisées pour le personnel. Enseignants, chercheurs, personnels administratifs : chacun doit comprendre le fonctionnement de ces outils, leurs bénéfices et leurs risques. Résultat : près de 100 salariés formés en un an.
Dans la salle de classe : la pédagogie réinventée
Mais c'est dans l'usage quotidien que les choses se compliquent. Salim Nahlé fait partie de ceux qui pensent qu'il ne faut pas interdire, mais accompagner. "L'IA doit être vue comme un assistant, pas comme un compétiteur", martèle-t-il.
Le défi principal ? L'évaluation. Certains projets, rapports ou synthèses peuvent être réalisés presque entièrement par l'IA. L'école a donc dû revoir ses méthodes. Retour aux évaluations orales ou sur table pour vérifier la compréhension réelle. "Personnellement, je demande souvent à mes étudiants de me présenter leurs travaux face à face, explique Salim Nahlé. L'IA ne peut pas répondre à leur place."
Le risque, sinon, c'est la sur-dépendance : des étudiants qui produisent du code ou des textes cohérents, sans compréhension des fondements. Pour contrer cela, Salim Nahlé a radicalement transformé sa pédagogie. Il pratique désormais la "classe inversée par l'IA". Le principe : donner aux étudiants un sujet, leur dire d'aller interroger ChatGPT, de se documenter, puis de revenir en classe. "Ensuite, ce sont eux qui enseignent, qui débattent entre eux, et moi j'interviens en tant que superviseur." À la fin, le professeur fournit le support complet. De quoi stimuler la participation, la réflexion critique et la capacité à distinguer le vrai du faux, tout en s’adaptant aux pratiques des étudiants, et des étudiantes.
Hana, 21 ans : "L'IA doit être un assistant, pas un substitut"
Hana Mostefaoui est en master à l'Efrei, en alternance à la direction de la cybersécurité d’un acteur du secteur du luxe français. Son rapport à l'IA ? Pragmatique et nuancé.
"Au début, je croyais que c'était une nouvelle messagerie instantanée", sourit-elle en se souvenant de sa découverte de ChatGPT en cours. "On m'a expliqué ce qu’était ChatGPT, et j'ai donc commencé à tester." La jeune femme, qui bidouille depuis son plus jeune âge, découvre le potentiel de l'outil pour générer du code et expliquer des concepts. Pendant les vacances de Noël, elle expérimente : elle lui demande de se comporter comme un professeur, d'expliquer les notions pas à pas. "C'est comme ça que j'ai découvert le prompt engineering, sans même savoir que ça portait ce nom."
près quelques années de pratique assidue, Hana reste lucide sur les limites de l’outil. "Avoir de bonnes bases théoriques est essentiel. L'IA doit être un assistant, pas un substitut. Sans compréhension du code, on ne sait pas interpréter ni corriger ce que l'IA produit." Elle cite l'exemple de sa petite soeur, en sixième, qui utilise déjà ChatGPT. "Je lui ai proposé de créer un petit site en laissant ChatGPT l'aider. Elle a vite été bloquée : elle ne savait pas où copier le code, ni comment lire les messages d'erreur."
Au quotidien, Hana jongle entre ChatGPT, GitHub Copilot et Claude, chaque modèle ayant ses points forts. L'entreprise où elle effectue son alternance dispose d'un outil d'IA interne, indispensable pour des raisons de confidentialité. "Comme le disait un directeur de Sopra Steria au cours d’une conférence : 'Ne dis jamais à ChatGPT ce que tu ne dirais pas à un concurrent'", rappelle-t-elle.
Concrètement, l'IA l'aide à automatiser des tâches répétitives : prise de notes, structuration de projets, rédaction d'e-mails, préparation de supports de révision et de quiz. Mais elle reste vigilante, notamment sur l'impact environnemental. "Une étude montrait qu'une conversation avec une IA consomme environ 50 centilitres d'eau, à cause du refroidissement des serveurs. Donc je l'utilise quand c'est nécessaire, sans excès."
Son conseil à la nouvelle génération qui découvre les outils d’intelligence artificielle générative dès le collège ? "Se former, tester, mais rester maître de ce qu'on fait. L'IA doit être un assistant, pas un remplaçant. Il faut éviter le copier-coller aveugle, toujours vérifier les sources et comprendre le sens des réponses. Et surtout, garder les fondamentaux théoriques."
Vers un nouveau paradigme d'apprentissage
À l'Efrei, l'intégration de l'IA ne se limite pas aux cours techniques. L'école a lancé un module d'ouverture "IA générative" accessible à tous les étudiants, quelle que soit leur filière. "L'IA générative n'est pas réservée aux spécialistes : tout développeur doit aujourd'hui savoir en tirer parti", insiste Salim Nahlé. Les étudiants y apprennent à mettre en place un projet concret utilisant des modèles génératifs.
Car l'enjeu dépasse largement la maîtrise technique. "Il faut distinguer trois horizons : les compétences d'aujourd'hui, de demain, et celles dans cinq ans", analyse Salim Nahlé. "Un étudiant qui entre à l'Efrei aujourd'hui sera sur le marché du travail en 2030. Or, nous ne savons pas exactement à quoi ressembleront les métiers à ce moment-là. Mais une chose est sûre : l'impact de l'IA sera immense."
Cette philosophie de l'adaptation traverse désormais tout l'écosystème de l'enseignement supérieur. Si certaines universités ont d'abord tenté d'interdire ChatGPT, la plupart sont revenues sur cette position. "Aujourd'hui, tout le monde a compris qu'il faut intégrer plutôt que rejeter", constate Salim Nahlé. Fabrice Losson le confirme : “C’est un sujet de plus en plus présent, mais relativement récent dans le référentiel de la Commission des Titres d'Ingénieur. Nous avons décidé d’introduire progressivement des critères liés à l’IA, en veillant à ne pas mettre en difficulté les écoles moins avancées”.
Certains professeurs restent néanmoins méfiants, craignant que l'IA prenne leur place, ou qu’elle empêche les élèves de réfléchir par leurs propres moyens. "Je leur dis souvent : 'L'IA ne remplacera pas ton métier. Mais quelqu'un qui sait s'en servir, oui'", répond Salim Nahlé. "Autrement dit : ce n'est pas l'IA qui menace, c'est le manque de compétences pour la maîtriser." Pour Hana Mostefaoui, la clé est simple : "Se former, tester, mais rester maître de ce qu'on fait. Il faut cultiver la curiosité, la capacité à innover, à expérimenter. Aujourd'hui, avec l'IA, toute idée peut devenir un prototype en quelques heures. Il faut apprendre aux jeunes à oser, à créer."