BFMTV
L'utilisation, déjà massive de l'IA par les élèves, représente un véritable défi pour les professeurs du secondaire et de l'université.

BFMTV

"L’enjeu n’est plus de l’interdire": comment l’intelligence artificielle secoue l’enseignement supérieur

ÉTUDIER À L'ÈRE DE L'INTELLIGENCE ARTIFICIELLE (3/3) Alors que les résultats du bac viennent de tomber, les désormais ex-lycéens vont se tourner vers l’enseignement supérieur. Mais depuis deux ans, l’intelligence artificielle a bouleversé en profondeur les méthodes d’évaluation des grandes écoles, universités et classes prépas. Partout, les enseignants cherchent à s’adapter pour préserver la valeur des diplômes et préparer les étudiants au monde professionnel.

"Je ne vois pas de raison de m'en priver" L'intelligence artificielle générative fait gagner un temps précieux à Jessica, lorsqu'elle doit préparer ses travaux dirigés (TD) ou lorsqu'elle a dû s'atteler à la rédaction de son mémoire de fin d'études l'année dernière. Or le temps, c'est précisément ce dont manque l'étudiante, actuellement en double master de droit entre Paris et le Luxembourg.

"Oui mais attention: je ne l'utilise pas bêtement, je ne me limite pas à du copier-coller!", se défend la jeune femme de 22 ans, qui distingue "ceux qui l'utilisent bien et ceux qui ne l'utilisent pas correctement". "Savoir utiliser l'outil intelligemment et continuer à faire preuve d'esprit critique. En droit, c'est ce qui fait la différence entre les bonnes et les mauvaises notes", estime-t-elle.

Ainsi, Jessica s'en sert essentiellement pour reformuler des idées qu'elle aurait déjà en tête mais n'arriverait pas à exprimer correctement, ou pour dénicher des sources pertinentes plus rapidement qu'elle ne l'aurait fait d'elle-même. "Je vais évidemment vérifier derrière qu'elles existent bien, mais ça me fait gagner un temps fou".

Face à l’irruption massive de l’IA dans les copies ces deux dernières années, l'enseignement supérieur se cherche encore. "Les universités françaises se sont emparées de cette problématique avec des temporalités assez différentes", observe David Catel, professeur-formateur de sciences-physiques spécialisé dans les sciences du numérique à l'université d'Orléans (Loiret).

"Ça fait partie des questions vives du moment", ajoute-t-il. "On sait que dans certaines filières, ils sont quasi 100% à l'utiliser régulièrement. Il faut donc qu'on revoie les choses en profondeur, et de notre côté on trouve que cela ne va pas suffisamment vite par rapport aux avancées mais c'est un chantier complexe".

Ne pas "perdre de temps" et "réagir vite"

Alors que les lignes de l'innovation technologique bougent à toute allure, une partie des enseignants tente de réagir et de garder la main: certains resserrent les règles ou adaptent les barèmes dans l'espoir de contrôler la situation. D’autres, au contraire, voient dans ces outils une chance de repenser leurs méthodes, de bousculer leurs habitudes et d’ouvrir un dialogue avec les étudiants sur un usage plus critique, plus responsable de l’intelligence artificielle.

Charte d’utilisation éthique à signer, mises en garde fréquentes des professeurs, nouvelles méthodes d’évaluation… Ces derniers mois, Jessica a constaté un durcissement de la position de son université parisienne sur le sujet. "Ils sont de plus en plus fermes, on sent qu’ils en ont marre", explique l’étudiante, qui note que ses partiels se déroulent désormais uniquement sous forme de devoirs sur table et d’oraux, contrairement aux années précédentes.

Au sein de l’école d’ingénieurs 3iL à Limoges, le corps professoral a adapté sa façon d'évaluer ses étudiants. "On a constaté quelques dérives dans les travaux réalisés sans encadrement direct: les mémoires, TP et autres rapports de stage…", reconnaît Christophe Durousseau, le responsable pédagogique. Depuis deux ans, les consignes ont donc été durcies: les étudiants doivent désormais citer précisément leurs sources, en indiquant les pages et extraits utilisés, afin de renforcer la traçabilité et encourager un usage plus rigoureux et transparent des outils comme l’IA.

L'université d'Orléans, elle aussi, veille à "préserver son intégrité académique". Pour les évaluations certificatives, fini les ordinateurs, tablettes ou téléphones: David Catel explique qu'"on revient au devoir sur table, sous stricte surveillance". Autre changement majeur: une plus grande place accordée à l’oral, notamment pour les mémoires.

"En deux ans, on a observé une nette hausse des notes à l’écrit mais aussi une amélioration de la qualité des rapports de stage, de l'ordre de deux à trois points. "On n'a pas perdu de temps, il fallait réagir vite pour que l’évaluation continue de mesurer les capacités d’analyse des étudiants, et pas seulement leur maîtrise de l’IA", justifie-t-il.

La valeur de l'oral face à l'IA

Depuis, le poids de l’écrit et de l’oral a été rééquilibré, passant de 70/30 à 50/50. Et dès l’an prochain, l’un des deux travaux écrits fera l’objet d’un tirage au sort: l’un sera noté à l’écrit tandis que l’autre sera défendu à l’oral.

Aujourd'hui, "l’enjeu n’est plus de repérer quels devoirs ont été réalisés avec l’aide de l’intelligence artificielle ou même de l'interdire, mais de repenser en profondeur l’évaluation étudiante", soutient Grégoire Borst, professeur spécialiste de la psychologie éducative à l'université Paris Cité et au CNRS.

Selon lui, "l'évaluation reste encore trop sommative en France: on vérifie si l’élève ou l'étudiant sait, mais on ne l’aide pas à apprendre". Le spécialiste plaide pour une évaluation plus formative, qui "participerait à la construction des connaissances et des compétences".

En revanche dans les examens sur table de certaines matières, Christophe Durousseau explique que les étudiants ont accès à tous les outils et tous les supports qui les intéressent, IA comprise. En revanche, leur compréhension du sujet va ensuite être testée lors d'un oral au cours duquel il devra justifier son utilisation (ou non) de telle ou telle ressource générée par l'intelligence artificielle.

"L’IA peut effectivement les aider à préparer leur oral, mais ils doivent être capables d’assumer les ressources mobilisées et d’expliquer les décisions prises, même si elles ont été assistées par une machine", souligne-t-il.

Rejeter l’IA au risque de "jouer les vieux grincheux"

Grégoire Borst considère qu'interdire l’IA serait déraisonnable, surtout dans un monde professionnel où ces outils commencent à être largement utilisés. "Si l’université passe son temps à jouer les détectives, elle rate l’essentiel: former les élèves à utiliser l’IA de façon critique et pertinente".

Selon lui, cela suppose non seulement de revoir les méthodes d’évaluation, mais aussi d’enseigner les compétences nécessaires pour tirer le meilleur de ces technologies, capables de produire le pire comme le meilleur.

Une vision partagée par TBS Education, à Toulouse. Après avoir initialement envisagé d’interdire l’IA, l’école de commerce a finalement opté pour une approche plus pragmatique. "À mon avis, il ne faut pas être réfractaire, jouer les vieux grincheux et tout rejeter en bloc", affirme Kevin Carillo, responsable de master. "On a compris que l’IA allait simplement devenir une nouvelle façon de travailler. Il faut l’envisager comme une forme de délégation de tâches et non pas comme une menace".

"On est vraiment un changement de paradigme très puissant, aussi fort et plus fort que l'arrivée de l'internet", mais on considère que "ça va faire partie d'un mouvement global de transformation du monde de l'entreprise".

Les futurs professionnels seront-ils vraiment capables?

Certains professionnels, néanmoins, s'inquiètent que les étudiants et professionnels de demain ne soient plus amenés à "produire de l'écrit d'eux-même". "Écrire, c'est un enjeu en soi car c'est pouvoir structurer son argumentation, sa pensée", met en garde Grégoire Borst, qui suggère l'idée de distinguer les temps où les étudiants seraient autorisés à avoir recours à l'IA de ceux où ils seraient testés sur leur capacité à rédiger et à mobiliser, hiérarchiser et structurer leurs idées.

Il redoute également que ce choix de la facilité ne soit néfaste pour l'apprentissage des étudiants, dans le sens où ils n'auraient qu'une vision parcellaire de leur sujet et ne retiendraient que peu de choses de leur cursus. "L'IA risque de ne pas mettre l'étudiant face à ses limites. Or, l’apprentissage passe justement par ces moments de blocage et de remise en question. On a besoin de se heurter à l'effort car si tout devient trop facile, il n’en reste souvent aucune trace durable".

L'encadrement de ce nouvel outil ne peut en tout cas pas se résumer à une simple interdiction, insiste-t-il. "Il faut en parler avec les étudiants, leur expliquer pourquoi, dans certains cas, on leur demande de ne pas utiliser d’outils comme ChatGPT". Selon lui, cette interdiction peut parfaitement se justifier et s'entendre si elle est contextualisée.

"Dans certains domaines, l’intelligence artificielle reste peu fiable et elle peut . Elle risque alors de produire un devoir de mauvaise qualité, ce qui peut, au final, faire baisser la note plutôt que l’améliorer."

L’enjeu va au-delà de la qualité du travail rendu. Au lycée comme à l’université, Grégoire Borst alerte sur le risque d’aggraver les inégalités d’accès aux outils numériques. "La fracture numérique n’est pas un mythe: les élèves issus de milieux favorisés sont généralement plus à l’aise avec le numérique et mieux équipés pour en profiter."

À l’université d’Orléans, comme dans d’autres établissements, l’adaptation passe aussi par l’entraide entre enseignants-chercheurs. Des professeurs familiers des outils numériques, comme David Catel, ont par exemple pris le relais pour former leurs collègues issus des sciences sociales, des lettres ou des langues. Curieux mais prudents, ces derniers sont de plus en plus nombreux à vouloir comprendre ces technologies pour ne pas rester à l’écart d’une transformation déjà en marche.

Jeanne Bulant Journaliste BFMTV