Intelligence artificielle à l'école : un potentiel sous-exploité faute de cadre structuré

L'irruption des technologies d'intelligence artificielle (IA) dans le système éducatif français soulève des questions majeures juridiques, éthiques, sociétales. Si elles offrent des avancées majeures pour personnaliser les apprentissages, alléger les tâches administratives, détecter le décrochage scolaire, leur appropriation reste hétérogène et limitée par l'absence de cadre structuré. Un rapport sénatorial publié en octobre 2024 fait le point sur les enjeux liés à l'IA dans l'éducation. 

"La question n'est […] plus de décider s'il faut faire une place à l'IA dans l'éducation - elle y a déjà fait irruption - mais de savoir comment accompagner les développements en cours et répondre aux enjeux de l'éducation par et à l'IA." Tel est le positionnement du rapport de la délégation à la prospective sénatorial de Christian Bruyen et Bernard Fialaire publié le 30 octobre 2024. Car depuis le lancement de ChatGPT en 2022, l'intelligence artificielle (IA) génère un intérêt croissant dans le domaine éducatif : personnalisation de l'apprentissage, évaluation automatisée des élèves, détection du décrochage scolaire, allègement des tâches administratives, apprentissages inclusifs etc. Mais, en France, son utilisation est à géométrie variable, faute de cadre structuré, de formation adéquate et le potentiel sous-exploité...

Une stratégie nationale encore à consolider

En France, l'Éducation nationale s'est emparée du sujet de l'IA dès 2018 dans le cadre de la stratégie du numérique pour l'éducation et de la stratégie nationale pour l'intelligence artificielle (SNIA), rattachée au volet "maîtrise de technologies numériques souveraines et sûres" du plan France 2030. "Des moyens non négligeables ont été consacrés à la définition de services numériques s'appuyant sur l'IA et à l'élaboration de ressources permettant aux enseignants de se former à l'IA", rappellent les sénateurs. Pour autant, le rapport conclut à un succès "mitigé" des outils mis à leur disposition dans le cadre des partenariat d'innovation et intelligence artificielle (P2IA) (17,76 millions d'euros pour la première vague, incluant l'acquisition des licences d'utilisation).

Dans le cadre de France 2030, afin d'encourager l'émergence de pôles de formation de rang mondial dans le domaine de l'IA, neuf universités et grandes écoles sélectionnées en mai 2024 dans le cadre de l'appel à manifestation d'intérêt "IA-clusters" piloté par l'Agence nationale de recherche (ANR) proposent des formations complètes spécialisées en IA. Parallèlement, le dispositif "Compétences et Métiers d'avenir" (CMA) doit permettre d'accélérer l'adaptation des formations aux besoins des filières économiques concernées et de développer significativement les places de formation, en particulier dans les écoles d'ingénieurs et de management.

Le projet OpenLLM France : une IA souveraine pour l'éducation

Dans ce contexte, le développement d'un service d'IA générative souverain dédié à l'éducation est en cours avec le projet OpenLLM France. Celui-ci s'inscrit dans l'ambition plus vaste d'élaborer des "communs numériques" via un appel à projets financé là encore par les crédits d'investissement de France 2030. L'objectif est de se fonder sur des corpus de données d'apprentissage publics et ouverts, des algorithmes documentés et de proposer une licence d'utilisation libre. Les premiers usages en classe sont attendus courant 2024 dans les académies volontaires pour une utilisation plus généralisée à la rentrée 2025. Dans le rapport, les sénateurs signalent une initiative intéressante qui - sans attendre l'élaboration de ce modèle - a vu le jour au sein de l'académie d'Aix-Marseille avec la mise au point expérimentale d'un petit langage de modèle (SML) mobilisable directement en classe, "IA AnSu" qui revendique "reprendre le pouvoir face aux Gafam en gardant la maîtrise du système". 

Des usages multiples mais à géométrie variable 

Sans surprise, la prévalence de l'IA générative dans les habitudes des jeunes générations enregistre un niveau élevé : un sondage réalisé auprès de lycéens scolarisés en région Nouvelle-Aquitaine (1) révèle ainsi que plus de 90% des élèves de seconde l'avaient déjà utilisé pour s'aider à faire leurs devoirs, l'usage étant qualifié d'également "bien avancé" chez les 13-14 ans. 
Au sein de l'Éducation nationale, en revanche, en l'absence de démarche structurée et de cadre d'usage partagé, le recours des enseignants à l'IA résulte largement d'initiatives individuelles ou d'expérimentations à petite échelle et ce "malgré la mise à disposition d'outils par le ministère au titre de la stratégie pour l'IA déployée depuis 2018", rappellent les sénateurs.  En effet, selon les informations collectées dans ce rapport, "les outils institutionnels demeurent globalement méconnus et les usages avancés sont rares". 

Pourtant, de la création de plans de cours personnalisés à l'analyse fine des progrès des élèves, l'IA se révèle particulièrement efficace pour l'enseignement différencié. Des outils comme "MIA Seconde" permettent par exemple de générer des exercices sur mesure ou de suivre la progression individuelle des élèves. Dans l'apprentissage des langues, des logiciels utilisent des algorithmes pour adapter les exercices au niveau et aux besoins de chaque élève, facilitant un tutorat individualisé. "Ces solutions s'inscrivent dans une logique d'assistance à la pédagogie, mais elles nécessitent un accompagnement accru pour les enseignants", soulignent les sénateurs. 

L'IA permet aussi de proposer des outils d'assistance pour une école inclusive, comme les traducteurs automatiques en langue des signes ou les lecteurs d'écran qui rendent l'apprentissage accessible aux élèves en situation de handicap. Des systèmes intelligents peuvent également identifier précocement les troubles d'apprentissage et adapter les parcours pédagogiques.

Parcoursup, une "IA à haut risque"

Des outils d'aide à l'orientation basés sur l'IA peuvent servir à la construction de parcours personnalisés et venir en appui du pilotage des politiques éducatives. La plateforme nationale de préinscription en première année de l'enseignement supérieur, Parcoursup, permet ainsi depuis 2018 aux candidats de formuler des vœux d'admission dans des formations et de proposer aux décisionnaires, sur le fondement d'un algorithme national, d'algorithmes locaux et d'algorithmes d'apprentissage, des classements pédagogiques lorsque les capacités d'accueil d'une formation ne permettent pas de satisfaire les souhaits de l'ensemble des candidats. Cependant, les sénateurs rappellent que "comme l'ont montré les débats sur Parcoursup, en raison de leur approche déterministe et des risques de biais et d'erreurs inhérents aux technologies d'IA, ce type de systèmes, qui entrent dans la catégorie des IA à haut risque en vertu de la réglementation européenne, exige des efforts d'explicitation et de transparence accrus". 
L'OCDE fait par ailleurs état de systèmes d'alerte précoce utilisant des données administratives pour identifier les élèves à risque de décrochage. Des méthodes de traitements massifs de données, des modèles d'arbres de décision ou de réseaux bayésiens peuvent en effet être utilisés pour identifier les apprenants en difficulté ou ceux qui ont une probabilité élevée de l'être et, en conséquence, être plus réactif dans leur accompagnement par un travail sur les leviers de motivation ou d'autres facteurs de risque susceptibles de faire basculer dans l'absentéisme ou le décrochage.
En outre, l'IA pourrait transformer la gestion du système éducatif. De l'analyse prédictive pour prévenir le décrochage à l'optimisation des ressources pédagogiques, ses applications sont vastes. Mais l'utilisation de ces technologies soulève des questions éthiques, notamment concernant la confidentialité des données et les risques de biais dans les algorithmes.

Vigilance

Les services ministériels se montrent également vigilants sur la question du traitement des données à caractère personnel.  Le ministère souligne en effet "ne pas être en mesure d'identifier des IA qui soient conformes aux exigences juridiques et éthiques dans les usages scolaires des élèves". Il s'agit notamment des enjeux liés à la mise à jour des données, aux biais, aux possibles erreurs factuelles, au droit d'auteur ou encore à l'absence d'informations sur les sources utilisées. Le ministère a d'ores et déjà indiqué, s'agissant de l'IA générative, que ChatGPT "n'est pas utilisable dans un cadre scolaire, seules sont possibles des utilisations à titre individuel, sous le régime du contrat privé". Ignorant si d'autres applications complémentaires ou concurrentes comme Bing Chat (moteur de recherche de Microsoft qui intègre GPT-4) ou Perplexity respectent les règles du RGPD, le ministère invite les enseignants à ne pas les faire utiliser directement par les élèves, d'autant plus que les conditions d'utilisation de ces services peuvent évoluer rapidement.

Les défis : former, accompagner, évaluer

Une adoption généralisée de l'IA dans l'éducation passera par la mise en œuvre de plusieurs priorités identifiées dans le rapport : former les enseignants en incluant des modules sur l'IA dans la formation initiale et continue. "Il s'agit d'assurer les enseignants de leur place toujours centrale dans le processus éducatif, de démythifier l'IA, mais aussi de faire la démonstration scientifique de la capacité de l'IA, en particulier l'IA générative, à favoriser la montée en compétences des apprenants et de transformer efficacement les façons d'enseigner". Il faudra également soutenir la recherche et l'expérimentation sans oublier de favoriser une culture citoyenne de l'IA, préconise le rapport. Autant dire que la route est encore longue. 

(1) Enquête effectuée par l'agence Heaven en juin 2024

› Une consultation européenne pour guider l'usage de l’IA en éducation

Lors du Conseil européen sur l'enseignement supérieur et l'éducation du 25 novembre 2024, Anne Genetet, ministre de l’Éducation nationale, a annoncé le lancement d'une vaste consultation auprès des enseignants et des élèves. Objectif : établir des lignes directrices claires sur l'utilisation de l'IA dans les écoles. Cette initiative vise également à définir les outils prioritaires à développer pour accompagner élèves et enseignants, et à créer une communauté européenne permettant l'échange de bonnes pratiques en matière d'IA éducative.
Outre l'IA, la ministre a abordé l'usage des écrans par les enfants, rappelant des recommandations basées sur un rapport d’experts : pas d'écran avant 3 ans, pas de téléphone portable avant 11 ans et pas de réseaux sociaux sans supervision parentale avant 15 ans. Elle a également plaidé pour une harmonisation européenne de la majorité numérique à 15 ans, conformément à la loi française de 2023, toujours en attente de validation par la Commission européenne.