Dans son dossier de presse consacé au « Choc des savoirs », le Ministre se félicite notamment de doter « l’ensemble d’une classe d’âge d’un outil d’élévation du niveau fondé sur l’intelligence artificielle », ce qui ne constituerait rien de moins qu’une première mondiale.

L’accompagnement par les applications

A travers son dossier de presse, un des leitmotivs du ministère est d’utiliser le numérique en général et les IA en particulier de manière « raisonnée », « pour personnaliser les apprentissages et individualiser la progression des élèves ».

La Science serait formelle : les performances des applications fondées sur l’IA auraient démontré un « succès dans les usages » et justifieraient « de nouveaux partenariats d’innovation en intelligence artificielle [qui] seront lancés dès le 8 janvier 2024 en lien avec des laboratoires de recherche, le programme France 2030 et la Caisse des dépôts et des consignations pour déployer de tels outils aux cycles 3 et 4 (CM1 – 3e) en français, en mathématiques et en langues vivantes (anglais, espagnol, italien et allemand). » Ces dernières semblent être particulièrement visées par un usage massif des IA, comme le montre la capture du dossier de presse ci-dessous.

Le lycée n’est pas non plus à l’abri, le Ministère présentant également « MIA Seconde, application française de remédiation en mathématiques et en français, qui sera disponible dès février 2024 dans plusieurs académies, puis « accessible gratuitement pour tous les élèves de 2de dès la rentrée 2024. »

Un marché prometteur et une dépossession des professeur·es

MIAseconde est un logiciel produit par la start-up Evidence B (fondée, entre autres, par un ancien de Microsoft France). Cette Edtech prétend lutter contre le décrochage scolaire (rien que cela) avec son produit. Le nom de l’entreprise est tiré de la notion « d’evidence based education » très prisée depuis le ministère Blanquer et mise en avant par le Conseil scientifique de l’éducation nationale. Dans son marketing, comme dans cette interview télévisée célébrant l’obtention d’une récompense aux États-Unis en novembre 2023, le fondateur d’Evidence B met systématiquement en avant les « sciences cognitives » (sans jamais les définir clairement) comme socle de son application.

Site d’EvidenceB, entre rigueur et humilité

Comme beaucoup d’autres, il prend soin de préciser que « l‘ordinateur qui remplace le prof, c’est une mythologie » (ouf !) ? Une IA sans danger pour les postes ou les métiers donc, simplement capable d’accompagner, de guider, de remédier. Soit une grande partie des gestes enseignants, mais en mieux. En mieux oui, car MIA s’adapte, paraît-il, à chaque élève, sans jamais faiblir, sans rechigner devant des tâches répétitives. Les professeur·es, derrière leur « tableau de bord », pourront alors « suivre de manière plus fine leurs 40 élèves » (sic). On voit comment le techno-solutionnisme permet de contourner la question des conditions matérielles nécessaires pour pouvoir bien faire son métier sans recourir aux applications magiques. Avec par exemple (soyons fous), un nombre d’élèves par classe qui permette de suivre chacun et chacune.

Etonnamment, le Ministère va dans le même sens. Et de manière plus enthousiaste encore : « La France sera ainsi le premier pays au monde à généraliser à titre gratuit l’usage d’une intelligence artificielle à tous les élèves d’une classe d’âge pour accompagner leur progression scolaire. Elle sera utilisée en dehors des heures de cours et en complément de l’accompagnement en classe pour approfondir les notions fondamentales, en lien avec les évaluations nationales de 2de. »

Cette citation du dossier de presse sur le « Choc des savoirs » nous montre à quel point technologie et scientisme sont mis au service d’une dépossession du métier. Ainsi, à partir d’évaluations nationales standardisées (qui ne sont pas conçues par les enseignant·es), il n’y a plus qu’à suivre des procédures normées (elles aussi définies par d’autres), au travers d’applications « mises à disposition » (par le Ministère et une généreuse EdTech). La liberté pédagogique n’est plus maintenue que comme une fiction : l’enseignant·e pourrait encore « choisir » en fonction de son expertise, d’utiliser ou pas l’application. Mais de quel choix parle-t-on, dans un contexte de dégradation des conditions de travail, de management de plus en plus injonctif et de suppressions de postes ? A force de rendre impossible un travail de qualité, le Ministère pousse à l’acceptation voire à l’accueil enthousiaste de technologies qui permettraient de « gagner du temps », mais qui légitiment en fait un surcroît de tâches imposées. Ce qui ne devrait pas être humainement surmontable le devient grâce aux IA, vendues aux personnels comme des aides, des assistants – qui bien sûr, c’est promis, ne pourront jamais les remplacer.

Un discours rodé de l’échelle mondiale…

On constate depuis 2019 un intérêt institutionnel croissant pour l’IA dans le domaine de l’éducation, de l’échelle mondiale à la sphère française en passant par l’Union européenne. Les discours en la matière vont globalement dans le même sens, ce qui ne peut que renforcer notre vigilance. Sans prétendre à l’exhaustivité, en voici quelques exemples.

L’UNESCO en 2019 a organisé une conférence internationale intitulée « Planifier l’éducation à l’ère de l’IA : Un bond en avant » (sic). Il fallait oser un tel titre pour un travail dirigé par des membres des universités d’État en Chine. Les actes en ont été publiés sous le titre du « Consensus de Beijing sur l’intelligence artificielle et l’éducation » en 2021.

Tout en affirmant « être conscients que les enseignants ne peuvent être remplacés par des machines [encore cette étrange précaution], et veiller à protéger leurs droits et leurs conditions de travail », les auteurs alertent : il s’agit de « revoir et ajuster les systèmes éducatifs pour favoriser une intégration approfondie de l’IA et une transformation des méthodologies de l’enseignement. » Et pour cela, il faut « aider les pays à préparer le personnel enseignant à travailler dans des contextes éducatifs faisant fortement appel à l’IA ». L’argumentaire semble redondant ? Il l’est tout au long des 44 recommandations.

Dans un autre document de 2021 de la même UNESCO, intitulé « IA et éducation – Guide pour les décideurs politiques », on trouve un passage synthétisant brillamment ce qui peut être dit ou écrit en faveur de l’IA par les décideurs politiques et économiques :

« A mesure que les fonctionnalités de l’IA s’améliorent, elles soulagent forcément les enseignants d’un nombre croissant de charges. En conséquence, à mesure que les outils d’IA prendront en charge les tâches de transmission des connaissances, en facilitant la réflexion de base des élèves, les enseignants joueront un rôle réduit. En théorie, cela devrait permettre aux enseignants de se concentrer davantage sur la conception et la facilitation d’activités d’apprentissage qui nécessitent une réflexion de haut niveau, de la créativité, une collaboration interpersonnelle et des valeurs sociales – bien que, sans aucun doute, les développeurs d’IA travaillent déjà à automatiser également ces tâches. Par conséquent, pour s’assurer que les enseignants continuent à jouer leur rôle, essentiel, dans l’éducation des jeunes, les décideurs doivent examiner au point de vue stratégique la façon dont l’IA serait susceptible de transformer le rôle des enseignants, et comment ces derniers pourraient se préparer à travailler dans des environnements éducatifs riches en IA.«

En d’autres termes, l’IA menace très clairement nos métiers (elle nous « soulage de tâches » dit la novlangue) et aucune de leurs dimensions n’est épargnée à terme par ses performances grandissantes. Mettre un frein à cette technologie ? Impensable (on n’arrête pas le progrès). Les pouvoirs publics organiseront « stratégiquement » son acceptation et les professeur·es s’adapteront !

En 2023 l’OCDE (Organisation de coopération et de développement économique) a publié quant à elle une Recommandation du Conseil sur l’intelligence artificielle. Elle « vise à stimuler l’innovation et renforcer la confiance dans l’IA en promouvant une approche responsable au service d’une IA digne de confiance, tout en garantissant le respect des droits de l’homme et des valeurs démocratiques. » Une mise en balance qui sonne comme un demi-aveu : les risques sont majeurs, mais on ne va pas perdre notre temps à s’interroger sur l’IA. Le véritable impératif est de favoriser son essor.

à l’échelle européenne et française

La Commission de Bruxelles a publié en 2022 des « Lignes directrices éthiques sur l’utilisation de l’intelligence artificielle et des données dans l’enseignement et l’apprentissage à l’intention des éducateurs ». On ne doit pas être surpris d’y lire, dès l’introduction :

« Plutôt que remplacer les enseignants [décidément !], l’IA peut soutenir leur travail, en leur permettant de concevoir des expériences d’apprentissage qui donnent aux apprenants les moyens d’être créatifs, de réfléchir, de résoudre des problèmes concrets, de collaborer efficacement, et de fournir des expériences d’apprentissage que les systèmes d’IA ne peuvent pas fournir à eux seuls. En outre, l’IA peut automatiser les tâches administratives répétitives, ce qui permet de consacrer plus de temps à l’environnement d’apprentissage. »

L’IA serait donc là pour libérer du temps qui pourrait ainsi être consacré aux élèves en automatisant certaines tâches. Lesquelles exactement ? Le document l’envisage à la fois pour concevoir les cours, les mettre en œuvre (enseigner et soutenir), évaluer, diagnostiquer, guider, inclure/différencier, faire coopérer, surveiller, remédier, orienter, rendre autonome, ou encore pour le pilotage administratif. Que restera-t-il alors comme tâches aux professionnel·les, à part celle de vérifier le travail de l’IA, à l’instar de ce qui se produit déjà dans le journalisme, le graphisme, la traduction, avec des destructions d’emplois non négligeables à la clé ?

A l’Éducation nationale, où la préoccupation du maintien des emplois n’empêche pas le Ministre de dormir (au contraire), le sujet de l’IA est travaillé de manière intensive. Il apparaît évidemment dans la Stratégie du numérique pour l’éducation (lire notre article). Un GT (groupe de travail) de chercheurs rattachés à la DNE (Direction du numérique pour l’éducation) se consacre spécifiquement à l’IA.

Ce groupe est à l’origine de nombreuses publications, notamment une sorte de Livre Blanc publié en juillet 2023. En chercheurs rigoureux et objectifs, les auteurs s’interrogent : « Et si le personnel enseignant pouvait enfin être déchargé des fastidieuses heures passées à corriger des copies ? Un élève pourra-t-il obtenir une aide en temps réel, à la maison, lorsqu’il stagne sur un difficile problème de mathématique ? Une IA peut-elle faire aussi bien qu’un enseignant ? Ou même mieux ? Ces questions alimentent des craintes non fondées, mais elles demeurent pertinentes pour faire émerger des enjeux éthiques à considérer dans les déploiements futurs de l’IA en éducation. »

Des craintes non fondées, nous voilà rassuré·es ! Pourtant, le même document pointe un certain nombre de « risques » de l’IA dans l’éducation et pas des moindres :

  • du côté des professeur·es : dépossession de la conception des cours, recul des compétences, risque de voir l’usage des IA imposé dans les établissements ;
  • du côté des élèves : confrontation croissante à des fakes, activité intellectuelle entravée, réducation de la liberté de choix, infantilisation.

 

Les auteurs du document n’hésitent pas à relier essor de l’IA et possibilité d’une marchandisation de l’éducation :

« Certains outils représentent « une forme de privatisation et de commercialisation en transférant le contrôle des programmes scolaires et de la pédagogie des enseignants et des écoles vers les entreprises à but lucratif » (Saltman, 2020, p. 199,  traduction libre). Si ce déplacement de pouvoirs peut être souhaitable, par moments, pour des questions d’efficience ou d’innovation, il doit être fait prudemment en évaluant l’ensemble des conséquences qui peuvent en découler pour que les personnes prennent elles-mêmes des décisions, plutôt que des systèmes basés sur des prédictions de préférence ou prescriptives ».

Une perspective de privatisation qui, aux yeux des chercheurs du GTNum, ne relève pas tant du risque que de l’opportunité. De manière plus générale d’ailleurs, l’idée d’un « principe de précaution » parfois appliqué dans d’autres domaines scientifiques (notamment lorsque la santé humaine est en jeu), ne semble pas effleurer grand monde au Ministère de l’éducation nationale. S’abstenir d’utiliser les IA dans le domaine éducatif en attendant d’avoir plus de recul sur les conséquences y est perçu comme une question déjà dépassée. Le même GTNum, dans une publication plus récente n’hésite pas proposer des « matrices » d’instructions (prompts) à destination des enseignant·es pour que ChatGPT conçoive leurs cours ! Encore une belle promesse de libération – mais sans menace de remplacement de l’humain par la machine, promis.

« On arrête tout, on réfléchit, et c’est pas triste »

Les nouveautés technologiques dans le domaine éducatif suscitent curiosité et appétit, l’IA ne dérogeant pas à la règle. Les interrogations quant à l’intérêt du « progrès » ont vite fait de renvoyer les sceptiques à leur inadaptabilité dans une « école du XXIe siècle » forcément numérisée. Mais les enjeux de l’intégration à marche forcée de cette technologie dans un contexte où le service public d’éducation souffre de nombreux maux sont trop graves pour la banaliser. Prenons le temps de les prendre tous en compte : enjeux écologiques, économiques, politiques, sociaux… Le système éducatif auquel nous aspirons a-t-il besoin de l’IA ? N’est-ce pas l’IA (ou plutôt les entreprises qui fondent leurs produits sur elle) qui a un besoin vital du système éducatif, de ses personnels, des élèves et des familles, et du gigantesque marché que ces millions de personnes représentent ?