Analyse

Action & Démocratie demande le respect dans tous les domaines, donc aussi dans celui de l’éducation, de la loi adoptée par l’Union européenne sur l’intelligence artificielle. La protection des données et de la vie privée doit par conséquent être assurée, tout comme le droit à l’information sur l’utilisation des outils algorithmiques et sur leurs critères de programmation. Nous souhaitons également que l’intelligence artificielle soit considérée comme un enjeu de service public visant à garantir un accès égalitaire, à protéger les citoyens et à diriger les projet d’I.A. vers des objectifs de bien commun .

En ce qui concerne plus spécifiquement l’Éducation nationale, nous attirons l’attention sur la nécessité :

  • d’introduire avec la plus grande précaution éthique les dispositifs d’intelligence artificielle auprès des élèves et des étudiants ; de les mettre en garde ; d’éviter les abus,
  • d’utiliser les dispositifs d’intelligence artificielle pour réduire la pénibilité du travail, voire le temps de travail, et en aucun cas pour l’intensifier,
  • de ne pas utiliser les dispositifs d’intelligence artificielle pour chercher à compenser les difficultés de recrutement de professeurs,  
  • de s’assurer que les dispositifs d’intelligence artificielle n’aboutiront pas à un renforcement du contrôle et de la surveillance des professeurs,
  • d’anticiper les risques psycho-sociaux liés à l’usage des intelligences artificielles, 
  • de s’assurer que le Code de l’Éducation évolue pour réguler l’introduction de l’intelligence artificielle et ses usages dans l’éducation, 
  • de consulter régulièrement le corps enseignant pour connaître son point de vue, enrichi par l’expérience du terrain, sur les usages de l’intelligence artificielle.

Vous pouvez compter sur Action & Démocratie pour suivre ces évolutions et ne pas considérer une innovation technologique comme allant de soi et devant nécessairement s’imposer, surtout sans vous consulter.

Intelligence artificielle : vers un nouveau paradigme didactique et pédagogique ?

Une réflexion socio-technique

L’outil de remédiation et d’apprentissage M.I.A. de la société EvidenceB, voulu par le Ministère de l’Éducation Nationale (Attal, 2023), se déploie actuellement dans les classes de Seconde [cf. en Références, notre article du 8/01/24 sur le site d’A&D]. « M.I.A. Seconde » est élaborée avec des chercheurs en sciences cognitives et des enseignants. L’inspection académique précise : « L’usage de cette ressource numérique peut être fait par les élèves dans des modalités variées : en classe, en mobilité et à domicile. » Son but est « d’élever le niveau de tous les élèves », à l’aide d’un dispositif basé sur des « algorithmes adaptatifs d’intelligence artificielle » qui « permet de personnaliser des parcours d’exercices en fonction du niveau de chaque élève. »

Nous apprenons d’autre part que la société Compilatio, basée à Annecy, vient de mettre au point un dispositif d’intelligence artificielle nommé Gingo, qui corrige les copies dix fois plus vite : « Grâce au logiciel, les enseignants devraient consacrer trois minutes à la relecture d’une copie, contre 30 minutes en moyenne. »  [cf. l’article de France Info, du 15/09/24 ; et le site de Compilatio].

L’intelligence artificielle est donc en marche dans l’éducation. Par ces innovations d’entreprises françaises, la France fait la preuve de sa volonté de n’être pas dépassée par des concurrents étrangers : l’éducation doit rester nationale et donc se doter d’outils « propriétaires » voire « souverains ».

 

Il faut prendre un peu de hauteur.

Nous avions précédemment fait observer que l’infiltration des dispositifs d’I.A. dans la société n’a jamais été mise en débat démocratique. Les débats sont pour la plupart médiatiques, spectaculaires et entendus (« L’I.A. va-t-elle nous remplacer ? », etc.) Les algorithmes qui brassent et structurent les données sont quasiment invisibles au citoyen. L’opacité règne, avec notre consentement tacite. Nous ne tenons pas tant que ça à rentrer dans le moteur. C’est pourtant bien ce qu’il faut faire, en tant que professionnel dont le champ d’activité est transfiguré par de nouveaux principes. Par formation, et parce que c’est au cœur de son métier, un enseignant se doit de faire preuve d’esprit critique et de questionner les enjeux et les conséquences de l’introduction massive de l’I.A. dans sa profession.

Un questionnement socio-technique

Le champ de l’éducation nécessite d’être pensé aujourd’hui comme « système socio-technique éducatif », et non plus seulement comme « système scolaire ». Dans un système socio-technique, la technique est centrale ; c’est par elle que les acteurs du système constituent des liens (culturels, sociaux, etc.) et donc existent.

Pour prendre l’exemple de la correction automatisée des copies, cette innovation induit une transformation du systèmes socio-technique dans lesquels sont immergés les enseignants, les élèves, mais aussi les instances décisionnelles. Ce nouveau contexte invite à une réflexion approfondie sur la manière dont l’usage de l’I.A. modifie d’une part les processus de gestion des connaissances, mais aussi modifie les dynamiques pédagogiques et éthiques du métier d’enseignant. Pour mieux saisir les implications de ces évolutions, il nous faut approcher le cadre socio-technique dans lequel s’inscrivent ces nouveaux outils d’I.A., et commencer à soulever les questions que pose ce nouveau paradigme éducatif.

1. Les systèmes socio-techniques à base d’I.A. : une redéfinition des pratiques pédagogiques par les technologies intelligentes

 

Les systèmes socio-techniques se caractérisent par l’interaction étroite entre des systèmes techniques (machines, logiciels, algorithmes) et des acteurs humains (enseignants, élèves, administrateurs, décideurs). Avec l’introduction de dispositifs d’I.A. dans l’éducation, ces systèmes évoluent vers une automatisation accrue, ce qui modifie fondamentalement le rôle des enseignants et des élèves dans la transmission et l’acquisition des connaissances.

Dans un tel contexte, les enseignants ne sont plus seulement des médiateurs du savoir, ils deviennent aussi des gestionnaires de systèmes complexes. Ils doivent apprendre à intégrer les outils technologiques dans leur pratique, à comprendre les algorithmes qui sous-tendent les évaluations automatiques, et à superviser un processus de correction délégué en partie à des machines. Ce transfert – dont il n’est pas dit qu’il s’agisse pour autant d’un transfert de responsabilités – du domaine purement humain vers des systèmes technologiques soulève de nombreuses questions :

  • Un moindre contrôle, parfois une perte de contrôle : L’enseignant, bien que restant maître du référentiel de correction, se trouve en partie dépendant des résultats fournis par l’I.A. Quelles est la marge de manœuvre et l’autonomie professionnelle dont il dispose ? Si ces outils technologiques sont donnés comme incontournables, que penser de l’enseignant qui les questionne, voire les refuse, par rapport à ses pairs qui les adoptent avec une moindre réflexion ?
  • Répartition du pouvoir décisionnel : L’IA automatise des processus et donc prend en charge des décisions qui relevaient autrefois du jugement humain. Le système socio-technique qui émerge tend à redistribuer le pouvoir décisionnel : entre l’enseignant, le dispositif technologique lui-même, et les acteurs institutionnels qui pilotent ces innovations (ces derniers peuvent avoir accès à des tableaux de bord numériques qui synthétisent en temps réel, et de façon plus complète et plus parlante qu’aux niveaux inférieurs, les informations venues du terrain).

Arrêtons-nous un instant sur les deux types d’I.A. : Dans le cas d’un dispositif d’I.A. générative, il n’est pas possible de savoir comment sont prises les décisions : par exemple de savoir comment a été corrigée la copie. En effet, l’I.A. générative crée des contenus nouveaux par imitation de ce qu’elle a observé dans les données qui lui ont été injectées (par exemple l’injection de milliers de copies, assorties de leur correction par des enseignants, va rendre possible la correction automatique). Cette forme d’I.A. est opaque : on ne sait pas vraiment quel modèle théorique corrige les copies, car le modèle est encapsulé quelque part dans le réseau des neurones formels (I.A. connexionniste). Alors que dans le cas d’un dispositif d’I.A. non-générative, I.A. « classique », « symbolique », l’algorithme est conçu en détail pour traiter des données, sur la base de critères explicites et maîtrisés, comme c’est le cas, par exemple, pour une recette de cuisine. Cette I.A. est théoriquement « explicable » (sans pour autant être aisément transparente, car il y faudrait du temps, notamment si l’algorithme est complexe dans ses embranchements conditionnels.)

Ces évolutions récentes – qui simulent l’intelligence en donnant l’impression qu’elles manipulent des connaissances alors qu’elles ne traitent que de l’information et des données – , déplacent la fonction pédagogique de l’enseignant vers la « gestion technologique des connaissances », où l’enseignant se transforme, partiellement et plus ou moins vite, en utilisateur et superviseur de dispositifs techniques. Cela modifie la manière dont le savoir est structuré, transmis et évalué, car la gestion didactique et pédagogique des connaissances perd encore un peu de sa dimension humaine et relationnelle, pour glisser vers une dimension de plus en plus instrumentale,  voire technocratique. Cette logique n’est pas nouvelle : c’est un mouvement historique de fond, depuis au moins l’invention de l’écriture. A cette différence importante qu’il y a eu accélération : l’écriture a pris plusieurs millénaire pour être au point ; il est possible de voir l’intelligence artificielle comme une nouvelle forme d’écriture, dynamique, en partie automatisée ; or cette forme-là s’impose en deux décennies à peine. Le temps d’apprentissage et d’acculturation est trop réduit, ce qui provoque un choc social et cognitif. C’est peut-être ce que d’aucuns ont appelé le « choc des savoirs » ! Autrement dit un traumatisme, dont un « violentomètre » gradué pourrait mesurer les effets.

2. Gestion des connaissances et externalisation cognitive

 

L’utilisation de l’I.A. dans la correction des copies participe d’une logique plus large, de ce que l’on appelle l’externalisation cognitive. En déléguant certaines tâches intellectuelles (évaluation, analyse de performances, détection d’erreurs) à des systèmes automatisés, une partie des processus cognitifs traditionnels est transférée à des machines. Ce phénomène soulève plusieurs questions quant à la nature même du savoir et de son traitement dans l’écosystème socio-technique éducatif.

  • Automatisation du jugement pédagogique : L’I.A. standardise et formalise les pratiques d’évaluation en se basant sur des barèmes précis et des critères, a priori établis en amont par l’enseignant. Toutefois, cette externalisation risque de réduire la complexité du jugement pédagogique, qui habituellement se nourrit d’une analyse contextuelle et humaine de chaque copie. Comment garantir que les nuances, les expressions de créativité des élèves, les imprévus, ne soient pas appauvris ou ignorés par un système technique incapable de véritablement comprendre la subjectivité et la singularité de chaque élève ? Corriger une copie est une tâche en partie automatisable, mais relève aussi d’une « science du particulier » : un individu est unique, chacune de ses réalisations l’est aussi ; la saison, l’heure, l’état d’esprit, le profil dynamique de l’élève tel qu’il évolue durant l’année sont, entre autres, déterminants ; seul un humain, parce qu’il est empathique, est capable de cette souplesse et de multiples appréciations contextuelles. La frontière est poreuse et mouvante entre ce qui est formalisable et ce qui ne l’est pas. Par ailleurs, « juger de » ne saurait être réduit à « évaluer » ; la machine ne sait pas « juger de » ; mais les impératifs pragmatiques et de réduction des coûts ne s’embarrassent pas d’une telle distinction. C’est là une très sérieuse question éthique. Il faut dénoncer le dogme du calculable qui rejette le non-calculable, le hasard, l’imprévu.
  • Risque de rigidification des apprentissages : En reposant sur des dispositifs technologiques qui traitent de manière algorithmique les connaissances, on risque d’orienter les processus pédagogiques vers une vision mécanisée et uniformisée du savoir. Les systèmes d’I.A. tendent à valoriser des réponses formatées ou attendues. Il y a un risque d’uniformiser les pratiques pédagogiques et de limiter l’encouragement à la créativité, à la pensée critique et à la réflexion ouverte.
  • Transformation de la relation au savoir : L’élève, immergé dans un contexte, un système socio-technique où l’évaluation est en partie automatisée, peut développer un rapport au savoir et à l’apprentissage fondé sur la standardisation et l’optimisation de ses réponses, afin de s’adapter aux critères de l’I.A. Cela peut modifier sa perception de l’évaluation et la transformer en un simple exercice technique destiné à satisfaire un algorithme, au lieu de la considérer comme un moment d’apprentissage critique et de réflexion sur ses compétences et ses lacunes.

3. Questions socio-techniques et technologiques : une immersion forcée ?

 

La diffusion des dispositifs à base d’IA dans l’éducation ne concerne pas uniquement les questions pédagogiques, mais soulève aussi des questions socio-techniques et technologiques. Dans un environnement où les systèmes numériques et l’automatisation prennent de plus en plus de place, les enseignants et les élèves sont contraints de s’adapter à cette nouvelle réalité technologique.

  • Techno-dépendance : Une question concerne le degré de dépendance aux technologies. L’utilisation de l’I.A. pour corriger les copies comme pour suivre un cours ou faire des exercices peut encourager une dépendance croissante aux systèmes technologiques et limiter ainsi l’autonomie des enseignants et des élèves. Cette dépendance risque de réduire les marges d’adaptation pédagogique que permet encore aujourd’hui une relative indépendance vis-à-vis de ces dispositifs.
  • Inégalités d’accès et fractures numériques : L’introduction de technologies d’I.A. dans les classes peut également exacerber des inégalités d’accès. Les écoles bien dotées technologiquement pourraient bénéficier de ces outils pour optimiser l’évaluation, tandis que d’autres, moins équipées, resteraient en marge. Ces inégalités techniques risquent de creuser un fossé éducatif entre les élèves qui ne reçoivent pas les mêmes opportunités d’apprentissage ni les mêmes méthodes d’évaluation. Mais l’avantage est peut-être du côté des écoles qui favorisent la transmission entre humains, et non du côté de celles qui déploient les dispositifs technologiques réputés les plus performants. L’équité dans la transmission et dans les évaluations n’est pas nécessairement du côté de la logique technicienne, quand bien même elle serait algorithmique et « intelligente ». Demandons-nous si la source de l’équité ne serait pas plutôt du côté de l’ajustement souple et singulier entre personnes, la maturité de l’un venant porter, élever et inspirer par empathie et mimétisme l’humanité de l’autre. La vision mécaniciste du progrès qui occupe notre hyper-modernité ne semble guère s’accorder avec la finesse de l’expérience sensible et incarnée promue par la tradition humaniste. On peut même considérer qu’il y a un conflit exacerbé entre deux plaques tectoniques antagonistes : l’Humanisme et le Technologisme.
  • Transformation des compétences requises : Pour les enseignants, ce passage à un modèle d’évaluation assistée par des I.A. nécessite de développer des compétences technologiques poussées. La formation initiale doit alors être d’autant plus souvent complétée, voire réformée, que les innovations sont fréquentes. Cette transformation peut générer des tensions entre maîtrise pédagogique « classique » et nouvelles compétences technologiques, remettant en cause les valeurs du métier. Sur quels critères seront évalués les enseignants ? Sur leur humanité, ou bien sur leur maîtrise, voire leur allégeance, aux dernières technologies et aux directives hiérarchiques qui les imposent en cascade ? (Encore une fois : Y a-t-il seulement eu débat démocratique sur la question de l’introduction des I.A. dans l’éducation ?)

4. Philosophie de la technique et implications pour le métier d’enseignant

 

L’usage de l’IA pour la correction des copies demanderait aussi à ce qu’on s’intéresse à la philosophie de la technique, notamment dans la manière dont l’outil devient un prolongement de l’humain et modifie les pratiques et les structures mêmes du métier d’enseignant.

  • Instrumentalisation et perte de sens : les philosophes Martin Heidegger, Günther Anders, Jacques Ellul et Gilbert Simondon, pour ne citer qu’eux, ont questionné le phénomène technique, rappelant qu’un dispositif artificiel, un instrument, un outil, peut instrumentaliser la pensée humaine. En laissant l’I.A. gérer une partie de la correction des copies, ou bien transmettre des connaissances et s’occuper de la progression des élèves, on risque de réduire la pédagogie à une simple manipulation d’outils, éloignant l’enseignant de sa mission première, qui est d’accompagner la transformation intellectuelle et humaine de ses élèves en incarnant avec ferveur la connaissance qu’il transmet. Le discours dominant actuellement (2024-2025) consiste à promettre aux enseignants d’être bientôt « libérés » des tâches pénibles (comme corriger des copies), pour pouvoir se concentrer sur les « missions essentielles » : accompagner, guider, « coacher », encourager, stimuler les élèves (un seul exemple : « Mise au service de l’enseignement, l’I.A. permet de personnaliser l’apprentissage et de libérer les professeurs des tâches sans valeur ajoutée. », Challenge, dans un article du 9/04/2024 intitulé « L’intelligence artificielle au secours des profs ».) Mais ce discours dominant tend à inclure insidieusement, dans les tâches considérées comme pénibles, la transmission des connaissances. Un dispositif d’I.A. n’est-il pas préférable à un enseignant, trop humain pour être fiable ? Les « nouveaux enseignants », bientôt bardés de dispositifs intelligents chargés d’évaluer ou de faire cours, gagneront à être autrement dénommés : « facilitateurs numériques »,  « pédagogues augmentés », « mentors pédagogiques », « instructeurs algorithmiques », « médiateurs d’apprentissage intelligent », « cyber-éducateurs », « architectes des savoirs », « tuteurs technologiques », ou bien encore « concepteurs d’apprentissages hybrides ». Il paraît que le métier évolue. Il ne tient qu’à nous de décevoir ce fantasme auto-réalisateur, en nous emparant collectivement de la question.
  • Aliénation technologique : Un autre risque est l’aliénation technologique, quand l’enseignant et l’élève deviennent de simples opérateurs d’un système socio-technique, imposé pour des facilités de gestion verticale. Cette aliénation découle du fait que les outils technologiques prennent le dessus sur la réflexion pédagogique, en imposant des modes de fonctionnement automatisés qui réduisent la place de l’interaction humaine et de l’adaptation pédagogique. Il est plus facile de contrôler à la marge, depuis en haut, les opérateurs d’un système qui déjà les cadre et les contraint, que d’attendre d’eux qu’ils appliquent des directives verbales interprétables, diluées à chaque niveau décisionnel. On peut voir là les façons d’un enrégimentement : les dispositifs intelligents ont avalé les humains dans leur jeu fermé, jusque là trop libre. Jeu fermé, jeu ouvert : il s’agit de deux régimes d’expérience et de pouvoir, dont l’équilibre subtil, conçu par des experts vise, par le « nudge », à rendre aussi peu sensible que possible les contraintes imposées au terrain.
  • Reconfiguration du rôle de l’enseignant : l’introduction de l’I.A. soulève donc la question de la reconfiguration du métier d’enseignant. S’agit-il encore de former des esprits à penser par eux-mêmes, ou de répondre à des critères dictés par un système technique ? Le métier d’enseignant tend à se transformer en une fonction de médiation technologique, où l’enjeu principal est d’apprendre à coexister avec des machines intelligentes, tout en préservant comme on peut les spécificités humaines de l’acte éducatif, – « plus-value » humaine qui pourrait être bientôt chèrement monnayée sur le « marché de l’éducation ».

En conclusion : Un changement de paradigme qui nécessite vigilance et réflexion

 

L’introduction des dispositifs d’I.A. dans l’évaluation comme dans la transmission des savoirs et des connaissances scolaires inscrit l’éducation dans un nouveau paradigme socio-technique et soulève des questions philosophiques et éthiques d’importance sur la nature même de l’apprentissage, sur le sens et les modalités de la transmission, ainsi que sur le rapport et le lien entre les êtres humains. A l’heure des « cours d’empathie » à l’école, dont « les séances enseignent aux enfants l’importance des émotions ressenties pour construire un monde plus compréhensif et inclusif », il est paradoxal et piquant de voir déferler de l’autre côté ce qu’il y a de moins empathique : le machinal et la pensée-machine. Certes, Bruno Bachimont, technologue et philosophe, écrivait en 1996 dans sa thèse de doctorat qu’« il ne s’agit pas de croire en une machine qui pense mais d’espérer en une machine qui donne à penser », il n’en reste pas moins que, depuis,  la vision politique, technocratique, a privilégié les enjeux économiques aux enjeux culturels. Les « machines à penser » sont mises avant tout au service d’une gouvernementalité cybernétique. Ce tournant historique provoqué par la déferlante (toujours non démocratiquement débattue) des simulations de l’intelligence et de leur assistance dans notre vie sociale ne saurait être totalement justifié par un gain d’efficacité productive et par ses effets présumés sur la réduction des coûts globaux, car dans le même temps ces simulacres, par un assistanat de plus en plus insistant, transforment notre dynamisme cognitif, notre vision du monde, notre imaginaire, notre sensibilité (qui s’émousse face au vivant) et, dans notre métier, modifient la forme et l’essence de l’acte pédagogique, bouleversant les relations entre enseignants, élèves, et savoir ; et redéfinissant non seulement les tâches et les missions de l’enseignant, mais le visage du métier, – soit l’homme lui-même.

L’immersion dans ce nouveau système socio-technique éducatif ne doit pas être perçue uniquement sous l’angle de la modernisation, mais doit faire l’objet d’une réflexion critique constante et approfondie pour préserver le sens et l’humanité du métier d’enseignant, sans quoi la transmission vivante des savoirs pourrait n’être bientôt plus qu’illusion.

Ph. Herr, référent I.A. et numérique / A&D – le 30 septembre 2024

Philippe Herr

Référent national numérique et intelligence artificielle BN Action & Démocratie

Agrégé de Lettres, Philippe Herr a exercé 9 ans en collège de ZEP puis 14 ans en lycée général et technologique ; il a été linguiste développeur en traitement informatique du langage (édition électronique) durant 5 ans dans une société d’informatique éditoriale à Caen et chargé de veille en industrie des langues durant 1 an, à Paris

Références

Au sujet de la correction automatique de copies :

 

 

Au sujet de M.I.A. :

 

1) Éléments d’information :

 

 

2) Articles critiques :