La déclaration préalable d’Action & Démocratie en ouverture du CSE a clairement posé le cadre et le ton : elle a dénoncé l’effondrement systémique de l’Éducation nationale, aggravé par une administration défaillante et des réformes mal conçues. Elle a pointé l’introduction précipitée de l’intelligence artificielle dans l’éducation, sans cadre suffisamment réfléchi ni vision claire de ses effets. L’École semble se détourner de sa mission première : former l’intelligence humaine.
Pour le point 7, relatif au “cadre d’usage de l’IA dans l’éducation”, près de soixante amendements ont été déposés et débattus durant cinq heures (14h–19h). AD, comme une majorité d’autres syndicats, a voté contre ce texte. D’une part, il manque encore de clarté ; d’autre part, nous questionnons en profondeur l’utilité de l’IA comme outil éducatif. Que les capacités intellectuelles puissent être déportées vers des tiers numériques interroge. Que ces dispositifs artificiels puisent à la fois dans les savoirs humains et les ressources naturelles, dans une logique extractiviste dont l’école ne saurait être complice, interroge. Que l’effort lent, seul formateur, par lequel un esprit se construit, puisse être court-circuité par l’omniprésence d’un outil en apparence omniscient, interroge.
Enfin, ce « cadre d’usage » n’a ni la rigueur d’un cadre, ni la force d’un usage. Il s’agit d’un document non contraignant, plus incantatoire que normatif, qui se contente d’énoncer des principes vagues et des recommandations sans portée réelle. Pense-t-on vraiment encadrer une révolution technologique par de simples formules prudentes, dont l’efficacité tient surtout à l’illusion qu’elles produisent ?
Pour autant, l’IA ne peut être ignorée. Mais faut-il pour cela lui faire place à l’école ? Peut-on l’enseigner de façon critique sans en légitimer l’usage ? L’institution éducative saura-t-elle résister aux injonctions de la modernité, ou trahira-t-elle sa vocation ? Comment cultiver la pensée quand une machine, placée sous les yeux de l’élève, semble penser plus vite, mieux, plus complètement ? Comment encourager l’effort intellectuel quand l’IA propose d’emblée une réponse, un texte, une solution — sans aucun effort ? L’École est-elle en train de devenir un lieu d’apprentissage du prompting, c’est-à-dire de l’art de formuler des requêtes à une machine ?
Peut-on étudier l’IA sans en devenir dépendant ? Comment éduquer à la tempérance algorithmique, à la retenue technocognitive ? Comment résister à cette nouvelle forme d’illusion, de facilité, de renoncement à soi ? Quelle idée de l’élève, du savoir, de l’humain se profile ici ? La même que celle que nous défendons — ou déjà une autre ? Une IA auxiliaire de confort, substitut à l’effort, prétexte à la déresponsabilisation, renforce ce qui s’oppose au projet même de l’École.
À ce stade, nous n’avons pas encore trouvé de manière juste, cohérente, et fidèle aux finalités propres de l’École, d’intégrer l’intelligence artificielle dans l’acte éducatif. La nature même de ces technologies — leur logique d’efficacité, leur puissance d’automatisation, leur capacité à produire des simulacres de pensée — entre en tension avec ce que l’éducation exige en profondeur.
L’enthousiasme technologique et la fascination ambiante nous font perdre de vue l’essentiel : penser les usages avant les outils, envisager les finalités avant les moyens. Le problème est plus radical : il est philosophique, anthropologique, politique. Il touche à ce que nous entendons encore par « instruire », « former », « émanciper ». C’est pourquoi, à ce stade de la réflexion, et dans l’état actuel des usages comme des représentations de l’IA, nous suspendons notre assentiment.
L’École ne saurait devenir un laboratoire d’expérimentations techniques, ni l’éducation un marché. Elle ne peut être soumise à la logique des modes ou des offres commerciales, au risque de réduire l’acte éducatif à une prestation, les savoirs à des produits, et les élèves à des usagers ou à des profils de données.
Précision : Toutes les IA ne se valent pas. Celles évoquées ici reposent sur des modèles probabilistes, non déterministes : elles ne suivent pas un enchaînement logiquement transparent mais fonctionnent comme des “boîtes noires”, dont les sorties relèvent de calculs de probabilité, non de raisonnement. Confier une part du processus éducatif à de tels dispositifs interroge profondément une école dont la vocation est de transmettre des savoirs stabilisés, ouverts à l’examen critique. L’IA peut entrer à l’École — mais en tant qu’objet d’étude : technique (pour en comprendre les mécanismes), anthropologique (pour saisir le pouvoir de fascination qu’elle exerce), et socio-économique (pour en mesurer les usages, les intérêts et les dérives).