L'intelligence artificielle dans l'éducation

Une mise en perspective

Avec l’arrivée de l’intelligence artificielle dans l’éducation, nous nous apprêtons à voir rejouée une fois encore l’éternelle querelle des Anciens et des Modernes. Faut-il respecter la tradition humaniste, enseigner d’homme à homme, par la parole et sur la base de documents et d’auteurs qui font autorité, en usant d’une langue, qu’il s’agit de bien maîtriser, comme moyen privilégié du développement de l’esprit ? Ou bien faut-il « s’adapter à son époque » et plier les savoirs et les méthodes traditionnels de l’enseignement et de l’éducation aux critères et aux canaux d’un « tout numérique » fantasmé comme solution miracle, dont l’intelligence artificielle, adossée au « Cloud » planétaire et à ses algorithmes, est l’actuelle figure de proue ? Question rhétorique, qui révèle donc son penchant, mais qui, pour n’être pas béatement technophile, n’en est pas pour autant technophobe. 

Avant même de définir ce qu’on peut entendre par « intelligence artificielle » (ou I.A.),  balayons une objection courante qui affirme que : « Ce n’est pas la technologie qui est bonne ou mauvaise, c’est ce qu’on en fait ».  A quoi aura servi de lire Jacques Ellul (Le Système technicien, 1977), si c’est pour ignorer qu’aucune technique n’est neutre, mais qu’elle contient virtuellement un ensemble de contraintes qui vont s’actualiser et se surimposer à la société, laquelle va s’y couler avec plus ou moins de bonheur ? C’est dire que la technique n’implique pas nécessairement « le progrès », comme on veut nous le faire accroire ; car il y a habituellement confusion, entretenue, entre progrès humain (celui de la joie de vivre dans un monde qu’on respecte) et progrès de la technique (celui de la complexification des processus et des dispositifs, en vue du contrôle de la nature, y compris humaine).

 Quant au terme de « technologie », son sens premier désigne une description et une étude critique des techniques, autrement dit une science des techniques. Pour autant, ce terme a remplacé, à tort, celui de « technique », à chaque fois qu’on parle d’un objet qui contient un microprocesseur ou d’un dispositif électronique complexe. Aussi sommes-nous désormais « environnés » de « technologies », c’est-à-dire de « numérique ». La technique n’est donc pas neutre : à preuve la modification comportementale du sujet humain au volant de son véhicule, en comparaison du même lorsqu’il est piéton. Le système technique constitué d’une voiture qui englobe un individu et médiatise ses perceptions de l’environnement, de la structure d’une route et de ses embranchements, du Code de la route et du guidage par GPS conditionne considérablement la forme et l’étendue du libre arbitre du sujet, lui conférant par ailleurs un sentiment accru de puissance. Une technique commande une certaine logique, elle impose un ensemble de prescriptions qui conditionnent la réalité vécue. Qu’en sera-t-il demain de la qualité de l’attention et de la forme de conscience du sujet hyper-assisté ?

Ce constat sur les effets objectifs des environnements techniques se pose avec une acuité nouvelle concernant le tournant sociétal et civilisationnel de l’intelligence artificielle. Il nous interpelle particulièrement quant aux usages qui pourront être faits de l’I.A. dans l’enseignement et dans l’éducation, c’est-à-dire au cœur même de la transmission entre les générations.

Qu'appelle-t-on « intelligence artificielle » (I.A.) ?

Le concept d’« intelligence artificielle » ne date pas d’hier. En 1956, John McCarthy, alors professeur au M.I.T. désignait par ces termes un système capable d’apprendre, de s’adapter et de raisonner. On peut aujourd’hui définir l’intelligence artificielle comme une discipline scientifique relative au traitement des connaissances et au raisonnement, dont le but est de permettre à une machine d’exécuter des fonctions normalement associées à l’intelligence humaine, telles que la compréhension, le raisonnement, le dialogue, l’adaptation, l’apprentissage, etc.

L’intelligence artificielle s’inscrit dans ce qu’on appelle l’« informatique cognitive », qui se présente comme la troisième ère de l’informatique, après celle des systèmes de tabulation (1900), et celle des systèmes programmables (1950).

Avant d’être un champ technique applicatif élaborant des dispositifs (matériels ou logiciels), l’informatique cognitive est une science qui participe du domaine transversal des « sciences cognitives », lequel comprend également la linguistique, la psychologie cognitive, les neurosciences, certains courants de la philosophie, et l’anthropologie, puisque le centre de ces recherches est l’homme en tant qu’être social, pensant, parlant et connaissant.

Avec l’informatique cognitive, dont le projet de concevoir des I.A. est issu, il s’agit désormais de simuler des fonctions de connaissances, des capacités cognitives jusque-là propres à l’homme (par exemple, celle de parler une langue). L’une des caractéristiques technologiques définitoires d’une I.A. est de posséder une certaine autonomie, donc d’être déliée de l’action directe de l’homme sur tout ou partie de ses processus. Dans quelle mesure et quelles limites ? Voilà une question cruciale.

Avec l’I.A., figure de proue de l’informatique cognitive, trois sauts sont effectués. Un saut technique : il s’agit d’une création matérielle efficace inédite dans l’histoire humaine. Un saut épistémique : pour la première fois, on comprend – ou on croit comprendre – les principes théoriques de l’intelligence humaine, puisqu’il semble qu’on parvienne à simuler des capacités d’intelligence qui nous sont propres. Cela ne veut pas dire qu’on imite l’intelligence telle qu’elle fonctionne réellement, biologiquement : il s’agit bien d’une simulation – c’est-à-dire d’un « faire semblant » – par des moyens numériques. Et un saut pratique, qui ouvre, avec l’I.A. et l’informatique cognitive en général, une immense sphère nouvelle d’action dans la société, dans les écosystèmes et dans la vie. Les quatre mots clés définitoires d’une I.A. sont donc : « simulation », « numérique », « intelligence », « autonomie ». Pour qui possède un peu de bon sens, l’évocation d’une « forme d’intelligence autonome » implique aussitôt l’impératif de son contrôle. Comme pour un « véhicule autonome » se pose, paradoxalement, la question de sa conduite.

Les promesses de l'I.A. dans l'éducation

Voici les façons dont l’I.A. pourrait « réinventer » l’éducation et le milieu de l’enseignement.

 

Les I.A. pourraient permettre : d’automatiser les activités de base les plus courantes, par exemple les évaluations ; de s’adapter aux besoins des élèves (adaptiv learning) ; d’aider les enseignants à améliorer leurs cours ; de créer des tuteurs virtuels pour les élèves ; de faire un retour utile aux enseignants et aux élèves (learning analytics) ; de changer notre rapport à l’information et nos façons d’interagir avec elle ; de modifier le rôle des enseignants ; de rendre l’apprentissage par essai et erreur moins intimidant ; de changer la façon dont les écoles trouvent, éduquent et aident les élèves ; de transformer les lieux d’apprentissage et les manières d’apprendre.

 

Cette liste se contente d’égrener des généralités bien floues. Il s’agit là du discours enthousiaste et naïf qu’on trouve répandu sur internet. L’idée de « tuteurs virtuels », sans doute auto-adaptatifs (adaptiv learning), est la plus spécifique à l’I.A., puisqu’il s’agit d’un dispositif possédant une autonomie cognitive ; les autres pourraient aussi bien caractériser des dispositifs antérieurs (la télévision, le multimédia).

Le rapport Villani sur l’I.A., intitulé Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne, remis au gouvernement en mars 2018 est plus légitime dans sa synthèse et sérieux dans ses sources, tout en conservant le même a priori positif qui révèle sa fascination pour l’I.A., toutefois tempérée par des considérations éthiques relatives à l’usage des données personnelles des élèves, inspirées du rapport de la CNIL de décembre 2017. Il s’appuie par ailleurs sur les autres rapports de notre bibliographie (hormis celui, plus spécifique à l’Education Nationale, de Mme Becchetti-Bizot, et qui s’intéresse au numérique en général). Une section du rapport Villani se propose de « transformer l’éducation ». Pour l’éducation, « l’IA est attendue pour de grands bénéfices potentiels qui s’accompagnent de grandes incertitudes » (p.185). Le contexte social posé est d’emblée celui d’une « société automatisée », sans remise en question de son bien-fondé. Les individus y seront formés « de manière personnalisée et adaptative ». L’une des idées centrales est qu’avec l’I.A. il sera possible d’ajuster automatiquement les apprentissages en fonction du « style cognitif » et du « rythme » de chaque élève. Les apprentissages seront donc « personnalisés » sur la base de « méthodes différenciées ». C’est le graal de toute pédagogie. Vu le nombre imposé, sans cesse croissant, d’élèves dans les classes, vu l’hétérogénéité des niveaux – sans parler de la logistique peu efficiente, car non sérieusement pensée, de nombre de salles – un professeur tout seul ne peut assurer le suivi différencié de chacun de ses élèves. Les dispositifs d’I.A. seraient donc une solution que les enseignants, débordés par la surcharge des effectifs, accueilleraient à bras ouverts. L’élève avancera « selon ses dispositions personnelles ». Les précautions par lesquelles le rapport tempère régulièrement ses faveurs tendent toutefois à se clore sur l’impératif d’efficacité, qu’on en juge : « À terme, l’enjeu pour la puissance publique consiste à soutenir les solutions éducatives basées sur l’IA qui agissent dans l’intérêt de l’apprenant et permettent de développer une complémentarité capacitante (sic) avec la machine. » En clair : l’élève complète la machine… qui le lui rend bien. Et la puissance publique est satisfaite. Le terme choisi de « machine » est éclairant, en rien anodin : les I.A. se matérialisent ici, dans l’imaginaire du rapport Villani, dans des dispositifs vus comme machiniques ; alors que nous ne sommes plus, avec les I.A., à l’ère des « machines », mais à celle des interfaces reliées au Cloud. La « machine » est extérieure, constituée du Cloud travaillé par des I.A. D’où un problème d’accès et de propriété, qui interpelle sérieusement l’Education Nationale, puisque dans ce non-lieu se joue la confidentialité des données et des processus. Quant au qualificatif « capacitant », difficile à saisir d’emblée, il s’inscrit dans le cadre conceptuel des réflexions de l’économiste Amartya Sen[1]. Pour faire court : un environnement « capacitant » est un environnement pédagogique suffisamment riche et stimulant pour qu’un élève veuille l’exploiter au mieux dans toutes ses dimensions, et ce de la façon la plus autonome possible. Est-ce si neuf ? A ce titre, la vie réelle paraît le plus probant des environnements capacitants. Le but ultime est de renforcer, grâce aux I.A., « la place de la créativité dans l’enseignement » dans le contexte d’une « complémentarité capacitante avec les machines », car il est devenu impossible d’anticiper « les évolutions à venir du travail ». Il convient donc, toujours pour le rapport Villlani, d’adopter une « approche adéquationniste » des politiques éducatives. On le voit, le désir d’une flexibilité maximum est intense, à tous les niveaux, autant technique que pédagogique et politique : flexibilité des dispositifs d’apprentissage, flexibilité des apprenants, flexibilité des enseignants (qui deviennent des sortes de techniciens pédago-cogniticiens) ; flexibilité des politiques éducatives, désireuses de s’adapter idéalement sans temps mort aux évolutions du marché du travail et aux nécessités de la production. On croit voit planer ici le fantôme du toyotisme et du lean management (il s’agit d’une méthode de gestion de production inspirée de Toyota, qui se concentre sur une gestion « allégée » ou « au plus juste », en parfait accord avec l’esprit et les objectifs de la LOLF, une loi organique, une « constitution financière » de l’Etat français, promulguée le 1er août 2001). Dans un monde hyperfluide, celui de la « société liquide » révélée par Zygmunt Bauman, tout peut fluctuer au gré des exigences de flexibilité (des compétences, des emplois, des valeurs, etc.). Créativité – entendre : « capacité d’innovation technique » – et flexibilité sont les derniers mots d’ordre aux exigences desquels la complémentarité avec les I.A. permettrait de satisfaire.  Nous invitons chacun à se plonger dans le rapport Villani, puis à en compléter la lecture par le rapport de France Stratégie, issu des services du Premier ministre.

 

La place et le rôle de l'enseignant

Voici les façons dont l’I.A. pourrait « réinventer » l’éducation et le milieu de l’enseignement.

 

Les I.A. pourraient permettre : d’automatiser les activités de base les plus courantes, par exemple les évaluations ; de s’adapter aux besoins des élèves (adaptiv learning) ; d’aider les enseignants à améliorer leurs cours ; de créer des tuteurs virtuels pour les élèves ; de faire un retour utile aux enseignants et aux élèves (learning analytics) ; de changer notre rapport à l’information et nos façons d’interagir avec elle ; de modifier le rôle des enseignants ; de rendre l’apprentissage par essai et erreur moins intimidant ; de changer la façon dont les écoles trouvent, éduquent et aident les élèves ; de transformer les lieux d’apprentissage et les manières d’apprendre.

 

Cette liste se contente d’égrener des généralités bien floues. Il s’agit là du discours enthousiaste et naïf qu’on trouve répandu sur internet. L’idée de « tuteurs virtuels », sans doute auto-adaptatifs (adaptiv learning), est la plus spécifique à l’I.A., puisqu’il s’agit d’un dispositif possédant une autonomie cognitive ; les autres pourraient aussi bien caractériser des dispositifs antérieurs (la télévision, le multimédia).

 

Le rapport Villani sur l’I.A., intitulé Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne, remis au gouvernement en mars 2018 est plus légitime dans sa synthèse et sérieux dans ses sources, tout en conservant le même a priori positif qui révèle sa fascination pour l’I.A., toutefois tempérée par des considérations éthiques relatives à l’usage des données personnelles des élèves, inspirées du rapport de la CNIL de décembre 2017. Il s’appuie par ailleurs sur les autres rapports de notre bibliographie (hormis celui, plus spécifique à l’Education Nationale, de Mme Becchetti-Bizot, et qui s’intéresse au numérique en général). Une section du rapport Villani se propose de « transformer l’éducation ». Pour l’éducation, « l’IA est attendue pour de grands bénéfices potentiels qui s’accompagnent de grandes incertitudes » (p.185). Le contexte social posé est d’emblée celui d’une « société automatisée », sans remise en question de son bien-fondé. Les individus y seront formés « de manière personnalisée et adaptative ». L’une des idées centrales est qu’avec l’I.A. il sera possible d’ajuster automatiquement les apprentissages en fonction du « style cognitif » et du « rythme » de chaque élève. Les apprentissages seront donc « personnalisés » sur la base de « méthodes différenciées ». C’est le graal de toute pédagogie. Vu le nombre imposé, sans cesse croissant, d’élèves dans les classes, vu l’hétérogénéité des niveaux – sans parler de la logistique peu efficiente, car non sérieusement pensée, de nombre de salles – un professeur tout seul ne peut assurer le suivi différencié de chacun de ses élèves. Les dispositifs d’I.A. seraient donc une solution que les enseignants, débordés par la surcharge des effectifs, accueilleraient à bras ouverts. L’élève avancera « selon ses dispositions personnelles ». Les précautions par lesquelles le rapport tempère régulièrement ses faveurs tendent toutefois à se clore sur l’impératif d’efficacité, qu’on en juge : « À terme, l’enjeu pour la puissance publique consiste à soutenir les solutions éducatives basées sur l’IA qui agissent dans l’intérêt de l’apprenant et permettent de développer une complémentarité capacitante (sic) avec la machine. » En clair : l’élève complète la machine… qui le lui rend bien. Et la puissance publique est satisfaite. Le terme choisi de « machine » est éclairant, en rien anodin : les I.A. se matérialisent ici, dans l’imaginaire du rapport Villani, dans des dispositifs vus comme machiniques ; alors que nous ne sommes plus, avec les I.A., à l’ère des « machines », mais à celle des interfaces reliées au Cloud. La « machine » est extérieure, constituée du Cloud travaillé par des I.A. D’où un problème d’accès et de propriété, qui interpelle sérieusement l’Education Nationale, puisque dans ce non-lieu se joue la confidentialité des données et des processus. Quant au qualificatif « capacitant », difficile à saisir d’emblée, il s’inscrit dans le cadre conceptuel des réflexions de l’économiste Amartya Sen[1]. Pour faire court : un environnement « capacitant » est un environnement pédagogique suffisamment riche et stimulant pour qu’un élève veuille l’exploiter au mieux dans toutes ses dimensions, et ce de la façon la plus autonome possible. Est-ce si neuf ? A ce titre, la vie réelle paraît le plus probant des environnements capacitants. Le but ultime est de renforcer, grâce aux I.A., « la place de la créativité dans l’enseignement » dans le contexte d’une « complémentarité capacitante avec les machines », car il est devenu impossible d’anticiper « les évolutions à venir du travail ». Il convient donc, toujours pour le rapport Villlani, d’adopter une « approche adéquationniste » des politiques éducatives. On le voit, le désir d’une flexibilité maximum est intense, à tous les niveaux, autant technique que pédagogique et politique : flexibilité des dispositifs d’apprentissage, flexibilité des apprenants, flexibilité des enseignants (qui deviennent des sortes de techniciens pédago-cogniticiens) ; flexibilité des politiques éducatives, désireuses de s’adapter idéalement sans temps mort aux évolutions du marché du travail et aux nécessités de la production. On croit voit planer ici le fantôme du toyotisme et du lean management (il s’agit d’une méthode de gestion de production inspirée de Toyota, qui se concentre sur une gestion « allégée » ou « au plus juste », en parfait accord avec l’esprit et les objectifs de la LOLF, une loi organique, une « constitution financière » de l’Etat français, promulguée le 1er août 2001). Dans un monde hyperfluide, celui de la « société liquide » révélée par Zygmunt Bauman, tout peut fluctuer au gré des exigences de flexibilité (des compétences, des emplois, des valeurs, etc.). Créativité – entendre : « capacité d’innovation technique » – et flexibilité sont les derniers mots d’ordre aux exigences desquels la complémentarité avec les I.A. permettrait de satisfaire.  Nous invitons chacun à se plonger dans le rapport Villani, puis à en compléter la lecture par le rapport de France Stratégie, issu des services du Premier ministre.

Les enjeux profonds de l'usage de l'I.A.

Comme champ de recherche fondamentale, les recherches en intelligence artificielle auraient toute légitimité à se poursuivre, puisqu’il s’agit de comprendre l’homme et son esprit. Mais la science pure se trouve aussitôt sollicitée pour servir des intérêts économiques et militaires. Gardons à l’esprit qu’aux Etats-Unis 80% de la recherche en intelligence artificielle est financée par des crédits de la Défense. En janvier 2018, Google implante son deuxième laboratoire d’intelligence artificielle à Paris, et le même mois Facebook double le sien, comme des postes avancés qui emploient nos plus fins ingénieurs. Dans le contexte idéologique des sociétés occidentales, l’intérêt pour l’I.A. est avant tout stratégique, économique et géopolitique : il s’agit d’assurer la survie et la prédominance d’un groupe humain et d’un modèle économique de société. On peut ainsi s’interroger sur l’usage de l’I.A. dans l’éducation : Est-il désintéressé ? Ne s’agit-il pas, avant tout, de « rester dans la course » économique et éducative et de « produire », dans un temps réduit, les seules « compétences » individuelles utiles à pérenniser un modèle socio-économique avide de compétitivité et de gain ? Nous serions bien naïfs de ne pas nous poser la question. Les dispositifs d’I.A. dans l’éducation seront-ils élaborés pour contribuer au développement intellectuel et moral des jeunes, ou bien seront-ils conçus en vue d’optimiser des performances au service premier de la croissance d’une certaine économie et du progrès de la technique ? Nous l’avons dit au début, la technique pose ses conditions, indépendamment de l’orientation morale des usages qu’on en fera. Ainsi, depuis la présence des calculettes, qu’est-ce qui nous pousse à vouloir faire par nous-mêmes, « de tête », une multiplication ou une division non élémentaires ? A quelques années à peine de l’usage généralisé des applis de traduction vocale en temps réel, est-il encore besoin de se donner la peine d’apprendre une langue ? On peut généraliser cette question à tous les domaines du savoir et des savoir-faire : Qu’aurons-nous encore besoin d’apprendre par nous-mêmes ? Les processus cognitifs jusque-là proprement humains, non seulement les plus élémentaires mais aussi parmi les plus élaborés (comme parler une langue) sont en voie d’externalisation technologique (dans le Cloud, travaillé par les I.A.). Quels sont les processus intelligents que nous déléguerons bientôt à la « boîte noire » I.A., sans plus nous soucier d’en maîtriser par nous-mêmes les bases élémentaires ? A l’Ecole, avant d’être cognitivement assisté par des I.A., ne conviendrait-il pas d’enseigner au plus tôt les bases de l’algorithmique et les principes intellectuels et moraux (éthiques) de l’assistance-assistanat par les I.A. ? C’est l’une des préconisations de Cédric Villani dans son rapport. La question fondamentale qui nous semble se poser est celle de la forme d’attention et de conscience que va développer l’enfant plongé d’emblée dans un monde assisté par des I.A. Cette question est plus largement celle de l’immersion primaire de l’être humain dans les systèmes médiatiques : elle se posait déjà avec la télévision, puis avec les jeux vidéo, aujourd’hui avec les smartphones, qui mixent ces deux médias et d’autres (certains adossés à des I.A., comme par exemple l’assistant vocal Siri, d’Apple, qui relève du « traitement du langage naturel », un domaine central en l’informatique cognitive).  Et nous ne l’avons jamais résolue. Nous avons fait collectivement le non choix, en civilisation hypnotisée par les scintillements du numérique et les promesses d’un grand mythe, de laisser la technique modeler la forme de notre attention et conditionner nos états de conscience, déléguant à la « machine univers » (l’expression est de Pierre Lévy, dans son ouvrage éponyme de 1992) l’éducation et donc la forme de notre esprit. Or il ne s’agit plus vraiment là d’éducation, mais d’information, au sens premier où l’esprit est in-formé, mis dans une forme, qui fige sa profondeur par le fait même des sollicitations à haute fréquence dont on gratifie sa seule surface (tittytainment, « titiller pour exciter tout en amusant »). Surgratifié par ces jeux de surface, le sujet, accoutumé, ne va-t-il pas préférer le chant des sirènes du ludotainment (le « divertissement éducatif ») à la voie plus ardue d’un enseignement ?

 

L’enseignement… Celui des signes de la connaissance. Des signes transmis par un semblable qui en a fait l’expérience intérieure et qui la communique de personne à personne afin que chaque signe et chaque dimension de cette connaissance vive et grandisse dans la mémoire de l’élève, portés par l’énergie incarnée, un jour, d’un don.  Non pas une pseudo-connaissance inscrite comme information dans un réseau de neurones ciblés par un simulacre d’intelligence de façon « adaptative ». L’enseignement est un acte vital exigeant un échange permanent ; on ne délègue pas la vitalité de la transmission à un simulacre. Ce serait un point fort à défendre dans une éthique de la transmission. Gardons à l’esprit que les données traitées par une I.A. ne sont pas des connaissances, et que pour faire connaissance, il faut une rencontre vitale rendue affectivement nécessaire ; c’est là tout l’enjeu de l’art – car ce n’est pas une science – qu’est la pédagogie : savoir faire passer l’élève des sensations aux affects, et des affects à des prises de conscience (puis l’aider à parcourir le chemin dans l’autre sens) : les sens éveillent l’esprit, l’esprit amplifie les sens.

La raison technicienne, au service de l’idéologie du contrôle (cybernétique) et du profit conduit ainsi, de façon prévisible, à l’épuisement de l’homme par l’homme, par une série d’opérations de dévitalisation dont il convient que nous prenions conscience, en préservant en premier lieu l’éducation comme la pratique d’une rencontre vitale quotidienne. Contre les apparences données à voir, le grand mythe du numérique, par l’attraction même de sa future apothéose cognitive artificielle, produit ainsi l’exact contraire de ce qu’on appelle « éducation ». A côté de la fascination hypnotique qu’exercent les dispositifs techniques des médias numériques au travers de leurs flatteuses interfaces « intuitives », les supports, les méthodes et les relations si humaines de l’enseignement humaniste traditionnel paraissent ne pas faire le poids. Ils sont pourtant préférables et doivent le rester pour développer des formes d’attention qui permettent à la conscience d’un sujet de parvenir à posséder ses propres facultés et d’émerger un jour en tant que sujet politique. Ce précieux sujet qui aura encore à cœur de faire vivre et de pérenniser, par ses qualités d’âme, le projet historique commun d’une démocratie et d’une république.

 

[1] https://remixonsdoc.wordpress.com/reinventer-les-espaces/

Philippe Herr

Référent national numérique et intelligence artificielle

BN Action & Démocratie

 Agrégé de Lettres, Philippe Herr a exercé 9 ans en collège de ZEP puis 11 ans en lycée général et technologique ; il a été linguiste développeur en traitement informatique du langage (édition électronique) durant 5 ans, dans une société d’informatique éditoriale, à Caen et chargé de veille en industrie des langues durant 1 an, à Paris

Bibliographie

Cinq rapports importants en 2017 et 2018 

Rapport de M. Cédric Villani, mars 2018 : Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne. (Particulièrement, pour cet article, la partie : Focus sectoriel – Focus 1 : Transformer l’éducation, p. 183-192.)
(http://www.ladocumentationfrancaise.fr/var/storage/rapports-publics/184000159.pdf)

Rapport de la CNIL (Commission Nationale Informatique et Libertés), décembre 2017 : Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle. Synthèse du débat public animé par la CNIL dans le cadre de la mission de réflexion éthique confiée par la loi pour une république numérique. (https://www.cnil.fr/fr/comment-permettre-lhomme-de-garder-la-main-rapport-sur-les-enjeux-ethiques-des-algorithmes-et-de)

Rapport de Mme Catherine Becchetti-Bizot, rapport à monsieur le ministre de l’éducation nationale, rapport N° 2017-056, mai 2017 : Repenser la forme scolaire à l’heure du numérique : vers de nouvelles manières d’apprendre et d’enseigner.
(http://www.cafepedagogique.net/lexpresso/Documents/formescolaire17.pdf)

Rapport de France Stratégie (Commissariat général à la Stratégie et à la Prospective, service du Premier ministre), mars 2017 : Anticiper les impacts économiques et sociaux de l’intelligence artificielle.
(http://www.strategie.gouv.fr/publications/anticiper-impacts-economiques-sociaux-de-lintelligence-artificielle)

(Précisons qu’il existe également un autre rapport de France Stratégie, de mars 2018, intitulé Intelligence Artificielle et travail : http://www.strategie.gouv.fr/publications/intelligence-artificielle-travail).

Rapport de France IA, du ministère de l’Economie, 2017 : Rapport de synthèse : France Intelligence Artificielle.
(https://www.economie.gouv.fr/files/files/PDF/2017/Rapport_synthese_France_IA_.pdf)

Pour élargir la réflexion critique aux contextes socio-historiques d’où émerge l’I.A. :


Zygmunt BAUMAN, La Vie liquide, Le Rouergue/Chambon, 2006.
Miguel BENASAYAG, Cerveau augmenté, homme diminué, éditions La Découverte, 2016.
Dany-Robert DUFOUR, Le Délire occidental, Editeur Les Liens qui Libèrent, octobre 2014.
Armand MATTELART, Histoire de la société de l’information, Editions La Découverte, coll. Repères, juillet 2018 (5e édition).