Adjectif : analyses et recherches sur les TICE

Revue d'interface entre recherches et pratiques en éducation et formation 

Barre oblique

Former sans se dissoudre : IA générative, fluide nutritionnel et préservation de la part de soi

lundi 14 juillet 2025 Spach, Michel

Michel Spach

CY Cergy Paris Université, INSPE de Versailles michel.spach@cyu.fr

Vol 2025 / S2

Résumé – L’émergence de l’intelligence artificielle générative (IAG) bouleverse progressivement les manières d’apprendre, d’enseigner et de produire du sens, en affectant tout autant les enseignants que les apprenants. Cette contribution interroge les usages de ces technologies à travers la notion de « part de soi », entendue ici comme un indicateur d’appropriation critique dans les pratiques éducatives.

En mobilisant plusieurs dispositifs de formation, à destination d’étudiants ou de formateurs, menés à l’INSPE de Versailles de 2022 à 2025, ce travail articule approche philosophique, posture pédagogique et vigilance éthique face à l’irruption de ces outils dans la relation éducative.

Le fil conducteur de cette réflexion s’appuie sur la métaphore du « fluide nutritionnel » [1], proposée par un internaute en commentaire à une publication de Mathilde Saliou (2024). Elle engage une question en apparence simple mais aux implications profondes : que livrons-nous à ces outils, et qu’y perdons-nous parfois d’intime, de personnel ou de réflexif dans les traces qu’ils restituent ?

Mots-clés – IA générative – part de soi – hybridation – formation des enseignants – appropriation critique – apprentissage – fluide nutritionnel

Introduction – Une circulation à double sens

«  Sommes-nous le fluide nutritionnel d’une telle engeance ? » (Saliou 2024)

Cette interrogation, qui pourrait paraître provocante, condense les tensions de notre relation actuelle aux intelligences artificielles génératives (IAG). Chaque requête, chaque texte confié à l’IA constitue un apport : elle apprend de nous, se modèle à nos formulations, et produit en retour des contenus qui, parfois, portent notre empreinte mais qui, parfois aussi, nous échappent totalement.

Ce flux entre production humaine et restitution algorithmique dessine une nouvelle forme de relation cognitive et pédagogique. Mais dans ce flux, que devient la « part de soi » ? Comment former, évaluer, accompagner sans perdre ce qui fait la singularité d’un sujet qu’il soit apprenant ou enseignant ? Cette notion, déjà interrogée dans le cadre des processus d’adoption du TNI (Tableau Numérique Interactif), renvoie à une problématique essentielle de l’appropriation : « Quelle part de soi engage-t-on lorsque l’on intègre un nouvel artefact dans ses pratiques ? » (Villemonteix 2012).

Ce questionnement prend une acuité particulière avec les outils génératifs, qui simulent nos façons de penser, d’écrire, voire de ressentir. L’IAG ne se contente plus de prolonger nos gestes professionnels ; elle les devance, les modélise, les transforme. Dans ce contexte, il devient urgent de réfléchir aux conditions d’un usage critique, éthique et formateur de ces technologies, non pour les rejeter, mais pour apprendre à y exister sans s’y dissoudre.

Cette réflexion trouve un prolongement dans une autre contribution consacrée à l’enseignement primaire, où les effets indirects de l’IA générative sur les gestes professionnels des enseignants sont analysés, en particulier à travers les notions de délégation, de reconfiguration des médiations et de part de soi (Nogry et Spach 2025).

Cet article explore la notion de « part de soi » à travers quatre tensions structurantes, mises en perspective dans le schéma ci-après (Fig 1 - IA et part de soi, tensions structurantes) une forme d’hybridation, un progrès à deux vitesses, une illusion de liberté apportée par la technique, et enfin la métaphore de l’exo-cerveau.

Figure 1 - IA et part de soi, tensions structurantes

Je donne, je reçois : une hybridation à double sens

L’intelligence artificielle générative (IAG) marque une rupture profonde avec l’IA symbolique classique : elle ne repose plus sur des règles explicites, mais sur des corrélations statistiques entre fragments de langage. C’est ce qui lui vaut parfois le qualificatif provocateur de «  perroquet stochastique  ». Comme le souligne Georges-Louis Baron, ce changement de paradigme vient perturber le modèle éducatif traditionnel, notamment l’équilibre entre transmission descendante et construction partagée des savoirs (Baron 2024).

Face à cette mutation, trois types d’attitudes institutionnelles émergent :

  • Le rejet, motivé par la crainte de la triche, de la désinformation ou de la perte de contrôle pédagogique ;
  • Le remplacement, posture plus radicale dans laquelle l’IA est envisagée comme un possible substitut à l’enseignant ;
  • L’accompagnement, enfin, qui reconnaît le potentiel de l’IA pour enrichir les pratiques éducatives, à condition d’un usage éthique, critique et encadré.
    C’est dans cette dernière voie que s’inscrit notre travail de terrain à l’INSPE de Versailles. L’IA, perçue comme un fluide nutritionnel, donne à voir une relation symbiotique entre l’humain et la machine : je donne, je reçois.

Chaque interaction avec un agent conversationnel ou un générateur de texte suppose un apport humain, même minimal : une intention, une formulation, une situation. En retour, ce que l’IA propose peut osciller entre reformulation servile et transformation créative. Dans cette boucle, quatre questions nous paraissent fondamentales :

  • Qu’ai-je donné ?
  • Qu’ai-je reçu ?
  • Ai-je reconnu ma pensée dans ce retour ?
  • Qu’ai-je dû modifier pour y réinsuffler ma part de soi ?
    Les deux premières questions ont été soumises à une vingtaine de formateurs et enseignants lors de la communication «  IA et part de soi  », présentée à l’université d’été du réseau des INSPE [2]. Un dispositif de collecte instantanée (Wooclap) a permis de recueillir des réponses spontanées.

À la question «  Que donnez-vous à l’IA quand vous l’utilisez ?  », les réponses révèlent une forte charge identitaire : intuitions, personnalité, mon nom, qui je suis, mes questionnements.
À la question «  Que recevez-vous en retour ?  », les réponses expriment une efficacité perçue (gain de temps, structuration, synthèse, suggestions), mais aussi une certaine méfiance (bouillie, bruit, suite de tokens).

Cette tension lexicale traduit une ambivalence manifeste : l’IA assiste, mais inquiète ; elle soulage, mais déroute. Elle devient alors révélatrice de ce que les formateurs projettent, redoutent ou perçoivent comme leur part de soi mise en jeu.

La représentation schématique de la créativité augmentée (Figure 2 – Créativité augmentée), inspirée de la démarche critique de Boris Eldagsen, photographe et chercheur en IA générative, illustre comment la créativité humaine (partie grisée) peut être soutenue, sans être remplacée, par une assistance algorithmique (partie rosée).

Figure 2 – Créativité augmentée

Même si la première interaction peut relever d’un leurre projectif dans la mesure où l’on croit se reconnaître dans ce que produit l’IA, elle ne disqualifie pas l’usage. Elle peut au contraire ouvrir un espace de dévoilement personnel, à condition d’y répondre activement  : relire, réécrire, réorganiser, s’approprier à nouveau (Eldagsen 2023).

Ce travail de réappropriation fait écho aux deux dernières questions évoquées plus haut : Ai-je reconnu ma pensée ? Qu’ai-je dû modifier ?

Car générer ne suffit pas : c’est dans le retravail, la résistance, et l’ajustement que la part de soi peut réémerger.

Ces interrogations relèvent d’une problématique plus large : celle de l’appropriation, bien connue dans les recherches sur le numérique éducatif. La notion de part de soi, développée par Villemonteix à propos du TNI, nous semble ici centrale pour qualifier le degré d’engagement subjectif dans l’usage de l’IA.

À ce titre, il est éclairant de relire la figure du pharmakon chère à Bernard Stiegler : «  Tout objet technique est pharmacologique  : il est à la fois poison et remède. Le pharmakon est à la fois ce qui permet de prendre soin et ce dont il faut prendre soin, au sens où il faut y faire attention » (Stiegler 2009).

Comme autrefois l’écriture pour Platon, l’IA générative peut affaiblir la mémoire, la pensée critique, voire l’intention. Mais elle peut aussi, si elle est réappropriée, devenir un amplificateur réflexif. Cela exige une vigilance continue : ce que nous recevons de l’IA n’est jamais neutre, et ce que nous y projetons doit être interprété, transformé, replacé dans une logique pédagogique.

Si l’IA semble parfois dépersonnalisante, des usages récents montrent au contraire un investissement subjectif profond. Une enquête exploratoire de Matt Zao-Sanders révèle que pour de nombreux utilisateurs, les IA conversationnelles jouent un rôle qui va au-delà de l’assistance fonctionnelle (Zao-Sanders 2025). Elles sont perçues comme :

  • des outils de thérapie ou de compagnonnage émotionnel ;
  • des moyens d’organisation personnelle (priorités, intentions, temporalité) ;
  • des supports de quête existentielle, facilitant la formulation de sens ou d’objectifs de vie.
    Ces usages, certes éloignés du contexte strictement éducatif, résonnent pourtant avec la notion de part de soi. L’IA devient pour certains un miroir intérieur, un confident numérique, voire un tuteur éthique. Cela invite à reconsidérer l’IA non comme simple prothèse cognitive, mais comme vecteur d’expression identitaire.

Enfin, les premiers verbatims recueillis auprès de formateurs au cours de l’année 2023 témoignent de postures hétérogènes  :

«  Comment je vais faire pour évaluer les écrits réflexifs ?  »
«  C’est une vraie révolution, mais je ne sais pas encore comment accompagner mes étudiants là-dedans.  »
«  On a connu la calculatrice. Là, c’est pareil, mais pour le texte.  »
«  Je connais mes étudiants. Je saurai reconnaître leur production par leur niveau.  »

Ces propos, parfois hésitants, parfois confiants, traduisent un entre-deux : entre résistance éthique, pragmatisme curieux et repositionnement professionnel. Elles montrent que la confrontation à l’IA convoque une mémoire pédagogique, une culture de la transmission, une éthique du jugement.

Loin d’un usage homogène, l’appropriation de l’IA par les formateurs se joue dans une tension entre familiarité et altérité : l’outil paraît proche (par son langage, sa disponibilité), mais reste étranger (par sa logique opaque, non humaine).

L’enseignant donne (consignes, intentions, formulations), mais ce qu’il reçoit peut heurter ses repères. C’est dans cet écart que se crée un espace critique, propice à penser la cohabitation, l’hybridation, et la protection de la part de soi.

Deux vitesses : puissance de l’IA, lenteur du sens

« Le corps agrandi attend un supplément d’âme, et la mécanique exigerait une mystique. » (Bergson 1932)

Cette phrase de Bergson résonne dans le contexte actuel d’émergence des intelligences artificielles génératives. L’humanité s’est dotée, par la technique, d’un pouvoir immense de transformation, mais ce pouvoir s’est développé plus vite que la conscience éthique, politique et éducative qui permettrait de l’encadrer. Il y a ainsi, dans notre rapport à l’IA, une asymétrie temporelle : l’outil produit plus vite que nous ne pouvons penser ce qu’il produit.

Cette dissymétrie impose un réajustement profond des temporalités éducatives. Les textes générés en quelques secondes peuvent masquer des processus cognitifs lents, complexes, voire absents. Or, la construction du sens, la prise de distance critique, la capacité à relier un savoir à son expérience personnelle ne se compressent pas. Elles exigent du temps, un temps que l’IA ne connaît pas.

C’est dans cette perspective que nous avons forgé le concept métaphorique d’exo-cerveau : l’IA agirait comme une prothèse cognitive, en externalisant certaines fonctions de recherche, de synthèse, d’édition.

Comme un exo-squelette renforce le muscle, l’exo-cerveau soutient la pensée. Mais, à l’image du muscle non sollicité, une pensée trop assistée peut s’atrophier (Roxin 2025).

Cette externalisation cognitive, si elle libère certaines charges mentales, interroge la direction du flux informationnel entre l’humain et la machine. Comme le formule Yves Bertrand, la transduction [3], ce processus de passage entre langages humains et systèmes informatiques, a changé de sens : « Elle allait de l’humain vers la machine […] elle va désormais de la machine vers l’humain avec l’avènement de l’IA. »

Ce renversement introduit une nouvelle asymétrie cognitive : ce n’est plus l’homme qui encode sa pensée dans un langage formel, mais l’IA qui nous propose des formes discursives que nous devons réintégrer, comprendre, corriger. Ce déplacement rend encore plus nécessaire une vigilance critique sur ce que nous laissons l’outil formuler à notre place.

Comme le rappelle Laurence Devillers [4], l’IA reste fondamentalement dépourvue de corporalité, alors même que notre intelligence se construit dans l’interaction intime entre corps et esprit. Cette absence de corps rend l’idée de prothèse cognitive pertinente : l’IA peut étendre nos capacités, sans jamais remplacer notre sensibilité, notre intentionnalité, ni notre pouvoir de discernement.
Cette image entre en résonance avec celle proposée par Christelle Courant, qui décrit l’IA comme un «  exo-squelette analytique  » [5] : un outil susceptible de prolonger nos capacités d’analyse, à condition de ne pas évacuer notre place dans la décision. Une telle comparaison invite à penser l’équilibre fragile entre augmentation et délégation, entre assistance technique et responsabilité intellectuelle.

Lors de formations organisées à l’INSPE auprès d’étudiants en licence, plusieurs d’entre-eux s’expriment au sujet de ce décalage :

«  Avec l’IA, je gagne du temps. Mais parfois, je me rends compte que je ne comprends pas vraiment ce que j’ai écrit.  »
«  C’est fluide, ça sonne bien, mais est-ce encore moi ?  »

Le paradoxe est donc là : la puissance de l’outil fluidifie le langage, mais cette fluidité peut éroder l’engagement personnel. Le texte devient produit, plus que processus. La logique de l’efficience remplace celle de l’élaboration. Dès lors, le rôle du formateur évolue : il ne s’agit plus seulement d’évaluer un résultat, mais d’interroger les conditions d’émergence du texte.

Ce travail de ralentissement et de réappropriation a été particulièrement visible lors de travaux dirigés proposés à des groupes d’étudiants en licence. Ainsi, lors d’une séquence sur l’apprentissage de la multiplication, des étudiants ont dû scénariser des réponses pédagogiques à différents niveaux d’assistance IA, du niveau 0 (sans aide) au niveau 4 (réponse complète générée). Ils ont constaté que plus l’IA produisait vite, plus leur rôle d’éducateur s’effaçait : à l’étudiant de recontextualiser, corriger, doser, reformuler. C’est ce moment de recul critique, lent, qui fonde la posture professionnelle.

Dans un autre atelier, deux étudiantes ont conçu un générateur de prompts visant à tester la qualité des synthèses produites par ChatGPT. Après une première réponse jugée trop générique, elles ont modifié la requête puis réinjecté leur propre intention dans la consigne. Ce va-et-vient leur a permis d’analyser finement ce que l’IA pouvait, ou non, comprendre d’un projet pédagogique complexe. Elles concluent : «  Nous avons modifié la synthèse et lui avons renvoyé.  »

Ce travail itératif illustre bien la nécessité d’un temps de remaniement, qui devient temps de formation.

Dans une autre production, les mêmes étudiantes ont simulé un scénario de remédiation avec des élèves fictifs ayant des difficultés avec les tables de multiplication. Elles ont utilisé l’IA pour générer des dialogues personnalisés, puis évalué la pertinence des réponses de l’outil, notant ses limites dans l’encouragement ou l’adaptation au profil de l’élève :

«  ChatGPT a su répondre au jeu de rôle […] mais ses réponses étaient répétitives. Nous aurions voulu qu’il pousse plus l’élève à se dépasser.  »

Ce jugement marque une prise de distance critique : la qualité d’un outil ne suffit pas à garantir une relation éducative authentique.

Enfin, une dernière expérimentation a consisté à faire concevoir par les étudiants un générateur de prompts pédagogique, capable d’induire des reformulations personnalisées avec ChatGPT à partir de profils fictifs (enseignant, formateur universitaire). Ce travail a permis aux étudiants d’expérimenter activement les effets de leurs formulations sur la qualité des réponses générées. Ils ont rapidement compris que la réussite ne tenait pas seulement à la syntaxe du prompt, mais au fait d’avoir clarifié une intention, précisé un contexte, explicité des étapes mentales. À la suite de leurs échanges avec l’IA, ils ont noté : «  Pour avoir ce que l’on veut, il faut être clair, concis, et surtout faire des demandes itératives.  »

Ce constat montre que l’usage de l’IA ne dispense pas de réfléchir : il l’exige, à condition de ralentir le processus, d’interroger ses formulations, et de les affiner pas à pas.

Ce type d’exercice a généré une prise de conscience linguistique : l’IA ne parle pas pour nous, elle parle en fonction de nous. Et ce « en fonction de » oblige à revenir à soi, à affiner son intention pédagogique, à clarifier le rôle de l’écrit.

Ces exemples montrent que la lenteur n’est pas un obstacle, mais un espace nécessaire pour que le sujet réémerge. C’est dans ce temps étiré, celui de l’essai, de la reformulation, de l’hésitation, que peut se rejouer une appropriation authentique.

Le formateur devient alors non plus simple transmetteur de contenus, mais artisan de temporalités : un accompagnant qui veille à ce que la pensée garde sa densité, sa lenteur, sa voix.

C’est sans doute là que se joue la formation : dans la réintroduction d’une temporalité propre, où la pensée retrouve son rythme, sa densité, son hésitation féconde. Autrement dit, le supplément d’âme dont parlait Bergson n’est pas donné, il est à injecter, à chaque fois, par l’acte éducatif.

L’illusion de la liberté technique : entre automatisation et appropriation

«  Mais voilà ! Les hommes sont devenus les outils de leurs outils.  » (Thoreau 1854)

Cette mise en garde ancienne prend une acuité nouvelle à l’ère des intelligences artificielles génératives. Conçues pour nous assister, ces technologies tendent, à mesure que nous les adoptons, à façonner nos manières d’écrire, de penser, de structurer nos savoirs. En cela, elles ne sont pas neutres : elles proposent des formats, des enchaînements, des styles et nous apprenons à les imiter.

C’est ce que nous avons observé dans plusieurs productions étudiantes : une homogénéisation des formes, une syntaxe standardisée, une argumentation modélisée. Le style génératif devient une norme implicite, un cadre invisible auquel on se conforme sans toujours s’en rendre compte. L’illusion de liberté est totale : l’outil semble proposer, alors qu’il impose subtilement. La frontière entre aide à l’expression et substitution de pensée est parfois floue :

«  J’ai utilisé ChatGPT pour reformuler une idée, mais je ne sais plus si elle était vraiment de moi.  »
«  Je me suis retrouvé à défendre un argument que je n’aurais pas formulé comme ça.  »

Face à ce risque de désappropriation, nous avons conçu une grille d’analyse en six critères, croisant plusieurs sources théoriques et pratiques. Elle s’inspire des recommandations de Martine Peters (Peters 2023), en particulier sur la transparence des usages et la mise en débat de l’intégrité académique, ainsi que des réflexions éthiques proposées par Jérôme Walter (Walter 2024) autour de l’appropriation critique des productions assistées. Cette grille a également été éclairée par le guide publié par l’INSPE de l’académie de Créteil [6], qui pose les jalons d’un usage raisonné de l’IA en formation. Enfin, elle a été enrichie empiriquement à travers plusieurs sessions de formation initiale et continue menées à l’INSPE de Versailles, dans une démarche visant à renforcer chez les étudiants une posture réflexive et située.

Cette grille permet ainsi d’évaluer non seulement la qualité du produit fini, mais aussi la trajectoire intellectuelle et critique de l’apprenant face à l’IA :

  1. Déclaration de l’usage de l’IA (honnêteté, transparence)
  2. Justification de la finalité de l’usage (rôle dans les différentes phases : exploration, structuration, rédaction…)
  3. Regard réflexif sur la production générée (limites, biais, erreurs, décalage)
  4. Réappropriation du contenu (réécriture, enrichissement, restructuration)
  5. Posture éthique et académique (respect de l’intégrité scientifique, absence de plagiat)
  6. Lien avec la professionnalité enseignante (résonance avec les pratiques pédagogiques ou évaluatives futures)
    Ce cadre permet aux formateurs de dépasser la simple question « as-tu utilisé ChatGPT ? » pour entrer dans un dialogue formatif : dans quelle étape de ta production ou de ta réflexion l’as-tu utilisé ? Que t’a-t-il apporté ? En quoi t’es-tu senti aidé ? Où as-tu senti que ce n’était plus toi ?

Dès lors, l’enjeu de la formation n’est plus seulement technique : il devient anthropologique. Il s’agit de former à une technologie qui transforme notre rapport au savoir, à l’évaluation, mais aussi à nous-mêmes. Et dans cette formation, ce n’est pas tant la maîtrise de l’outil qui importe que la capacité à le questionner, à résister, à détourner, à singulariser.

Former avec l’IA, ce n’est pas déléguer le sens ; c’est réintroduire la subjectivité là où la machine ne produit que des probabilités. C’est réaffirmer que toute écriture vaut par ce qu’elle engage, de mémoire, d’intuition, de style, de fragilité aussi. Bref, de « part de soi ».

Ces constats ont été confirmés dans plusieurs travaux réalisés par les étudiants en formation à l’INSPE, confrontés à des dispositifs mêlant production assistée et réflexivité critique. Dans un projet d’escape game éducatif, deux étudiantes relatent ainsi leur cheminement face à un texte généré par l’IA :

«   Le texte généré au niveau 4 était très cohérent, mais trop impersonnel, plat. Il ne correspondait pas à ce qu’on voulait transmettre comme ambiance ni comme intention pédagogique. On a gardé la structure, mais on a réécrit tous les indices.  »

Dans un autre travail, deux étudiantes testent les réponses de ChatGPT sur le thème de l’eau et notent :

«   L’IA utilise des termes inadaptés pour des élèves de cycle 2, elle a aussi donné un nom fictif au frère du personnage. On a dû reformuler pour coller à la réalité de la classe.  »

Ces exemples montrent que, même lorsque les étudiants sollicitent l’IA pour des tâches pédagogiques, ils éprouvent un besoin de réinjecter du vécu, de la contextualisation, une intention propre. Ils ne rejettent pas l’outil, mais ils s’en détachent dès lors qu’il menace de remplacer leur voix professionnelle.

En ce sens, l’usage critique de l’IA devient un terrain de formation éthique : les étudiants apprennent à reconnaître la limite entre l’assistance et la substitution, entre la ressource et la dépendance. La grille d’analyse que nous proposons fonctionne alors comme un cadre de retour sur soi : elle permet d’expliciter les zones de fusion et de friction entre l’outil et le sujet.

Là encore, il ne s’agit pas d’interdire, mais d’outiller le discernement. Car comme le rappelait Thoreau, « les hommes sont devenus les outils de leurs outils » (Thoreau 1854). Former avec l’IA, c’est donc apprendre à la traverser, à la questionner, à la transformer et non à s’y effacer.

Vers une éthique partagée : former sans dissoudre

«   Se former à l’IA, c’est aussi se former à soi-même.  » (Devillers 2024)

À mesure que l’IA s’installe dans les pratiques pédagogiques, la nécessité d’un cadre éthique partagé devient centrale. Non pas comme un code figé ou un règlement d’usage, mais comme un espace de réflexivité collective autour de ce que nous voulons préserver, transmettre, transformer. Car l’IA, en s’insérant dans les activités éducatives, modifie non seulement les outils, mais aussi les finalités : que voulons-nous former ? Et surtout : comment voulons-nous former ?

C’est ici que la notion de part de soi retrouve sa force : non comme un supplément subjectif qu’on ajouterait à la fin, mais comme le principe organisateur d’un usage juste de l’IA. La question n’est pas : « comment faire avec l’IA ? », mais plutôt : « comment rester sujet dans un monde outillé ? »

Nos expérimentations pédagogiques montrent qu’il est possible de construire des formes d’hybridation vertueuses, où l’IA n’écrase pas la pensée humaine, mais la stimule, l’oblige, l’étire. Cela suppose des choix didactiques précis :

  • faire dialoguer l’outil et l’apprenant dans une démarche de co-construction ;
  • introduire des temps de reformulation humaine après toute génération ;
  • multiplier les modalités d’expression (écrit, oral, débat, annotation) pour désautomatiser les productions ;
  • développer une culture de la requête qu’elle soit à destination d’une IA (prompt) ou d’un humain (consigne), non comme recette mais comme levier de questionnement.
    C’est également une question de positionnement professionnel pour les formateurs. Les retours recueillis révèlent un besoin fort d’accompagnement :

« Ce n’est pas tant l’outil qui me fait peur que la perte de repères dans l’évaluation.  »
«  J’aimerais avoir un cadre, mais pas une interdiction. Quelque chose qui m’aide à poser mes propres limites.  »

Cette recherche d’équilibre appelle une éthique de l’hybridation choisie, qui reconnaît à chacun le droit de s’approprier l’outil, mais dans des conditions éclairées, discutées, transparentes.

Elle implique aussi de revoir certaines modalités d’évaluation. Une action de mutualisation [7] à destination de formateurs universitaires s’est questionnée sur la prise en compte de l’utilisation de l’IA dans le cadre de travaux réflexifs comme le mémoire, apporte quelques axes de réflexion :

  • l’écrit seul ne suffit plus à attester d’une compréhension ou d’un engagement ;
  • le retour réflexif devient central : expliquer pourquoi, comment et dans quelle intention on a utilisé l’IA ;
  • la soutenance orale ou l’entretien redeviennent des moments-clés pour faire émerger l’appropriation véritable ;
  • l’idée de triangulation des preuves d’apprentissage (Walter 2024) prend tout son sens dans ce contexte.
    Enfin, cette éthique partagée doit se penser dans un cadre plus large, où l’on ne forme pas seulement à un outil, mais à un rapport au monde. La présence de l’IA dans la formation pose une question sociale, politique et anthropologique. Quelle école voulons-nous construire ? Quelle société voulons-nous habiter ? Une société de délégation ou de discernement ? Une société de flux ou de mémoire ?

Conclusion

L’IA générative fonctionne à la manière d’un miroir paradoxal : elle renvoie des formes qui nous ressemblent, sans jamais être tout à fait les nôtres. Dans ce mouvement, elle interroge la nature même de nos productions pédagogiques et intellectuelles. Que reste-t-il de nous dans ce que nous produisons ? Qu’y a-t-il de véritablement à soi dans ce que l’on signe ?

Tout au long de cette réflexion, nous avons proposé quatre axes pour penser un usage formateur de l’IA :

  • l’hybridation entre humain et machine comme tension féconde, à condition de rendre visible ce qui est donné et ce qui est reçu ;
  • la temporalité comme enjeu éducatif : résister à la vitesse de la machine par la lenteur du sens ;
  • la critique de l’automatisation, pour maintenir une exigence d’appropriation réflexive et éthique ;
  • la construction d’un cadre délibératif partagé, pour former sans dissoudre, et évaluer sans réduire.
    Ce que révèle la métaphore du fluide nutritionnel, c’est la nécessité de réaffirmer la place du sujet dans un système techno-pédagogique de plus en plus automatisé. Nourrir l’IA ne doit pas signifier s’y dissoudre. Former avec l’IA ne doit pas aboutir à une délégation du sens. Apprendre dans un environnement algorithmique doit demeurer un acte situé, incarné, subjectivé.

Former aujourd’hui, c’est inviter chacun, formateur comme apprenant, à retrouver, dans l’usage même des outils, la trace de son propre geste, de sa voix, de son intention. C’est refuser la standardisation molle au profit d’une pensée vivante, irréductible, parfois maladroite, mais toujours ancrée dans une histoire personnelle.

Dans cette perspective, l’IA générative n’est ni ennemie ni solution miracle. Elle est un enjeu de pédagogie critique. Et ce que nous avons à transmettre, c’est cette capacité à se reconnaître dans ce que l’on produit, même lorsqu’un outil a contribué à l’écrire.

Références

Baron, G-L (2024). L’intelligence artificielle en éducation  : rupture ou continuité  ? Adjectif : analyses et recherches sur les TICE. https://adjectif.net/spip.php?article632
Bergson, H. (1932) Les Deux Sources de la morale et de la religion. Presses Universitaires de France.
Devillers, L. (2024). Dialoguer avec un robot  : L’intelligence artificielle et l’humain. Éditions de l’Observatoire.
Eldagsen, B. (2023). « The Prompt is the Art : Why I Refused the Sony World Photography Award ». https://eldagsen.com/the-prompt-is-the-art/.
Nogry, S. et Spach, M. (2025). « Des outils numériques à l’école primaire, entre innovation et appropriation ». in L’école primaire au XXIe siècle. État des recherches et perspectives sur la formation des professeurs des écoles, édité par M.-L. Elalouf et B. Robbes. Presses Universitaires de la Méditerranée.
Peters, M. (2023). L’intelligence artificielle en milieu éducatif  : enjeux, usages, perspectives. Presses de l’Université Laval.
Roxin, I. (2025). « IA générative : le risque de l’atrophie cognitive ». https://www.polytechnique-insights.com/tribunes/neurosciences/ia-generative-le-risque-de-latrophie-cognitive/.
Saliou, M. (2024). « IA  : les géants numériques changent discrètement leurs conditions d’utilisation ». https://next.ink/brief_article/ia-les-geants-numeriques-changent-discretement-leurs-conditions-dutilisation/.
Stiegler, B. (2009). Pour une nouvelle critique de l’économie politique. Galilée.
Thoreau, H. D. (1854). Walden ou la Vie dans les bois. Gallimard.
Villemonteix, F. (2012). « Processus d’adoption du TNI  : quelle part de soi  ? » in Instruments numériques et appropriation, édité par G.-L. Baron et É. Bruillard. Paris : Hermès-Lavoisier.
Walter, J. (2024). « Embracing the future of Artificial Intelligence in the classroom : The relevance of AI literacy, prompt engineering, and critical thinking in modern education ». International Journal of Educational Technology in Higher Education 21(1):15.
Zao-Sanders, M. (2025). « How People Are Really Using Gen AI in 2025 ». Harvard Business Review, mars.

[2Enseigner à l’ère de l’IA : pratiques, enjeux et perspectives - Université d’été du Réseau des INSPE, Rennes, 3 et 4 juillet 2025

[3Yves Bertrand (2025), «  De la programmation à la conversation : que s’est-il passé ?  », 1024, n° 25, Société informatique de France, p. 3. Disponible en ligne : https://www.societe-informatique-de-france.fr/1024/1024-25-2025.pdf (consulté le 9 juillet 2025).

[4Laurence Devillers, IA et robots : il faut voir comme ils nous parlent !, entretien publié sur le site LibreLire.org, 2023. [En ligne] https://www.librealire.org/ia-robots-il-faut-voir-comme-ils-nous-parlent-laurence-devillers (consulté le 7 juin 2025).

[5Christelle Courant, « L’IA, le nouvel exosquelette analytique pour les métiers », Journal du Net, 12 septembre 2023. [En ligne] https://www.journaldunet.com/intelligence-artificielle/1530679-l-ia-le-nouvel-exosquelette-analytique-pour-les-metiers/ (consulté le 7 juin 2025).

[6Guide pratique de l’usage de l’IA publié à l’INSPE de l’académie de Créteil (Goémé & Quiquempois, mars 2025)

[7Action de mutualisation co-animée de mars à juin 2025 par Rita Khanfour-Armalé et Michel Spach (CY Cergy Paris Université, INSPE de Versailles)


 

Accueil | Abonnement | Contact | | Statistiques du site | Mentions légales | Accessibilité

ISSN : 2610-1920 - Site réalisé avec SPIP 4.4.13