
Temps de lecture : 9 min
Points clés à retenir
- Automatisation trompeuse : l’IA excelle sur des tâches, mais un métier dépasse cette simple addition. Les juniors perdent des occasions d’apprendre en faisant.
- Risque de dépendance : les expérimentés qui délèguent trop à l’IA risquent de décrocher et de perdre leur capacité d’analyse et d’arbitrage.
- Responsabilité organisationnelle : recréer des espaces-temps d’apprentissage, d’erreur et de partage est crucial pour préserver les compétences et la performance.
L’IA fait les tâches, mais fait-elle le travail ?
L’IA automatise de plus en plus de tâches que l’on confiait hier aux débutants ou aux personnes en reconversion pour qu’elles apprennent le métier. D’accord, mais produire des comptes rendus ou compiler des données, ce n’est pas exercer un job. Inversement, ne pas réaliser ces tâches expose à un double risque : les juniors ne maîtrisent jamais le métier, et les plus expérimentés décrochent. Concrètement, ça donne quoi ? La croissance des usages de l’IA cache un angle mort : en supprimant trop de situations, allons-nous supprimer les occasions d’apprendre en faisant ?
La bonne question à se poser, c’est : comment les organisations vont-elles former leurs futurs professionnels si les situations qui permettaient d’apprendre le travail disparaissent ? Spoiler : c’est plus simple qu’il n’y paraît à résoudre… Mais seulement si on anticipe. Je vous propose de soulever trois questions majeures :
- Comment les juniors ou débutants vont-ils se développer si les tâches simples qui permettaient d’apprendre le job sont automatisées ?
- Que deviennent les expérimentés, s’ils s’appuient sur l’IA comme une prothèse cognitive au point de déléguer leur raisonnement ?
- Comment les entreprises pérenniseront leurs activités si les savoirs d’expérience ne peuvent plus être discutés entre pairs ?
Une évidence trompeuse : l’IA excelle sur des tâches ciblées
Rédiger un compte rendu, analyser des données, générer un diagnostic, coder : sur ces activités, les IA impressionnent par leur rapidité et leur qualité apparente. Elles produisent en quelques secondes ce qu’un junior mettrait des heures à réaliser. D’où une conclusion hâtive : si l’IA fait tout cela, à quoi servent encore les débutants ?
Mais ce que j’ai testé (et ce qui a vraiment marché) dans mon parcours de coordinateur pédagogique, c’est qu’un métier ne se résume pas à une liste d’actions. Les travaux en didactique professionnelle, en ergonomie, ou les réflexions de praticiens comme moi montrent que l’humain agit dans le réel, avec intention, jugement et responsabilité. Un bon professionnel mobilise cinq dimensions que l’IA ne possède pas :
- Intention dans l’action : par exemple, une professeure de littérature qui choisit une sortie culturelle pour relancer l’engagement de ses étudiants.
- Jugement contextuel : un expert-comptable qui, face à un client cherchant un investisseur, évalue le marché et propose des alternatives.
- Expérience accumulée : un commercial qui anticipe les renégociations d’un client.
- Arbitrages en situation : un garagiste qui teste hypothèses après hypothèses quand le diagnostic ODB ne suffit pas.
- Responsabilité dans l’action : un maçon qui refuse de toucher un IPN pour éviter des risques majeurs.
On confond souvent ce qui est visible (les tâches) avec la vraie compétence : le processus de fond. Et cette confusion produit des décisions organisationnelles mal réfléchies.
Erreur fréquente
Croire que parce qu’une IA produit un résultat acceptable, elle peut remplacer les tâches apprenantes des débutants. Pas de jargon, on reste au niveau du terrain : en supprimant ces tâches, on retire aussi les occasions de répétition, d’erreur, de socialisation et de construction de repères.
Suppression de situations apprenantes : quels risques ?
Prenons deux exemples pour illustrer le problème. La robotisation avancée permet à une machine de détecter une anomalie et de se réparer toute seule. Le technicien supervise sans intervenir. La panne est résolue, mais sa compétence n’a pas progressé. Lors de la vague de froid au Texas en 2021, les systèmes automatisés ont protégé le réseau électrique… jusqu’à ce qu’ils atteignent leurs limites, car ils ne comprennent pas le monde physique. Face à une situation hors norme, qui est encore capable d’analyser et de reprendre la main ?
Quand j’ai commencé ma carrière comme conseiller en formation junior, mon chef me confiait des tâches simples : compiler des supports, préparer des dossiers, corriger des notes après ses retours. Ces allers-retours m’ont appris à structurer, prioriser, interpréter et même à avoir le bon comportement en rendez-vous. En 2026, une IA produit tout cela du premier coup. Le hic : si on supprime ces tâches, l’apprentissage du métier disparaît en même temps.
Une disparition silencieuse de compétences
Les tâches simples ne sont pas qu’une porte d’entrée pour les juniors. Elles sont aussi, pour tous les travailleurs :
- Des espaces-temps de répétition et de consolidation.
- Des safe places où l’erreur est possible.
- Des occasions de socialisation et de culture d’entreprise.
- Des moments de respiration, essentiels pour éviter surcharge mentale et burn-out.
En les confiant à l’IA, l’entreprise optimise à court terme, mais réduit les occasions de développement : moins de retours sur l’action, moins de transmission par effet miroir, moins d’entraide. Le double risque systémique ? Fabriquer des compétences peu robustes et ne plus conserver de professionnels compétents.
Une dérive inquiétante : performance sans compétence
Avec l’IA, on peut livrer un travail correct sans comprendre les logiques sous-jacentes. Reprenons l’exemple du garagiste : si l’IA trouve la panne, mais que le technicien ne peut pas expliquer à son client ce qui s’est passé, le client repart sans confiance. De plus, un collaborateur dépendant de l’IA risque de se retrouver pris au piège quand les coûts des IA grimperont après la consolidation du marché. Finalement, former un junior en lui confiant des tâches, ça coûtait si cher ?
Certains groupes (on ne citera pas de noms) font d’ailleurs marche arrière : après avoir supprimé trop de jobs en 2025, ils recommencent à réembaucher en 2026.
Recréer des situations apprenantes : une responsabilité
Hier, on apprenait en faisant. Aujourd’hui, avec l’IA, il faut apprendre en comprenant ce que l’on fait. La problématisation, l’analyse critique et la pratique réflexive deviennent des compétences clés pour les nouveaux comme pour les anciens. Le rôle des managers, tuteurs et formateurs internes évolue : ils doivent expliciter les raisonnements, organiser des retours sur l’action, animer des séances de résolution de problème.
Concrètement, ça donne quoi ? Des espaces-temps pour ralentir l’urgence permanente : maintenir des essais et erreurs, découper les situations complexes en étapes digestes, accompagner les succès et difficultés. Pas de jargon, on reste au niveau du terrain : les organisations qui mettent en place des formations intégrées au travail, des situations apprenantes, et un tutorat structuré seront les plus performantes – et surtout, elles proposeront des professionnels compétents appréciés des clients.
À retenir
L’IA ne remplace pas les métiers. Elle nous oblige à réapprendre à les transmettre. Préserver et développer les compétences humaines dans un environnement IA-fort n’est pas une option, c’est une nécessité stratégique.

Alexis Brochard explore depuis 10 ans l’intersection entre pédagogie et technologie. Sur CAFEL.fr, il décrypte comment l’IA change — vraiment — les métiers de la formation, sans jargon ni langue de bois.