Pour ouvrir le premier épisode de The Future of Learning, Philippe Delanghe — consultant IA passé par des directions Learning et EdTech — a lancé une alerte : celle de “l’incompétence augmentée”.
Et si l’outil qui a été conçu pour nous rendre plus intelligents nous rendait en fait plus bêtes ? C’est un paradoxe qu’on appelle “l’incompétence augmentée”.
Sous couvert de productivité, l’automatisation peut en réalité atrophier nos savoir-faire.
Le piège de l’automatisation : quand l’aide devient dépendance
Une étude publiée dans The Lancet illustre ce paradoxe : des gastro-entérologues assistés par IA détectent 30 % des polypes, mais chutent à 20 % sans elle. L’outil qui devait les rendre meilleurs les a rendus dépendants. C’est un exemple frappant de la façon dont notre dépendance à l’automatisation peut faire rouiller nos compétences.
Même constat dans le monde du conseil : selon une étude de la Harvard Business School, des consultants utilisant ChatGPT sont certes plus rapides, mais perdent 19 % d’efficacité sur les tâches complexes.
Cette illusion de performance peut coûter cher. Deloitte en a fait l’expérience avec un rapport truffé de fausses citations inventées par l’IA, entraînant un remboursement de 300 000 $ au gouvernement australien.
Du “gloubi-boulg- IA” à la “dette de vérification”
À cette dépendance, s’ajoute un autre effet pervers : le “gloubi-boulg- IA”.
Des contenus bien présentés, bien rédigés en apparence, mais creux, approximatifs ou incohérents dans le fond.
Ce vernis de qualité crée alors une dette de vérification : le temps qu’un collaborateur pense gagner en produisant vite grâce à l’IA est payé par ceux qui passent derrière pour vérifier et extraire du sens.
Structurer sa stratégie IA pour éviter le piège
Pour autant, il ne s’agit pas de rejeter l’IA — bien au contraire. Les entreprises qui accompagnent les usages, forment leurs équipes et exigent la transparence en retirent des bénéfices tangibles.
Par exemple :
• HSBC, qui a économisé un million de livres en automatisant l’analyse des appels ;
• Rolls-Royce, qui a réduit de 35 % le temps de formation de ses techniciens.
Ces exemples montrent qu’une IA bien encadrée peut être un puissant levier d’efficacité et de montée en compétences.
L’IA comme tuteur : apprendre plutôt que déléguer
Et si la solution au risque d’incompétence passait par plus d’IA, mais mieux utilisée ?
C’est le concept d’IA-tuteur explorer par les géants du secteur. Le principe : remplacer le réflexe du “donne-moi la réponse” par un accompagnement socratique, où l’IA pose des questions, guide le raisonnement et encourage l’apprentissage actif plutôt que la délégation passive.
Cette vision est notamment portée par Andrej Karpathy, cofondateur d’OpenAI. Sa conviction est simple : un tuteur moyen accessible à 8 milliards de personnes vaut toujours mieux qu’aucun tuteur.
Dans cette perspective, l’IA ne remplace pas l’expertise humaine : elle la rend plus accessible, plus régulière, plus engageante.
La véritable compétence devient alors celle de l’arbitrage : savoir quand s’appuyer sur la machine pour apprendre… et quand privilégier l’humain pour comprendre, trancher ou créer.
L’équilibre entre les deux est peut-être l’enjeu pédagogique majeur des années à venir.
Retrouvez une synthèse interactive de cette chronique générée par Notebook LM. Cet outil d’IA présenté lors de The Future of Learning transforme vos documents en expériences d’apprentissage personnalisées : audio, vidéo, quiz, flashcards, synthèses structurées…
Une illustration parfaite d’une IA vertueuse : celle qui nous aide à apprendre, pas à désapprendre.
“The Future of Learning” est un rendez-vous mensuel en ligne, privé et coopératif, animé par Alexia Borg et en partenariat avec Newton Agence pour décrypter le futur de la formation.
Pour en savoir plus : The Future of Learning – Newton Agence