Lors de l’épisode 4 de The Future of Learning, nous avons accueilli un nouveau chroniqueur : Hoss, en direct de la côte ouest des États-Unis, au cœur de la Silicon Valley. Son intervention a mis des mots sur une frustration partagée par les professionnels du learning, de l’innovation et du management : pourquoi l’IA générative, pourtant si prometteuse, produit-elle des contenus aussi sages, lisses et… « corporate » ?
Dans les organisations, l’IA est désormais partout. ChatGPT, Claude ou d’autres grands modèles de langage sont utilisés au quotidien pour brainstormer, rédiger, concevoir des dispositifs ou explorer de nouvelles idées.
Et pourtant, les résultats restent souvent décevants : propres, cohérents… mais lisses. Sans aspérité. Terriblement « corporate ».
Depuis la Silicon Valley, le diagnostic est clair : ce manque de créativité n’est ni une fatalité, ni une limite technologique. Il est le résultat direct du design même des modèles d’IA générative… et, surtout, de la manière dont nous avons appris à leur poser des questions.
Étape 1 – L’enfance sauvage de l’IA : le pre-training
Lors de la première phase de leur entraînement, les grands modèles de langage ingèrent l’ensemble d’internet : littérature, recherches académiques, forums marginaux, scénarios, idées radicales.
À ce stade, l’IA est un système hautement créatif, capable de connexions improbables et d’associations inattendues. Sa diversité interne est immense.
Cette créativité brute existe toujours. Mais elle est ensuite sévèrement canalisée.
Étape 2 – L’éducation surveillée : le “RLHF”
Pour rendre ces modèles exploitables à grande échelle, une seconde étape est appliquée : le Reinforcement Learning from Human Feedback (RLHF).
Des évaluateurs humains comparent des réponses et sélectionnent celles jugées « meilleures ».
Le biais est structurel : les humains privilégient les réponses typiques, familières, immédiatement compréhensibles. C’est le Typicality Bias. L’étrange, l’inédit et l’ambigu sont pénalisés.
Étape 3 – Le Mode Collapse
À force d’être récompensée pour la conformité et punie pour l’originalité, l’IA apprend une règle simple : pour réussir, il faut être moyenne.
Progressivement, elle cesse d’explorer la richesse de ses possibilités et se limite à un petit ensemble de réponses « sûres ». C’est le Mode Collapse.
Résultat : les idées produites se ressemblent toutes.
Étape 4 – Le piratage créatif : le Verbalized Sampling
La recherche de Stanford propose une approche radicale : le Verbalized Sampling.
Au lieu de demander « la meilleure réponse », on exige des réponses statistiquement improbables :
« Donne-moi 5 réponses dont la probabilité est inférieure à 0,1 %. »
Ce prompt oblige l’IA à contourner ses garde-fous et à replonger dans sa créativité issue du pre-training.
Conclusion pour les managers et directeurs de formation
Pour standardiser, sécuriser ou optimiser, le mode par défaut est parfaitement adapté.
Mais pour innover, imaginer de nouvelles approches pédagogiques ou penser la rupture, souvenez-vous : l’IA filtre sa créativité par politesse.
Demandez-lui l’improbable. Les idées rares. Les 0,1 %.
C’est là que se joue, aujourd’hui, la vraie valeur de l’IA dans le learning.
Un rendez-vous mensuel en ligne, privé et coopératif, animé par Alexia Borg et en partenariat avec Newton Agence pour décrypter le futur de la formation.