Lire aussi :
IA et charge mentale
Certains voyaient dans l’IA un moyen de se libérer des tâches ingrates et de laisser les salarié·es se concentrer sur leur cœur de métier. Pourtant, alors même que l’adoption de l’IA s’accélère, 76% des travailleurs déclarent toujours manquer de temps pour faire leur travail en profondeur (Microsoft, 2025). Pire encore, de récentes données suggèrent que non seulement l’IA ne réduit pas la charge de travail mais qu’elle l’intensifie. Ce paradoxe technologique cache une réalité cognitive que les neurosciences permettent de décrypter.
Le paradoxe : L’IA accélère la saturation de nos ressources mentales sous couvert d’efficacité. Comprendre les mécanismes cognitifs en jeu est la première étape pour reprendre le contrôle.
1. Le piège de la surproduction : quand le coût humain reste constant
Le premier piège de l’IA réside dans sa vitesse de production. Puisqu’il est devenu facile de générer un rapport, une synthèse ou un code, nous en produisons davantage. Or, si le coût de production baisse, le coût de traitement, lui, reste humain.
Chaque gain de temps individuel généré par une IA se traduit souvent par une surcharge mentale collective : le temps « gagné » est immédiatement réalloué à la lecture des idées et données produites par ses collègues « augmentés » à l’IA. Ce flux informationnel incessant pousse notre mémoire de travail dans ses derniers retranchements.
📊 Ce que disent les données : Microsoft (2025) révèle que 80% des travailleurs dans le monde déclarent manquer de temps ou d’énergie pour accomplir leur travail. Ils sont en outre interrompus en moyenne toutes les 2 minutes — soit 275 interruptions par jour.
Le mécanisme cognitif en jeu : la saturation de la mémoire de travail
Notre mémoire de travail — cette « mémoire tampon » qui traite les informations entrantes en temps réel — a une capacité limitée. En moyenne, le cerveau peut gérer simultanément une dizaine d’éléments d’information. Lorsque le flux dépasse cette capacité, nous basculons dans un état de surcharge cognitive qui altère notre concentration et nos prises de décision.
L’IA, en accélérant la production de contenus, augmente mécaniquement la quantité d’informations que notre mémoire de travail doit traiter — sans en augmenter la capacité. C’est un conflit entre la vitesse de la machine et la biologie du cerveau.
Lire aussi :
2. Le biais d’automatisation : quand la confiance aveugle remplace l’esprit critique
L’intensification du travail vient également de la nature même de la collaboration avec l’IA. Contrairement à une tâche automatisée classique, l’IA générative requiert une supervision constante. Or, ces tâches de vérification sont extrêmement coûteuses d’un point de vue cognitif.
Si l’IA produit des résultats souvent très satisfaisants en apparence, elle peut justement induire un biais d’automatisation : la tendance à faire confiance aux productions et recommandations d’un système automatisé, particulièrement chez les profils les plus juniors.
Pour éviter les erreurs ou les « hallucinations », ces erreurs propres à l’IA, il faudrait passer un temps de vérification parfois supérieur au temps qu’aurait pris la réalisation humaine de la tâche.
Dans un monde de surcharge généralisée, où la réactivité prime, le choix de l’économie cognitive se fera souvent au détriment de la performance à long terme.
On gagne du temps à court terme, mais on accumule une dette de qualité qui finira par se manifester.
Pourquoi les juniors sont-ils les plus exposés ?
Le biais d’automatisation touche davantage les profils qui n’ont pas encore consolidé une expertise suffisante pour détecter les erreurs subtiles de l’IA. Or, c’est précisément cette expertise — construite par l’essai-erreur, la confrontation au réel et l’accumulation d’expérience — qui permet d’exercer un esprit critique face aux productions de la machine.
C’est le paradoxe fondamental : on ne peut exercer son esprit critique vis-à-vis de l’IA que si l’on maîtrise le fond du sujet. Déléguer trop tôt à l’IA risque d’empêcher la construction même de l’expertise nécessaire pour la superviser.
3. Le multitâche augmenté : l’illusion de la productivité parallèle
Enfin, l’IA intensifie le travail en favorisant le mode multitâche. Une étude récente menée auprès d’une entreprise de 200 salarié·es révèle que certains utilisent l’IA pour produire des tâches en « arrière-plan » : lancer une production de code par l’IA pendant qu’ils analysent un rapport, par exemple.
Ils doivent alors alterner rapidement entre des tâches dans des domaines variés. Ce fonctionnement a un coût cognitif majeur : chaque interruption provoque un « résidu attentionnel ». Une partie de notre cognition reste mobilisée par la tâche précédente, dégradant la qualité de traitement de la suivante.
Le résidu attentionnel : Quand on passe d’une tâche A à une tâche B, une partie de notre attention reste « accrochée » à la tâche A. Ce résidu réduit la qualité cognitive disponible pour la tâche B — et l’effet se cumule au fil de la journée.
En voulant aller plus vite avec l’IA, nous prenons le risque de commettre plus d’erreurs. La vitesse de production de l’IA s’oppose radicalement au travail en profondeur, gage d’innovation et de performance durable. L’urgence devient la norme, et le temps « libéré » par la machine est sacrifié sur l’autel de la réactivité immédiate.
4. Ce que les neurosciences nous apprennent : protéger le « travail profond »
Face à cette intensification, les sciences cognitives offrent des clés de lecture — et des leviers d’action — pour reprendre le contrôle sur notre rapport au travail « augmenté ».
Sacraliser le temps de travail en profondeur
Le travail en profondeur — cette capacité à se concentrer sans distraction sur une tâche complexe — est le seul mode de fonctionnement cognitif qui permette l’innovation, la résolution de problèmes complexes et l’acquisition d’expertise. Or, c’est précisément ce mode que l’IA menace en accélérant les interruptions et le multitâche.
L’entreprise doit donc accepter une part d’« improductivité » apparente : lire, découvrir, expérimenter, se tromper, débattre. Ce sont ces activités, en apparence « lentes », qui construisent l’expertise nécessaire pour utiliser l’IA avec discernement.
Réallouer — et sacraliser — le temps gagné
L’enjeu n’est plus seulement d’identifier les tâches à déléguer à l’IA, mais de donner aux équipes les leviers pour interroger l’usage de celle-ci, et définir vers quoi et comment ils doivent réallouer le temps gagné.
Plusieurs pistes concrètes émergent de notre accompagnement des organisations :
- Protéger des plages de travail en profondeur — sans e-mails, sans notifications, sans IA en arrière-plan
- Questionner systématiquement la valeur ajoutée de l’IA sur chaque tâche : est-ce que le temps de vérification justifie la délégation ?
- Former les équipes à la méta-cognition : apprendre à reconnaître les signaux de surcharge mentale et à y répondre
- Créer un cadre collectif qui légitime le temps d’apprentissage, d’expérimentation et de réflexion — même quand l’IA pourrait « aller plus vite »
- Préserver la montée en compétences des juniors en maintenant des temps d’apprentissage par essai-erreur sans IA
5. Vers un usage raisonné de l’IA : la responsabilité de l’organisation
La question n’est pas de rejeter l’IA, mais de l’intégrer en respectant les contraintes biologiques du cerveau humain. C’est toute la conviction de Cog’X : adapter le travail au fonctionnement du cerveau, et non l’inverse.
Les organisations qui réussiront cette transition seront celles qui investiront autant dans la compréhension des mécanismes cognitifs de leurs équipes que dans les outils technologiques. Cela implique de repenser les rythmes de travail, les modes de collaboration, et la place de l’IA dans la chaîne de valeur — avec les neurosciences comme boussole.
L’IA ne remplacera pas le travail humain. Mais si nous ne protégeons pas les conditions du travail en profondeur, elle pourrait bien en détruire la qualité.
Vous souhaitez accompagner vos équipes face à l’intensification du travail par l’IA ?
Nos docteur·es en neurosciences aident les organisations à construire un cadre de travail qui protège les ressources cognitives.
Sources & références
Tribune originale : Gaëtan de Lavilléon, « IA et charge mentale », Les Echos, 2025.
Microsoft Work Trend Index 2025 — 31 000 travailleurs interrogés dans 31 pays. 80% déclarent manquer de temps ou d’énergie. 275 interruptions/jour en moyenne.
Microsoft New Future of Work Report 2025 — Risques de dé-compétenciation (deskilling) et perte de jugement liés à l’IA.
Ebbinghaus (1885) — Courbe d’oubli : 70% des apprentissages oubliés en 24h sans renforcement.