HyperAIHyperAI

Command Palette

Search for a command to run...

L’IA fait mieux, puis pire : l’avertissement d’un théoricien de l’innovation sur la dépendance cognitive au travail

L’intelligence artificielle peut améliorer temporairement les performances au travail, mais elle risque à long terme de détériorer les compétences humaines, avertit John Nosta, théoricien de l’innovation et fondateur du think tank NostaLab. Bien que l’IA soit souvent présentée comme un outil d’amélioration pure — permettant d’écrire plus vite, d’analyser plus efficacement, de faire plus avec moins d’effort — Nosta met en garde contre un effet secondaire insidieux : la dégradation progressive des capacités cognitives fondamentales. Selon lui, l’IA ne renforce pas seulement les résultats, elle peut aussi affaiblir les compétences sous-jacentes que les travailleurs utilisent lorsqu’ils sont privés de cette aide. Il parle d’un « effet de rebond cognitif » : après une période d’augmentation de performance grâce à l’IA, les capacités humaines retombent en dessous du niveau de base. Il illustre ce phénomène avec l’exemple d’un médecin effectuant une coloscopie avec l’aide d’un système d’IA qui repère les polypes. Grâce à cette assistance, sa précision augmente. Mais le lendemain, sans l’IA, son efficacité diminue, et ses performances deviennent même inférieures à celles qu’il avait avant d’utiliser l’outil. L’effet n’est pas seulement une dépendance : c’est une régression. Nosta souligne également un danger psychologique : l’IA peut créer une illusion de compétence. Alors que les utilisateurs se sentent plus capables, leurs réelles capacités cognitives s’affaiblissent. « Nous avons une estimation exagérée de nos compétences grâce à l’IA », affirme-t-il. Ce sentiment de confiance artificiel est particulièrement problématique dans des contextes à haut risque, où des décisions erronées peuvent avoir des conséquences graves. Ce phénomène est partagé par d’autres experts. Rebecca Hinds, directrice de l’Institut du travail et de l’IA, ainsi que le physicien prix Nobel Saul Perlmutter, ont eux aussi mis en garde contre l’illusion d’intelligence que procure l’IA, qui nuit à la capacité de jugement critique. Des recherches menées par Oxford University Press ont révélé que l’IA accélère les étudiants, mais les rend moins profonds dans leur réflexion. Kimberrly Hardcastle, professeure de gestion à l’université Northumbria au Royaume-Uni, va plus loin : une dépendance excessive à l’IA entraîne l’« atrophie de la vigilance épistémique », c’est-à-dire la capacité à vérifier, remettre en question ou construire une connaissance de manière indépendante. Pour éviter cette « atrophie cognitive », Nosta recommande une résistance intentionnelle : préserver une certaine « résilience cognitive », maintenir une certaine friction dans le processus de pensée, et utiliser l’IA comme outil d’apprentissage, pas comme substitut à la réflexion. Dans l’ère de l’IA, le plus grand danger ne viendrait pas des machines plus intelligentes, mais des humains qui oublient progressivement comment penser sans elles. « Pour la première fois dans l’histoire, la cognition humaine est sur la planche à découper de l’obsolescence », conclut-il.

Liens associés

L’IA fait mieux, puis pire : l’avertissement d’un théoricien de l’innovation sur la dépendance cognitive au travail | Articles tendance | HyperAI