BUENODIA

8 personnes sur 10 suivent ChatGPT même quand il se trompe

Personnes regardant un écran avec ChatGPT affiché, suivant ses réponses malgré une erreur visible.

Expérience glaçante sur l'influence des réponses manipulées

Ils ont glissé des erreurs dans les réponses de ChatGPT. Personne ne l’a vu venir — et pourtant la plupart ont obéi sans broncher. Steven Shaw et Gideon Nave, chercheurs à la Wharton School, ont réuni 1 372 participants pour près de 9 600 essais.

Les sujets devaient résoudre des questions de raisonnement (Cognitive Reflection Test). Parfois ils avaient accès à un chatbot — ici ChatGPT (GPT‑4o) — dont la fiabilité était manipulée à leur insu : parfois correct, parfois délibérément faux. Les chercheurs présentent cette tierce aide comme un « Système 3 » cognitif : une cognition artificielle, externe au cerveau et activable à la demande.

Des résultats qui montrent une obéissance massive

Les résultats ne laissent pas de place au doute. Lorsque l’IA fournissait une mauvaise réponse, 80 % des participants la suivaient. L’exactitude des réponses est passée de 46 % sans IA à 31 % avec une IA fautive, et 71 % avec une IA fiable.

« Dans l'étude, 80 % des participants ont suivi l'IA même lorsque la réponse était erronée. »
« L'exactitude des réponses est passée de 46 % sans IA à 31 % avec une IA fautive, et 71 % avec une IA fiable. »

La reddition cognitive : quand on cesse de juger

Les auteurs ne parlent pas seulement d’une aide technique. Ils décrivent une « reddition cognitive » : les individus n’abandonnent pas seulement une tâche, ils renoncent à juger. Ce n’est pas l’équivalent d’utiliser une calculatrice pour déléguer un calcul ; ici, le sujet capitule face à la valeur perçue de l’algorithme.

Et parce que l’IA inspire plus de confiance — à tort ou à raison — elle peut amplifier des erreurs au lieu de les corriger.

Conséquences pour les environnements où chaque décision compte

Les implications sont directes. Dans les environnements professionnels, médicaux ou juridiques où les décisions importent, s’appuyer aveuglément sur un chatbot peut transformer un outil d’assistance en force d’erreur collective.

Les décideurs qui intègrent une « cognition externe » dans leurs pratiques doivent garder actif leur propre Système 2 : vérifier, questionner, re-vérifier. Sans cela, l’IA devient une sorte d’autorité factice.

Un rappel que l'IA ne remplace pas le jugement humain

On peut aimer la puissance et la commodité des modèles de langage. Mais cette étude pré-enregistrée rappelle qu’ils ne sont pas des arbitres infaillibles. L’enjeu n’est pas seulement technique : il est humain.

Si l’IA facilite des choix, elle ne doit jamais remplacer le jugement.

Publié le : 30 mars 2026
link