L’introduction de l’IA générative dans les pratiques managériales séduit par sa promesse d’efficacité, de rapidité et d’analyse structurée. Mais que se passe-t-il lorsque cette technologie influe directement sur le processus de décision des dirigeants ? Une étude menée entre juin 2024 et mars 2025 lors de sessions de formation exécutive sur l’IA apporte des éléments de réponse pour le moins contre-intuitifs.
Des cadres et dirigeants issus de divers secteurs ont été invités à estimer l’évolution du cours de l’action Nvidia, entreprise emblématique du secteur des semi-conducteurs. Leur mission : prévoir son prix un mois plus tard. Un premier pronostic a été demandé, avant de séparer les participants en deux groupes. L’un a échangé entre pairs, l’autre a eu recours à ChatGPT sans possibilité d’échange humain. Après cette phase, chacun a révisé sa prévision. L’analyse des résultats laisse peu de place au doute : ceux qui ont utilisé l’IA ont proposé des prévisions plus optimistes… mais moins exactes.
L’IA dope la confiance mais affaiblit la justesse
Avant toute interaction, les prévisions initiales des deux groupes étaient similaires. C’est après la phase de consultation que l’écart s’est creusé. En moyenne, les cadres ayant utilisé ChatGPT ont augmenté leur estimation du prix futur de l’action de 5,11 dollars. À l’inverse, ceux ayant discuté avec leurs pairs ont abaissé leurs prévisions de 2,20 dollars. Plus marquant encore : les utilisateurs de l’IA ont systématiquement proposé des chiffres plus précis (à décimale près), un indicateur fréquemment associé à un excès de confiance.
L’illusion de précision générée par l’IA – et sa capacité à formuler des analyses convaincantes – semble avoir joué un rôle déterminant. En termes de résultat, les prévisions des utilisateurs de ChatGPT se sont révélées moins exactes que leurs propres estimations initiales. Ceux qui ont débattu en groupe, eux, ont vu la qualité de leurs prédictions s’améliorer. La promesse d’une assistance augmentée par l’IA se heurte ici à un paradoxe : plus l’outil est persuasif, plus il peut biaiser.
Les chercheurs à l’origine de l’étude ont identifié plusieurs causes possibles à ce phénomène.
D’abord, l’effet d’extrapolation. ChatGPT, en s’appuyant principalement sur des données historiques, aurait prolongé mécaniquement une tendance haussière sans tenir compte des signaux d’inflexion possibles. Cela aurait induit des prévisions excessivement optimistes.
Ensuite, le biais d’autorité. Nombre de participants ont souligné la précision et l’assurance de ChatGPT dans ses réponses. Ce ton expert, couplé à un raisonnement bien structuré, a contribué à renforcer la crédibilité perçue du contenu – même en l’absence de données à jour.
Troisième facteur : l’absence d’émotion. Contrairement à l’humain, l’IA ne ressent ni inquiétude ni prudence instinctive. Les discussions entre pairs, elles, intègrent naturellement des signaux émotionnels – doutes, intuitions, expériences passées – qui jouent un rôle de régulateur.
Quatrième point : la dynamique sociale. L’échange humain favorise la confrontation des points de vue, ce qui tend à modérer les opinions les plus extrêmes. Par souci de crédibilité, les cadres en groupe préfèrent éviter de s’exposer à une prévision trop audacieuse.
Enfin, l’illusion de savoir. Face à un système comme ChatGPT, qui synthétise des volumes massifs d’informations avec fluidité, les utilisateurs peuvent surévaluer la portée de ses analyses, au point de déléguer leur jugement.
Leçons pour les décideurs RH
Les implications de cette étude dépassent le cadre de la finance. Elles posent une question centrale pour les directions des ressources humaines : comment intégrer l’IA dans les processus décisionnels sans affaiblir l’esprit critique des collaborateurs ?
Première recommandation : développer une culture de la vigilance cognitive. L’IA n’est pas neutre. Elle propose des réponses en fonction des données qu’on lui fournit et des formulations qu’on emploie. Il est essentiel d’apprendre à interroger l’outil avec rigueur, à exiger des scénarios alternatifs et à vérifier les fondements des réponses fournies.
Deuxième point clé : ne pas sacrifier la discussion humaine sur l’autel de l’automatisation. Les échanges entre pairs apportent une richesse que l’IA ne remplace pas : contexte local, mémoire collective, expériences implicites. Le bon usage de l’IA ne doit pas disqualifier la parole humaine mais la compléter. Une approche hybride – IA + débat – constitue à ce stade le meilleur levier.
Troisièmement, mettre en place des protocoles d’usage. Avant de recourir à l’IA pour arbitrer une décision, une équipe peut être invitée à émettre des hypothèses, à envisager les risques, puis à confronter son analyse aux suggestions de l’outil. À l’inverse, interroger d’abord l’IA sans cadre critique revient à affaiblir la capacité de discernement des décideurs.
Enfin, former les équipes à la lecture critique de l’IA. Ce type de compétence relève autant de l’intelligence collective que de la gestion du risque. Tout collaborateur amené à consulter un modèle comme ChatGPT dans un contexte stratégique devrait être capable d’évaluer la solidité méthodologique de la réponse reçue, et de repérer ses limites – biais de confirmation, manque de données à jour, simplification excessive.
L’étude soulève des enjeux très concrets pour les fonctions RH, particulièrement dans le pilotage stratégique des talents, la planification de la workforce ou encore la gestion des risques psychosociaux. Utiliser l’IA pour anticiper les départs, recommander des profils ou analyser les dynamiques internes peut s’avérer puissant… à condition de ne pas perdre de vue la complexité du facteur humain.
La tentation peut être grande, dans un contexte de surcharge décisionnelle, de déléguer tout ou partie de l’analyse à des outils conversationnels dopés à l’IA. Cette étude rappelle que cela comporte un risque : celui de basculer dans une confiance excessive à l’égard d’un système qui, même performant, ne possède ni intuition, ni sens politique, ni compréhension implicite des jeux de pouvoir internes.
L’autre enseignement majeur est que la qualité d’une décision ne dépend pas uniquement de la qualité de l’information, mais aussi du processus par lequel cette décision est construite. Et ce processus, dans le champ RH, demeure fondamentalement humain.