Conseil et Formation en management

Prise de décision : comment déjouer les illusions cognitives

En démontrant que nous commettons des erreurs cognitives là où nous croyons raisonner rationnellement et que celles-ci sont constitutives de notre fonctionnement, la sociologie cognitive bouscule le rapport à la vérité et à l'erreur, mais aussi la notion de prise de décision. Entretien avec Gérald Bronner.

 Qu'est-ce que le biais cognitif ?

Nous croyons penser de manière rationnelle, mais Daniel Kahneman, et bien d’autres ont montré que nous avons deux systèmes de pensée, le premier, intuitif, permet d'aller vite et est économe en pensée quand le second exige au contraire une énergie mentale importante, de la concentration et la suspension du premier système de pensée. Bien souvent, nous croyons émettre des avis ou prendre des décisions sur une base solide alors qu'en réalité nous nous appuyons sur nos intuitions et nous exposons aux biais cognitifs. Le biais cognitif consiste à dévier de façon rémanente et prédictive par rapport à la norme d'un raisonnement objectivement valide. 1+ 1 = 2, mais sur certains sujets, le biais cognitif peut nous amener à penser que la réponse est 3. Un exemple. Si une bouteille + un verre = 1,10 €, quel est le prix du verre, sachant que la bouteille vaut 1 euro de plus que le verre ? La réponse est 0,05 € (1,05 + 0,05 = 1,10), mais 50 % des étudiants d'Harvard se trompent. Ce chiffre monte à 80 % dans des universités moins sélectives. Intuitivement, nous sommes amenés à nous tromper. Or ce type d'erreur investit tous les champs décisionnels d'une part car nous surestimons notre intuition, qui conduit en effet le plus souvent, et le plus rapidement, à une réponse exacte. D'autre part, nous croyons penser en système 2 alors que c'est le système 1 qui est à l'œuvre. En outre, le biais cognitif passe inaperçu lorsque l'on recherche la cause de l'erreur. Le biais cognitif passe pour du bon sens, à la façon des virus reconnus comme des cellules normales par l'organisme. Un décideur a par conséquent deux grands ennemis : le temps, qui fait privilégier les modes de pensée les plus rapides, et les problèmes invisibles. La sociologie cognitive s'attache précisément à l'étude de ces objets : les problèmes qui passent inaperçus et qui conduisent à des décisions catastrophiques. Il est très difficile de trouver une origine à une erreur qui trouve sa source dans le biais cognitif. Les problèmes s'hybrident avec un contexte. On se fie à son expérience, parfois à la sagesse collective. Une majorité va converger vers l'erreur. Et c'est bien sûr les décisions en situation d'incertitude qui nous intéressent plus particulièrement.

 

Comment un décideur peut-il éviter ce type d'erreur ?

Il faut que les décideurs reconnaissent où il y a piège. On peut identifier les situations, les décisions, les sujets où le biais cognitif prend le pas sur le système 2.  Ce travail d'identification a des applications dans la gestion du risque, mais aussi des applications plus larges par exemple dans la définition des objectifs - on peut se tromper sur le caractère réalisable des objectifs - ou sur la présentation des objectifs. La sociologie cognitive a montré que selon la façon dont on expose un problème, on obtient soit une majorité de bonne réponse ou au contraire une majorité d'erreurs. La vraie compétence des décideurs, c'est de savoir quand fonctionner en système 1 et en système 2. Par exemple, quand les personnes sont sûres d'elles-mêmes, il y a un une possibilité supérieure d'erreur car on se laisse davantage aller au système 1. L'expérience sert à ça. Intuitivement, nous prenons généralement de bonnes décisions, mais un très bon manager saura identifier les situations qui exigent de passer en système 2, les situations qui nous placent en réalité dans un contexte d'incertitude. Le temps de rétro jugement est de plus en plus court dans le top management. La fragmentation, la spécialisation des entités ne facilitent pas l'identification des biais cognitifs. Pour prendre un exemple, l'opération de libération des otages au Liban, en 1980, avait été divisée en 5 étapes et pour chacune, on avait estimé très importantes les chances de réussite. Jimmy Carter avait donc lancé l'opération Eagle Claw, qui fut un échec. Or si les commandants avaient traduit en pourcentage leurs chances de succès, il serait apparu plus clairement que l'opération n'avait que 11 % de chance de réussir. En entreprise, une cellule holistique, si elle fait perdre du temps le plus souvent, permettrait en revanche, le jour où des décisions disjonctives s'apprêtent à être prises, d'éviter des catastrophes. Le 11 septembre, certaines antennes avaient des informations mais la fragmentation de l'information n'a pas permis de les interpréter. Un dirigeant doit s'assurer qu'il dispose de l'ensemble des informations et vérifier la façon dont elles sont énoncées, présentées. On retient les premières données ou la dernière occurrence selon les cas. L'erreur cognitive est un peu comme une illusion d'optique. Comme certaines illusions d'optique, elle perdure même lorsque l'on sait que la perception est fausse. Il faut donc avoir en la matière une réaction contrintuitive. C'est ce que l'on appelle le debunking. Ce qui ne signifie pas que l'on peut avoir une lecture mécaniste et en inférer des recettes pour l'avenir. On part du principe que lorsque l'on applique une même procédure, on doit avoir le même résultat. Débusquer les biais cognitifs, c'est au contraire se méfier des fausses causalités. Nous avons une disposition à mal évaluer un problème, en particulier en probabilité, et à confondre corrélation et causalité.

 

Quelles applications peut avoir la sociologie cognitive ?

La connaissance de ces erreurs cognitives est d'ores et déjà utilisée dans le marketing. Dans un rayon de magasin, entre une remise de 33 % sur un paquet de café et un paquet avec 50 % de produit en plus, 73 % des consommateurs choisissent la deuxième offre, qui paraît beaucoup plus attractive alors que les deux offres sont strictement équivalentes. C'est la raison pour laquelle je disais que l'on peut aussi exploiter la connaissance des biais cognitifs pour présenter les objectifs de la société, un plan stratégique, une innovation, un nouveau produit. En faisant jouer le schéma cognitif ordinaire, ils seront perçus comme probables ou improbables, couteux ou avantageux, etc. On sait qu'il y a des invariants mentaux, comme la surestimation du coût par rapport aux bénéfices. Il est donc intéressant de se pencher sur l'expression sociale de perception cognitive en matière d'innovation notamment. J'ai travaillé sur plusieurs types de résistances à l’innovation : nous avons identifié les arguments contre, et réalisé des entretiens avec des non militants. En fonction de leur degré de croyance, nous regardons le type d'arguments avancés. Ceci permet d'établir une cartographie hiérarchique des arguments et de dégager une ossature cognitive. La plupart du temps, ces arguments tiennent sur des biais cognitifs. On constate le même phénomène à propos de la notion de seuil en radioactivité car l'esprit humain a du mal à saisir la notion d’effet de seuil. Ensuite, le travail consiste à concevoir d'autres argumentaires qui replaceront les débats sur un terrain psychologiquement neutre. La sociologie cognitive est une discipline très récente mais qui devrait se développer car ces erreurs mentales qui demeuraient privées auparavant tendent à devenir publiques, principalement en raison de la révolution du marché de l’information que constitue Internet. Les médecins le constatent chaque jour avec des patients qui croient savoir, les experts dans l'exercice de leur compétence… Les scientifiques sont fréquemment confrontés à une opinion publique qui adhère facilement à l’idée d’une corruption généralisée. Cette situation a des conséquences sociétales importantes, tant au niveau économique, bien entendu, qu’au niveau sanitaire (par exemple réduction de la couverture vaccinale en raison de la méfiance d’une partie de la population). Elle est particulièrement prégnante dans nos sociétés occidentales, ce qui occasionne un coût en terme de compétitivité par rapport à des pays concurrents qui s'embarrassent moins de leur opinion publique. C'est ainsi que des décisions politiques pénalisent gravement les entreprises, notamment en imposant des normes en vertu du principe de précaution qui est contaminé le plus souvent par des biais cognitif. C’est le cas notamment pour l’EPR, les OGM, les ondes basses fréquences… Les militants, qui se donnent souvent le nom de « donneurs d’alerte », créent une sidération mentale : entre deux options possibles, on tend à suspendre son jugement. C'est une forme d'intimidation. Pour être plus performant, il faut donc prendre en compte ces processus…

 

Repères

Professeur de sociologie à l'université Paris Diderot et membre de l'Institut Universitaire de France, Gerald Bronner travaille sur les croyances collectives, les erreurs de raisonnements et leurs conséquences sociales. Il a publié notamment L'empire des croyances, L'inquiétant principe de précaution, La pensée extrême. Il collabore au Radar des Responsables et a animé pour Formadi des séminaires sur la prise de décision.

Ils nous font confiance

  • logos_01.jpg
  • logos_02.jpg
  • logos_03.jpg
  • logos_04.jpg
  • logos_05.jpg
  • logos_06.jpg
  • logos_07.jpg