Partager

(article basé sur l’ouvrage Thinking, fast and slow par Daniel Kahneman)

Nous traitions dans un précédent article de la théorie du Nudge et du paternalisme libertaire fondée par le Nobel d’économie Richard H. Thaler, c’est aujourd’hui un autre Nobel d’économie, Daniel Kahneman, qui reprend et approfondit l’un des aspects de l’économie comportementale survolé par Thaler, en s’attachant à détailler les éléments de biais du jugement évoqués dans Nudge à la lumière des deux systèmes de pensées identifiés chez l’être humain. Grossièrement résumé, ce livre traite des défauts de notre intuition dus aux raccourcis pris par notre pensée dans le système 1, la pensée rapide, et de leur poids sur le système 2, plus lent et rationnel mais non imperméable au préjugé et à l’erreur. Autrement dit, nous supposons certaines choses automatiquement sans y avoir soigneusement réfléchi, et ces hypothèses et suppositions, que Kahneman nomme heuristiques à la suite de Thaler, influencent chacune de nos décisions, des plus triviales aux plus cruciales. Comprendre leur fonctionnement est un premier pas nécessaire à la reprise du contrôle conscient de notre pensée et donc, de notre comportement.

Deux systèmes de pensée

Notre cerveau est composĂ© de deux « personnages Â», l’un qui pense vite, le système 1, et l’autre qui pense lentement, le système 2. Le système 1 fonctionne automatiquement, intuitivement, involontairement et sans effort, comme lorsque nous conduisons, dĂ©chiffrons une expression faciale de colère ou nous souvenons notre âge. Le système 2 nĂ©cessite de ralentir, de dĂ©libĂ©rer, de rĂ©soudre des problèmes, de raisonner, de calculer, de se concentrer, de prendre en compte d’autres donnĂ©es et de ne pas tirer de conclusions rapides – comme lorsque nous rĂ©solvons un problème mathĂ©matique, choisissons oĂą investir de l’argent ou remplissons un formulaire compliquĂ©. Ces deux systèmes sont souvent en conflit l’un avec l’autre. Le système 1 fonctionne sur des heuristiques qui peuvent s’avĂ©rer imprĂ©cises. La mobilisation du système 2 nĂ©cessite un effort pour Ă©valuer ces heuristiques et est sujet Ă  l’erreur. Le but central de l’ouvrage est d’aider le lecteur Ă  reconnaĂ®tre les situations dans lesquelles des jugements erronĂ©s sont probables et Ă  s’efforcer davantage d’Ă©viter les erreurs importantes lorsque les enjeux sont Ă©levĂ©s.

Attention et effort

D’un point de vue purement mĂ©canique, penser lentement affecte notre corps (pupilles dilatĂ©es), notre attention (observation extĂ©rieure limitĂ©e) et notre Ă©nergie (ressources Ă©puisĂ©es). Parce que penser lentement requiert un effort, nous sommes enclins Ă  penser vite, Ă  emprunter le chemin de la moindre rĂ©sistance. La paresse est profondĂ©ment ancrĂ©e dans notre nature. Nous pensons vite pour accomplir des tâches de routine et nous devons penser lentement pour gĂ©rer des tâches plus complexes. Un exemple simple de la vie de tous les jours : la pensĂ©e rapide dit : « J’ai besoin de faire des courses Â», la pensĂ©e lente ajoute « PlutĂ´t que d’essayer de me rappeler quoi acheter, je note une liste de courses. »

Le système 2 est donc un contrĂ´leur, mais un contrĂ´leur paresseux. Un promeneur s’arrĂŞtera de marcher si on lui demande d’accomplir une tâche mentale difficile. Calculer en marchant est un drain d’Ă©nergie. C’est pourquoi ĂŞtre interrompu pendant la concentration est frustrant, pourquoi nous oublions de manger lorsque nous nous concentrons sur un projet intĂ©ressant, pourquoi le multitâche pendant la conduite est dangereux et pourquoi rĂ©sister Ă  la tentation est beaucoup plus difficile lorsque nous sommes stressĂ©s. La maĂ®trise de soi diminue lorsque nous sommes fatiguĂ©s, affamĂ©s ou Ă©puisĂ©s mentalement. En raison de cette rĂ©alitĂ©, nous sommes enclins Ă  laisser le système 1 prendre le relais de manière intuitive et impulsive. La plupart des gens ne prennent pas la peine de rĂ©flĂ©chir rĂ©ellement Ă  leurs problèmes. L’intelligence n’est pourtant pas seulement la capacitĂ© de raisonner, c’est aussi la capacitĂ© de trouver des Ă©lĂ©ments pertinents dans la mĂ©moire et de dĂ©ployer l’attention si nĂ©cessaire pour les analyser. AccĂ©der Ă  la mĂ©moire demande des efforts, mais en ne le faisant pas, nous sommes enclins Ă  faire des erreurs de jugement.

Heuristiques de base : la machine associative

Heuristique # 1 : l’amorçage. L’exposition consciente et/ou subconsciente Ă  une idĂ©e nous « amorce » Ă  penser Ă  une idĂ©e associĂ©e. Si nous avons parlĂ© de nourriture, nous remplirons le vide de la devinette PA_N avec un I, mais si nous avons parlĂ© d’oiseaux, nous le remplirons avec un O. Les Ă©lĂ©ments extĂ©rieurs Ă  notre conscience peuvent influencer la façon dont nous pensons. Ces influences subtiles affectent Ă©galement le comportement, c’est l’effet « idĂ©omoteur ». Kahneman dĂ©crit de nombreuses expĂ©riences rĂ©alisĂ©es qui dĂ©montrent cet effet : les sujets exposĂ©s Ă  des thĂ©matiques sur la vieillesse (mĂŞme de façon dĂ©tournĂ©e) marcheront inconsciemment plus lentement dans les instants qui suivent. En miroir les sujets invitĂ©s Ă  marcher plus lentement reconnaĂ®tront plus facilement les mots liĂ©s Ă  la vieillesse mĂŞme si le lien est subtil. Les sujets Ă  qui il est demandĂ© de sourire trouveront les plaisanteries prĂ©sentĂ©es plus drĂ´les. Ceux Ă  qui il est demandĂ© de froncer les sourcils trouveront des images troublantes plus inquiĂ©tantes. C’est connu : si nous nous comportons d’une certaine façon, nos pensĂ©es et nos Ă©motions finiront par rattraper notre attitude. Nous ne nous contentons pas de ressentir en fonction de notre attitude et des Ă©vènements, mais nous pouvons comportementaliser nos sentiments, les induire, volontairement ou inconsciemment. Ce qui est une porte ouverte aux erreurs de jugement : nous ne sommes pas des penseurs rationnels objectifs. D’innombrables facteurs influencent notre jugement, notre attitude et notre ressenti sans mĂŞme que nous en soyons conscients.

Heuristique # 2 : l’aisance cognitive. Les idĂ©es et concepts qui sont plus simples Ă  comprendre, plus familiers et/ou plus faciles Ă  apprĂ©hender semblent plus « vrais Â» que ceux qui nĂ©cessitent une rĂ©flexion approfondie, sont nouveaux ou sont difficiles Ă  cerner. Des « illusions prĂ©visibles Â» se produisent inĂ©vitablement si un jugement est basĂ© sur l’impression de facilitĂ© par opposition Ă  un effort cognitif. Comment dĂ©cidez-vous qu’une affirmation est vraie ? Si elle est fortement liĂ©e par la logique ou l’association Ă  d’autres croyances ou prĂ©fĂ©rences que vous dĂ©tenez, ou provient d’une source en laquelle vous avez confiance et que vous aimez, vous ressentirez un sentiment de facilitĂ© cognitive qui influencera votre perspective sur ce qui est dit. C’est parce que les choses qui nous sont familières nous semblent « vraies Â» que les enseignants, annonceurs, spĂ©cialistes du marketing, tyrans autoritaires et mĂŞme chefs de secte rĂ©pètent sans cesse leur message. Le potentiel d’erreur de jugement est donc lĂ  encore important : si nous entendons un mensonge assez souvent, nous aurons tendance Ă  le croire.

Heuristique # 3 : la cohĂ©rence associative. Pour donner un sens au monde, nous nous racontons des histoires sur ce qui se passe. Nous faisons des associations entre les Ă©vĂ©nements surprenants, les circonstances et les Ă©vĂ©nements rĂ©guliers. Plus ces Ă©vĂ©nements s’intègrent dans nos histoires, plus ils semblent normaux. La surprise est un Ă©lĂ©ment qui s’érode vite, et mĂŞme le plus incroyable des hasards prend des airs de normalitĂ© dès sa seconde occurrence : les anomalies et les incongruitĂ©s dans la vie quotidienne demandent des explications cohĂ©rentes, la cohĂ©rence seule suffisant parfois au dĂ©triment de la rĂ©alitĂ© ou de la logique. Kahneman prend cet exemple de la rencontre d’un ami dans un restaurant Ă  l’étranger, et de la surprise causĂ©e par cette coĂŻncidence. Lors d’une autre rencontre inattendue avec le mĂŞme ami au théâtre quelques semaines plus tard, la surprise n’était presque plus au rendez-vous et dans l’esprit de Kahneman et de son Ă©pouse l’ami Ă©tait devenu « celui que l’on rencontre tout le temps dans des endroits improbables Â». Il deviendrait « normal Â» de le croiser Ă  peu près n’importe oĂą et n’importe quand. Souvent, ces explications que nous forgeons impliquent d’autres Ă©lĂ©ments de fausse causalitĂ© au profit de la cohĂ©rence et au dĂ©triment de la rĂ©alitĂ© : l’hypothèse de l’intention (« Cela devait arriver »), la causalitĂ© (« Ils sont sans-abri parce qu’ils sont paresseux ») ou l’interprĂ©tation de la providence (« Il y a une intention divine/ supĂ©rieure en tout »). Nous sommes Ă©videmment prĂŞts dès la naissance Ă  absorber des impressions de causalitĂ© qui ne dĂ©pendent pas d’un raisonnement logique. Notre esprit est impatient d’identifier des agents agissant sur le monde, de leur attribuer des traits de personnalitĂ© et des intentions spĂ©cifiques, et de voir leurs actions comme exprimant des propensions individuelles. Nous introduisons l’intention et le libre arbitre lĂ  oĂą il n’y en a pas, et confondons la causalitĂ© avec la corrĂ©lation, transformant – Ă  tort – les coĂŻncidences en statistiques.

Heuristique # 4 : le biais confirmatoire. Il s’agit de la tendance Ă  rechercher et Ă  trouver des preuves confirmant une croyance tout en nĂ©gligeant les contre-exemples, Ă  confirmer plutĂ´t qu’à tenter de rĂ©futer. Sauter aux conclusions est efficace si les conclusions sont susceptibles d’ĂŞtre correctes, si les coĂ»ts d’une erreur occasionnelle sont acceptables, et si le saut permet d’Ă©conomiser beaucoup de temps et d’efforts. Sauter aux conclusions est risquĂ© lorsque la situation n’est pas familière, que les enjeux sont Ă©levĂ©s et qu’il n’y a pas de temps pour recueillir plus d’informations. Le système 1 remplit l’ambiguĂŻtĂ© avec des suppositions et des interprĂ©tations automatiques qui correspondent Ă  notre cohĂ©rence associative. Il considère rarement d’autres interprĂ©tations. Lorsque le système 1 fait une erreur, le système 2 est supposĂ© intervenir pour nous ralentir et envisager des explications alternatives. Le système 1 est crĂ©dule, le système 2 est chargĂ© de douter et de ne pas croire, mais le système 2 est parfois occupĂ© et souvent paresseux. C’est pourquoi on est plus susceptible de se tromper ou d’être influencĂ© lorsqu’on est fatiguĂ© ou prĂ©occupĂ©. Nous sommes Ă©galement, par ce mĂŞme biais, enclins Ă  surestimer la probabilitĂ© d’Ă©vĂ©nements improbables (peurs irrationnelles mais cohĂ©rentes avec notre histoire) et Ă  accepter sans critique chaque suggestion d’autoritĂ©.

Heuristique # 5 : l’effet halo. C’est la tendance Ă  aimer ou Ă  ne pas aimer tout ce qui concerne une personne, un lieu, une idĂ©e, y compris ce que nous n’avons pas observĂ©. L’Ă©motion chaleureuse que nous ressentons envers une personne ou un lieu nous prĂ©dispose Ă  aimer tout ce qui concerne cette personne ou ce lieu. Ainsi, une bonne première impression a tendance Ă  colorer positivement les impressions nĂ©gatives ultĂ©rieures et inversement, les premières impressions nĂ©gatives peuvent colorer nĂ©gativement les impressions positives ultĂ©rieures. Les premiers Ă  exprimer leur opinion lors d’une rĂ©union peuvent ainsi « amorcer » les opinions des autres. Une liste d’adjectifs positifs dĂ©crivant une personne influence la façon dont nous interprĂ©tons les adjectifs qui viennent plus loin dans la liste. De mĂŞme, les adjectifs nĂ©gatifs colorent les adjectifs positifs ultĂ©rieurs : si l’on nous dit « Alan est : intelligent, travailleur, sĂ©rieux, critique, opiniâtre, jaloux ; Ben est : jaloux, opiniâtre, sĂ©rieux, travailleur, intelligent Â», instinctivement notre perception d’Alan sera plus positive que celle que nous aurons de Ben, ce qui est une absurditĂ© en l’absence d’autres informations puisque ce sont exactement les mĂŞmes caractĂ©ristiques, mais dans un ordre diffĂ©rent. Ce qui ressort de ces exemples est que nos jugements intuitifs sont impulsifs, pas clairement rĂ©flĂ©chis ou examinĂ©s de manière critique. Pour rappeler au système 1 de rester objectif, de ne pas sauter aux conclusions et de faire appel aux compĂ©tences Ă©valuatives du système 2, Kahneman a inventĂ© l’abrĂ©viation « COVERA », « Ce qu’On Voit Et Rien d’Autre Â». Il l’applique par exemple en notant dĂ©sormais Ă  l’aveugle les copies de ses Ă©tudiants, et en notant sĂ©parĂ©ment chaque question, après s’être rendu compte que mĂŞme anonymes, le nombre de points qu’il accordait aux rĂ©ponses suivantes Ă©taient influencĂ©es de façon drastique par la note accordĂ©e Ă  la première rĂ©ponse. Dans sa cohĂ©rence associative personnelle de professeur, si l’étudiant avait brillamment rĂ©pondu Ă  la première question, il « ne pouvait pas Â» complètement se tromper ensuite, s’il avait Ă©chouĂ© il ne « pouvait pas Â» rĂ©ussir si brillamment etc. En d’autres termes, il est important de se mĂ©fier de ses impressions intuitives et de rester concentrĂ© sur les donnĂ©es solides dont nous disposons, de remettre en cause nos certitudes en basant nos croyances non sur des sentiments mais sur une pensĂ©e critique, et de faire une place au doute et Ă  l’ambigĂĽitĂ©.

Heuristique # 6 : le jugement. Le système 1 repose sur l’intuition, une Ă©valuation de base de ce qui se passe Ă  l’intĂ©rieur et Ă  l’extĂ©rieur de l’esprit. Il est enclin Ă  ignorer les « variables de type somme », c’est-Ă -dire que nous Ă©chouons souvent Ă  calculer avec prĂ©cision les sommes mais nous nous fions plutĂ´t Ă  des moyennes intuitives souvent peu fiables fondĂ©es sur des correspondances erronĂ©es. Nous Ă©valuons automatiquement et inconsciemment les mĂ©rites relatifs d’un Ă©lĂ©ment, d’un produit, d’une personne, (« il sourit beaucoup, donc il est gentil Â») en faisant correspondre des traits qui n’ont pas vraiment de rapport. Nous sommes de mĂŞme enclins Ă  Ă©valuer une dĂ©cision ou une valeur sans distinguer les variables les plus importantes. C’est ce que l’on appelle l’approche de « la chevrotine mentale ». Ces Ă©valuations de base peuvent facilement remplacer le travail acharnĂ© que le système 2 doit faire pour porter des jugements.

Heuristique # 7 : la substitution. Face Ă  un problème, une question ou une dĂ©cision dĂ©routante, nous nous facilitons la vie en rĂ©pondant Ă  une question de substitution plus simple. Au lieu d’estimer la probabilitĂ© d’un certain rĂ©sultat complexe, nous nous appuyons sur une estimation d’un autre rĂ©sultat moins complexe. Au lieu de se dĂ©battre avec la question philosophique « Qu’est-ce que le bonheur ? Â» nous rĂ©pondons Ă  la question, plus simple : « Quelle est mon humeur en ce moment ? Â» ou « qu’est-ce qui me ferait plaisir aujourd’hui ? Â». MĂŞme si les personnes très anxieuses activent plus souvent le système 2, Ă©valuant presque obsessionnellement chaque dĂ©cision, peur ou risque, il est surprenant de voir avec quel succès leur système 1 fonctionne. MĂŞme les anxieux chroniques parviennent en gĂ©nĂ©ral sans effort apparent Ă  maintenir une activitĂ© « normale Â» en-dehors de leurs sujets d’angoisse : ils marchent, mangent, dorment, respirent, font des choix, portent des jugements, font confiance et s’engagent dans des entreprises sans crainte, inquiĂ©tude ou anxiĂ©tĂ©. Pourquoi ? Parce qu’ils remplacent les problèmes complexes par des problèmes plus faciles. Le potentiel d’erreur est lĂ  encore important, puisque nous tendons Ă  refuser ou ĂŞtre incapables de rĂ©pondre Ă  la question la plus difficile, qui est parfois pourtant parfois la plus vitale.

Heuristique # 8 : l’affect. Les émotions influencent le jugement. Les gens laissent leurs goûts et dégoûts déterminer leurs croyances sur le monde. Si je méprise une personne publique (écrivain, politique…), je jugerai son discours en fonction de ce mépris et ne reconnaîtrai pas son éventuelle qualité à ce moment M. Le potentiel d’erreur évident est que nous pouvons laisser nos préférences émotionnelles obscurcir notre jugement et sous-estimer ou surestimer les risques et les avantages.

Les grands biais cognitifs

De ces heuristiques fondamentales découlent de nombreux biais issu de leurs diverses formes.

Incompétence statistique

Heuristique # 9 : la loi des petits nombres. Nos cerveaux ont du mal Ă  apprĂ©hender les statistiques. Les petits Ă©chantillons sont plus sujets Ă  produire des rĂ©sultats extrĂŞmes que les grands Ă©chantillons, mais nous avons tendance Ă  accorder plus de crĂ©dit aux rĂ©sultats des petits Ă©chantillons que ne le justifient les statistiques. Le système 1 est impressionnĂ© par le rĂ©sultat d’échantillons rĂ©duits mais ne devrait pas l’ĂŞtre, ces derniers n’étant pas reprĂ©sentatifs de situations plus globales. Nous nous trompons lorsque nous usons de notre intuition plutĂ´t que de calculer rĂ©ellement. Nous prenons ainsi des dĂ©cisions fondĂ©es sur des donnĂ©es insuffisantes.

Heuristique # 10 : la crĂ©dulitĂ©. Le système 1 supprime l’ambiguĂŻtĂ© et le doute en construisant des histoires cohĂ©rentes Ă  partir de simples fragments de donnĂ©es. Le système 2 est notre sceptique intĂ©rieur, pesant ces histoires, en doutant et suspendant le jugement. Mais parce que l’incrĂ©dulitĂ© nĂ©cessite beaucoup de travail, le système 2 Ă©choue parfois Ă  faire son travail et nous laisse basculer dans la certitude. Nous sommes programmĂ©s pour croire. Parce que nos cerveaux sont des dispositifs de reconnaissance de formes, la machine associative recherche des causes, et nous avons tendance Ă  percevoir de la causalitĂ© lĂ  oĂą il n’en existe pas. Les rĂ©gularitĂ©s se produisent au hasard. Un lancer de pièces produisant 50 « faces Â» d’affilĂ©e ne semble pas naturel, mais si l’on devait lancer une pièce des milliards et des milliards de fois, il y a de fortes chances que 50 faces d’affilĂ©e finissent par sortir. Lorsque nous dĂ©tectons ce qui semble ĂŞtre une règle, nous rejetons rapidement l’idĂ©e que le processus est vraiment alĂ©atoire. Attribuer des bizarreries au hasard demande du travail. Il est plus facile de les attribuer Ă  une force intelligente dans l’univers ou Ă  une loi physique mĂŞme mĂ©connue. Kahneman conseille d’accepter que diffĂ©rents rĂ©sultats soient dus Ă  une hasard aveugle. Il y a beaucoup d’évènements dans ce monde dus au hasard et ne se prĂŞtant pas Ă  des explications, mĂŞme si notre cerveau dĂ©teste cette idĂ©e. Cessons d’établir des connexions lĂ  oĂą il n’en existe pas.

Heuristique # 11 : l’effet d’ancrage. Pendant de l’amorçage qui en joue, il s’agit du phĂ©nomène subconscient consistant Ă  faire des estimations incorrectes en raison de quantitĂ©s ou qualitĂ©s prĂ©cĂ©demment Ă©voquĂ©es. Si l’on vous demande si Ghandi avait plus de 100 ans Ă  sa mort, vous estimerez l’âge de sa mort plus Ă©levĂ© que si l’on vous avait prĂ©cĂ©demment demandĂ© s’il Ă©tait mort Ă  35 ans. C’est un ajustement influencĂ© par une information pourtant totalement non-pertinente. Un exemple courant est le montant des dommages et intĂ©rĂŞts attribuĂ©s dans certains types de procès, qui sont ancrĂ©s Ă  des montant astronomiques du simple fait de la demande alĂ©atoire des avocats. Le rĂ©sultat est que bien que revus Ă  la baisse, ils sont dans la majoritĂ© des cas largement supĂ©rieurs Ă  ce qui aurait Ă©tĂ© attribuĂ© Ă  dĂ©faut de demande chiffrĂ©e, en se basant simplement sur les textes de loi et les faits.

Disponibilité, émotion et risque

Heuristique # 12 : la disponibilitĂ©. Lorsqu’il est demandĂ© d’estimer des chiffres comme la frĂ©quence des divorces Ă  Hollywood, le nombre de plantes dangereuses ou le nombre de dĂ©cès par accident d’avion, la facilitĂ© avec laquelle nous rĂ©cupĂ©rons des exemples dans notre mĂ©moire influence notre estimation. Nous sommes enclins Ă  surestimer les occurrences de faits pour lesquels nous trouvons le plus facilement des exemples. Et ces exemples sont d’autant plus faciles Ă  convoquer que nous en avons une expĂ©rience personnelle ou Ă©motionnelle : celui qui a Ă©tĂ© agressĂ© surestimera la frĂ©quence des agressions, celui qui est exposĂ© Ă  un reportage sur les fusillades dans les Ă©coles surestimera le nombre de crimes commis avec une arme Ă  feu, et celui qui se charge de corvĂ©es domestiques surestimera le pourcentage des tâches mĂ©nagères dont il se charge seul (quand les deux parties d’un couple supposent qu’elles font 70% du travail Ă  la maison, quelqu’un a pourtant forcĂ©ment tort !) Une personne qui a vĂ©cu une tragĂ©die surestimera le potentiel de risque, de danger d’un univers hostile. Une personne non exposĂ©e Ă  la violence sous-estimera le danger de certaines situations. Lorsqu’un ami est atteint d’un cancer, nous nous faisons examiner. Lorsque nous n’avons jamais Ă©tĂ© exposĂ© Ă  cette maladie, nous ignorons le risque.

Heuristique # 13 : les cascades de disponibilitĂ©. Ă€ la suite de notre biais de disponibilitĂ© de l’information (au moins en apparence), lorsque les nouvelles s’accumulent et que ces exemples disponibles se multiplient mĂŞme artificiellement, nos sens statistiques se dĂ©forment encore plus. Un rĂ©cent accident d’avion nous fait penser que les voyages en avion sont plus dangereux que les voyages en voiture, ce que Sunstein appelait la « nĂ©gligence de la probabilitĂ© Â». Le traitement mĂ©diatique d’évènements comme le terrorisme ou la gestion du risque par les politiques publiques nous font surestimer les risques et intensifient nos rĂ©actions Ă©motionnelles, influençant par lĂ  mĂŞme nos dĂ©cisions. Le potentiel d’erreur est important, nous poussant Ă  rĂ©agir de manière excessive Ă  des problèmes mineurs simplement parce que nous entendons un nombre disproportionnĂ© de nouvelles nĂ©gatives en rapport avec ceux-ci.

Heuristique # 14 : la reprĂ©sentativitĂ©. Semblable au profilage ou aux stĂ©rĂ©otypes, la reprĂ©sentativitĂ© est la tendance intuitive Ă  porter des jugements en fonction de la similitude d’un Ă©lĂ©ment avec quelque chose que nous aimons ou connaissons, sans prendre en considĂ©ration d’autres facteurs : probabilitĂ© (vraisemblance), statistiques (taux de base) ou taille des Ă©chantillonnages. Ce qui peut poser problème dans la maĂ®trise consciente de cette heuristique est que la plupart des stĂ©rĂ©otypes portent une part de vĂ©ritĂ©, et qu’il convient de doser nos jugements pour pas surestimer ou sous-estimer les statistiques (et donc les risques ou opportunitĂ©s) rĂ©elles : les personnes souriantes sont souvent vraiment sympathiques, mais cette personne n’est pas forcĂ©ment sympathique pare qu’elle sourit beaucoup, ou encore les hommes jeunes ont plus de chance d’être agressifs et/ou violents, mais cet homme jeune dans la mĂŞme rame de mĂ©tro que moi ne va pas nĂ©cessairement m’agresser. Pour discipliner notre intuition paresseuse, nous devons porter des jugements basĂ©s sur la probabilitĂ© et les taux de base, et remettre en question notre analyse des preuves utilisĂ©es pour formuler notre hypothèse en premier lieu. Il faut s’attacher Ă  cesser d’évaluer une personne, un lieu ou une dĂ©cision en fonction de leur ressemblance avec quelque chose d’autre sans tenir compte d’autres facteurs concrets.

Heuristique # 15 : l’erreur de conjonction. Après avoir Ă©tĂ© « amorcĂ©s Â» avec la description prĂ©cise d’une personne fictive (Linda), des sujets devaient sĂ©lectionner plusieurs affirmations qu’ils pensaient vraies la concernant. La plupart ont choisi une histoire plausible plutĂ´t qu’une histoire probable, en sĂ©lectionnant par exemple « Laura est employĂ©e de banque ET fĂ©ministe Â» plutĂ´t que « Laura est employĂ©e de banque Â». Pourtant, statistiquement, une seule caractĂ©ristique a nĂ©cessairement plus de chance (probabilitĂ©) d’être vraie que deux. Les notions de cohĂ©rence, de plausibilitĂ© et de probabilitĂ© sont facilement confondues, et nous nĂ©gligeons le fait concret que plus nous ajoutons de dĂ©tails Ă  une Ă©valuation, une prĂ©vision ou un jugement, moins ils sont susceptibles d’ĂŞtre probables. Pourquoi ? Le système 1 nĂ©glige la logique en faveur d’une histoire plausible, crĂ©dible, rattachable.

Heuristique # 16 : la négligence des statistiques. Nous privilégions les histoires avec pouvoir explicatif sur les simples données. L’exemple fourni est celui d’un accident causé par un taxi dans une ville ou deux compagnies existent, l’une avec des taxis verts (85%), l’autre avec des taxis bleus (15%). Un témoin, testé et fiable à seulement 80%, déclare avoir vu un taxi bleu causer l’accident. La probabilité que le taxi soit bleu est évaluée par les sujets, logiquement, à 15% avec la seule information statistique, mais à 80% avec les deux informations, alors que la réalité statistique serait de 41% compte-tenu du défaut de fiabilité du témoin. Lorsque des données purement statistiques sont fournies, nous faisons généralement des inférences précises. Mais lorsque ces données statistiques sont accompagnées d’une histoire individuelle pouvant satisfaire notre besoin de causalité et notre machine associative, nous avons tendance à suivre la narration plutôt que les statistiques.

Heuristique # 17 : la rĂ©gression vers la moyenne. La plupart des gens aiment attacher des interprĂ©tations causales aux fluctuations des processus alĂ©atoires. La rĂ©gression vers la moyenne est une consĂ©quence mathĂ©matique inĂ©vitable du fait que le hasard joue un rĂ´le dans le rĂ©sultat : un instructeur de l’armĂ©e Ă  qui on expliquait que la rĂ©compense gĂ©nère plus d’efficacitĂ© que la punition refusait ces statistiques rĂ©elles par son expĂ©rience personnelle, qu’un cadet fĂ©licitĂ© Ă©tait moins performant lors de son second saut et qu’un autre rĂ©primandĂ© après le premier ratĂ© Ă©tait plus efficace ensuite. Il refusait la simple rĂ©alitĂ© de la rĂ©gression vers la moyenne, qui fait que la probabilitĂ© d’un saut exceptionnellement bon ou mauvais est faible et qu’il est naturel de ne pas rĂ©ussir parfaitement ou totalement Ă©chouer deux fois d’affilĂ©e. Son intervention n’avait en rĂ©alitĂ© probablement eu aucun effet dans les deux cas, et les rĂ©sultats auraient Ă©tĂ© exactement les mĂŞme sans celle-ci.

Heuristique # 18 : les prĂ©dictions intuitives. Les conclusions que nous tirons avec une forte intuition (système 1) alimentent l’excès de confiance. Ce n’est pas parce qu’on « le sent bien Â» que cela sera positif. Une start-up a statistiquement peu de chance de rĂ©ussir aujourd’hui : notre Ă©valuation des probabilitĂ©s de rĂ©ussite de n’importe quelle start-up, mĂŞme fondĂ©e sur les meilleures idĂ©es par les meilleurs entrepreneurs, devraient ĂŞtre au mieux moyenne. C’est pourtant rarement le cas. Nous avons besoin du système 2 pour ralentir et examiner notre intuition, estimer les probabilitĂ©s de base, considĂ©rer la rĂ©gression Ă  la moyenne, Ă©valuer la qualitĂ© des preuves, etc. Les prĂ©dictions intuitives et la volontĂ© de prĂ©dire des Ă©vĂ©nements rares Ă  partir de preuves faibles sont toutes deux des manifestations du Système 1. Le potentiel d’erreur est bien sĂ»r une confiance injustifiĂ©e en une prĂ©diction alors que nous sommes en fait dans l’erreur.

L’excès de confiance en soi

L’illusion de la compréhension

Heuristique # 19 : l’illusion narrative. Dans notre tentative continue de donner un sens au monde (cohĂ©rence associative et effet halo), nous nous persuadons que nous le comprenons et nous crĂ©ons souvent des histoires rĂ©trospectives erronĂ©es du passĂ© qui façonnent nos visions du monde actuel et nos attentes pour l’avenir. Nous attribuons des rĂ´les plus importants au talent, Ă  la stupiditĂ© et aux intentions qu’au hasard. Notre conviction rĂ©confortante que le monde a du sens repose sur une base solide : notre capacitĂ© presque illimitĂ©e Ă  ignorer notre ignorance. Cette heuristique est plus perceptible dans l’idĂ©e d’inĂ©vitabilitĂ© rĂ©trospective (la crise financière Ă©tait « inĂ©vitable Â», tel Ă©vènement « devait arriver Â»). Ce qui entraĂ®ne plus prĂ©cisĂ©ment :

Heuristique # 20 : le biais rĂ©trospectif. Nous pensons que nous comprenons le passĂ©, ce qui implique que l’avenir devrait ĂŞtre connaissable, alors que les faits nous montrent pourtant que ce n’est pas le cas. Nos intuitions et prĂ©monitions semblent rĂ©elles après coup : une fois qu’un Ă©vĂ©nement a eu lieu, nous oublions ce que nous pensions avant cet Ă©vĂ©nement, avant de changer d’avis. Avant 2008, personne n’a rĂ©agi malgrĂ© les signaux identifiĂ©s a posteriori pouvant avertir d’un possible crash Ă©conomique. Après le crash et encore aujourd’hui, on entend pourtant que cette situation Ă©tait « inĂ©vitable Â» et qu’elle avait Ă©tĂ© prĂ©dite. Les intuitions des concernĂ©s ont Ă©tĂ© rĂ©outillĂ©es pour devenir des preuves. La tendance Ă  rĂ©viser l’histoire de ses croyances Ă  la lumière de ce qui s’est rĂ©ellement produit engendre une solide illusion cognitive. Nous sommes enclins Ă  blâmer les dĂ©cideurs pour de bonnes dĂ©cisions qui ont mal fonctionnĂ© et des comportements pourtant rationnels sur le moment, et Ă  leur accorder trop peu de crĂ©dit pour des actions rĂ©ussies, Ă  la lumière de situations analysĂ©es après coup. Des actions qui paraissaient prudentes peuvent sembler irresponsablement nĂ©gligentes avec le recul.

L’illusion de la légitimité

Heuristique # 21 : l’illusion de la validitĂ©. Nous croyons parfois en toute bonne foi que nos opinions, prĂ©visions et points de vue sont plus valables que les faits s’y opposant. La confiance subjective dans un jugement ou une idĂ©e n’est pas une Ă©valuation raisonnĂ©e de la probabilitĂ© que ce jugement soit correct, que cette idĂ©e soit pertinente. La confiance en soi est un sentiment qui reflète la cohĂ©rence de l’information et la facilitĂ© cognitive de son traitement. Plusieurs facteurs renforcent cet excès de confiance : la vanitĂ©, l’affiliation avec des pairs partageant les mĂŞmes idĂ©es, la surĂ©valuation de nos antĂ©cĂ©dents de succès et la minimisation de nos Ă©checs…

Heuristique # 22 : l’illusion de talent. La prĂ©cĂ©dente dĂ©coule souvent de celle-ci et des suivantes : Nous nĂ©gligeons les informations statistiques et privilĂ©gions nos prĂ©sentiments et notre conception de la rĂ©ussite sur les faits. Nous pensons que nous (ou les personnes sur lesquelles nous parions) ferons ou comprenons mieux que les statistiques, que nous adaptons ou ignorons pour maintenir notre cohĂ©rence narrative.

Heuristique # 23 : l’illusion de l’expertise. L’intuition signifie savoir quelque chose sans savoir comment nous le savons. La comprĂ©hension de Kahneman de cette qualitĂ© est que l’intuition est vraiment une question de reconnaissance, que notre familiaritĂ©, notre connaissance ou habitude d’une situation nous pousse rapidement aux jugements. Les joueurs d’Ă©checs « voient » la partie Ă  venir, les pompiers « savent » quand un bâtiment est sur le point de s’effondrer, les marchands d’art « identifient » les marques de contrefaçon, les amis « connaissent » leurs amis, mĂŞme Ă©loignĂ©s… Par extension, les enfants se proclament experts en jeux vidĂ©o, les automobilistes en conduite, les chefs en cuisine… Ces « intuitions Â», relevant Ă  la fois de l’illusion de l’expertise et de celle du talent, doivent toutefois ĂŞtre nuancĂ©es et rapportĂ©es Ă  leur nature rĂ©elle, c’est-Ă -dire une reconnaissance immĂ©diate des formes connues ou dĂ©jĂ  expĂ©rimentĂ©es. Kahneman est ainsi sceptique vis-Ă -vis des « experts Â», car ils nĂ©gligent souvent ce qu’ils ne savent pas. Kahneman fait confiance aux experts lorsque deux conditions sont remplies : l’expert se trouve dans un environnement suffisamment connu et stable pour ĂŞtre prĂ©visible, et l’expert, par une pratique prolongĂ©e et avec luciditĂ©, tient compte des irrĂ©gularitĂ©s et de sa propre ignorance.

L’excès d’optimisme

Heuristique # 24 : l’erreur de planification. Entreprendre un projet risquĂ© – litige, guerre, ouverture d’un restaurant – en ne se focalisant que sur son succès sans considĂ©rer sĂ©rieusement les scenarios d’échecs, de difficultĂ©s, de limites qui peuvent le jalonner est une erreur commune, souvent motivĂ©e par l’excès d’enthousiasme et de confiance en soi. Si nous consultons d’autres personnes engagĂ©es dans des projets similaires, nous aurons une vue extĂ©rieure et objective sur le projet, mais nous avons tendance Ă  ne rechercher dans ces situations que les avis « d’experts Â» allant dans le sens de notre idĂ©e prĂ©conçue (cohĂ©rence associative et biais confirmatoire). Les dĂ©passements de coĂ»ts, les dĂ©lais manquĂ©s, la perte d’intĂ©rĂŞt, l’urgence dĂ©croissante rĂ©sultent tous d’une mauvaise planification. En d’autres termes, des projets grandioses mal planifiĂ©s finiront par Ă©chouer, et le risque principal est une persĂ©vĂ©rance irrationnelle dans des idĂ©es erronĂ©es ou des projets vouĂ©s Ă  l’échec.

Heuristique # 25 : le biais de l’optimisme. C’est le moteur du capitalisme. Nous sommes enclins Ă  nĂ©gliger les faits, les Ă©checs des autres et ce que nous ne savons pas en faveur de ce que nous savons et de notre compĂ©tence. Nous n’apprĂ©cions pas l’incertitude de notre environnement. Nous pensons que le rĂ©sultat de nos rĂ©alisations est entièrement entre nos mains tout en nĂ©gligeant le hasard. Nous souffrons de l’illusion de contrĂ´le, et d’une nĂ©gligence la concurrence et des faits. Les experts qui reconnaissent toute l’Ă©tendue de leur ignorance peuvent s’attendre Ă  ĂŞtre remplacĂ©s par des concurrents plus confiants, qui sont mieux Ă  mĂŞme de gagner la confiance des clients. L’incertitude est devenue un signe de faiblesse, nous nous tournons donc vers des experts plus assurĂ©s, en ignorant la possibilitĂ© qu’ils se trompent.

Faire le bon choix

Pour Kahneman, la principale faille dans le raisonnement des Ă©conomistes, c’est la dĂ©finition figĂ©e de l’« Ă©cĂ´ne Â», cette entitĂ© consommatrice qui pense et agi d’une seule façon, rationnelle et productive.

L’omission de la subjectivité

Heuristique # 26 : les erreurs de Bernoulli. Nous pensons souvent a priori qu’un objet n’a qu’une valeur objective intrinsèque. Un million de dollars vaut un million de dollars, non ? Faux : faire apparaĂ®tre par magie sur le compte en banque d’une personne pauvre un million de dollars serait fabuleux, mais rĂ©duire par magie le compte en banque d’un milliardaire Ă  un million de dollars serait une tragĂ©die pour lui. L’un a gagnĂ©, l’autre a perdu. Les Ă©conomistes ont commis une erreur en ne tenant pas compte de l’Ă©tat psychologique d’une personne en ce qui concerne la valeur, le risque, l’anxiĂ©tĂ© ou le bonheur. L’Ă©conomiste du XVIIIème siècle Bernoulli pensait que l’argent avait une utilitĂ© (valeur fixe), qui variait bien en fonction du rĂ©fĂ©rentiel (par exemple fortune dĂ©jĂ  possĂ©dĂ©e), mais il n’a pas pris en considĂ©ration le point de rĂ©fĂ©rence individuel (par exemple que chez telle personne l’aversion aux pertes, sur laquelle nous reviendrons, est supĂ©rieure Ă  l’appât du gain). Le potentiel d’erreur est celui d’une prise de dĂ©cisions fondĂ©e sur la logique pure sans tenir compte des Ă©tats psychologiques.

Heuristique # 27 : cĂ©citĂ© induite par la thĂ©orie. Une fois que vous avez dĂ©veloppĂ© ou acceptĂ© une thĂ©orie et l’avez utilisĂ©e comme outil dans votre rĂ©flexion, il est extrĂŞmement difficile de remarquer (ou d’admettre) ses dĂ©fauts. Si vous tombez sur une observation qui ne semble pas correspondre au modèle, vous supposez qu’il doit y avoir une explication rationnelle ne le remettant pas en cause (exception, erreur humaine dans le calcul…). Lorsque les Ĺ“illères tombent, l’erreur prĂ©cĂ©demment rationnalisĂ©e semble absurde et la vĂ©ritable percĂ©e se produit lorsque vous ne comprenez plus comment vous avez pu ne pas vous rendre Ă  l’Ă©vidence.

Heuristique # 28 : La thĂ©orie des perspectives. La renommĂ©e de Kahneman est fondĂ©e sur la thĂ©orie des perspectives (pour laquelle il a remportĂ© le prix Nobel d’économie). Les Ă©conomistes depuis Bernoulli croyaient que la valeur (rĂ©elle ou relative) de l’argent Ă©tait le seul dĂ©terminant pour expliquer pourquoi les gens achètent, dĂ©pensent et parient comme ils le font. La thĂ©orie de la perspective a changĂ© cela en combinant trois variations de perspective :

  • la valeur attribuĂ©e Ă  l’argent est moins importante que l’expĂ©rience subjective de changements dans la richesse. En d’autres termes, la perte ou le gain de 500 € est psychologiquement positif ou nĂ©gatif selon un point de rĂ©fĂ©rence, l’argent dĂ©jĂ  possĂ©dĂ©
  • notre sensibilitĂ© aux changements de richesse est elle-mĂŞme variable : perdre 100 € fait plus mal si vous commencez avec 200 € que si vous commencez avec 1000 €
  • nous dĂ©testons perdre de l’argent. La pensĂ©e du système 1 compare le bĂ©nĂ©fice psychologique du gain au coĂ»t psychologique de la perte et la peur de la perte l’emporte gĂ©nĂ©ralement.

Heuristique # 29 : l’effet de dotation. Un objet que nous possĂ©dons et utilisons est plus prĂ©cieux pour nous qu’un objet que nous ne possĂ©dons pas ou n’utilisons pas. Ces objets sont dotĂ©s de sens et nous ne voulons pas nous en sĂ©parer pour deux raisons : nous dĂ©testons la perte (heuristique suivante) et nous avons une histoire avec ces objets. Ainsi, nous surestimerons leur valeur, et sous-estimerons celle d’objets que nous n’utilisons pas ou auxquels nous n’associons pas de valeur sentimentale.

Heuristique # 30 : l’aversion aux pertes. Les gens fournissent plus d’efforts pour Ă©viter les pertes que pour rĂ©aliser des gains. Les nĂ©gociations contractuelles s’arrĂŞtent lorsqu’une partie a le sentiment de faire plus de concessions (pertes) que son opposant. On travaille plus dur Ă  Ă©viter la douleur qu’à atteindre le plaisir. MĂŞme les animaux se battent plus fĂ©rocement pour maintenir le territoire que pour l’Ă©tendre. Le risque est de sous-estimer notre propre attitude et celle des autres envers la perte et le gain et de se focaliser sur la supposĂ©e aviditĂ© des consommateurs plutĂ´t que sur leur aversion aux pertes. Ă€ l’échelle individuelle, le potentiel d’erreur est de passer Ă  cĂ´tĂ© d’une victoire certaine afin d’Ă©viter ce que nous pensons ĂŞtre une perte possible mĂŞme lorsque les chances sont statistiquement favorables au succès.

La perception du risque

Le « Fourfold Pattern Â» (littĂ©ralement « schĂ©ma Ă  4 entrĂ©es Â») combine trois heuristiques permettant de clarifier et prĂ©ciser la perception du risque et ses consĂ©quences concrètes, par exemple dans le cadre de nĂ©gociations juridiques durant des poursuites :

Heuristique # 31 : l’effet de possibilitĂ©. Lorsque des rĂ©sultats hautement improbables sont pondĂ©rĂ©s de manière disproportionnĂ©e, plus qu’ils ne le mĂ©ritent, nous mobilisons l’heuristique de l’effet de possibilitĂ©, comme lorsque nous achetons des billets de loterie.

Heuristique # 32 : l’effet de certitude. Les rĂ©sultats qui sont presque certains sont pourtant moins considĂ©rĂ©s que leur probabilitĂ© ne le justifie. Dans le cadre d’un procès par exemple, la plupart des plaignant accepteront un accord (certitude) moins intĂ©ressant que les possibilitĂ©s du procès, mĂŞme si celui-ci prĂ©sente une probabilitĂ© de succès de 95%.

Heuristique # 33 : le principe d’anticipation. Les deux heuristiques ci-dessus ont ceci en commun que le poids décisionnel que les gens attribuent aux résultats ne sont pas identiques aux probabilités de ces résultats. Des évènements peu probables sont surévalués, soit par espoir (loterie) soit par crainte du risque (accords désavantageux en justice).

Le Fourfold Pattern combine ainsi ces heuristiques pour produire un schĂ©ma type des dĂ©cisions prises dans le cadre de procès civils, fondĂ© sur l’étude rĂ©elle de ces comportements mĂŞme si certains peuvent nous paraĂ®tre, Ă  froid, illogiques :

Cela signifie que les gens attachent des valeurs et un poids dĂ©cisionnel aux notions de gains et pertes plutĂ´t qu’Ă  la somme elle-mĂŞme, et le poids dĂ©cisionnel attribuĂ© aux possibles rĂ©sultats sont diffĂ©rents de leur probabilitĂ©. Les gens sont rĂ©ticents au risque lorsqu’ils envisagent les perspectives d’un gain important. Ils verrouillent un gain sĂ»r et acceptent une valeur du pari infĂ©rieure Ă  celle attendue. Lorsque le rĂ©sultat espĂ©rĂ© est extrĂŞmement important, comme un billet de loterie, l’acheteur est indiffĂ©rent au fait que ses chances de gagner sont extrĂŞmement faibles. Sans le ticket, ils ne peuvent pas gagner, mais avec le ticket, ils peuvent au moins rĂŞver. Cela explique pourquoi les gens souscrivent des assurances. Nous paierons une assurance parce que nous achetons en rĂ©alitĂ© une protection et une tranquillitĂ© d’esprit. Cela explique aussi certains « paris dĂ©sespĂ©rĂ©s Â» (en mĂ©decine, en finance…) : la plupart des gens accepteront une forte probabilitĂ© d’aggraver les choses, pour avoir une lĂ©gère lueur d’espoir d’Ă©viter la perte Ă  laquelle ils sont confrontĂ©s. Ce type de prise de risque peut simplement transformer une mauvaise situation en catastrophe.

Heuristique # 34 : la surestimation de la probabilitĂ© des Ă©vĂ©nements rares. Il serait plus logique de prĂŞter attention aux Ă©vĂ©nements susceptibles de se produire (pluie demain) qu’aux Ă©vĂ©nements improbables (attentats terroristes, astĂ©roĂŻdes, maladie en phase terminale, inondations et glissements de terrain…). Pourtant nous avons tendance Ă  surestimer les probabilitĂ©s d’Ă©vĂ©nements improbables et Ă  les surpondĂ©rer dans nos dĂ©cisions. Cette heuristique s’associe Ă  la cascade de disponibilitĂ© (#13) et l’heuristique de l’aisance cognitive (# 2) ci-dessus. Nous sommes plus susceptibles de basculer vers une dĂ©cision si les donnĂ©es sont « voyantes Â», marquantes, en accordant plus d’importance Ă  leur visibilitĂ© et au ton du message transmis qu’à la probabilitĂ© de survenance.

Heuristique # 35 : cadrage gros plan vs cadrage grand angle. La plupart d’entre nous sommes si rĂ©ticents au risque que nous Ă©vitons tous les paris. C’est une erreur, dit Kahneman, car certains paris sont clairement en notre faveur et en les refusant, nous perdons de l’argent. Une façon de rĂ©duire l’aversion au risque est de penser de manière large (ce qu’il appelle le « cadrage grand angle Â»), en examinant les gains globaux sur de nombreux petits paris. Penser de façon Ă©troite, ne regarder que les pertes ou gains Ă  court terme (le cadrage gros plan), nous paralyse. Par exemple, on propose ces deux dĂ©cisions :

1 : Choisissez entre :

A : un gain assurĂ© de 240 €
B. 25% de chance de gagner 1 000 € (et donc 75% de ne rien gagner)

  1. Choisissez entre :

C : une perte assurĂ©e de 750 €
D : 75% de chances de perdre 1 000 € (et donc 25% de ne rien perdre).

La plupart des gens choisissent instinctivement la combinaison AD, de par leur cadrage gros plan sur chaque dĂ©cision. Pourtant, si l’on combine en cadrage grand angle les rĂ©ponses gagnante (AD) et perdante (BC), on obtient :

AD : 25% de chance de gagner 240 € et 75 % de chances de perdre 760 €
BC : 25% de chances de gagner 250 € et 75% de chances de perdre 750 €

Les probabilitĂ©s favorables sont donc supĂ©rieures dans la combinaison perdante et le cadrage grand angle nous permet seul de nous en apercevoir au-delĂ  de notre rĂ©flexe « espoir de gain / aversion aux pertes Â». Mais penser globalement n’est pas intuitif. C’est une tâche système 2 qui demande du travail. Nous sommes donc câblĂ©s par le système 1 pour penser Ă©conomiquement de façon irrationnelle.

La comptabilité mentale

Beaucoup d’entre nous ont un Système 1 « comptable Â» dans la tĂŞte qui « compte les points » non seulement des gains et pertes financiers potentiels d’une transaction, mais aussi des risques Ă©motionnels, des rĂ©compenses et des regrets possibles de nos dĂ©cisions financières. Les Ă©motions que les gens attachent Ă  l’Ă©tat de leurs comptes mentaux ne sont pas reconnues dans la thĂ©orie Ă©conomique standard des Ă©cĂ´nes. Cette comptabilitĂ© mentale est pourtant issue de trois heuristiques incontournables :

Heuristique # 36 : l’effet de disposition. Nous sommes souvent disposĂ©s Ă  vendre des actions rĂ©munĂ©ratrices car cela nous fait nous prendre pour des investisseurs avisĂ©s, et moins disposĂ©s Ă  vendre des actions en pĂ©ril parce que c’est un aveu de dĂ©faite dans notre dossier mental. C’est irrationnel car nous gagnerions plus d’argent en vendant les perdants et en nous accrochant aux gagnants.

Heuristique # 37 : le sophisme du coût irrécupérable. Nous avons tendance à nous maintenir dans des situations négatives non seulement par effet de disposition, mais également par obstination dans notre aversion aux pertes en considérant que renoncer = perte du temps, de l’argent, de l’énergie déjà investis, plutôt que de les rediriger ailleurs. C’est l’heuristique responsable de notre maintien dans des mariages abusifs, dans des carrières détestées, dans des logements jamais terminés…

Heuristique # 38 : la peur du regret. Dans un exemple, on nous dit que Paul avait des actions de la sociĂ©tĂ© A et a envisagĂ© de se tourner plutĂ´t vers la sociĂ©tĂ© B, mais ne l’a pas fait. Georges quant Ă  lui avait des actions de la sociĂ©tĂ© B, mais les a vendues pour se tourner vers la sociĂ©tĂ© A. Au final, la sociĂ©tĂ© B aurait rapportĂ© 1 200 € supplĂ©mentaires cette annĂ©e si elle avait Ă©tĂ© choisie par les deux hommes. Chacun d’eux en est au mĂŞme point, pourtant 92% des sujets interrogĂ©s rĂ©pondent « Georges Â» Ă  la question « lequel des deux a le plus de regrets ? Â». On regrette moins ce que l’on subit (inaction) que ce que l’on cause par notre action. Le regret est une Ă©motion que nous connaissons mais dont nous surĂ©valuons la force, et surtout une punition que nous nous infligeons, qui nous pousse Ă  l’inertie.

Le manque comparatif

Heuristique # 39 : le dĂ©faut d’évaluations conjointes. Nous prenons des dĂ©cisions diffĂ©remment lorsqu’on nous demande de les considĂ©rer isolĂ©ment plutĂ´t qu’en comparaison avec d’autres scĂ©narios proches. Par exemple, une victime blessĂ©e dans un braquage d’épicerie se verra attribuer une compensation plus Ă©levĂ©e lorsqu’il y a des facteurs Ă©motionnels impliquĂ©s (la victime visitait ce magasin pour la première fois suite Ă  la fermeture exceptionnelle de son Ă©picerie habituelle), mais recevra une compensation plus faible si elle est blessĂ©e alors qu’elle se trouve dans son magasin habituel. Pourtant lorsque les deux cas sont soumis conjointement, nous rĂ©alisons que le lieu est insignifiant et nous Ă©galisons le montant de l’indemnisation accordĂ©e. Les Ă©valuations conjointes mettent en perspective nos biais Ă©motionnels comme l’injustice supposĂ©e et nous permettent plus d’objectivitĂ©. Nous devrions toujours faire des achats comparatifs, comparer les peines infligĂ©es pour les crimes, comparer les salaires globaux pour diffĂ©rents emplois… Ne pas le faire en surestimant notre capacitĂ© de jugement immĂ©diat limite notre exposition Ă  des normes utiles.

Heuristique # 40 : l’effet de cadrage. La manière dont un problème est dĂ©fini dĂ©termine nos choix plus qu’elle ne le devrait. Par exemple, les mĂ©decins Ă©valueront les probabilitĂ©s de rĂ©ussite d’une intervention Ă  « un taux de survie Ă  un mois de 90% » plutĂ´t qu’à « 10% de taux de mortalitĂ© Ă  un mois ». Les deux phrases signifient la mĂŞme chose statistiquement, mais le cadre de la « survie » a une valeur Ă©motionnelle plus grande que le taux de mortalitĂ©. Le sens d’une phrase est ce qui se passe dans votre mĂ©canisme associatif pendant que vous le comprenez. En termes d’associations (comment le Système 1 y rĂ©agit), les deux phrases ont rĂ©ellement des significations diffĂ©rentes. Le recadrage est difficile et le système 2 est paresseux, et nous nous targuons d’objectivitĂ© sans tenir compte des Ă©lĂ©ments influençant notre comprĂ©hension sans que nous en soyons conscients.

Les deux facettes du moi

Nous avons chacun un moi « agissant » et un moi « se souvenant ». Ce dernier a gĂ©nĂ©ralement la prioritĂ© sur le premier, ce qui engendre trois heuristiques primordiales dans l’évaluation de notre comprĂ©hension :

Heuristique # 41 : l’illusion mĂ©morielle. Je peux vivre 15 jours de bonheur en vacances, mais si un seul Ă©vènement nĂ©gatif survient, j’aurai tendance Ă  me souvenir de ces vacances comme nĂ©gatives. Ma mĂ©moire et mes affects l’emportent sur mon expĂ©rience rĂ©elle. De mĂŞme, après un divorce douloureux, je ne me souviendrai que des mauvais moments et pas de ceux ayant amenĂ© au mariage, et je minimiserai les bons moments. C’est un effet de substitution (heuristique # 7) qui nous fait croire qu’une expĂ©rience passĂ©e a pu ĂŞtre intĂ©gralement ruinĂ©e par un seul Ă©lĂ©ment. L’expĂ©rience de soi n’a pas de voix.

Heuristique # 42 : la « peak-end rule Â» (règle du « pic de fin Â»). La fin d’une expĂ©rience semble avoir plus de poids dans notre mĂ©moire que la manière dont une expĂ©rience a Ă©tĂ© vĂ©cue. Si une situation douloureuse ou angoissante se termine bien, ou inversement si des vacances de rĂŞve se terminent mal, mon souvenir sera colorĂ© par la fin et non par l’ensemble de l’expĂ©rience. Corolaire de l’heuristique prĂ©cĂ©dente, la règle du pic de fin est un raccourci pour se souvenir uniquement de la façon dont une expĂ©rience s’est ressentie Ă  sa fin, pas au pire ou au meilleur moment.

Heuristique # 43 : la négligence de la durée. Autre corolaire des deux facettes du moi : la durée d’une expérience agréable ou désagréable ne semble pas influencer le souvenir de la douleur ou du plaisir de l’expérience.

Conséquences étendues

Heuristique # 44 : la fragmentation narrative. Lorsque nous Ă©valuons dans quelle mesure notre vie et celle des autres a Ă©tĂ© vĂ©cue, nous devrions considĂ©rer l’ensemble du rĂ©cit et pas seulement la fin. Mais Ă  cause des trois heuristiques prĂ©cĂ©dentes, nous sommes enclins par exemple Ă  dĂ©valuer une vie longue, sacrificielle et gĂ©nĂ©reuse si Ă  la fin (ou mĂŞme après la mort) nous dĂ©couvrons des Ă©pisodes d’Ă©goĂŻsme chez la personne concernĂ©e. Une histoire se construit d’Ă©vĂ©nements significatifs et de moments mĂ©morables, pas du temps qui passe. Kahneman prend l’exemple de la Traviata, oĂą personne ne se prĂ©occupe du jeune âge auquel meurt Violette et oĂą deux ou trois ans de plus de bonheur n’auraient fait aucune diffĂ©rence pour les spectateurs, alors que si son amant avait Ă©chouĂ© Ă  la retrouver pour ses dix dernières minutes l’intĂ©gralitĂ© de l’expĂ©rience, ou en tout cas de sa perception, aurait Ă©tĂ© diffĂ©rente. La nĂ©gligence de la durĂ©e est normale dans une histoire, et la fin dĂ©finit souvent son caractère, ce qui renforce l’aversion au risque et de nombreuses autres heuristiques (peur de gâcher des annĂ©es d’efforts pour une seule mauvaise dĂ©cision, de ruiner sa rĂ©putation…)

Heuristique # 45 : le bien-être expérimenté. La plupart des théories économiques ne prennent en compte que l’écône et sa rationalité dans l’évaluation du bien-être du public. Pourtant, une personne coincée dans la circulation peut toujours être heureuse et de bonne humeur parce qu’elle est amoureuse et pense à son partenaire, et une personne en deuil restera malheureuse même en recevant une augmentation. Il y a une asymétrie entre la valeur que le moi se souvenant accorde à certains facteurs et celle, réelle, de l’expérience elle-même (par exemple, le moi se souvenant accordera de la valeur à une bonne éducation, mais la plupart des études montrent que les gens plus diplômés sont souvent plus stressés, déprimés ou malheureux au travail).

Heuristique #46 : le biais de prĂ©vision affective. Quel facteur conduit Ă  une vie plus heureuse : la longĂ©vitĂ© ou les expĂ©riences ? Une vie de 20 ans avec de nombreuses expĂ©riences heureuses serait-elle meilleure qu’une vie de 60 ans avec de nombreuses expĂ©riences terribles ? Que prĂ©fĂ©rez-vous : vivre heureux ou vivre vieux ? Beaucoup choisissent instinctivement « le bonheur Â», mais la notion est vague et nous sommes de piètres voyants concernant ce qui nous rendra heureux. En tĂ©moigne le maintien du nombre de mariage malgrĂ© les taux connus de divorce. Lorsqu’on nous pose la très difficile question « Dans l’ensemble, Ă  quel point votre vie est-elle heureuse ? » nous substituons une question plus simple, « Ă€ quel point suis-je heureux en ce moment ? Â» (heuristique # 7). Les rĂ©ponses aux questions de bien-ĂŞtre mondial doivent ĂŞtre prises avec des pincettes. Les gens prennent des dĂ©cisions en fonction de ce qui les rendra heureux Ă  l’avenir selon eux, mais une fois l’objectif atteint, le bonheur dure rarement. On peut alors s’en satisfaire (longĂ©vitĂ©) ou passer Ă  autre chose (expĂ©rience), mais l’état de bonheur n’est jamais stable.

Heuristique # 47 : l’illusion de la concentration. « Rien dans la vie n’est aussi important que vous le pensez au moment oĂą vous y pensez Â». Cela signifie que lorsqu’on nous demande d’Ă©valuer une dĂ©cision, notre satisfaction Ă  l’Ă©gard de la vie ou une prĂ©fĂ©rence, nous nous trompons si nous nous concentrons sur cette seule question. Notre rĂ©ponse Ă  la question : « Qu’est-ce qui vous rendrait heureux ? Â» dĂ©pend de nombreux facteurs et tient rarement en un facteur dĂ©terminant. Pourtant, les gens se concentrent rĂ©gulièrement sur un problème – le revenu actuel, la mĂ©tĂ©o actuelle, la santĂ©, les relations, la pollution actuelles etc. – et ignorent d’autres facteurs importants. Nous exagĂ©rons l’effet d’un achat important ou d’un changement de circonstances sur notre bien-ĂŞtre futur. Des Ă©tudiants Ă  qui l’ont demandait d’évaluer leur bonheur ont rĂ©pondu de façon bien plus enthousiaste lorsqu’ils avaient trouvĂ© la pièce cachĂ©e Ă  leur attention dans la salle de test. Les petites satisfactions comme les petites contrariĂ©tĂ©s influent sur notre humeur, et celle-ci influe bien plus sur notre perception de la vie que notre expĂ©rience rĂ©elle. Le fait est que nos Ă©valuations sont souvent basĂ©es sur l’heuristique selon laquelle, tandis que nous pensons Ă  quelque chose, nous y pensons gĂ©nĂ©ralement « mieux Â», oubliant Ă  quel point nous pensons rarement Ă  ces choses par ailleurs (revenu, mĂ©tĂ©o, santĂ©, apparence etc.). Ce qui nous rendait heureux est absorbĂ© dans la vie quotidienne, nous nous adaptons, nous nous acclimatons, nous Ă©prouvons le plaisir initial moins intensĂ©ment au fil du temps. Le moi qui se souvient est sujet Ă  une Ă©norme illusion de concentration sur des aspects de la vie, positifs ou nĂ©gatifs, que le moi agissant vit en rĂ©alitĂ© assez placidement.

En bref, cet ouvrage, fruit de longues annĂ©es de rĂ©flexion et d’expĂ©rimentation, dĂ©crit le fonctionnement de l’esprit comme une interaction difficile entre deux personnages fictifs : le système automatique 1 et le système laborieux 2.

La façon de bloquer les erreurs qui proviennent du système 1 est donc simple en principe : reconnaissez les signes indiquant que vous vous trouvez dans un champ de mines cognitif, ralentissez et mobilisez au maximum les facultĂ©s de votre système 2. Quelles leçons plus globales tirer de cette thĂ©orie de la perspective ? Les Ă©conomistes (notamment « l’Ă©cole de Chicago ») partent du principe que les consommateurs et citoyens sont rationnels et adhèrent aux règles de la logique, et qu’ainsi, ils prendront toujours la bonne dĂ©cision pour eux-mĂŞmes. Ă€ dĂ©faut, ils sont des anomalies et leur libertĂ© de choix ne peut ĂŞtre menacĂ©e, et, d’une certaine façon, « tant pis Â» pour ceux qui se trompent ou sont trompĂ©s. Kahneman, en tant qu’Ă©conomiste comportemental, est bien sĂ»r en dĂ©saccord et suggère que l’heuristique influence nos choix, qui sont eux-mĂŞmes en grande partie irrationnels ; nous avons besoin d’aide pour faire de meilleurs choix. L’Ă©cole de Chicago est composĂ©e de libertaires, qui veulent que le gouvernement reste Ă  l’Ă©cart et laisse les gens faire leurs propres choix, bons ou mauvais, tant qu’ils ne blessent pas les autres. Les Ă©conomistes comportementaux (Kahneman Ă  la suite de Thaler et Sunstein et de façon plus marquĂ©e) suggèrent que donner un coup de pouce aux gens est parfois nĂ©cessaire (rĂ©glementation, rĂ©daction de contrats plus clairs, vĂ©ritĂ© dans la publicitĂ©, etc.), voire moralement obligatoire.