Les deux vitesses de la pensée

(article basé sur l’ouvrage Thinking, fast and slow par Daniel Kahneman)

Nous traitions dans un précédent article de la théorie du Nudge et du paternalisme libertaire fondée par le Nobel d’économie Richard H. Thaler, c’est aujourd’hui un autre Nobel d’économie, Daniel Kahneman, qui reprend et approfondit l’un des aspects de l’économie comportementale survolé par Thaler, en s’attachant à détailler les éléments de biais du jugement évoqués dans Nudge à la lumière des deux systèmes de pensées identifiés chez l’être humain. Grossièrement résumé, ce livre traite des défauts de notre intuition dus aux raccourcis pris par notre pensée dans le système 1, la pensée rapide, et de leur poids sur le système 2, plus lent et rationnel mais non imperméable au préjugé et à l’erreur. Autrement dit, nous supposons certaines choses automatiquement sans y avoir soigneusement réfléchi, et ces hypothèses et suppositions, que Kahneman nomme heuristiques à la suite de Thaler, influencent chacune de nos décisions, des plus triviales aux plus cruciales. Comprendre leur fonctionnement est un premier pas nécessaire à la reprise du contrôle conscient de notre pensée et donc, de notre comportement.

Deux systèmes de pensée

Notre cerveau est composé de deux « personnages », l’un qui pense vite, le système 1, et l’autre qui pense lentement, le système 2. Le système 1 fonctionne automatiquement, intuitivement, involontairement et sans effort, comme lorsque nous conduisons, déchiffrons une expression faciale de colère ou nous souvenons notre âge. Le système 2 nécessite de ralentir, de délibérer, de résoudre des problèmes, de raisonner, de calculer, de se concentrer, de prendre en compte d’autres données et de ne pas tirer de conclusions rapides – comme lorsque nous résolvons un problème mathématique, choisissons où investir de l’argent ou remplissons un formulaire compliqué. Ces deux systèmes sont souvent en conflit l’un avec l’autre. Le système 1 fonctionne sur des heuristiques qui peuvent s’avérer imprécises. La mobilisation du système 2 nécessite un effort pour évaluer ces heuristiques et est sujet à l’erreur. Le but central de l’ouvrage est d’aider le lecteur à reconnaître les situations dans lesquelles des jugements erronés sont probables et à s’efforcer davantage d’éviter les erreurs importantes lorsque les enjeux sont élevés.

Attention et effort

D’un point de vue purement mécanique, penser lentement affecte notre corps (pupilles dilatées), notre attention (observation extérieure limitée) et notre énergie (ressources épuisées). Parce que penser lentement requiert un effort, nous sommes enclins à penser vite, à emprunter le chemin de la moindre résistance. La paresse est profondément ancrée dans notre nature. Nous pensons vite pour accomplir des tâches de routine et nous devons penser lentement pour gérer des tâches plus complexes. Un exemple simple de la vie de tous les jours : la pensée rapide dit : « J’ai besoin de faire des courses », la pensée lente ajoute « Plutôt que d’essayer de me rappeler quoi acheter, je note une liste de courses. »

Le système 2 est donc un contrôleur, mais un contrôleur paresseux. Un promeneur s’arrêtera de marcher si on lui demande d’accomplir une tâche mentale difficile. Calculer en marchant est un drain d’énergie. C’est pourquoi être interrompu pendant la concentration est frustrant, pourquoi nous oublions de manger lorsque nous nous concentrons sur un projet intéressant, pourquoi le multitâche pendant la conduite est dangereux et pourquoi résister à la tentation est beaucoup plus difficile lorsque nous sommes stressés. La maîtrise de soi diminue lorsque nous sommes fatigués, affamés ou épuisés mentalement. En raison de cette réalité, nous sommes enclins à laisser le système 1 prendre le relais de manière intuitive et impulsive. La plupart des gens ne prennent pas la peine de réfléchir réellement à leurs problèmes. L’intelligence n’est pourtant pas seulement la capacité de raisonner, c’est aussi la capacité de trouver des éléments pertinents dans la mémoire et de déployer l’attention si nécessaire pour les analyser. Accéder à la mémoire demande des efforts, mais en ne le faisant pas, nous sommes enclins à faire des erreurs de jugement.

Heuristiques de base : la machine associative

Heuristique # 1 : l’amorçage. L’exposition consciente et/ou subconsciente à une idée nous « amorce » à penser à une idée associée. Si nous avons parlé de nourriture, nous remplirons le vide de la devinette PA_N avec un I, mais si nous avons parlé d’oiseaux, nous le remplirons avec un O. Les éléments extérieurs à notre conscience peuvent influencer la façon dont nous pensons. Ces influences subtiles affectent également le comportement, c’est l’effet « idéomoteur ». Kahneman décrit de nombreuses expériences réalisées qui démontrent cet effet : les sujets exposés à des thématiques sur la vieillesse (même de façon détournée) marcheront inconsciemment plus lentement dans les instants qui suivent. En miroir les sujets invités à marcher plus lentement reconnaîtront plus facilement les mots liés à la vieillesse même si le lien est subtil. Les sujets à qui il est demandé de sourire trouveront les plaisanteries présentées plus drôles. Ceux à qui il est demandé de froncer les sourcils trouveront des images troublantes plus inquiétantes. C’est connu : si nous nous comportons d’une certaine façon, nos pensées et nos émotions finiront par rattraper notre attitude. Nous ne nous contentons pas de ressentir en fonction de notre attitude et des évènements, mais nous pouvons comportementaliser nos sentiments, les induire, volontairement ou inconsciemment. Ce qui est une porte ouverte aux erreurs de jugement : nous ne sommes pas des penseurs rationnels objectifs. D’innombrables facteurs influencent notre jugement, notre attitude et notre ressenti sans même que nous en soyons conscients.

Heuristique # 2 : l’aisance cognitive. Les idées et concepts qui sont plus simples à comprendre, plus familiers et/ou plus faciles à appréhender semblent plus « vrais » que ceux qui nécessitent une réflexion approfondie, sont nouveaux ou sont difficiles à cerner. Des « illusions prévisibles » se produisent inévitablement si un jugement est basé sur l’impression de facilité par opposition à un effort cognitif. Comment décidez-vous qu’une affirmation est vraie ? Si elle est fortement liée par la logique ou l’association à d’autres croyances ou préférences que vous détenez, ou provient d’une source en laquelle vous avez confiance et que vous aimez, vous ressentirez un sentiment de facilité cognitive qui influencera votre perspective sur ce qui est dit. C’est parce que les choses qui nous sont familières nous semblent « vraies » que les enseignants, annonceurs, spécialistes du marketing, tyrans autoritaires et même chefs de secte répètent sans cesse leur message. Le potentiel d’erreur de jugement est donc là encore important : si nous entendons un mensonge assez souvent, nous aurons tendance à le croire.

Heuristique # 3 : la cohérence associative. Pour donner un sens au monde, nous nous racontons des histoires sur ce qui se passe. Nous faisons des associations entre les événements surprenants, les circonstances et les événements réguliers. Plus ces événements s’intègrent dans nos histoires, plus ils semblent normaux. La surprise est un élément qui s’érode vite, et même le plus incroyable des hasards prend des airs de normalité dès sa seconde occurrence : les anomalies et les incongruités dans la vie quotidienne demandent des explications cohérentes, la cohérence seule suffisant parfois au détriment de la réalité ou de la logique. Kahneman prend cet exemple de la rencontre d’un ami dans un restaurant à l’étranger, et de la surprise causée par cette coïncidence. Lors d’une autre rencontre inattendue avec le même ami au théâtre quelques semaines plus tard, la surprise n’était presque plus au rendez-vous et dans l’esprit de Kahneman et de son épouse l’ami était devenu « celui que l’on rencontre tout le temps dans des endroits improbables ». Il deviendrait « normal » de le croiser à peu près n’importe où et n’importe quand. Souvent, ces explications que nous forgeons impliquent d’autres éléments de fausse causalité au profit de la cohérence et au détriment de la réalité : l’hypothèse de l’intention (« Cela devait arriver »), la causalité (« Ils sont sans-abri parce qu’ils sont paresseux ») ou l’interprétation de la providence (« Il y a une intention divine/ supérieure en tout »). Nous sommes évidemment prêts dès la naissance à absorber des impressions de causalité qui ne dépendent pas d’un raisonnement logique. Notre esprit est impatient d’identifier des agents agissant sur le monde, de leur attribuer des traits de personnalité et des intentions spécifiques, et de voir leurs actions comme exprimant des propensions individuelles. Nous introduisons l’intention et le libre arbitre là où il n’y en a pas, et confondons la causalité avec la corrélation, transformant – à tort – les coïncidences en statistiques.

Heuristique # 4 : le biais confirmatoire. Il s’agit de la tendance à rechercher et à trouver des preuves confirmant une croyance tout en négligeant les contre-exemples, à confirmer plutôt qu’à tenter de réfuter. Sauter aux conclusions est efficace si les conclusions sont susceptibles d’être correctes, si les coûts d’une erreur occasionnelle sont acceptables, et si le saut permet d’économiser beaucoup de temps et d’efforts. Sauter aux conclusions est risqué lorsque la situation n’est pas familière, que les enjeux sont élevés et qu’il n’y a pas de temps pour recueillir plus d’informations. Le système 1 remplit l’ambiguïté avec des suppositions et des interprétations automatiques qui correspondent à notre cohérence associative. Il considère rarement d’autres interprétations. Lorsque le système 1 fait une erreur, le système 2 est supposé intervenir pour nous ralentir et envisager des explications alternatives. Le système 1 est crédule, le système 2 est chargé de douter et de ne pas croire, mais le système 2 est parfois occupé et souvent paresseux. C’est pourquoi on est plus susceptible de se tromper ou d’être influencé lorsqu’on est fatigué ou préoccupé. Nous sommes également, par ce même biais, enclins à surestimer la probabilité d’événements improbables (peurs irrationnelles mais cohérentes avec notre histoire) et à accepter sans critique chaque suggestion d’autorité.

Heuristique # 5 : l’effet halo. C’est la tendance à aimer ou à ne pas aimer tout ce qui concerne une personne, un lieu, une idée, y compris ce que nous n’avons pas observé. L’émotion chaleureuse que nous ressentons envers une personne ou un lieu nous prédispose à aimer tout ce qui concerne cette personne ou ce lieu. Ainsi, une bonne première impression a tendance à colorer positivement les impressions négatives ultérieures et inversement, les premières impressions négatives peuvent colorer négativement les impressions positives ultérieures. Les premiers à exprimer leur opinion lors d’une réunion peuvent ainsi « amorcer » les opinions des autres. Une liste d’adjectifs positifs décrivant une personne influence la façon dont nous interprétons les adjectifs qui viennent plus loin dans la liste. De même, les adjectifs négatifs colorent les adjectifs positifs ultérieurs : si l’on nous dit « Alan est : intelligent, travailleur, sérieux, critique, opiniâtre, jaloux ; Ben est : jaloux, opiniâtre, sérieux, travailleur, intelligent », instinctivement notre perception d’Alan sera plus positive que celle que nous aurons de Ben, ce qui est une absurdité en l’absence d’autres informations puisque ce sont exactement les mêmes caractéristiques, mais dans un ordre différent. Ce qui ressort de ces exemples est que nos jugements intuitifs sont impulsifs, pas clairement réfléchis ou examinés de manière critique. Pour rappeler au système 1 de rester objectif, de ne pas sauter aux conclusions et de faire appel aux compétences évaluatives du système 2, Kahneman a inventé l’abréviation « COVERA », « Ce qu’On Voit Et Rien d’Autre ». Il l’applique par exemple en notant désormais à l’aveugle les copies de ses étudiants, et en notant séparément chaque question, après s’être rendu compte que même anonymes, le nombre de points qu’il accordait aux réponses suivantes étaient influencées de façon drastique par la note accordée à la première réponse. Dans sa cohérence associative personnelle de professeur, si l’étudiant avait brillamment répondu à la première question, il « ne pouvait pas » complètement se tromper ensuite, s’il avait échoué il ne « pouvait pas » réussir si brillamment etc. En d’autres termes, il est important de se méfier de ses impressions intuitives et de rester concentré sur les données solides dont nous disposons, de remettre en cause nos certitudes en basant nos croyances non sur des sentiments mais sur une pensée critique, et de faire une place au doute et à l’ambigüité.

Heuristique # 6 : le jugement. Le système 1 repose sur l’intuition, une évaluation de base de ce qui se passe à l’intérieur et à l’extérieur de l’esprit. Il est enclin à ignorer les « variables de type somme », c’est-à-dire que nous échouons souvent à calculer avec précision les sommes mais nous nous fions plutôt à des moyennes intuitives souvent peu fiables fondées sur des correspondances erronées. Nous évaluons automatiquement et inconsciemment les mérites relatifs d’un élément, d’un produit, d’une personne, (« il sourit beaucoup, donc il est gentil ») en faisant correspondre des traits qui n’ont pas vraiment de rapport. Nous sommes de même enclins à évaluer une décision ou une valeur sans distinguer les variables les plus importantes. C’est ce que l’on appelle l’approche de « la chevrotine mentale ». Ces évaluations de base peuvent facilement remplacer le travail acharné que le système 2 doit faire pour porter des jugements.

Heuristique # 7 : la substitution. Face à un problème, une question ou une décision déroutante, nous nous facilitons la vie en répondant à une question de substitution plus simple. Au lieu d’estimer la probabilité d’un certain résultat complexe, nous nous appuyons sur une estimation d’un autre résultat moins complexe. Au lieu de se débattre avec la question philosophique « Qu’est-ce que le bonheur ? » nous répondons à la question, plus simple : « Quelle est mon humeur en ce moment ? » ou « qu’est-ce qui me ferait plaisir aujourd’hui ? ». Même si les personnes très anxieuses activent plus souvent le système 2, évaluant presque obsessionnellement chaque décision, peur ou risque, il est surprenant de voir avec quel succès leur système 1 fonctionne. Même les anxieux chroniques parviennent en général sans effort apparent à maintenir une activité « normale » en-dehors de leurs sujets d’angoisse : ils marchent, mangent, dorment, respirent, font des choix, portent des jugements, font confiance et s’engagent dans des entreprises sans crainte, inquiétude ou anxiété. Pourquoi ? Parce qu’ils remplacent les problèmes complexes par des problèmes plus faciles. Le potentiel d’erreur est là encore important, puisque nous tendons à refuser ou être incapables de répondre à la question la plus difficile, qui est parfois pourtant parfois la plus vitale.

Heuristique # 8 : l’affect. Les émotions influencent le jugement. Les gens laissent leurs goûts et dégoûts déterminer leurs croyances sur le monde. Si je méprise une personne publique (écrivain, politique…), je jugerai son discours en fonction de ce mépris et ne reconnaîtrai pas son éventuelle qualité à ce moment M. Le potentiel d’erreur évident est que nous pouvons laisser nos préférences émotionnelles obscurcir notre jugement et sous-estimer ou surestimer les risques et les avantages.

Les grands biais cognitifs

De ces heuristiques fondamentales découlent de nombreux biais issu de leurs diverses formes.

Incompétence statistique

Heuristique # 9 : la loi des petits nombres. Nos cerveaux ont du mal à appréhender les statistiques. Les petits échantillons sont plus sujets à produire des résultats extrêmes que les grands échantillons, mais nous avons tendance à accorder plus de crédit aux résultats des petits échantillons que ne le justifient les statistiques. Le système 1 est impressionné par le résultat d’échantillons réduits mais ne devrait pas l’être, ces derniers n’étant pas représentatifs de situations plus globales. Nous nous trompons lorsque nous usons de notre intuition plutôt que de calculer réellement. Nous prenons ainsi des décisions fondées sur des données insuffisantes.

Heuristique # 10 : la crédulité. Le système 1 supprime l’ambiguïté et le doute en construisant des histoires cohérentes à partir de simples fragments de données. Le système 2 est notre sceptique intérieur, pesant ces histoires, en doutant et suspendant le jugement. Mais parce que l’incrédulité nécessite beaucoup de travail, le système 2 échoue parfois à faire son travail et nous laisse basculer dans la certitude. Nous sommes programmés pour croire. Parce que nos cerveaux sont des dispositifs de reconnaissance de formes, la machine associative recherche des causes, et nous avons tendance à percevoir de la causalité là où il n’en existe pas. Les régularités se produisent au hasard. Un lancer de pièces produisant 50 « faces » d’affilée ne semble pas naturel, mais si l’on devait lancer une pièce des milliards et des milliards de fois, il y a de fortes chances que 50 faces d’affilée finissent par sortir. Lorsque nous détectons ce qui semble être une règle, nous rejetons rapidement l’idée que le processus est vraiment aléatoire. Attribuer des bizarreries au hasard demande du travail. Il est plus facile de les attribuer à une force intelligente dans l’univers ou à une loi physique même méconnue. Kahneman conseille d’accepter que différents résultats soient dus à une hasard aveugle. Il y a beaucoup d’évènements dans ce monde dus au hasard et ne se prêtant pas à des explications, même si notre cerveau déteste cette idée. Cessons d’établir des connexions là où il n’en existe pas.

Heuristique # 11 : l’effet d’ancrage. Pendant de l’amorçage qui en joue, il s’agit du phénomène subconscient consistant à faire des estimations incorrectes en raison de quantités ou qualités précédemment évoquées. Si l’on vous demande si Ghandi avait plus de 100 ans à sa mort, vous estimerez l’âge de sa mort plus élevé que si l’on vous avait précédemment demandé s’il était mort à 35 ans. C’est un ajustement influencé par une information pourtant totalement non-pertinente. Un exemple courant est le montant des dommages et intérêts attribués dans certains types de procès, qui sont ancrés à des montant astronomiques du simple fait de la demande aléatoire des avocats. Le résultat est que bien que revus à la baisse, ils sont dans la majorité des cas largement supérieurs à ce qui aurait été attribué à défaut de demande chiffrée, en se basant simplement sur les textes de loi et les faits.

Disponibilité, émotion et risque

Heuristique # 12 : la disponibilité. Lorsqu’il est demandé d’estimer des chiffres comme la fréquence des divorces à Hollywood, le nombre de plantes dangereuses ou le nombre de décès par accident d’avion, la facilité avec laquelle nous récupérons des exemples dans notre mémoire influence notre estimation. Nous sommes enclins à surestimer les occurrences de faits pour lesquels nous trouvons le plus facilement des exemples. Et ces exemples sont d’autant plus faciles à convoquer que nous en avons une expérience personnelle ou émotionnelle : celui qui a été agressé surestimera la fréquence des agressions, celui qui est exposé à un reportage sur les fusillades dans les écoles surestimera le nombre de crimes commis avec une arme à feu, et celui qui se charge de corvées domestiques surestimera le pourcentage des tâches ménagères dont il se charge seul (quand les deux parties d’un couple supposent qu’elles font 70% du travail à la maison, quelqu’un a pourtant forcément tort !) Une personne qui a vécu une tragédie surestimera le potentiel de risque, de danger d’un univers hostile. Une personne non exposée à la violence sous-estimera le danger de certaines situations. Lorsqu’un ami est atteint d’un cancer, nous nous faisons examiner. Lorsque nous n’avons jamais été exposé à cette maladie, nous ignorons le risque.

Heuristique # 13 : les cascades de disponibilité. À la suite de notre biais de disponibilité de l’information (au moins en apparence), lorsque les nouvelles s’accumulent et que ces exemples disponibles se multiplient même artificiellement, nos sens statistiques se déforment encore plus. Un récent accident d’avion nous fait penser que les voyages en avion sont plus dangereux que les voyages en voiture, ce que Sunstein appelait la « négligence de la probabilité ». Le traitement médiatique d’évènements comme le terrorisme ou la gestion du risque par les politiques publiques nous font surestimer les risques et intensifient nos réactions émotionnelles, influençant par là même nos décisions. Le potentiel d’erreur est important, nous poussant à réagir de manière excessive à des problèmes mineurs simplement parce que nous entendons un nombre disproportionné de nouvelles négatives en rapport avec ceux-ci.

Heuristique # 14 : la représentativité. Semblable au profilage ou aux stéréotypes, la représentativité est la tendance intuitive à porter des jugements en fonction de la similitude d’un élément avec quelque chose que nous aimons ou connaissons, sans prendre en considération d’autres facteurs : probabilité (vraisemblance), statistiques (taux de base) ou taille des échantillonnages. Ce qui peut poser problème dans la maîtrise consciente de cette heuristique est que la plupart des stéréotypes portent une part de vérité, et qu’il convient de doser nos jugements pour pas surestimer ou sous-estimer les statistiques (et donc les risques ou opportunités) réelles : les personnes souriantes sont souvent vraiment sympathiques, mais cette personne n’est pas forcément sympathique pare qu’elle sourit beaucoup, ou encore les hommes jeunes ont plus de chance d’être agressifs et/ou violents, mais cet homme jeune dans la même rame de métro que moi ne va pas nécessairement m’agresser. Pour discipliner notre intuition paresseuse, nous devons porter des jugements basés sur la probabilité et les taux de base, et remettre en question notre analyse des preuves utilisées pour formuler notre hypothèse en premier lieu. Il faut s’attacher à cesser d’évaluer une personne, un lieu ou une décision en fonction de leur ressemblance avec quelque chose d’autre sans tenir compte d’autres facteurs concrets.

Heuristique # 15 : l’erreur de conjonction. Après avoir été « amorcés » avec la description précise d’une personne fictive (Linda), des sujets devaient sélectionner plusieurs affirmations qu’ils pensaient vraies la concernant. La plupart ont choisi une histoire plausible plutôt qu’une histoire probable, en sélectionnant par exemple « Laura est employée de banque ET féministe » plutôt que « Laura est employée de banque ». Pourtant, statistiquement, une seule caractéristique a nécessairement plus de chance (probabilité) d’être vraie que deux. Les notions de cohérence, de plausibilité et de probabilité sont facilement confondues, et nous négligeons le fait concret que plus nous ajoutons de détails à une évaluation, une prévision ou un jugement, moins ils sont susceptibles d’être probables. Pourquoi ? Le système 1 néglige la logique en faveur d’une histoire plausible, crédible, rattachable.

Heuristique # 16 : la négligence des statistiques. Nous privilégions les histoires avec pouvoir explicatif sur les simples données. L’exemple fourni est celui d’un accident causé par un taxi dans une ville ou deux compagnies existent, l’une avec des taxis verts (85%), l’autre avec des taxis bleus (15%). Un témoin, testé et fiable à seulement 80%, déclare avoir vu un taxi bleu causer l’accident. La probabilité que le taxi soit bleu est évaluée par les sujets, logiquement, à 15% avec la seule information statistique, mais à 80% avec les deux informations, alors que la réalité statistique serait de 41% compte-tenu du défaut de fiabilité du témoin. Lorsque des données purement statistiques sont fournies, nous faisons généralement des inférences précises. Mais lorsque ces données statistiques sont accompagnées d’une histoire individuelle pouvant satisfaire notre besoin de causalité et notre machine associative, nous avons tendance à suivre la narration plutôt que les statistiques.

Heuristique # 17 : la régression vers la moyenne. La plupart des gens aiment attacher des interprétations causales aux fluctuations des processus aléatoires. La régression vers la moyenne est une conséquence mathématique inévitable du fait que le hasard joue un rôle dans le résultat : un instructeur de l’armée à qui on expliquait que la récompense génère plus d’efficacité que la punition refusait ces statistiques réelles par son expérience personnelle, qu’un cadet félicité était moins performant lors de son second saut et qu’un autre réprimandé après le premier raté était plus efficace ensuite. Il refusait la simple réalité de la régression vers la moyenne, qui fait que la probabilité d’un saut exceptionnellement bon ou mauvais est faible et qu’il est naturel de ne pas réussir parfaitement ou totalement échouer deux fois d’affilée. Son intervention n’avait en réalité probablement eu aucun effet dans les deux cas, et les résultats auraient été exactement les même sans celle-ci.

Heuristique # 18 : les prédictions intuitives. Les conclusions que nous tirons avec une forte intuition (système 1) alimentent l’excès de confiance. Ce n’est pas parce qu’on « le sent bien » que cela sera positif. Une start-up a statistiquement peu de chance de réussir aujourd’hui : notre évaluation des probabilités de réussite de n’importe quelle start-up, même fondée sur les meilleures idées par les meilleurs entrepreneurs, devraient être au mieux moyenne. C’est pourtant rarement le cas. Nous avons besoin du système 2 pour ralentir et examiner notre intuition, estimer les probabilités de base, considérer la régression à la moyenne, évaluer la qualité des preuves, etc. Les prédictions intuitives et la volonté de prédire des événements rares à partir de preuves faibles sont toutes deux des manifestations du Système 1. Le potentiel d’erreur est bien sûr une confiance injustifiée en une prédiction alors que nous sommes en fait dans l’erreur.

L’excès de confiance en soi

L’illusion de la compréhension

Heuristique # 19 : l’illusion narrative. Dans notre tentative continue de donner un sens au monde (cohérence associative et effet halo), nous nous persuadons que nous le comprenons et nous créons souvent des histoires rétrospectives erronées du passé qui façonnent nos visions du monde actuel et nos attentes pour l’avenir. Nous attribuons des rôles plus importants au talent, à la stupidité et aux intentions qu’au hasard. Notre conviction réconfortante que le monde a du sens repose sur une base solide : notre capacité presque illimitée à ignorer notre ignorance. Cette heuristique est plus perceptible dans l’idée d’inévitabilité rétrospective (la crise financière était « inévitable », tel évènement « devait arriver »). Ce qui entraîne plus précisément :

Heuristique # 20 : le biais rétrospectif. Nous pensons que nous comprenons le passé, ce qui implique que l’avenir devrait être connaissable, alors que les faits nous montrent pourtant que ce n’est pas le cas. Nos intuitions et prémonitions semblent réelles après coup : une fois qu’un événement a eu lieu, nous oublions ce que nous pensions avant cet événement, avant de changer d’avis. Avant 2008, personne n’a réagi malgré les signaux identifiés a posteriori pouvant avertir d’un possible crash économique. Après le crash et encore aujourd’hui, on entend pourtant que cette situation était « inévitable » et qu’elle avait été prédite. Les intuitions des concernés ont été réoutillées pour devenir des preuves. La tendance à réviser l’histoire de ses croyances à la lumière de ce qui s’est réellement produit engendre une solide illusion cognitive. Nous sommes enclins à blâmer les décideurs pour de bonnes décisions qui ont mal fonctionné et des comportements pourtant rationnels sur le moment, et à leur accorder trop peu de crédit pour des actions réussies, à la lumière de situations analysées après coup. Des actions qui paraissaient prudentes peuvent sembler irresponsablement négligentes avec le recul.

L’illusion de la légitimité

Heuristique # 21 : l’illusion de la validité. Nous croyons parfois en toute bonne foi que nos opinions, prévisions et points de vue sont plus valables que les faits s’y opposant. La confiance subjective dans un jugement ou une idée n’est pas une évaluation raisonnée de la probabilité que ce jugement soit correct, que cette idée soit pertinente. La confiance en soi est un sentiment qui reflète la cohérence de l’information et la facilité cognitive de son traitement. Plusieurs facteurs renforcent cet excès de confiance : la vanité, l’affiliation avec des pairs partageant les mêmes idées, la surévaluation de nos antécédents de succès et la minimisation de nos échecs…

Heuristique # 22 : l’illusion de talent. La précédente découle souvent de celle-ci et des suivantes : Nous négligeons les informations statistiques et privilégions nos présentiments et notre conception de la réussite sur les faits. Nous pensons que nous (ou les personnes sur lesquelles nous parions) ferons ou comprenons mieux que les statistiques, que nous adaptons ou ignorons pour maintenir notre cohérence narrative.

Heuristique # 23 : l’illusion de l’expertise. L’intuition signifie savoir quelque chose sans savoir comment nous le savons. La compréhension de Kahneman de cette qualité est que l’intuition est vraiment une question de reconnaissance, que notre familiarité, notre connaissance ou habitude d’une situation nous pousse rapidement aux jugements. Les joueurs d’échecs « voient » la partie à venir, les pompiers « savent » quand un bâtiment est sur le point de s’effondrer, les marchands d’art « identifient » les marques de contrefaçon, les amis « connaissent » leurs amis, même éloignés… Par extension, les enfants se proclament experts en jeux vidéo, les automobilistes en conduite, les chefs en cuisine… Ces « intuitions », relevant à la fois de l’illusion de l’expertise et de celle du talent, doivent toutefois être nuancées et rapportées à leur nature réelle, c’est-à-dire une reconnaissance immédiate des formes connues ou déjà expérimentées. Kahneman est ainsi sceptique vis-à-vis des « experts », car ils négligent souvent ce qu’ils ne savent pas. Kahneman fait confiance aux experts lorsque deux conditions sont remplies : l’expert se trouve dans un environnement suffisamment connu et stable pour être prévisible, et l’expert, par une pratique prolongée et avec lucidité, tient compte des irrégularités et de sa propre ignorance.

L’excès d’optimisme

Heuristique # 24 : l’erreur de planification. Entreprendre un projet risqué – litige, guerre, ouverture d’un restaurant – en ne se focalisant que sur son succès sans considérer sérieusement les scenarios d’échecs, de difficultés, de limites qui peuvent le jalonner est une erreur commune, souvent motivée par l’excès d’enthousiasme et de confiance en soi. Si nous consultons d’autres personnes engagées dans des projets similaires, nous aurons une vue extérieure et objective sur le projet, mais nous avons tendance à ne rechercher dans ces situations que les avis « d’experts » allant dans le sens de notre idée préconçue (cohérence associative et biais confirmatoire). Les dépassements de coûts, les délais manqués, la perte d’intérêt, l’urgence décroissante résultent tous d’une mauvaise planification. En d’autres termes, des projets grandioses mal planifiés finiront par échouer, et le risque principal est une persévérance irrationnelle dans des idées erronées ou des projets voués à l’échec.

Heuristique # 25 : le biais de l’optimisme. C’est le moteur du capitalisme. Nous sommes enclins à négliger les faits, les échecs des autres et ce que nous ne savons pas en faveur de ce que nous savons et de notre compétence. Nous n’apprécions pas l’incertitude de notre environnement. Nous pensons que le résultat de nos réalisations est entièrement entre nos mains tout en négligeant le hasard. Nous souffrons de l’illusion de contrôle, et d’une négligence la concurrence et des faits. Les experts qui reconnaissent toute l’étendue de leur ignorance peuvent s’attendre à être remplacés par des concurrents plus confiants, qui sont mieux à même de gagner la confiance des clients. L’incertitude est devenue un signe de faiblesse, nous nous tournons donc vers des experts plus assurés, en ignorant la possibilité qu’ils se trompent.

Faire le bon choix

Pour Kahneman, la principale faille dans le raisonnement des économistes, c’est la définition figée de l’« écône », cette entité consommatrice qui pense et agi d’une seule façon, rationnelle et productive.

L’omission de la subjectivité

Heuristique # 26 : les erreurs de Bernoulli. Nous pensons souvent a priori qu’un objet n’a qu’une valeur objective intrinsèque. Un million de dollars vaut un million de dollars, non ? Faux : faire apparaître par magie sur le compte en banque d’une personne pauvre un million de dollars serait fabuleux, mais réduire par magie le compte en banque d’un milliardaire à un million de dollars serait une tragédie pour lui. L’un a gagné, l’autre a perdu. Les économistes ont commis une erreur en ne tenant pas compte de l’état psychologique d’une personne en ce qui concerne la valeur, le risque, l’anxiété ou le bonheur. L’économiste du XVIIIème siècle Bernoulli pensait que l’argent avait une utilité (valeur fixe), qui variait bien en fonction du référentiel (par exemple fortune déjà possédée), mais il n’a pas pris en considération le point de référence individuel (par exemple que chez telle personne l’aversion aux pertes, sur laquelle nous reviendrons, est supérieure à l’appât du gain). Le potentiel d’erreur est celui d’une prise de décisions fondée sur la logique pure sans tenir compte des états psychologiques.

Heuristique # 27 : cécité induite par la théorie. Une fois que vous avez développé ou accepté une théorie et l’avez utilisée comme outil dans votre réflexion, il est extrêmement difficile de remarquer (ou d’admettre) ses défauts. Si vous tombez sur une observation qui ne semble pas correspondre au modèle, vous supposez qu’il doit y avoir une explication rationnelle ne le remettant pas en cause (exception, erreur humaine dans le calcul…). Lorsque les œillères tombent, l’erreur précédemment rationnalisée semble absurde et la véritable percée se produit lorsque vous ne comprenez plus comment vous avez pu ne pas vous rendre à l’évidence.

Heuristique # 28 : La théorie des perspectives. La renommée de Kahneman est fondée sur la théorie des perspectives (pour laquelle il a remporté le prix Nobel d’économie). Les économistes depuis Bernoulli croyaient que la valeur (réelle ou relative) de l’argent était le seul déterminant pour expliquer pourquoi les gens achètent, dépensent et parient comme ils le font. La théorie de la perspective a changé cela en combinant trois variations de perspective :

  • la valeur attribuée à l’argent est moins importante que l’expérience subjective de changements dans la richesse. En d’autres termes, la perte ou le gain de 500 € est psychologiquement positif ou négatif selon un point de référence, l’argent déjà possédé
  • notre sensibilité aux changements de richesse est elle-même variable : perdre 100 € fait plus mal si vous commencez avec 200 € que si vous commencez avec 1000 €
  • nous détestons perdre de l’argent. La pensée du système 1 compare le bénéfice psychologique du gain au coût psychologique de la perte et la peur de la perte l’emporte généralement.

Heuristique # 29 : l’effet de dotation. Un objet que nous possédons et utilisons est plus précieux pour nous qu’un objet que nous ne possédons pas ou n’utilisons pas. Ces objets sont dotés de sens et nous ne voulons pas nous en séparer pour deux raisons : nous détestons la perte (heuristique suivante) et nous avons une histoire avec ces objets. Ainsi, nous surestimerons leur valeur, et sous-estimerons celle d’objets que nous n’utilisons pas ou auxquels nous n’associons pas de valeur sentimentale.

Heuristique # 30 : l’aversion aux pertes. Les gens fournissent plus d’efforts pour éviter les pertes que pour réaliser des gains. Les négociations contractuelles s’arrêtent lorsqu’une partie a le sentiment de faire plus de concessions (pertes) que son opposant. On travaille plus dur à éviter la douleur qu’à atteindre le plaisir. Même les animaux se battent plus férocement pour maintenir le territoire que pour l’étendre. Le risque est de sous-estimer notre propre attitude et celle des autres envers la perte et le gain et de se focaliser sur la supposée avidité des consommateurs plutôt que sur leur aversion aux pertes. À l’échelle individuelle, le potentiel d’erreur est de passer à côté d’une victoire certaine afin d’éviter ce que nous pensons être une perte possible même lorsque les chances sont statistiquement favorables au succès.

La perception du risque

Le « Fourfold Pattern » (littéralement « schéma à 4 entrées ») combine trois heuristiques permettant de clarifier et préciser la perception du risque et ses conséquences concrètes, par exemple dans le cadre de négociations juridiques durant des poursuites :

Heuristique # 31 : l’effet de possibilité. Lorsque des résultats hautement improbables sont pondérés de manière disproportionnée, plus qu’ils ne le méritent, nous mobilisons l’heuristique de l’effet de possibilité, comme lorsque nous achetons des billets de loterie.

Heuristique # 32 : l’effet de certitude. Les résultats qui sont presque certains sont pourtant moins considérés que leur probabilité ne le justifie. Dans le cadre d’un procès par exemple, la plupart des plaignant accepteront un accord (certitude) moins intéressant que les possibilités du procès, même si celui-ci présente une probabilité de succès de 95%.

Heuristique # 33 : le principe d’anticipation. Les deux heuristiques ci-dessus ont ceci en commun que le poids décisionnel que les gens attribuent aux résultats ne sont pas identiques aux probabilités de ces résultats. Des évènements peu probables sont surévalués, soit par espoir (loterie) soit par crainte du risque (accords désavantageux en justice).

Le Fourfold Pattern combine ainsi ces heuristiques pour produire un schéma type des décisions prises dans le cadre de procès civils, fondé sur l’étude réelle de ces comportements même si certains peuvent nous paraître, à froid, illogiques :

Cela signifie que les gens attachent des valeurs et un poids décisionnel aux notions de gains et pertes plutôt qu’à la somme elle-même, et le poids décisionnel attribué aux possibles résultats sont différents de leur probabilité. Les gens sont réticents au risque lorsqu’ils envisagent les perspectives d’un gain important. Ils verrouillent un gain sûr et acceptent une valeur du pari inférieure à celle attendue. Lorsque le résultat espéré est extrêmement important, comme un billet de loterie, l’acheteur est indifférent au fait que ses chances de gagner sont extrêmement faibles. Sans le ticket, ils ne peuvent pas gagner, mais avec le ticket, ils peuvent au moins rêver. Cela explique pourquoi les gens souscrivent des assurances. Nous paierons une assurance parce que nous achetons en réalité une protection et une tranquillité d’esprit. Cela explique aussi certains « paris désespérés » (en médecine, en finance…) : la plupart des gens accepteront une forte probabilité d’aggraver les choses, pour avoir une légère lueur d’espoir d’éviter la perte à laquelle ils sont confrontés. Ce type de prise de risque peut simplement transformer une mauvaise situation en catastrophe.

Heuristique # 34 : la surestimation de la probabilité des événements rares. Il serait plus logique de prêter attention aux événements susceptibles de se produire (pluie demain) qu’aux événements improbables (attentats terroristes, astéroïdes, maladie en phase terminale, inondations et glissements de terrain…). Pourtant nous avons tendance à surestimer les probabilités d’événements improbables et à les surpondérer dans nos décisions. Cette heuristique s’associe à la cascade de disponibilité (#13) et l’heuristique de l’aisance cognitive (# 2) ci-dessus. Nous sommes plus susceptibles de basculer vers une décision si les données sont « voyantes », marquantes, en accordant plus d’importance à leur visibilité et au ton du message transmis qu’à la probabilité de survenance.

Heuristique # 35 : cadrage gros plan vs cadrage grand angle. La plupart d’entre nous sommes si réticents au risque que nous évitons tous les paris. C’est une erreur, dit Kahneman, car certains paris sont clairement en notre faveur et en les refusant, nous perdons de l’argent. Une façon de réduire l’aversion au risque est de penser de manière large (ce qu’il appelle le « cadrage grand angle »), en examinant les gains globaux sur de nombreux petits paris. Penser de façon étroite, ne regarder que les pertes ou gains à court terme (le cadrage gros plan), nous paralyse. Par exemple, on propose ces deux décisions :

1 : Choisissez entre :

A : un gain assuré de 240 €
B. 25% de chance de gagner 1 000 € (et donc 75% de ne rien gagner)

  1. Choisissez entre :

C : une perte assurée de 750 €
D : 75% de chances de perdre 1 000 € (et donc 25% de ne rien perdre).

La plupart des gens choisissent instinctivement la combinaison AD, de par leur cadrage gros plan sur chaque décision. Pourtant, si l’on combine en cadrage grand angle les réponses gagnante (AD) et perdante (BC), on obtient :

AD : 25% de chance de gagner 240 € et 75 % de chances de perdre 760 €
BC : 25% de chances de gagner 250 € et 75% de chances de perdre 750 €

Les probabilités favorables sont donc supérieures dans la combinaison perdante et le cadrage grand angle nous permet seul de nous en apercevoir au-delà de notre réflexe « espoir de gain / aversion aux pertes ». Mais penser globalement n’est pas intuitif. C’est une tâche système 2 qui demande du travail. Nous sommes donc câblés par le système 1 pour penser économiquement de façon irrationnelle.

La comptabilité mentale

Beaucoup d’entre nous ont un Système 1 « comptable » dans la tête qui « compte les points » non seulement des gains et pertes financiers potentiels d’une transaction, mais aussi des risques émotionnels, des récompenses et des regrets possibles de nos décisions financières. Les émotions que les gens attachent à l’état de leurs comptes mentaux ne sont pas reconnues dans la théorie économique standard des écônes. Cette comptabilité mentale est pourtant issue de trois heuristiques incontournables :

Heuristique # 36 : l’effet de disposition. Nous sommes souvent disposés à vendre des actions rémunératrices car cela nous fait nous prendre pour des investisseurs avisés, et moins disposés à vendre des actions en péril parce que c’est un aveu de défaite dans notre dossier mental. C’est irrationnel car nous gagnerions plus d’argent en vendant les perdants et en nous accrochant aux gagnants.

Heuristique # 37 : le sophisme du coût irrécupérable. Nous avons tendance à nous maintenir dans des situations négatives non seulement par effet de disposition, mais également par obstination dans notre aversion aux pertes en considérant que renoncer = perte du temps, de l’argent, de l’énergie déjà investis, plutôt que de les rediriger ailleurs. C’est l’heuristique responsable de notre maintien dans des mariages abusifs, dans des carrières détestées, dans des logements jamais terminés…

Heuristique # 38 : la peur du regret. Dans un exemple, on nous dit que Paul avait des actions de la société A et a envisagé de se tourner plutôt vers la société B, mais ne l’a pas fait. Georges quant à lui avait des actions de la société B, mais les a vendues pour se tourner vers la société A. Au final, la société B aurait rapporté 1 200 € supplémentaires cette année si elle avait été choisie par les deux hommes. Chacun d’eux en est au même point, pourtant 92% des sujets interrogés répondent « Georges » à la question « lequel des deux a le plus de regrets ? ». On regrette moins ce que l’on subit (inaction) que ce que l’on cause par notre action. Le regret est une émotion que nous connaissons mais dont nous surévaluons la force, et surtout une punition que nous nous infligeons, qui nous pousse à l’inertie.

Le manque comparatif

Heuristique # 39 : le défaut d’évaluations conjointes. Nous prenons des décisions différemment lorsqu’on nous demande de les considérer isolément plutôt qu’en comparaison avec d’autres scénarios proches. Par exemple, une victime blessée dans un braquage d’épicerie se verra attribuer une compensation plus élevée lorsqu’il y a des facteurs émotionnels impliqués (la victime visitait ce magasin pour la première fois suite à la fermeture exceptionnelle de son épicerie habituelle), mais recevra une compensation plus faible si elle est blessée alors qu’elle se trouve dans son magasin habituel. Pourtant lorsque les deux cas sont soumis conjointement, nous réalisons que le lieu est insignifiant et nous égalisons le montant de l’indemnisation accordée. Les évaluations conjointes mettent en perspective nos biais émotionnels comme l’injustice supposée et nous permettent plus d’objectivité. Nous devrions toujours faire des achats comparatifs, comparer les peines infligées pour les crimes, comparer les salaires globaux pour différents emplois… Ne pas le faire en surestimant notre capacité de jugement immédiat limite notre exposition à des normes utiles.

Heuristique # 40 : l’effet de cadrage. La manière dont un problème est défini détermine nos choix plus qu’elle ne le devrait. Par exemple, les médecins évalueront les probabilités de réussite d’une intervention à « un taux de survie à un mois de 90% » plutôt qu’à « 10% de taux de mortalité à un mois ». Les deux phrases signifient la même chose statistiquement, mais le cadre de la « survie » a une valeur émotionnelle plus grande que le taux de mortalité. Le sens d’une phrase est ce qui se passe dans votre mécanisme associatif pendant que vous le comprenez. En termes d’associations (comment le Système 1 y réagit), les deux phrases ont réellement des significations différentes. Le recadrage est difficile et le système 2 est paresseux, et nous nous targuons d’objectivité sans tenir compte des éléments influençant notre compréhension sans que nous en soyons conscients.

Les deux facettes du moi

Nous avons chacun un moi « agissant » et un moi « se souvenant ». Ce dernier a généralement la priorité sur le premier, ce qui engendre trois heuristiques primordiales dans l’évaluation de notre compréhension :

Heuristique # 41 : l’illusion mémorielle. Je peux vivre 15 jours de bonheur en vacances, mais si un seul évènement négatif survient, j’aurai tendance à me souvenir de ces vacances comme négatives. Ma mémoire et mes affects l’emportent sur mon expérience réelle. De même, après un divorce douloureux, je ne me souviendrai que des mauvais moments et pas de ceux ayant amené au mariage, et je minimiserai les bons moments. C’est un effet de substitution (heuristique # 7) qui nous fait croire qu’une expérience passée a pu être intégralement ruinée par un seul élément. L’expérience de soi n’a pas de voix.

Heuristique # 42 : la « peak-end rule » (règle du « pic de fin »). La fin d’une expérience semble avoir plus de poids dans notre mémoire que la manière dont une expérience a été vécue. Si une situation douloureuse ou angoissante se termine bien, ou inversement si des vacances de rêve se terminent mal, mon souvenir sera coloré par la fin et non par l’ensemble de l’expérience. Corolaire de l’heuristique précédente, la règle du pic de fin est un raccourci pour se souvenir uniquement de la façon dont une expérience s’est ressentie à sa fin, pas au pire ou au meilleur moment.

Heuristique # 43 : la négligence de la durée. Autre corolaire des deux facettes du moi : la durée d’une expérience agréable ou désagréable ne semble pas influencer le souvenir de la douleur ou du plaisir de l’expérience.

Conséquences étendues

Heuristique # 44 : la fragmentation narrative. Lorsque nous évaluons dans quelle mesure notre vie et celle des autres a été vécue, nous devrions considérer l’ensemble du récit et pas seulement la fin. Mais à cause des trois heuristiques précédentes, nous sommes enclins par exemple à dévaluer une vie longue, sacrificielle et généreuse si à la fin (ou même après la mort) nous découvrons des épisodes d’égoïsme chez la personne concernée. Une histoire se construit d’événements significatifs et de moments mémorables, pas du temps qui passe. Kahneman prend l’exemple de la Traviata, où personne ne se préoccupe du jeune âge auquel meurt Violette et où deux ou trois ans de plus de bonheur n’auraient fait aucune différence pour les spectateurs, alors que si son amant avait échoué à la retrouver pour ses dix dernières minutes l’intégralité de l’expérience, ou en tout cas de sa perception, aurait été différente. La négligence de la durée est normale dans une histoire, et la fin définit souvent son caractère, ce qui renforce l’aversion au risque et de nombreuses autres heuristiques (peur de gâcher des années d’efforts pour une seule mauvaise décision, de ruiner sa réputation…)

Heuristique # 45 : le bien-être expérimenté. La plupart des théories économiques ne prennent en compte que l’écône et sa rationalité dans l’évaluation du bien-être du public. Pourtant, une personne coincée dans la circulation peut toujours être heureuse et de bonne humeur parce qu’elle est amoureuse et pense à son partenaire, et une personne en deuil restera malheureuse même en recevant une augmentation. Il y a une asymétrie entre la valeur que le moi se souvenant accorde à certains facteurs et celle, réelle, de l’expérience elle-même (par exemple, le moi se souvenant accordera de la valeur à une bonne éducation, mais la plupart des études montrent que les gens plus diplômés sont souvent plus stressés, déprimés ou malheureux au travail).

Heuristique #46 : le biais de prévision affective. Quel facteur conduit à une vie plus heureuse : la longévité ou les expériences ? Une vie de 20 ans avec de nombreuses expériences heureuses serait-elle meilleure qu’une vie de 60 ans avec de nombreuses expériences terribles ? Que préférez-vous : vivre heureux ou vivre vieux ? Beaucoup choisissent instinctivement « le bonheur », mais la notion est vague et nous sommes de piètres voyants concernant ce qui nous rendra heureux. En témoigne le maintien du nombre de mariage malgré les taux connus de divorce. Lorsqu’on nous pose la très difficile question « Dans l’ensemble, à quel point votre vie est-elle heureuse ? » nous substituons une question plus simple, « À quel point suis-je heureux en ce moment ? » (heuristique # 7). Les réponses aux questions de bien-être mondial doivent être prises avec des pincettes. Les gens prennent des décisions en fonction de ce qui les rendra heureux à l’avenir selon eux, mais une fois l’objectif atteint, le bonheur dure rarement. On peut alors s’en satisfaire (longévité) ou passer à autre chose (expérience), mais l’état de bonheur n’est jamais stable.

Heuristique # 47 : l’illusion de la concentration. « Rien dans la vie n’est aussi important que vous le pensez au moment où vous y pensez ». Cela signifie que lorsqu’on nous demande d’évaluer une décision, notre satisfaction à l’égard de la vie ou une préférence, nous nous trompons si nous nous concentrons sur cette seule question. Notre réponse à la question : « Qu’est-ce qui vous rendrait heureux ? » dépend de nombreux facteurs et tient rarement en un facteur déterminant. Pourtant, les gens se concentrent régulièrement sur un problème – le revenu actuel, la météo actuelle, la santé, les relations, la pollution actuelles etc. – et ignorent d’autres facteurs importants. Nous exagérons l’effet d’un achat important ou d’un changement de circonstances sur notre bien-être futur. Des étudiants à qui l’ont demandait d’évaluer leur bonheur ont répondu de façon bien plus enthousiaste lorsqu’ils avaient trouvé la pièce cachée à leur attention dans la salle de test. Les petites satisfactions comme les petites contrariétés influent sur notre humeur, et celle-ci influe bien plus sur notre perception de la vie que notre expérience réelle. Le fait est que nos évaluations sont souvent basées sur l’heuristique selon laquelle, tandis que nous pensons à quelque chose, nous y pensons généralement « mieux », oubliant à quel point nous pensons rarement à ces choses par ailleurs (revenu, météo, santé, apparence etc.). Ce qui nous rendait heureux est absorbé dans la vie quotidienne, nous nous adaptons, nous nous acclimatons, nous éprouvons le plaisir initial moins intensément au fil du temps. Le moi qui se souvient est sujet à une énorme illusion de concentration sur des aspects de la vie, positifs ou négatifs, que le moi agissant vit en réalité assez placidement.

En bref, cet ouvrage, fruit de longues années de réflexion et d’expérimentation, décrit le fonctionnement de l’esprit comme une interaction difficile entre deux personnages fictifs : le système automatique 1 et le système laborieux 2.

La façon de bloquer les erreurs qui proviennent du système 1 est donc simple en principe : reconnaissez les signes indiquant que vous vous trouvez dans un champ de mines cognitif, ralentissez et mobilisez au maximum les facultés de votre système 2. Quelles leçons plus globales tirer de cette théorie de la perspective ? Les économistes (notamment « l’école de Chicago ») partent du principe que les consommateurs et citoyens sont rationnels et adhèrent aux règles de la logique, et qu’ainsi, ils prendront toujours la bonne décision pour eux-mêmes. À défaut, ils sont des anomalies et leur liberté de choix ne peut être menacée, et, d’une certaine façon, « tant pis » pour ceux qui se trompent ou sont trompés. Kahneman, en tant qu’économiste comportemental, est bien sûr en désaccord et suggère que l’heuristique influence nos choix, qui sont eux-mêmes en grande partie irrationnels ; nous avons besoin d’aide pour faire de meilleurs choix. L’école de Chicago est composée de libertaires, qui veulent que le gouvernement reste à l’écart et laisse les gens faire leurs propres choix, bons ou mauvais, tant qu’ils ne blessent pas les autres. Les économistes comportementaux (Kahneman à la suite de Thaler et Sunstein et de façon plus marquée) suggèrent que donner un coup de pouce aux gens est parfois nécessaire (réglementation, rédaction de contrats plus clairs, vérité dans la publicité, etc.), voire moralement obligatoire.

Partager l'article :
  •  
  •  
  •  
Aucun commentaire pour l'instant.

Laisser un commentaire

Powered by WordPress. Designed by WooThemes

%d blogueurs aiment cette page :