Chapter Content

Calculating...

Alors, euh… par où commencer ? C’est une histoire assez incroyable, vous savez. Ça parle de… enfin, ça commence avec Amos Tversky. Figurez-vous qu'il était en Israël en… enfin, à un moment donné, et il reçoit un coup de téléphone. Et là, on lui annonce qu'il a gagné le prix MacArthur "Genius Grant". Un truc de dingue, quoi ! Ça représentait, tenez-vous bien, 250 000 dollars, plus 50 000 pour la recherche, et une super assurance maladie.

Bon, pendant la conférence de presse, on l'a encensé, vous voyez le genre : « un génie d'une originalité rare, qui a fait des contributions exceptionnelles à la science de la décision ». Le truc, c'est que… les résultats qu'on lui attribuait, c'était le fruit de son travail avec Daniel Kahneman, mais… le nom de Daniel, nada, rien. Pas mentionné.

Amos, en fait, il n'aimait pas trop les prix. Il pensait que ça creusait les inégalités entre les gens, que c'était plus négatif que positif. Tous ces prix, ça apportait plus de souffrance que de joie. Derrière chaque lauréat, il y a une longue liste de personnes aussi compétentes, et puis ceux qui pensent qu'ils le méritaient plus, quoi. Ce prix MacArthur, c'était un peu l'exemple parfait. Une amie d'Amos, Maya Bar-Hillel, disait qu'il n'était pas du tout content. Ils étaient à Jérusalem quand le prix a été annoncé. Il était même un peu agacé, en fait. Il a dit : « Mais à quoi ils pensent ? Comment ils peuvent me donner un prix à moi tout seul ? Ils se rendent pas compte que ça va ruiner ma collaboration avec Daniel ? ». C’est vrai que, même s’il n’aimait pas gagner des prix, il n'arrêtait pas d'en recevoir. Avant le MacArthur, il avait déjà été élu à l'Académie américaine des arts et des sciences. Après, il a eu une bourse Guggenheim, et il est devenu membre de l'Académie nationale des sciences en 1985. Et ça, c'était rarissime pour un étranger… et bien sûr, Daniel n'y était pas. Et puis, il y a eu les doctorats honorifiques de Yale, de Chicago… Mais le MacArthur, pour Amos, c'était la goutte d'eau qui a fait déborder le vase. « Il pensait que c'était le prix le plus destructeur possible », disait Bar-Hillel. « Il souffrait vraiment, il ne jouait pas la comédie. »

En même temps que tous ces prix, il y avait des livres et des articles qui sortaient, tous à la gloire d'Amos. On dirait que les auteurs ignoraient complètement la contribution de Daniel. Quand on parlait de leur travail, Daniel était toujours cité en deuxième, du genre : « Amos Tversky et Daniel Kahneman ». Amos a même écrit à un collègue psychologue qui avait envoyé un article : « Merci de mentionner le lien entre l'heuristique de représentativité et la psychanalyse. » Mais… « Toutes les études sur l'heuristique de représentativité ont été menées conjointement avec Daniel. Il faut qu'on soit mentionnés tous les deux (ou alors, supprime mon nom). » Un autre auteur avait attribué à Amos la découverte que les instructeurs de l'armée de l'air israélienne avaient des illusions sur l'efficacité de la formation. Amos a écrit : « Je ne reconnais pas l'expression "l'effet Tversky". Cette recherche a été menée avec mon ami et collègue de longue date, Daniel Kahneman. Je ne peux pas m'attribuer ce mérite. C'est Daniel Kahneman qui a découvert les illusions des instructeurs. Si on devait donner un nom à ce phénomène, ce serait plutôt "l'effet Kahneman". »

Ce qu'Amos ne comprenait pas, c'est pourquoi les Américains les voyaient comme ça, lui et Daniel. « Les gens pensaient qu'Amos était brillant et que Daniel était prudent », disait Percy Diaconis, un ami et collègue d'Amos à Stanford. « Et Amos disait : "Mais c'est tout le contraire !" »

Les étudiants d'Amos à Stanford l'avaient surnommé "Amos la célébrité". « Tout le monde le connaissait, tout le monde voulait le connaître », disait Steven Sloman, professeur de psychologie à Brown, qui avait été l'élève d'Amos dans les années 80. Ce qui était dingue, c'est qu'Amos ne semblait pas du tout se soucier de l'attention qu'il recevait. Il refusait en souriant les invitations aux émissions de télévision. (« Quand tu es passé à la télé, tu ne peux plus jamais te dépasser », disait-il.) Il jetait des piles d'invitations sans même les ouvrir. Ce n'était pas par humilité. Il connaissait sa valeur. Il n'avait pas besoin de faire semblant de ne pas se soucier de ce que les autres pensaient, parce que c'était vrai, en fait. La seule condition d'Amos, c'était que le monde devait s’adapter à ses critères.

Et le monde acceptait sa condition. Des membres du Congrès lui demandaient son avis sur des projets de loi. La NBA lui demandait son point de vue sur les erreurs statistiques dans le basket. Des agents de renseignement l'emmenaient en jet privé à Washington pour qu'il explique comment prédire et prévenir les menaces contre des dirigeants politiques. L'OTAN l'envoyait dans les Alpes françaises pour qu'il apprenne à prendre des décisions dans l'incertitude. On dirait qu'Amos était capable de comprendre n'importe quel problème. Même dans des domaines qu'il ne connaissait pas, il arrivait à aller à l'essentiel. Un jour, l'Université de l'Illinois l'a invité à une conférence sur la pensée métaphorique. À la fin, tout le monde était d'accord avec lui : la métaphore était un substitut à la pensée. Il disait : « La métaphore a l'avantage d'être vivante, facile à retenir et difficile à contredire par l'analyse. C'est pourquoi, même si elle n'est pas toujours juste ou utile, et qu'elle peut même nous induire en erreur, elle joue un rôle important dans le jugement humain. Elle remplace l'incertitude du monde réel par une ambiguïté sémantique. Elle est un voile sur la réalité. »

Daniel voyait bien qu'Amos recevait tous les honneurs pour les recherches qu'ils avaient menées ensemble. Des économistes invitaient Amos à leurs conférences. Pareil pour les linguistes, les philosophes, les sociologues, les informaticiens… (alors qu'il n'était même pas intéressé par l'ordinateur qu'il avait dans son bureau à Stanford. « Pourquoi faire ? » avait-il dit après avoir refusé 20 Mac offerts par Apple au département de psychologie.) « Quand on t'invite à une conférence sans inviter l'autre, même si tu n'as pas envie d'y aller, ça fait mal », a confié Daniel à Myron Scholes, un psychiatre de Harvard. « Si Amos n'était pas si populaire, je crois que ça irait mieux. »

Avant, en Israël, c'est Daniel qu'on allait voir quand il y avait un problème. Aux États-Unis, c'était Amos, même s'il n'y connaissait rien. « Son influence a été extraordinaire », disait Jack Maher, qui était responsable de la formation des 7 000 pilotes de Delta Airlines. À la fin des années 80, Delta avait eu une série d'incidents embarrassants. « Personne n'avait été blessé, mais nos pilotes se perdaient et atterrissaient sur d'autres aéroports. » La plupart de ces incidents étaient dus à de mauvaises décisions des commandants de bord. « On avait besoin d'un modèle de décision, mais ça n'existait pas », disait Maher. « Et là, j'ai pensé à Tversky. » Après avoir parlé pendant des heures avec Amos, Maher lui a expliqué son problème. « Il a commencé à me parler en termes mathématiques », disait Maher. « Quand il a commencé à parler d'équations de régression linéaire, je me suis mis à rire. Il a ri aussi, et il s'est arrêté. » Ensuite, Amos a expliqué en termes simples les résultats de ses travaux avec Daniel. « Il nous a fait comprendre pourquoi les pilotes prenaient parfois de mauvaises décisions. Il nous a dit : "N'essayez pas d'empêcher les pilotes d'avoir des biais cognitifs. N'essayez pas de corriger leurs erreurs de jugement en les formant." »

Amos a suggéré à Delta de changer l'environnement de décision des pilotes. Si un pilote se trompait et atterrissait à Fort Lauderdale au lieu de Miami, c'est parce que ce genre d'erreur était normale. Il est difficile de voir ses propres erreurs, mais il est plus facile de voir celles des autres. Malheureusement, la tradition aéronautique n'encourageait pas les gens à critiquer les décisions du pilote. « À l'époque, les commandants de bord étaient des imbéciles autoritaires qui faisaient ce qu'ils voulaient », disait Maher. Amos pensait que la seule façon d'empêcher les pilotes d'atterrir au mauvais endroit, c'était de former les autres membres de l'équipage à surveiller le jugement du pilote. « Il a changé notre façon de former les gens », disait Maher. « On a modifié les règles dans le cockpit. Si un pilote prenait une mauvaise décision, les autres pouvaient l'arrêter. Depuis, ce genre d'erreur n'est plus jamais arrivé. »

Dans les années 80, les idées que Daniel et Amos avaient eues ensemble avaient déjà infiltré des domaines qu'ils n'avaient pas imaginés. Ce succès a eu beaucoup de conséquences, et il a aussi donné l'occasion aux critiques de s'exprimer. « On a créé un domaine qui n'existait pas avant », disait Amos à Myron Scholes pendant l'été 1983. « On a secoué l'arbre, on a remué ses racines. Maintenant, on a créé de nouvelles racines, et d'autres viennent essayer de nous secouer. » C’était souvent des intellectuels trop sérieux. Quand ils découvraient les travaux de Daniel et Amos, ils avaient l'impression qu'un inconnu venait leur dire : « Vous vous trompez de chemin… » Quoi qu'il arrive, ils n'allaient pas aimer cet inconnu. Les rires de Daniel et Amos n'arrangeaient rien. Ça rendait les autres chercheurs suspicieux. Avishai Margalit, un professeur de philosophie, disait : « C'est la joie qui a provoqué la méfiance. Ils étaient comme des types qui regardent des singes en cage. Ils n'arrêtaient pas de faire des grimaces et de rigoler. Ils disaient : "On est des singes, nous aussi." Mais personne ne les croyait. Les gens pensaient que leur joie était une forme de moquerie. C'était une idée profondément enracinée. Ça les rendait malheureux. »

Au début des années 70, Daniel a été présenté à un grand professeur de philosophie, Max Black. Quand il a commencé à lui parler de ses recherches avec Amos, Black l'a interrompu : « La psychologie des imbéciles ne m'intéresse pas. » Et il est parti. Daniel et Amos n'ont jamais pensé qu'ils étudiaient la psychologie des imbéciles. Leurs premières expériences portaient sur les erreurs d'intuition des experts en statistiques. Tous les problèmes qui pouvaient piéger des étudiants étaient modifiés pour piéger des professeurs. Et certains professeurs n'acceptaient pas leurs conclusions. Eldar Shafir, un psychologue de Princeton, disait : « Montrez-leur une illusion d'optique, certains diront : "Il y a peut-être un problème avec mes yeux." Posez-leur une question de linguistique qui les piège, ils diront : "Ce n'est pas grave." Montrez-leur un problème d'Amos et Daniel, ils diront : "Vous essayez de me piéger." »

Les recherches de Daniel et Amos remettaient en question les théories de certains psychologues. Ça les mettait en danger. En 1954, un ancien professeur d'Amos, Ward Edwards, avait écrit un article pour encourager les psychologues à dialoguer avec les économistes. Il ne s'attendait pas à ce que deux Israéliens s'aventurent dans ce domaine et réussissent à faire une recherche interdisciplinaire. À la fin des années 70, après avoir lu les premiers articles d'Amos et Daniel sur la prise de décision, Edwards a répliqué. Dans une lettre au ton assez vif, il a critiqué les deux hommes avec la condescendance d'un sage qui s'adresse à des enfants. Pourquoi poser des questions aussi stupides à des étudiants ? Comment peut-on en tirer des conclusions utiles ? « Je pense que votre façon de collecter des données est tellement mauvaise que je ne peux pas accepter vos "découvertes expérimentales" », écrivait Edwards. Il pensait que les étudiants qui participaient aux expériences étaient « distraits et inattentifs ». Ils ne pouvaient pas avoir les mêmes intuitions que les bons statisticiens. Edwards avait une explication pour chaque erreur que Daniel et Amos avaient mise en évidence. Par exemple, l'erreur du parieur. Si une pièce de monnaie tombe cinq fois de suite sur face, on a tendance à penser qu'elle va tomber sur pile à la sixième fois. Selon lui, ce n'était pas parce qu'on ne connaissait pas les probabilités, mais parce que « la répétition de la même situation provoque de l'ennui ».

Amos a répondu à son ancien professeur en des termes plutôt polis. « C'est un honneur de lire votre analyse détaillée de nos articles et de voir que votre esprit critique est toujours aussi vif, que vous ayez raison ou tort », écrivait-il au début de sa lettre. Ensuite, il expliquait que ses arguments n'étaient « pas convaincants ». Il ajoutait : « Votre critique de notre méthode expérimentale n'est pas fondée. Vous ne dites pas en quoi nous nous sommes trompés. Vous ne présentez pas d'arguments pour nous contredire ou pour proposer une solution plus raisonnable. Vous vous contentez d'avoir de forts préjugés sur notre façon de collecter des données. Vous pensez que votre méthode est la seule valable. C'est compréhensible, mais difficile à accepter. »

Edwards était furieux, mais il a gardé sa colère pour lui pendant quelques années. Eli Biederman, un psychologue, disait : « Personne ne voulait s'opposer à Amos, surtout en public ! Je ne l'ai vu qu'une seule fois. Pendant une conférence, un philosophe s'est levé pour critiquer les heuristiques. Amos était là. Quand l'autre a terminé, Amos a pris la parole. C'était comme si les terroristes décapitaient un otage. » Edwards avait dû entendre parler de ce genre d'histoires. Il craignait d'être « décapité en souriant » s'il s'opposait à Amos. Alors, il s'est tu. Mais il fallait qu'il dise quelque chose, parce qu'Amos affirmait que les êtres humains étaient de bons statisticiens intuitifs.

Il a finalement eu l'occasion de le faire à la fin des années 70. Il s'est rendu compte que la plupart des gens n'acceptaient pas les conclusions d'Amos et Daniel. Ils ne comprenaient pas leur recherche. Quand on réalise que notre pensée n'est pas aussi fiable qu'on le croyait, on perd un sentiment de sécurité. « Je ne sais pas si vous vous rendez compte de la portée et de la puissance destructrice de vos idées », écrivait Edwards à Amos en septembre 1979. « Il y a une semaine, j'ai participé à une conférence organisée par la Society for Medical Decision Making. Selon mes estimations, environ un tiers des communications mentionnaient vos recherches. La plupart étaient d'accord avec vous. Ils pensaient qu'il fallait éviter l'intuition humaine dans le jugement, la décision et les autres processus cognitifs. » Même les médecins expérimentés ne retenaient que l'idée la plus superficielle des conclusions de Daniel et Amos : il ne faut jamais faire confiance à sa pensée. Quelles seraient les conséquences pour la médecine, les experts et l'autorité du savoir ?

Edwards a envoyé à Amos un projet d'article critique sur leurs travaux. Il espérait qu'Amos serait respectueux. Mais Amos a répondu sans ménagement. Sa lettre était laconique. « Votre article est ironique. Il présente une vision injuste de nos travaux. Il soulève des problèmes techniques qui rendent la discussion difficile. Nous sommes désolés que vous ayez besoin de corriger ce que vous considérez comme des erreurs. Mais vous déformez nos idées. » Dans sa réponse, Edwards a adouci le ton. On aurait dit un type au bord d'une falaise qui s'apprête à sauter, mais qui se rend compte qu'il a oublié de fermer sa braguette. Il a invoqué des problèmes personnels, son incapacité à suivre l'évolution des connaissances, « une anxiété excessive », pour justifier son mauvais article. Ensuite, il a dit qu'il regrettait de l'avoir écrit. C'était une forme de concession. « Ce qui m'embarrasse le plus, c'est qu'après avoir passé autant de temps à écrire cet article, j'y ai vu des défauts que je ne voulais pas voir », écrivait-il à Daniel et Amos. Il a dit qu'il allait réécrire l'article et qu'il espérait ne pas avoir à se disputer avec eux en public.

Tout le monde n'avait pas peur d'Amos. Un philosophe d'Oxford, Jonathan Cohen, a publié une série d'attaques dans des livres et des revues. Ça a déclenché un petit débat philosophique. Selon lui, il était illogique de sonder la pensée des gens en leur posant des questions. Puisque la raison était une création humaine, il était logique que les humains soient rationnels. La plupart des gens se conformaient au principe de « rationalité » dans tout ce qu'ils faisaient. Ou, comme l'a dit Daniel en répondant à l'article de Cohen à contrecœur : « Une erreur qui a attiré suffisamment d'attention n'est plus une erreur. » Cohen s'est donné beaucoup de mal pour prouver que les erreurs découvertes par Amos et Daniel n'étaient pas des erreurs. Si elles existaient, c'était à cause de l'ignorance des gens en mathématiques et en sciences. Il suffisait d'un petit cours pour les corriger. « Nous sommes des spécialistes des probabilités et des statistiques », ont écrit Percy Diaconis de Stanford et David Freedman de Berkeley dans une lettre au rédacteur en chef de Behavioral and Brain Sciences. Un article de Cohen contre Amos et Daniel avait été publié dans cette revue. « Nous avons vu des étudiants et des collègues (et nous-mêmes) faire les mêmes erreurs à maintes reprises. Certains se trompent plusieurs fois sur le même problème. Cohen attribue ce phénomène à "l'ignorance des mathématiques et des sciences". » Même si les experts en statistiques reconnaissaient la validité des conclusions de Daniel et Amos, certains non-spécialistes continuaient de penser qu'ils étaient plus malins.

Après avoir déménagé en Amérique du Nord, Amos et Daniel ont publié une série d'articles qu'ils avaient écrits ensemble. La plupart étaient basés sur les recherches qu'ils avaient menées en Israël. Au début des années 80, leur façon d'écrire des articles a changé. Amos a écrit un article sur l'aversion à la perte et l'a signé avec les deux noms, alors que Daniel n'avait écrit que quelques phrases. Daniel a écrit seul un article qu'Amos appelait « le déchiffrage de l'esprit ». Il l'a intitulé « L'heuristique de simulation ». Ensuite, il a rassemblé cet article, leurs articles précédents et ceux de leurs étudiants et collègues dans un livre. Leur nom figurait en gros sur la couverture. (Daniel a commencé à explorer les règles de l'"imagination". Son nouveau partenaire était Dale Miller, un jeune talent de l'Université de Columbia.) Amos a écrit un article destiné aux économistes intitulé « L'évolution de la théorie des perspectives » pour corriger les défauts techniques de la théorie des perspectives. Même si la majeure partie du travail avait été faite par lui et son étudiant Rich Gonzalez, Daniel et Amos ont signé l'article. « Amos a dit qu'ils avaient toujours écrit des articles ensemble et que ça ne changeait pas. Et puis, ça faisait bizarre d'ajouter un troisième nom », a-t-on dit.

Même si les forces qui les éloignaient l'un de l'autre étaient de plus en plus fortes, ils ont essayé de maintenir une apparence de collaboration. Le nombre de leurs ennemis communs augmentait, mais ils n'arrivaient pas à faire front commun. L'attitude d'Amos envers ses ennemis mettait Daniel mal à l'aise. Amos était un combattant né. Daniel préférait survivre. Il préférait éviter les conflits. Quand leurs recherches étaient attaquées, Daniel adoptait une nouvelle stratégie : il ne critiquait pas les articles qui le mettaient en colère. C'était une excuse pour éviter l'hostilité. Amos accusait Daniel de « prendre le parti de l'ennemi ». Pour Daniel, il était plus facile de se mettre à la place de l'ennemi qu'à sa propre place. Il avait créé un ennemi dans son esprit. Il n'avait pas besoin d'ennemis extérieurs.

Au contraire, Amos avait besoin d'adversaires. Sans adversaires, il n'avait plus d'objectif. Comme son pays, il était toujours prêt à se battre. « Amos ne pensait pas comme Daniel, qu'il fallait s'entendre et coopérer. Il disait : "Qu'ils aillent se faire voir." », disait Walter Mischel, le directeur du département de psychologie de Stanford quand Amos y a été embauché.

Au début des années 80, Amos ressentait peut-être cette émotion plus fortement que jamais. Les critiques écrivaient des articles pour réfuter ses conclusions et celles de Daniel. Mais ce n'était pas tout. Lors des conférences et des échanges, les économistes et les spécialistes de la théorie de la décision ne cessaient de les critiquer. Ils pensaient qu'Amos et Daniel exagéraient les faiblesses humaines, que les erreurs de pensée étaient artificielles, qu'elles ne se produisaient peut-être que chez les étudiants… La plupart des interlocuteurs d'Amos étaient convaincus que les êtres humains agissaient de manière rationnelle. Ce qu'Amos ne comprenait pas, c'est que ces gens refusaient d'admettre qu'il avait raison. « Amos voulait écraser l'opposition », disait Daniel. « Il le voulait plus que moi. Il voulait les faire taire. Bien sûr, c'était impossible. » Vers la fin de 1980 ou au début de 1981, Amos a dit à Daniel qu'il voulait écrire un article pour mettre fin à ce débat. Il semblait que leurs adversaires ne reconnaîtraient jamais leur défaite (c'était la nature des intellectuels). Mais ils pouvaient au moins changer de sujet. Amos appelait ça un « plan B ».

Amos voulait prouver que les règles empiriques de la pensée pouvaient induire en erreur. Avec Daniel, ils avaient découvert des phénomènes étranges en Israël. Ils n'avaient pas fait de recherches approfondies à l'époque. Maintenant, ils s'y remettaient. Comme d'habitude, ils ont conçu des scénarios virtuels très précis. Ils espéraient révéler le fonctionnement interne de la pensée humaine en étudiant les jugements des sujets dans ces situations. Le scénario virtuel préféré d'Amos était celui de Linda.

Linda est une femme célibataire de 31 ans, vive d'esprit et pleine d'entrain. Elle a fait des études de philosophie. Pendant ses études, elle s'est beaucoup intéressée à la discrimination raciale et à la justice sociale. Elle a participé à des manifestations antinucléaires.

Linda a été conçue pour ressembler à une féministe. La question de Daniel et Amos était la suivante : à quelle catégorie de personnes Linda ressemble-t-elle le plus ?

1. Une institutrice.

2. Une vendeuse en librairie qui fait du yoga.

3. Une militante féministe.

4. Une travailleuse sociale qui fait de la psychothérapie.

5. Une membre de la Ligue des femmes électrices.

6. Une employée de banque.

7. Une vendeuse d'assurances.

8. Une employée de banque qui est une militante féministe.

Daniel a posé cette question à des étudiants de l'Université de la Colombie-Britannique. Pour le premier test, il a divisé les étudiants en deux groupes. Chaque groupe devait juger la probabilité de quatre descriptions sur les huit. Le premier groupe a reçu la description « Linda est une employée de banque ». Le deuxième groupe a reçu la description « Linda est une employée de banque qui est une militante féministe ». La question clé portait sur ces deux descriptions. Bien sûr, les étudiants ne le savaient pas. Les résultats ont montré que le groupe qui avait reçu la description « Linda est une employée de banque qui est une militante féministe » pensait que cette description était plus probable que celle de « Linda est une employée de banque ».

C'était exactement ce que Daniel et Amos voulaient. Ils pouvaient en conclure que les règles empiriques que les gens utilisaient pour faire des jugements de probabilité étaient trompeuses. La probabilité que « Linda soit une employée de banque qui est une militante féministe » n'était pas plus grande que la probabilité que « Linda soit une employée de banque ». La première n'était qu'un cas particulier de la seconde. « Linda est une employée de banque qui est une militante féministe » est incluse dans la description « Linda est une employée de banque », tout comme « Linda est une employée de banque qui aime traverser les forêts de Serbie en marchant nue ».

Quand la logique est enrobée dans une histoire, on ne la voit plus. Dessinez l'image d'une personne âgée malade et demandez-lui : La personne âgée ne survivra pas plus d'une semaine ? Ou ne survivra pas plus d'un an ? La plupart des gens diront « ne survivra pas plus d'une semaine ». Leur esprit est piégé par une histoire de mort imminente, et cette histoire occulte la logique. Amos a aussi imaginé un scénario intéressant. Il a demandé aux gens quelle situation était la plus probable dans l'année à venir : 1 000 Américains meurent à cause d'inondations ? Ou un tremblement de terre en Californie provoque de graves inondations qui tuent 1 000 Américains ? Les gens ont choisi la deuxième option.

Ce qui induisait les gens en erreur dans ce problème, c'était l'heuristique de « représentativité » que Daniel et Amos avaient mise en évidence. C'est-à-dire la similitude entre ce qu'on doit juger et l'image qu'on en a. Dans le test sur Linda, les étudiants se demandaient si la description de Linda correspondait à leur image de la « féministe ». C'est pourquoi ils pensaient que le cas particulier était plus probable que le cas général.

Amos ne voulait pas s'arrêter là. Il avait l'intention de donner les huit descriptions de Linda à tous les sujets. Il voulait qu'ils classent chaque description en fonction de sa probabilité. Il voulait voir si ceux qui pensaient que « Linda était une employée de banque qui est une militante féministe » pensaient aussi que cette probabilité était supérieure à celle de « Linda est une employée de banque ». Il voulait trouver toutes les erreurs que les gens commettaient. « Amos était vraiment passionné par ça », disait Daniel. « Pour faire taire les opposants, tu espères que les gens vont se tromper. »

Daniel avait des sentiments mitigés à propos de ce nouveau projet et à propos d'Amos. Depuis qu'ils avaient quitté Israël, ils suivaient deux trajectoires différentes. Amos était fasciné par la logique. Daniel s'accrochait à la psychologie. Il ne s'intéressait pas autant qu'Amos aux comportements irrationnels des êtres humains. Il s'était désintéressé de la théorie de la décision après y avoir introduit la psychologie. Daniel a dit plus tard : « Il y a toujours eu une dispute latente entre nous : fallait-il étudier la psychologie ou la théorie de la décision ? » Daniel voulait se recentrer sur la psychologie. Et puis, Daniel ne pensait pas que les gens allaient continuer à se tromper comme Amos le pensait. En voyant les deux descriptions, les gens allaient sûrement se rendre compte que la probabilité que « Linda soit une employée de banque qui est une militante féministe » ne pouvait pas être supérieure à la probabilité que « Linda soit une employée de banque ». Ce n'était pas logique.

C'est avec des sentiments complexes que Daniel a soumis le « problème de Linda » à 12 étudiants de l'Université de la Colombie-Britannique. « Les 12 se sont trompés », disait-il. « Je me souviens de ma réaction. J'ai tout de suite appelé Amos avec le téléphone de la secrétaire. » Ensuite, ils ont fait des tests avec des centaines de sujets, avec d'autres scénarios. « On voulait voir où était la limite », disait Daniel. Pour trouver cette limite, ils ont même posé la question de logique aux sujets de manière directe. La description de Linda était la même, mais la question était plus simple : « Laquelle de ces deux descriptions est la plus probable ? »

Linda est une employée de banque.

Linda est une employée de banque qui est une militante féministe.

85 % des sujets ont continué de penser que la deuxième option était la plus probable. Le problème de Linda est comparable aux diagrammes de Venn. Il y a deux cercles, et l'un est entièrement recouvert par l'autre. Mais les gens ne voient pas la relation entre les cercles. C'est ce que Daniel n'avait pas prévu. « À chaque étape, on se disait que cette fois, on avait atteint la limite », disait-il. Mais la pensée des gens était dominée par des forces obstinées. Daniel a réuni tous les étudiants de Columbia dans un amphithéâtre et leur a expliqué les erreurs qu'ils avaient commises. « Vous vous rendez compte que vous avez violé une loi fondamentale de la logique ? », a-t-il demandé. « Et alors ! » a crié une étudiante depuis le fond de la salle. « Vous nous demandez juste de donner notre opinion ! »

Ils ont modifié le « problème de Linda » pour s'assurer que les étudiants ne confondaient pas l'hypothèse de base avec « Linda est une employée de banque qui n'est pas une militante féministe ». Ils ont posé ce genre de questions à des étudiants en statistiques et en logique. Ils l'ont posé à des médecins. L'histoire a été adaptée dans une version plus complexe, avec un contexte médical. Les personnes testées pouvaient commettre des erreurs de logique fatales. Comme les étudiants, la plupart des médecins se sont trompés. « Ils étaient désemparés d'avoir commis une erreur de raisonnement aussi grossière », écrivaient Daniel et Amos. « Étant donné que le principe de la conjonction est très simple, les personnes qui ont commis ce genre d'erreur pensent qu'elles l'ont fait par inadvertance. »

Pour Amos, l'article sur l'"erreur de conjonction" qu'ils s'apprêtaient à écrire pouvait être une sorte de fin à l'histoire sur la pensée humaine : les gens raisonnent-ils de manière rationnelle en se basant sur les probabilités, ou, comme Daniel et Amos le suggéraient, prennent-ils des conclusions intuitives ? Dans l'article, ils ont montré de près comment et pourquoi les gens violaient « la loi qualitative la plus simple et la plus fondamentale de la théorie des probabilités ». Ils ont expliqué que les gens choisissaient la description la plus détaillée (même si elle était moins probable) parce qu'elle était « représentative ». Ils ont aussi souligné les domaines du monde réel où ce genre d'erreur de pensée pouvait avoir des conséquences graves. Par exemple, toute prédiction, si elle est détaillée et cohérente, est jugée crédible même si elle est impossible à réaliser. Pour gagner un procès, un avocat n'a qu'à ajouter des « détails représentatifs » à sa description des événements ou des personnages. Même si les preuves et les faits sont loin d'être clairs, le pouvoir de persuasion sera beaucoup plus grand.

Une fois de plus, ils ont montré l'influence des règles empiriques sur la pensée. Ils ont appelé ces forces mystérieuses « heuristiques ». Outre le « problème de Linda », ils ont imaginé un autre problème, basé sur leurs travaux du début des années 70 en Israël.

Choisissez 4 pages (environ 2 000 mots) d'un roman. Selon vous, combien de mots se terminent par la lettre "ing" ? Cochez votre réponse parmi les options suivantes :

0 1~2 3~4 5~7 8~10 11~15 16+

Ensuite, ils ont posé une deuxième question aux mêmes personnes : Dans le même extrait de texte, combien y a-t-il de mots de 7 lettres dont l'avant-dernière lettre est la lettre "n" ? Inutile de dire (bien sûr !), le nombre de mots de 7 lettres dont l'avant-dernière lettre est la lettre "n" doit être au moins égal au nombre de mots de 7 lettres se terminant par "ing", car le premier contient le second. Cependant, les sujets ne s'en sont pas rendu compte. Ils pensaient que dans un texte de 2 00

Go Back Print Chapter