Chapter Content

Calculating...

Euh... alors, chapitre six, c'est ça? Le mécanisme du jugement. Bon, en gros, dans les années 60, y'avait un prof de psycho, Paul Hoffman, à l'université d'Oregon State, qui s'intéressait grave aux prises de décision. Et... il a touché une subvention, genre 60 000 dollars, de la National Science Foundation. Une somme, hein? Du coup, il a pu laisser tomber l'enseignement et se consacrer à monter ce qu'il appelait un "centre de recherche fondamentale en sciences du comportement". Avant ça, l'enseignement, c'était pas vraiment son truc, et puis sa carrière stagnait un peu, surtout niveau promotion. Franchement, ça le frustrait. Avec cette subvention, il a carrément démissionné et a acheté un bâtiment dans un quartier tranquille et verdoyant d'Eugene. Avant, c'était une église unitarienne, et il l'a rebaptisé "Oregon Research Institute". C'était le seul institut privé au monde à se concentrer uniquement sur le comportement humain, et... ça a vite attiré l'attention et des talents. Un journal local disait, un truc du genre, "Dans une ambiance de travail propice, un groupe de personnes intelligentes explore discrètement les mystères de la prise de décision humaine."

Cette description était un peu vague, et en fait, c'était ça, la particularité de l'Oregon Research Institute: le flou artistique. Personne savait trop ce que ces psys faisaient, mais au moins, ils pouvaient plus répondre "Je suis prof" pour se justifier. Paul Slovic, après avoir quitté l'université du Michigan pour rejoindre l'institut, s'est fait demander par ses enfants ce qu'il faisait dans la vie. Il a pointé une affiche avec un schéma du cerveau et a répondu: "J'étudie les mystères qui se cachent là-dedans."

La psycho, depuis longtemps, c'était un peu la poubelle à connaissances, tu vois? Tous les problèmes ou les questions que les autres disciplines voulaient pas, pour une raison ou une autre, finissaient là. L'Oregon Research Institute, c'était genre une poubelle encore plus grande. Au début, ils ont même bossé pour une entreprise de construction locale, basée à Eugene. Cette entreprise, elle aidait à construire deux immeubles hors du commun à Manhattan West, les futurs World Trade Center, quoi. Les "Twin Towers", chacune 110 étages, construites en acier léger. L'architecte, Minoru Yamasaki, avait lui-même le vertige, et c'était la première fois qu'il concevait un bâtiment de plus de 28 étages. Le propriétaire, la New York Port Authority, voulait que les étages les plus hauts soient les plus chers. Du coup, ils ont demandé à l'ingénieur en chef, Leslie Robertson, de s'assurer que les locataires qui paieraient le plus cher ne sentent pas trop les effets du vent sur l'immeuble. C'était plus un problème de psychologie qu'un problème d'ingénierie, en fait. Genre, au 99e étage, au bout de combien de temps tu sens l'immeuble bouger? Robertson a contacté Paul Hoffman et son Oregon Research Institute.

Hoffman a loué un autre bâtiment dans un autre quartier verdoyant d'Eugene. Il a construit une pièce sur un plateau mobile hydraulique. Quand il activait le truc, la pièce bougeait d'avant en arrière, sans presque aucun bruit, comme le sommet d'un gratte-ciel new-yorkais dans la brise. Tout ça, dans le plus grand secret. La Port Authority voulait pas donner l'impression aux futurs locataires qu'ils allaient vivre dans un immeuble qui tangue. Et Hoffman, lui, il avait peur que si les sujets savaient qu'ils étaient dans un bâtiment qui bougeait, ils soient trop sensibles aux mouvements et que ça fausse les résultats de l'expérience. Paul Slovic se rappelle, "Le principal problème, c'était comment faire entrer les gens dans cette pièce sans leur dire pourquoi." Du coup, une fois la "pièce qui bouge" construite, Hoffman a mis une pancarte devant le bâtiment: "Oregon Research Institute, Centre de Recherche Visuelle". Il proposait des examens de la vue gratuits à tous les visiteurs. Il a même engagé un étudiant en psycho de l'université d'Oregon State, qui était aussi opticien diplômé.

Pendant que l'étudiant faisait passer des tests de vision aux visiteurs, Hoffman activait le plateau hydraulique. La pièce commençait à bouger d'avant en arrière. Et il s'est vite rendu compte que les gens sentaient rapidement que quelque chose bougeait, plus vite que ce que les concepteurs du World Trade Center avaient imaginé. "C'est une drôle de pièce," disait les gens, "Je crois que c'est parce que j'ai pas mes lunettes. C'est une blague, ou quoi? C'est marrant." L'opticien rentrait chez lui tous les soirs avec la tête qui tourne.

Après avoir appris les découvertes d'Hoffman, les ingénieurs, les architectes du World Trade Center, et tous les responsables de la New York Port Authority se sont précipités à Eugene pour tester la pièce qui bouge. Ils croyaient pas aux conclusions d'Hoffman. Robertson a même raconté plus tard au New York Times qu'il avait pensé: "Un milliard de dollars partis en fumée!" En rentrant à Manhattan, il a reconstruit une pièce qui bouge, comme celle d'Hoffman. Finalement, pour renforcer les gratte-ciels, il a conçu des amortisseurs métalliques d'environ 75 cm de long, et il en a installé 11 000 dans chaque immeuble. C'est peut-être grâce à cet acier supplémentaire que les Twin Towers ont tenu le plus longtemps possible après l'impact des avions, ce qui a permis à une partie des 14 000 personnes de s'échapper avant l'effondrement.

Pour l'Oregon Research Institute, la pièce qui bouge, c'était juste un petit test. Les psychologues qui travaillaient là, comme Paul Hoffman, s'intéressaient surtout à la prise de décision. Et ils étaient tous passionnés par le livre de Paul Meehl, "Clinical Versus Statistical Prediction". Dans ce livre, Meehl montrait que les psychologues, quand ils faisaient des diagnostics ou des prédictions sur les patients, se faisaient souvent battre par des formules statistiques. Daniel Kahneman, dans les années 50, il avait déjà lu ce livre. Et peu après, il avait remplacé le jugement humain par des formules statistiques simples pour recruter des soldats. Meehl, lui-même psychologue clinicien, il pensait qu'il avait, comme les psys qu'il admirait, des intuitions subtiles que les formules statistiques pouvaient pas exprimer. Mais, au début des années 60, de nombreuses études confirmaient l'idée de Meehl, c'est-à-dire, mettaient en doute la capacité de jugement humain.

Si le jugement humain est moins bon qu'une formule simple, y'a un gros problème. Parce que la plupart des disciplines où on demande l'avis d'experts n'ont pas autant de données que la psycho. Y'a plein de domaines où on manque de données pour créer une formule et remplacer le jugement humain. Dans la vraie vie, la plupart des problèmes compliqués nécessitent le jugement d'un expert: médecin, juge, conseiller financier, fonctionnaire, responsable des admissions, directeur de cinéma, recruteur sportif, responsable RH, et tous ceux qui prennent des décisions dans tous les secteurs. Hoffman et les autres psys de l'institut voulaient comprendre comment les experts prenaient leurs décisions. Paul Slovic disait, "C'était pas qu'on avait une vision unique, mais on pensait que c'était important: comment les gens rassemblent des informations fragmentées, les traitent, et arrivent à une décision ou un jugement?"

Curieusement, leur première étape, c'était pas d'étudier à quel point les experts se plantaient face aux formules statistiques. Non, ils ont commencé à créer un modèle de ce que les experts pensaient quand ils prenaient une décision. Ou, comme disait Lou Goldberg, qui venait de Stanford en 1960, "identifier quand et où le jugement humain risque le plus de se tromper". Si ils trouvaient le moment où les experts se plantaient, ils pourraient réduire l'écart entre les experts et les formules statistiques. Slovic disait: "Je pense que si on comprend comment les humains jugent ou décident, on peut améliorer leur jugement, on peut les aider à prédire et à juger plus précisément. C'est ce qu'on pensait à l'époque, même si c'était encore un peu flou."

Pour ça, en 1960, Hoffman a écrit un article pour expliquer comment les experts jugent. Bien sûr, on pouvait demander directement aux experts, mais c'était trop subjectif. Les gens ont tendance à pas dire toute la vérité. Du coup, Hoffman proposait qu'on analyse les informations qu'ils recevaient quand ils prenaient une décision (ce qu'Hoffman appelait des "indices"), et qu'on utilise leurs jugements pour deviner le poids qu'ils accordaient à chaque information. Par exemple, si tu veux savoir comment les responsables des admissions de Yale choisissent les étudiants, tu peux leur demander quels critères ils prennent en compte. Ils vont sûrement parler des notes, des résultats aux tests, des aptitudes sportives, des liens avec les anciens élèves, du type de lycée. Ensuite, en analysant les décisions du comité d'admission, tu peux identifier les informations importantes, et savoir quel poids ils donnent à chaque critère. Si t'es bon en maths, tu peux même créer un modèle qui montre comment ces critères interagissent dans la prise de décision des responsables des admissions. (Par exemple, ils peuvent accorder plus d'importance aux résultats sportifs des élèves venant de lycées publics, mais moins aux élèves de familles riches venant de lycées privés.)

Hoffman était assez bon en maths pour créer ce modèle. Il a envoyé un article au "Psychological Bulletin", avec un titre un peu compliqué: "Paramorphique Égalité et Clinical Judgment". Si le titre était obscur, c'est parce qu'Hoffman s'attendait pas à ce que beaucoup de gens le lisent. C'était un petit monde à part, un coin de la psycho qui venait d'être découvert, et il pensait pas que ça intéresserait grand monde. Lou Goldberg disait: "Les gens qui jugent dans la vie de tous les jours liront pas cet article. Ils étudient pas la psycho, ils vont pas lire les revues de psycho."

Au début, l'Oregon Research Institute a choisi des psys cliniciens comme sujets d'étude, mais ils savaient que les résultats seraient valables pour tous les métiers où on prend des décisions: médecins, météorologues, recruteurs sportifs, etc. Paul Slovic disait: "Y'avait peut-être que 15 personnes dans le monde à travailler sur ce sujet, mais on savait qu'on faisait quelque chose d'important: utiliser les chiffres pour percer les mystères du jugement intuitif." À la fin des années 60, Hoffman et son équipe avaient fait des découvertes intéressantes, dont Lou Goldberg a parlé en détail dans deux articles. En 1968, Goldberg a publié son premier article dans la revue "American Psychologist". Il a commencé par citer quelques études qui montraient que le jugement des experts était moins précis que les formules statistiques. "Après avoir étudié de plus en plus de documents," écrivait Goldberg, "j'en conclus que, dans de nombreuses tâches de jugement clinique (y compris celles où on juge les meilleurs médecins ou les pires actuaires), une formule actuarielle de base est aussi valide, et aussi précise, que le jugement d'un expert."

Alors, qu'est-ce que font les experts? Comme d'autres avant lui, Goldberg pensait que quand un médecin fait un diagnostic, son cerveau doit faire des opérations complexes. Il pensait donc que si on voulait modéliser le raisonnement du médecin, il faudrait un modèle complexe. Par exemple, un psychologue de l'université du Colorado voulait étudier comment ses collègues prédisaient quels étudiants auraient du mal à s'adapter à la vie universitaire. Il avait enregistré les psys pendant qu'ils analysaient les données, et il essayait de modéliser leur raisonnement avec un programme informatique complexe. Goldberg préférait une approche plus simple. Pour sa première étude de cas, il a choisi la méthode des médecins pour diagnostiquer le cancer.

Goldberg expliquait que c'était parce que l'Oregon Research Institute venait de terminer une étude sur les médecins. À l'université d'Oregon, des chercheurs avaient demandé à des radiologues comment ils faisaient pour diagnostiquer un cancer à partir de radios de l'estomac. Les radiologues avaient répondu qu'ils se basaient surtout sur sept critères: la taille de l'ulcère, la forme des bords de l'ulcère, la largeur de la zone d'inflammation, etc. Comme Hoffman, Goldberg appelait ces critères des "indices". Évidemment, y'avait plein de combinaisons possibles entre ces sept indices, et les médecins devaient essayer de tirer des conclusions de chaque combinaison. Par exemple, une ulcère de la même taille, avec des bords lisses ou des bords irréguliers, pouvait signifier deux choses complètement différentes. Goldberg soulignait qu'il était facile pour les experts de décrire leur raisonnement comme subtil et complexe, ce qui rendait difficile de le modéliser.

Pour essayer, les chercheurs de l'Oregon Research Institute ont créé un programme informatique très simple, où les sept indices avaient le même poids, et décidaient ensemble si l'ulcère était bénin ou malin. Ensuite, ils ont demandé aux médecins de juger 96 radios d'ulcères de l'estomac, sur une échelle de sept points, allant de "certainement malin" à "certainement bénin". Ils ont montré chaque radio deux fois, et, sans le dire aux médecins, ils ont mélangé des copies des mêmes images. Les médecins savaient pas qu'ils avaient déjà vu certaines radios. Les chercheurs n'avaient pas d'ordinateurs. Ils ont transcrit toutes les données sur des cartes perforées, qu'ils ont envoyées à l'université de Californie à Los Angeles, où un grand ordinateur les traitait. Ils espéraient créer un programme informatique capable de modéliser la prise de décision des médecins.

Goldberg pensait que ce premier essai simple n'était qu'un début. Il faudrait rendre le programme plus complexe, faire des calculs mathématiques sophistiqués, pour tenir compte de la façon subtile dont les médecins évaluaient les indices. Par exemple, si la taille de l'ulcère était très grande, le médecin devrait peut-être réévaluer les six autres indices.

Mais, quand l'université de Californie à Los Angeles a renvoyé les résultats, les chercheurs de l'Oregon Research Institute sont restés sans voix. (Selon Goldberg, le résultat était "effrayant".) D'abord, le programme simple qu'ils avaient créé pour comprendre le raisonnement des médecins était étonnamment efficace. Il prédisait le diagnostic des médecins avec une grande précision. Les médecins pensaient peut-être que leur raisonnement était subtil et complexe, mais le modèle mathématique le reproduisait parfaitement. C'était pas forcément que le raisonnement des médecins était simple, mais qu'il pouvait être parfaitement modélisé avec une formule simple. Et, encore plus surprenant, les médecins étaient pas d'accord entre eux. Non seulement ça, mais ils donnaient des diagnostics différents quand ils voyaient la même radio deux fois. Ça voulait dire que les médecins étaient pas seulement en désaccord avec les autres, mais aussi avec eux-mêmes. "Ces études montrent que le diagnostic en médecine clinique n'est pas plus cohérent qu'en psychologie clinique. Faut réfléchir à deux fois avant d'aller chez son médecin de famille," écrivait Goldberg. Si les médecins étaient pas capables de donner des diagnostics cohérents, leur justesse était loin d'être garantie.

Ensuite, les chercheurs ont refait l'expérience avec des psychologues cliniciens et des psychiatres. Ils ont fourni une série d'indices qui indiquaient si un patient atteint de troubles mentaux était guéri et pouvait sortir de l'hôpital. Et leurs jugements ont encore une fois été comparés. Et, encore plus étrange, les médecins les moins expérimentés (les étudiants en médecine) étaient aussi précis que les plus expérimentés (les médecins titulaires bien payés) pour déterminer quel patient pouvait sortir. L'expérience semblait pas avoir d'influence sur la précision du diagnostic, par exemple pour déterminer si quelqu'un avait des tendances suicidaires. Selon Goldberg, "leur précision dans cette tâche n'avait rien à voir avec leur expérience."

Pourtant, Goldberg s'est pas empressé de blâmer les médecins. Il soulignait à la fin de son article que le problème venait peut-être du fait que les médecins et les psychiatres avaient rarement l'occasion d'évaluer, ou, au besoin, d'ajuster la précision de leur raisonnement. Ce qui leur manquait, c'était un "feedback immédiat". Du coup, il a décidé avec un collègue de l'Oregon Research Institute, Leonard Rorer, de créer ce "feedback immédiat". Ils ont divisé des médecins en deux groupes. Ils ont donné des milliers de dossiers à diagnostiquer à chaque groupe. Un groupe recevait un feedback immédiat après le diagnostic, l'autre non. Le but, c'était de voir si le groupe qui recevait un feedback améliorerait la justesse de ses jugements par la suite.

Les résultats étaient pas encourageants. "Aujourd'hui, on se rend compte que nos premières idées sur l'intervention clinique étaient trop simples: un simple feedback de résultat suffit pas à percer cette tâche difficile, il faut d'autres informations," écrivait Goldberg. À ce moment-là, un autre chercheur de l'Oregon Research Institute, dont Goldberg se souvenait plus du nom, a fait une proposition audacieuse. "Il a dit: 'Les modèles que tu crées pour reproduire le raisonnement des médecins sont peut-être plus précis que les diagnostics des médecins,'" se rappelait Goldberg. "J'ai pensé, oh là là, c'est n'importe quoi. C'est pas possible!" Comment un modèle aussi simple pouvait être plus précis que le diagnostic d'un médecin, par exemple pour diagnostiquer un cancer? Le modèle était pourtant fait par les médecins eux-mêmes, puisque toutes les informations venaient d'eux.

Malgré son scepticisme, les chercheurs de l'Oregon Research Institute ont testé cette hypothèse. Et il s'est avéré que leur collègue avait raison. Si tu veux savoir si t'as un cancer, le mieux c'est pas d'aller voir un radiologue pour qu'il analyse ta radio, mais de te faire évaluer par le modèle des chercheurs. Ce modèle battait non seulement l'ensemble des médecins, mais il était aussi plus performant que le meilleur des médecins. Pour battre un médecin, suffisait de le remplacer par une formule créée par un profane.

Quand Goldberg a commencé à écrire son deuxième article, "Man Versus Model Man", il était visiblement moins optimiste sur les experts, et sur les méthodes de l'Oregon Research Institute. "J'ai documenté les limites de nos tentatives d'élucider le jugement humain," il parlait de son premier article dans "American Psychologist". "Étant donné toutes les spéculations qu'on trouve dans les publications sur les interactions complexes possibles dans les diagnostics cliniques des professionnels, on pensait naïvement qu'une simple combinaison linéaire des indices ne suffirait pas à prédire les jugements. On avait donc l'intention de se lancer rapidement dans la construction de modèles mathématiques plus complexes, capables de reproduire fidèlement les stratégies utilisées par les individus dans leurs jugements. C'était inutile." Les médecins semblaient avoir une théorie sur l'importance de chaque caractéristique d'un ulcère dans le diagnostic. Et le modèle mathématique correspondait parfaitement à leur théorie, capable de faire les diagnostics les plus précis. Mais en pratique, les médecins réussissaient pas complètement à suivre leur propre théorie, et se faisaient malheureusement battre par le modèle qu'ils avaient créé.

Cette découverte était importante. Goldberg écrivait: "Si on pouvait appliquer cette conclusion à d'autres domaines du jugement, les méthodes subjectives de recrutement de personnel devraient sûrement s'incliner face aux modèles mathématiques." Mais pourquoi? Pourquoi le jugement d'un expert (comme un médecin) est-il moins précis qu'un modèle créé à partir des connaissances de cet expert? Sur ce point, Goldberg ne pouvait que constater que les experts sont des êtres humains. "Les cliniciens sont pas des machines," écrivait Goldberg, "Même s'ils connaissent tous les faits, et possèdent toutes les compétences nécessaires pour formuler des hypothèses, ils ont pas la fiabilité des machines. Ils sont sujets aux soucis, à la fatigue, à la maladie, à l'influence de l'environnement, aux problèmes relationnels. Tout ça les use, et finit par les amener à prendre des décisions différentes face à la même situation. Pour éliminer ces erreurs aléatoires dans le processus de jugement, et éviter le manque de fiabilité humaine, il faudrait augmenter la validité des résultats prédictifs."

Peu après la publication de cet article, à l'été 1970, Amos Tversky est arrivé à Eugene, dans l'Oregon. Il était de passage, pour rendre visite à son vieil ami Paul Slovic, avant d'aller passer un an à Stanford. Ils avaient étudié ensemble à l'université du Michigan. Slovic, qui était dans l'équipe de basket de l'université, se rappelait encore avoir lancé des ballons avec Amos dans l'allée. Amos était pas dans l'équipe, et la plupart du temps, il envoyait la balle sur le panier. Son lancer ressemblait plus à de la gymnastique qu'à du basket. Son fils, Oren, disait qu'il "lançait la balle au panier en la secouant, à moitié de la vitesse des autres". Malgré tout, Amos avait une passion pour le basket. "Comme certains aiment parler en marchant, Amos aimait lancer des ballons," disait Slovic, en ajoutant prudemment, "Il avait pas l'air de s'entraîner souvent." Après s'être retrouvés, ils ont recommencé à lancer des ballons. En lançant, Amos a raconté à Slovic que Daniel Kahneman et lui réfléchissaient au fonctionnement du cerveau, et qu'ils voulaient explorer la formation du jugement intuitif. "Il a dit qu'ils cherchaient un endroit calme, loin des distractions de l'université, pour se concentrer sur ce sujet," racontait Slovic. Ils avaient déjà quelques conclusions préliminaires sur les raisons pour lesquelles les experts font des erreurs importantes et systématiques: c'est pas juste parce qu'ils ont passé une mauvaise journée. "J'étais fasciné par leur finesse d'esprit," disait Slovic.

Amos avait promis à Stanford qu'il viendrait y faire des recherches pendant l'année 1970-1971. Du coup, ils étaient séparés, Amos en Californie et Daniel Kahneman toujours en Israël. Ils avaient décidé de récolter des données chacun de leur côté pendant cette année. Les données venaient des questions amusantes qu'ils avaient imaginées. Les premiers sujets de Daniel Kahneman étaient des lycéens. Il a demandé à une vingtaine d'étudiants de l'université hébraïque de prendre un taxi et d'aller chercher des jeunes de cet âge dans tout Israël ("Y'a pas beaucoup de lycéens à Jérusalem."). Les étudiants posaient deux ou quatre questions bizarres aux jeunes, et leur demandaient de répondre à chaque question en quelques minutes. "Y'avait beaucoup de questions sur le questionnaire," disait Kahneman, "Les jeunes pouvaient pas toutes les faire. Alors ils en choisissaient quelques-unes."

Réfléchissez à la question suivante:

L'enquête porte sur toutes les familles de la ville qui ont six enfants. Dans 72 familles, l'ordre de naissance est fille, garçon, fille, garçon, garçon, fille.

Selon vous, combien de familles ont l'ordre de naissance garçon, fille, garçon, garçon, garçon, garçon?

Autrement dit, dans cette ville imaginaire, si dans 72 familles de six enfants, l'ordre de naissance est fille, garçon, fille, garçon, garçon, fille, combien de familles de six enfants, selon vous, ont l'ordre de naissance garçon, fille, garçon, garçon, garçon, garçon? Personne sait ce que ces lycéens israéliens pensaient de cette question, mais les étudiants ont récolté 1500 réponses. Et de l'autre côté de l'océan, Amos posait des questions tout aussi étranges à des étudiants de l'université du Michigan et de Stanford.

À chaque tour du jeu, 20 billes sont réparties au hasard entre cinq enfants: Alain, Benoît, Charles, Daniel et Édouard. Observez les répartitions suivantes:

Première répartition Deuxième répartition

Alain: 4 billes Alain: 4 billes

Benoît: 4 billes Benoît: 4 billes

Charles: 5 billes Charles: 4 billes

Daniel: 4 billes Daniel: 4 billes

Édouard: 3 billes Édouard: 4 billes

Lors des tours suivants, les répartitions ci-dessus ont-elles des chances de se reproduire?

Le but de cette question était d'observer comment les gens jugeaient dans des situations où il est difficile d'évaluer les probabilités, ou plutôt, comment ils faisaient des erreurs. Toutes les questions avaient une réponse correcte. Les réponses des sujets étaient comparées aux réponses correctes, et toutes les erreurs étaient analysées en détail. "L'objectif général, c'était: comprendre ce que font les gens?" disait Daniel Kahneman, "Qu'est-ce qui se passe dans leur cerveau quand ils évaluent des probabilités? C'est une question abstraite, mais y'a forcément une réponse."

Dans ces questions imaginaires, la plupart des sujets se trompaient, et c'était bien ce qu'Amos et Daniel Kahneman attendaient, parce qu'ils s'étaient eux-mêmes trompés sur des questions similaires. Plus précisément, Kahneman s'était trompé, et il avait réalisé qu'il avait fait une erreur. Du coup, il a théorisé les raisons de son erreur. Et Amos, qui était fasciné par l'erreur de Kahneman, et par la façon dont Kahneman en avait conscience, avait fini par faire la même erreur. "On s'est tellement concentrés sur ça, que la concentration est devenue de l'intuition," disait Kahneman, "Y'a que les erreurs qu'on a faites nous-mêmes qui nous intéressaient." Si eux deux avaient trébuché sur le même problème, ou s'ils avaient trébuché sans s'en rendre compte, ils pouvaient en déduire que la plupart des gens feraient la même chose. Et ça s'est avéré être le cas. Pendant un an, leurs recherches séparées en Israël et aux États-Unis étaient plus des petites surprises: regardez, c'est comme ça que fonctionne la pensée humaine, c'est étonnant.

Très tôt, Amos avait remarqué que certains aimaient compliquer la vie. Il avait le don de s'éloigner de ces "gens trop compliqués". Mais de temps en temps, il rencontrait des personnes, souvent des femmes, dont la complexité l'intéressait. Au lycée, il s'était lié d'amitié avec Dalia Ravikovitch, qui deviendrait poétesse. Et ça surprenait tout le monde. Son amitié avec Daniel Kahneman était tout aussi surprenante. Un vieil ami d'Amos se rappelait plus tard: "Amos disait toujours: 'Les gens ne sont pas compliqués, c'est les relations entre les gens qui sont compliquées.' Et il faisait une pause, et il ajoutait: 'Sauf Daniel et moi.'" Kahneman avait une qualité qui permettait à Amos de baisser sa garde, et qui lui permettait de devenir quelqu'un d'autre quand il était seul avec Kahneman. "Quand on travaillait ensemble, l'esprit critique d'Amos était mis de côté," disait Kahneman, "Il le faisait rarement avec d'autres. Et c'était justement ça qui rendait notre collaboration possible."

Curieusement, ils voulaient pas être eux-mêmes, mais ils voulaient devenir celui qu'ils étaient quand ils étaient ensemble. Pour Amos, le travail était un jeu, et s'il prenait pas de plaisir à travailler, il pensait que ça valait pas la peine. Et cette mentalité influençait Daniel Kahneman. C'était une sensation nouvelle. Kahneman était comme un enfant qui a le meilleur coffre à jouets du monde, mais qui est tellement hésitant qu'il en reste paralysé. Il a jamais pleinement profité de ses jouets, et il hésite entre le pistolet à eau et le scooter électrique. L'arrivée d'Amos était une exception. C'est lui qui disait à Kahneman: "Allez, réveille-toi! On va tous les essayer!" Plus tard, Kahneman a eu quelques moments de profonde tristesse. Il se mettait à marcher de long en large, en marmonnant: j'ai plus d'inspiration. Même dans ces moments-là, Amos réussissait à le taquiner. Avishai Margalit, un ami commun, se rappelait: "Chaque fois qu'il entendait Kahneman dire 'J'en ai marre, j'ai plus d'idées', Amos disait en riant: 'Kahneman a plus d'idées en une minute que 100 personnes en 100 ans.'" Quand ils s'asseyaient pour écrire, ils étaient tellement proches qu'on se demandait comment ils faisaient. "Quand ils écrivaient, ils étaient assis côte à côte devant la machine à écrire," se rappelait Richard Nisbett, un psychologue de l'université du Michigan, "J'arrivais pas à y croire. C'était comme si quelqu'un d'autre se brossait les dents à ma place." Mais selon Kahneman: "On partageait nos pensées."

Leur premier article, qu'ils considéraient encore un peu comme un amusement dans le monde universitaire, montrait que, face à des problèmes de probabilités qui ont une réponse correcte, les gens ne raisonnent pas comme des statisticiens. Même les statisticiens eux-mêmes ne pensent pas comme des statisticiens. L'article "Belief in the Law of Small Numbers" soulevait une autre question évidente: si les gens ne raisonnent pas statistiquement pour résoudre les problèmes, même ceux qui peuvent être résolus avec des statistiques, alors quel type de raisonnement utilisent-ils? Dans toutes les situations de la vie où le hasard est présent, par exemple à la table de blackjack, comment pensent-ils s'ils ne pensent pas statistiquement? Dans leur deuxième article, ils donnaient une réponse détaillée à cette question. Pour le titre, Amos hésitait. S'il avait pas trouvé un titre qui reflétait bien le sujet de l'article, il refusait d'écrire.

Et cette fois-ci, ils ont choisi un titre obscur. Au moins au début, ils devaient respecter les règles du monde universitaire. Si le titre était trop simple, l'article passerait inaperçu. Ce premier essai d'élucider le mystère du jugement humain s'appelait "Subjective Probability: A Judgment of Representativeness".

Probabilité subjective, les gens peuvent deviner ce que ça veut dire. La probabilité subjective, c'est l'estimation ou l'évaluation personnelle qu'on fait de la probabilité qu'un événement se produise. À minuit, quand tu vois ton fils qui est au collège rentrer sur la pointe des pieds, tu te dis: "Il a sûrement bu de l'alcool." C'est ça, la probabilité subjective. Mais, qu'est-ce que c'est qu'un "jugement de représentativité"? "Le jugement subjectif joue un rôle important dans la vie," commençait l'article, "Les décisions que nous prenons, les conclusions que nous tirons, les explications que nous proposons, sont toutes basées sur notre estimation de la probabilité d'événements incertains, comme un nouvel emploi, un résultat d'élection inconnu, ou une perspective de marché imprévisible." Dans ces situations, le cerveau calcule pas la probabilité correcte. Alors, qu'est-ce qu'il fait?

Daniel Kahneman et Amos Tversky donnaient la réponse: le cerveau remplace les lois du hasard par des règles empiriques. Ils appelaient ces règles empiriques des "heuristiques". Et la première heuristique qu'ils voulaient explorer, c'était la "représentativité".

Les deux auteurs soulignaient que, pour juger, les gens comparent ce qu'ils jugent avec un modèle préétabli dans leur cerveau. Est-ce que ces nuages ressemblent aux nuages que je connais qui annoncent l'orage? Est-ce que cet ulcère ressemble à l'image que j'ai d'une tumeur maligne? Est-ce que Jeremy Lin correspond à mon idée d'une future star de la NBA? Est-ce que ce chef de guerre allemand ressemble à un tueur qui planifie un génocide? Le monde n'est pas seulement une scène de théâtre, c'est aussi un casino. Et la vie de chacun ressemble à une partie de jeu pleine d'incertitudes. Quand les gens évaluent des probabilités dans différents contextes de la vie, ils jugent en réalité la similarité, ou la représentativité. Tu as une idée de base d'un ensemble, par exemple "nuages qui annoncent l'orage", "ulcères de l'estomac qui peuvent devenir cancéreux", "dictateurs qui mettent en œuvre des politiques de génocide", ou "joueurs de NBA". Face à des cas concrets, tu les compares à ton idée de l'ensemble.

Amos et Daniel Kahneman n'ont pas cherché à savoir comment ces modèles mentaux se forment, ni comment les gens jugent la représentativité. Non, ils se sont concentrés sur les situations où les modèles mentaux dans la tête des gens sont les plus évidents. Plus un objet concret ressemble à ton image mentale, plus tu as de chances de reconnaître sa représentativité. Ils écrivaient: "Notre argument est que, dans la plupart des cas, si l'événement A est plus représentatif de l'événement B, on aura tendance à penser que la probabilité de l'événement A est plus élevée que celle de l'événement B." Plus un joueur de basket ressemble à l'image que tu as d'une star de la NBA, plus tu as de chances de le considérer comme un joueur de la NBA.

Ils avaient l'intuition que, dans leurs jugements, les gens font pas des erreurs au hasard, mais des erreurs systématiques. Les questions bizarres qu'ils avaient posées aux lycéens israéliens et aux étudiants américains servaient à explorer et à répertorier les formes des erreurs humaines. C'était une question abstraite. La règle empirique qu'ils appelaient la "représentativité" est pas toujours fausse. Si la façon de penser qu'on adopte dans des situations incertaines conduit parfois à des erreurs de jugement, c'est parce que cette façon de penser est souvent efficace. La plupart de ceux qui deviennent joueurs de NBA correspondent à l'image typique qu'on se fait d'un joueur de NBA. Mais y'a quelques exceptions, et c'est là que les gens font des erreurs systématiques. On peut y voir l'ombre des règles empiriques.

Par exemple, dans les familles de six enfants, l'ordre de naissance peut être garçon, fille, garçon, garçon, garçon, garçon, ou fille, garçon, fille, garçon, garçon, fille. Mais pour les jeunes Israéliens qui ont participé à l'enquête (comme pour tous les jeunes du monde), l'ordre de naissance fille, garçon, fille, garçon, garçon, fille a plus de chances de se produire. Pourquoi? "Parce que la combinaison 5 garçons 1 fille ne correspond pas à la proportion d'hommes et de femmes en Israël," expliquaient-ils. Cette combinaison est pas représentative. De plus, si on demandait aux mêmes jeunes Israéliens de choisir entre deux autres séries d'ordres de naissance (garçon, garçon, garçon, fille, fille, fille et fille, garçon, garçon, fille, garçon, fille), la plupart choisiraient la deuxième. Les deux ordres de naissance sont également possibles. Pourquoi choisissent-ils le deuxième plutôt que le premier? Daniel Kahneman et Amos Tversky expliquaient que c'est parce que les gens pensent que l'ordre de naissance est aléatoire, et dans les ordres ci-dessus, le deuxième a l'air plus aléatoire.

La question suivante est donc: quand est-ce que les règles empiriques sur lesquelles on s'appuie pour

Go Back Print Chapter