Chapter Content

Calculating...

Alors, bon, euh… ce chapitre, il parle des mécanismes de la prédiction, quoi. Moi, y'a un truc que Moss disait toujours, c'est que, peu importe ce qu'on te demande de faire – une fête, un discours, filer un coup de main, n'importe quoi – faut jamais dire oui tout de suite. Même si t'as super envie, hein, faut pas. Attends une journée, et t'hallucineras du nombre de trucs que t'aurais acceptés direct, mais qu'après une journée de réflexion, tu refuses. Vraiment.

Et pour tout ce qui est de son emploi du temps, il avait une attitude assez radicale, quoi. Si ça lui plaisait pas, il se barrait. Par exemple, si il devait aller à une réunion chiante ou un cocktail barbant, il se cassait. Sans se gêner. Il disait que une fois que t'as fait ça, tu te rends compte que t'es super créatif, et que en quelques secondes, tu trouves une excuse béton pour te barrer.

En fait, il avait la même approche pour sa vie en général. Si t'as pas un mois où tu te reproches d'avoir abandonné un truc, c'est que t'abandonnes pas assez de trucs, quoi. Tout ce qu'il considérait comme pas essentiel, il le mettait de côté. Donc, tout ce qui restait, c'était vraiment les trucs qui avaient survécu à une sélection impitoyable.

Un de ces trucs, c'est un papier, tout griffonné, avec des phrases qu'il avait dites avec Daniel en 72, juste avant de quitter Eugene. On sait pas trop pourquoi il l'avait gardé, mais bon, c'était là.

Et les phrases, c'était des trucs comme :

"Les gens prédisent en racontant des histoires."
"On prédit moins qu'on explique."
"Qu'on le veuille ou non, on vit dans l'incertitude."
"Les gens croient qu'en faisant de leur mieux, ils peuvent prédire le futur."
"Les gens acceptent n'importe quelle explication qui colle aux faits."
"Ce qui est écrit sur le mur, c'est de l'encre invisible."
"On cherche toujours à obtenir les connaissances qu'on a déjà, et on fuit les nouvelles connaissances."
"L'homme est un être de certitude, jeté dans un univers d'incertitude."
"Dans le match entre l'homme et l'univers, la fin est toujours surprenante."
"Ce qui arrive est ce qui était inévitable."

On dirait un peu un poème, hein ? Mais en fait, c'était des idées pour un article qu'ils préparaient. Ils voulaient essayer de présenter leurs idées différemment, pour toucher un public plus large que juste la psychologie. Avant de rentrer en Israël, ils voulaient écrire sur la prédiction humaine.

Parce que, faut dire, personne ne connaissait mieux la différence entre jugement et prédiction qu'eux. Pour eux, juger ("il a l'air d'un bon officier israélien"), ça impliquait de prédire ("il deviendra un bon officier israélien"). Et la prédiction impliquait aussi un jugement, sinon comment tu prédis ? La différence, c'est que quand tu mets de l'incertitude dans un jugement, ça devient une prédiction. Par exemple, "Adolf Hitler est un orateur talentueux", c'est un jugement. "Adolf Hitler deviendra chancelier d'Allemagne", c'est une prédiction… du moins, jusqu'au 30 janvier 1933.

Du coup, ils ont appelé leur article "La Psychologie de la Prédiction". Et dedans, ils disaient que quand les gens font des prédictions ou des jugements dans l'incertitude, ils utilisent pas la théorie des probabilités. Non, ils utilisent des raccourcis mentaux, des "heuristiques". Des fois, ça marche bien, des fois, ça conduit à des erreurs systématiques.

En y repensant, cette question de la prédiction avait déjà commencé quand Daniel était dans l'armée. Les gens qui analysaient les données sur les jeunes israéliens pouvaient pas prédire qui deviendrait un bon officier. Les chefs de l'école de formation pouvaient pas prédire quels officiers seraient les meilleurs au combat, ou même juste pour encadrer les troupes. Une fois, Daniel et Amos ont même essayé de prédire les métiers des enfants de leurs amis, et ils ont été surpris de voir à quel point ils étaient sûrs d'eux. Du coup, ils voulaient comprendre comment les gens utilisaient ces fameuses heuristiques pour prédire.

Mais pour ça, fallait d'abord donner des tâches de prédiction aux participants de leur étude.

Alors, ils ont décidé de donner des infos partielles sur des étudiants, et de demander aux participants de prédire s'ils feraient des études supérieures, et quelle matière ils choisiraient. D'abord, ils ont demandé aux participants d'estimer le pourcentage d'étudiants qui choisissaient chaque matière. Voilà ce qu'ils ont répondu :

Commerce : 15%
Informatique : 7%
Ingénierie : 9%
Lettres et Éducation : 20%
Droit : 9%
Bibliothéconomie : 3%
Médecine : 8%
Physique et Sciences de la Vie : 12%
Sociologie et Travail Social : 17%

Pour prédire la spécialité d'un étudiant, tu peux utiliser ces pourcentages comme "taux de base", quoi. C'est-à-dire que si t'as aucune info sur l'étudiant, mais que tu sais que 15% des étudiants font Commerce, alors ta meilleure prédiction, c'est 15%. La règle de base, c'est que si t'as aucune info, le taux de base, c'est ta réponse.

Mais comment les gens prédisent quand ils ont des infos ? C'est ça que Daniel et Amos voulaient montrer. Mais quelles infos donner ? Daniel a passé une journée entière à y réfléchir à l'Oregon Research Institute. Et après une nuit blanche, il a enfin créé un profil d'étudiant en informatique. Il l'a appelé "Tom W".

Tom W, il était intelligent, mais pas super créatif. Il aimait l'ordre, la clarté, il voulait tout contrôler. Il écrivait de manière ennuyeuse, mais parfois, il y avait des blagues ou des idées de science-fiction qui sortaient du lot. Il voulait être compétent, mais il se souciait pas des autres, il aimait pas le contact. Il était égocentrique, mais il avait des principes.

Ils allaient demander à un groupe de participants, qu'ils appelleraient le groupe "similarité", d'évaluer à quel point Tom W ressemblait à un étudiant dans chaque matière. Pour savoir quelle matière "représentait" le mieux Tom W.

Ensuite, ils donneraient à un autre groupe, le groupe "prédiction", ces infos supplémentaires :

"La description de la personnalité de Tom W a été faite par un psychologue quand il était au lycée, en utilisant un test projectif. Tom est maintenant étudiant. Estimez la probabilité qu'il soit dans chaque matière."

Ils ont aussi dit aux participants que la description de Tom W était pas forcément fiable. D'abord, c'était un psychologue qui l'avait faite, et ensuite, ça datait d'il y a quelques années. Amos et Daniel avaient peur que les gens passent direct du jugement de similarité à la prédiction ("il a l'air d'un geek informatique!"), et qu'ils oublient le taux de base (seulement 7% des étudiants font informatique) et la fiabilité douteuse de la description.

Le matin où Daniel a fini le profil de Tom W, la première personne qui est arrivée à l'institut, c'était Robin Dawes. C'était un expert en statistiques, connu pour sa rigueur. Daniel lui a montré la description de Tom W. "Il a lu, et il a souri en coin, comme s'il avait compris", dit Daniel. "Et il a dit : 'Un geek informatique !'. Ça m'a rassuré, je savais que la description allait marcher sur les étudiants de l'Oregon."

Et effectivement, les étudiants de l'Oregon ont deviné direct que Tom W était en informatique, en ignorant les données objectives. Ça montrait que les gens se laissaient influencer par les stéréotypes. Du coup, Amos et Daniel se sont posé la question suivante : si les gens font des prédictions irrationnelles avec des infos pertinentes, qu'est-ce qu'ils feraient avec des infos totalement inutiles ? En réfléchissant à cette idée – donner des infos sans intérêt pour augmenter la confiance des gens – ils étaient souvent morts de rire, enfermés dans leur bureau. Finalement, Daniel a créé un autre personnage, qu'il a appelé "Dick".

Dick, c'était un homme de 30 ans, marié, sans enfants. Il était doué, motivé, et il avait un grand potentiel dans son domaine. Il était apprécié de ses collègues.

Ensuite, ils ont fait une autre expérience. Amos et Daniel s'étaient déjà disputés à l'université hébraïque sur le test des sacs et des jetons. Cette expérience s'en inspirait. Ils ont dit aux participants qu'il y avait un groupe de 100 personnes, dont 70% étaient ingénieurs et 30% étaient avocats. Si on choisissait une personne au hasard, quelle était la probabilité que ce soit un avocat ? Les participants ont répondu 30%, ce qui était juste. Si 70% étaient avocats et 30% ingénieurs, quelle était la probabilité que la personne choisie soit un avocat ? Encore une fois, ils ont bien répondu : 70%. Mais quand ils ont remplacé la personne choisie au hasard par "Dick", et qu'ils ont lu la description de Dick – des infos inutiles qui disaient rien sur son métier – les participants ont répondu 50%. Ils avaient ignoré les proportions des deux professions, et ils ont basé leur réponse sur des infos qui servaient à rien. "Il est clair que les gens réagissent différemment quand ils ont pas d'infos, et quand ils ont des infos inutiles", ont écrit Daniel et Amos. "Quand ils ont pas d'infos, ils utilisent les probabilités de base. Mais quand ils ont des infos inutiles, ils les oublient."

Ils ont aussi exploré d'autres idées dans leur article sur la psychologie de la prédiction. Par exemple, les facteurs qui augmentent la confiance dans une prédiction peuvent aussi réduire sa précision. Et à la fin de l'article, ils sont revenus à la question que Daniel s'était posée dans l'armée : comment sélectionner et former les recrues.

Les instructeurs de l'école de pilotage, ils ont suivi les conseils des psychologues et ils ont toujours encouragé les nouvelles recrues. Chaque fois qu'un soldat réussissait une mission, ils le félicitaient. Mais après un certain temps, les instructeurs se sont rendus compte que ça marchait pas. Au contraire, quand ils félicitaient un élève pour une performance exceptionnelle, il faisait moins bien la fois suivante. Comment expliquer ça ?

Les participants ont proposé plein d'explications. Ils ont pensé que les félicitations rendaient les élèves trop confiants. D'autres ont pensé que les félicitations des instructeurs étaient pas sincères. Mais Daniel, lui, il a compris le truc. Même si les instructeurs disaient rien, les performances des élèves allaient quand même varier. S'ils avaient fait un vol moyen, ils allaient s'améliorer la fois suivante. S'ils avaient fait un vol parfait, ils allaient forcément faire des erreurs. Quand les gens comprennent pas la régression vers la moyenne, ils comprennent pas le monde. On passe notre vie à récompenser les autres et à être punis pour les avoir récompensés.

Quand ils ont écrit leurs premiers articles, Daniel et Amos savaient pas qui allait les lire. Peut-être juste quelques universitaires abonnés à des revues de psychologie. En été 72, ils avaient passé presque trois ans à étudier les mystères du jugement et de la prédiction. Les exemples qu'ils utilisaient venaient de la psychologie, ou des tests bizarres qu'ils avaient inventés pour les étudiants. Mais ils étaient persuadés que leurs conclusions étaient valables dans tous les domaines où il y avait des jugements de probabilité et des prises de décision. Ils ont compris qu'ils devaient trouver un public plus large. "La priorité pour la prochaine étape, c'est de diffuser cette recherche et de l'appliquer à des activités professionnelles de haut niveau, comme la planification économique, la prévision technologique, les décisions politiques, les diagnostics médicaux, et l'évaluation des preuves juridiques", ont-ils écrit. Ils espéraient que les experts de ces domaines, "en étant conscients des biais, pourraient les éviter, les réduire, et prendre de meilleures décisions". Ils voulaient transformer le monde entier en laboratoire. Et les cobayes, ce seraient plus seulement des étudiants, mais aussi des médecins, des juges et des politiciens. Mais comment faire ?

À Eugene, leur intérêt pour leur travail grandissait de jour en jour. Daniel se souvient : "C'est cette année-là qu'on a vraiment compris qu'on faisait un truc important. Les autres commençaient à nous regarder avec admiration." Erv Biederman, un professeur associé de psychologie de Stanford, était en visite là-bas. Début 72, il avait entendu Daniel parler des heuristiques et des biais à Stanford. Biederman se souvient : "Je suis rentré chez moi et j'ai dit à ma femme que cette recherche méritait le prix Nobel d'économie. J'étais persuadé. Il utilisait la psychologie pour étudier l'économie. Je voyais rien de plus puissant. Il expliquait pourquoi les gens prenaient des décisions irrationnelles ou fausses. Tout ça à cause du fonctionnement du cerveau."

Biederman connaissait Amos depuis l'université du Michigan. Maintenant, il enseignait à l'université de l'État de New York, à Buffalo. L'Amos qu'il connaissait passait son temps sur des questions de mesures statistiques obscures, importantes peut-être, mais impossibles à résoudre. "J'aurais jamais invité Amos à Buffalo pour parler de ses mesures statistiques", dit Biederman. Personne aurait été intéressé, personne aurait compris. Mais cette nouvelle recherche avec Daniel Kahneman l'avait enthousiasmé. Ça confirmait ce que Biederman pensait déjà : "La plupart des progrès scientifiques viennent pas de moments de génie, mais d'idées intéressantes et de jeux d'esprit." Il a convaincu Amos de s'arrêter à Buffalo pendant une semaine, en été 72, sur le chemin de son retour en Israël depuis l'Oregon. Pendant cette semaine, Amos a donné cinq conférences sur son projet avec Daniel, chacune sur un thème différent, chacune pour un public différent. Quinze ans plus tard, quand Biederman a quitté Buffalo pour aller à l'université du Minnesota en 87, les gens parlaient encore des conférences d'Amos.

Amos a présenté les heuristiques qu'il avait découvertes avec Daniel, et il a parlé des problèmes de prédiction. Ce qui a le plus marqué Biederman, c'est la cinquième et dernière conférence. "La perspective de l'histoire : juger dans l'incertitude", c'était le titre de la conférence d'Amos. Devant une salle pleine d'historiens, Amos a expliqué comment on pouvait regarder le comportement humain d'une nouvelle manière, à partir de ses travaux avec Daniel.

Dans notre vie personnelle et professionnelle, il arrive souvent des trucs qu'on comprend pas. On comprend pas pourquoi quelqu'un a fait ça ou ça, on comprend pas pourquoi les résultats d'une expérience sont comme ça, etc. Mais en général, on trouve une explication très vite. On propose une hypothèse, on interprète les faits pour que ça ait du sens, que ça soit clair, normal. C'est pareil quand on perçoit le monde extérieur. On est très doués pour trouver des schémas ou des tendances dans des données aléatoires. On peut facilement imaginer des scénarios, donner des explications, mais par contre, on a du mal à évaluer la probabilité des événements, ou à les regarder avec un esprit critique. Une fois qu'on a accepté une hypothèse ou une explication, on a tendance à l'amplifier, et on a du mal à voir le problème d'une autre manière.

Amos était assez diplomate dans sa façon de parler. Il a pas dit, comme d'habitude, "les livres d'histoire sont ennuyeux à en être consternants, parce qu'une grande partie est inventée". Mais ce qu'il a dit ensuite a peut-être été encore plus choquant pour son public : les historiens, comme tout le monde, sont sujets aux biais cognitifs qu'il avait identifiés avec Daniel. Il a dit : "Les jugements sur l'histoire, d'un point de vue macro, sont aussi des jugements intuitifs basés sur des données." Les jugements historiques sont aussi influencés par des biais. Pour illustrer ça, Amos a parlé d'un projet de recherche d'un étudiant de l'université hébraïque, Baruch Fischhoff. À l'époque, Richard Nixon avait annoncé un voyage en Chine et en URSS, ce qui avait surpris tout le monde. Fischhoff a utilisé cet événement pour créer un test. Il a demandé aux gens de prédire les conséquences possibles du voyage de Nixon, par exemple, la probabilité que Nixon rencontre Mao Zedong au moins une fois, la probabilité que les États-Unis et l'URSS lancent un projet spatial commun, la probabilité que des Juifs soviétiques soient arrêtés pour avoir essayé de parler à Nixon. Après le voyage de Nixon, Fischhoff a demandé aux mêmes personnes de se souvenir de leurs estimations de probabilité. Et là, il y a eu un gros problème de mémoire. Tout le monde pensait qu'ils avaient prédit avec précision ce qui s'était passé, mais en fait, ils avaient pas fait d'estimations aussi élevées. C'est-à-dire que quand la fin était connue, ils pensaient que ça s'était passé comme ils l'avaient prévu. Des années plus tard, Amos a appelé ce phénomène le "biais rétrospectif".

Pendant sa conférence, Amos a expliqué aux historiens les risques de leur métier : accepter trop facilement ce qu'ils voient (et ignorer ce qu'ils voient pas ou peuvent pas voir), et construire des histoires convaincantes à partir de ces faits.

Souvent, on peut pas prévoir ce qui va arriver. Mais quand ça arrive, on a l'impression qu'on l'avait prévu, et on explique tout très bien. Même quand on a pas toutes les infos, on arrive à expliquer l'imprévisible. Ça montre un gros défaut de notre logique, même si on le voit pas. Ça nous fait croire que le monde est pas si incertain que ça, et qu'on est plus intelligents qu'on le pense. Parce que si on peut expliquer un truc imprévisible en connaissant juste la fin, ça veut dire que la fin était écrite à l'avance, et qu'on aurait dû la prévoir. Si on l'a pas prévue, c'est qu'on est pas très malins, pas que le monde est incertain. On s'en veut toujours de pas avoir vu ce qui allait arriver. On pense que les signes étaient là, mais est-ce qu'on les voyait vraiment ?

Les commentateurs sportifs ou politiques, ils changent leur discours pour que ça colle à la réalité. Ils essaient de justifier ce qui s'est passé. Les historiens font pareil. Ils imposent des règles sur des événements aléatoires, parfois sans s'en rendre compte. Amos appelait ça le "déterminisme rampant", et il a noté dans ses papiers un des dangers : "Celui qui regarde le passé avec l'idée que tout était prévisible, va se retrouver face à un avenir plein de surprises."

Quand on se trompe sur ce qui s'est passé, c'est plus difficile de prédire l'avenir. Les historiens devant Amos étaient fiers de leur "capacité de construction". Ils pensaient qu'ils pouvaient expliquer les choses avec des bouts d'histoire, et que ça rendait le passé prévisible. Mais une fois que les historiens ont expliqué les causes et les conséquences d'un événement, le seul mystère qui reste, c'est pourquoi les gens n'ont pas vu la fin dès le début. Biederman se souvient : "Tous les historiens de l'école sont allés à la conférence d'Amos, et ils sont repartis la tête basse."

Amos a expliqué que la façon dont on perçoit l'histoire, ça donne l'impression que le passé était certain et prévisible, alors que c'est pas vrai. Après ça, Biederman a compris l'importance des travaux d'Amos et de Daniel. Il était sûr que ça allait influencer tous les aspects de la vie humaine, tous les domaines où on demande à des experts d'évaluer la probabilité d'événements incertains. Mais les idées de Daniel et d'Amos étaient encore limitées au monde universitaire. Seuls les professeurs, les chercheurs, surtout en psychologie, avaient entendu parler de leurs travaux. Comment ces deux chercheurs qui travaillaient en Israël allaient-ils faire pour diffuser leurs découvertes dans d'autres domaines ? C'était encore un mystère.

Début 73, après avoir quitté Eugene et être retournés en Israël, Amos et Daniel ont commencé à préparer un long article pour résumer toutes leurs découvertes. Ils voulaient rassembler les idées principales de leurs quatre articles, et laisser les lecteurs les interpréter eux-mêmes. Daniel a dit : "On a décidé de le présenter tel quel : une simple étude de psychologie. On a laissé aux lecteurs le soin de voir les implications." Eux, ils pensaient que si leur recherche devait sortir du domaine de la psychologie, le magazine "Science" était le meilleur endroit pour ça.

Cet article, il a plus été construit qu'écrit (Daniel disait : "Une phrase, c'était une bonne journée."). En construisant l'article, ils ont trouvé un moyen de relier leurs idées à la vie quotidienne des gens. C'était un article écrit par Ron Howard, un professeur de Stanford, qui s'appelait "Les problèmes de décision dans le contrôle des ouragans". Howard était un des fondateurs de l'analyse de la décision. L'idée centrale de ce domaine, c'est que les gens qui prennent des décisions doivent donner une probabilité à chaque résultat. Ça demande de clarifier le processus de pensée avant de prendre une décision. Comment gérer un ouragan dangereux, par exemple ? Les politiciens peuvent demander à des analystes de la décision de les aider. La côte du golfe du Mexique venait d'être touchée par l'ouragan Camille, qui aurait pu être encore pire s'il avait frappé La Nouvelle-Orléans ou Miami. Les météorologues pensaient avoir trouvé une nouvelle technique : envoyer de l'iodure d'argent dans les tempêtes pour réduire leur force, et même changer leur direction. Mais manipuler les ouragans, c'était pas facile. Si le gouvernement intervenait, il serait responsable de tous les dégâts causés par la tempête. Si tout se passait bien, personne, ni le public, ni les tribunaux, n'allait féliciter le gouvernement, parce que personne ne saurait ce qui se serait passé s'il n'était pas intervenu. Mais si les dégâts étaient importants, toute la société allait demander au gouvernement de rendre des comptes pour les destructions de l'ouragan. Dans son article, Howard analysait les mesures que le gouvernement pouvait prendre, et il estimait la probabilité de chaque résultat.

Mais Daniel et Amos trouvaient bizarre la façon dont les analystes de la décision obtenaient les probabilités des experts en ouragans. Les analystes demandaient aux experts de jouer à une sorte de roulette. Un tiers de la roulette était peint en rouge. Ils demandaient : "Vous pariez sur le rouge, ou vous pariez sur un ouragan qui cause plus de 30 milliards de dollars de dégâts ?" Si l'expert répondait le rouge, ça voulait dire qu'il pensait que la probabilité d'un ouragan à plus de 30 milliards de dollars de dégâts était de 33%. Après, les analystes lui demandaient de jouer à une autre roulette, où seulement 20% était en rouge. Ils continuaient comme ça jusqu'à ce que le pourcentage de rouge corresponde à l'estimation de probabilité de l'expert pour un ouragan à plus de 30 milliards de dollars de dégâts. Ils partaient du principe que les experts en ouragans pouvaient estimer correctement des événements très incertains.

Daniel et Amos avaient déjà montré dans leurs recherches que le cerveau réagissait de différentes manières face à l'incertitude, et que ça influençait la précision des jugements de probabilité. Ils pensaient qu'avec leurs travaux sur les biais systématiques, ils pouvaient améliorer la précision des jugements et des décisions. Par exemple, si on devait estimer la probabilité d'une grosse tempête en 73, la réponse de quelqu'un dépendrait de la fraîcheur de ses souvenirs. C'est-à-dire qu'elle dépendrait du fait qu'il se souvienne bien de l'ouragan Camille ou pas. Mais dans quelle mesure exactement ? "On pense que l'analyse de la décision va devenir importante, et on peut y contribuer", a dit Daniel.

Les grands experts en analyse de la décision étaient réunis à l'Institut de Stanford, à Menlo Park, en Californie. En automne 73, Daniel et Amos ont pris l'avion pour les rencontrer. Mais avant qu'ils aient pu appliquer leur théorie de l'incertitude au monde réel, il s'est passé un truc imprévu. Le 6 octobre, une armée de la coalition égyptienne et syrienne – avec l'aide de neuf autres pays arabes – a attaqué Israël. Les experts des services de renseignement israéliens avaient pas prévu une attaque, encore moins une attaque de coalition. Les troupes ont été prises par surprise. Sur le plateau du Golan, une centaine de chars israéliens ont été attaqués par 1400 chars syriens. Le long du canal de Suez, une garnison de 500 soldats israéliens et trois chars ont été anéantis par 2000 chars et 100 000 soldats égyptiens. Amos et Daniel étaient à Menlo Park, dans un temps clair et ensoleillé, quand ils ont appris la nouvelle choquante de la défaite de l'armée israélienne. Ils sont allés à l'aéroport et ont pris le premier vol pour Israël, pour participer à une autre guerre.

Go Back Print Chapter