Chapter Content
Also, pass auf, der Amos, der hat immer gesagt, egal was dich jemand fragt – Party, Rede halten, aushelfen – bloß nicht sofort zusagen, selbst wenn du Bock hast, ja? Einen Tag drüber schlafen, meinte er. Krass, was man dann ablehnt, was man vorher vielleicht noch gut fand. Der war echt krass drauf, was Zeitplanung angeht, so nach dem Motto: Wenn's mir nicht passt, bin ich weg. Kennst du ja, ne? Bei blöden Meetings oder so, da geht man ja nicht einfach. Amos aber schon. Einfach aufstehen und gehen. Und dann, sagte er, fällt dir in Sekunden eine Ausrede ein, total kreativ, haha. Und das hat er voll durchgezogen, nicht nur bei Partys. Wenn du dich nicht mindestens einmal im Monat ärgerst, weil du was aufgegeben hast, dann hast du nicht genug aufgegeben, meinte er. Alles, was Amos nicht superwichtig fand, flog raus. Was übrig blieb, war also echt wichtig. Und eins, was eigentlich fast rausgeflogen wäre, war so ein Zettel mit paar Sätzen drauf, die er und der Daniel 1972 in Eugene gesagt hatten. Keine Ahnung, warum er den behalten hat.
"Menschen erfinden Geschichten, um vorherzusagen."
"Menschen sagen wenig vorher, aber erklären viel."
"Ob sie wollen oder nicht, Menschen leben mit Unsicherheit."
"Menschen glauben, sie könnten die Zukunft vorhersagen, wenn sie sich nur genug anstrengen."
"Menschen akzeptieren jede Erklärung, die irgendwie passt."
"Das Geschriebene an der Wand ist nur unsichtbare Tinte."
"Menschen wollen immer das Wissen, das sie schon haben, und vermeiden neues Wissen."
"Der Mensch ist ein Wesen der Sicherheit in einem unsicheren Universum."
"Im Kampf zwischen Mensch und Universum wird es eine Überraschung geben."
"Was passiert ist, war unvermeidlich."
Klingt fast wie ein Gedicht, aber es waren Ideen für 'ne neue Arbeit. Zum ersten Mal wollten die beiden ihre Ideen so präsentieren, dass es nicht nur Psychologen checken. Bevor sie zurück nach Israel sind, wollten sie was über menschliche Vorhersagen schreiben. Und wer hätte besser gewusst, was der Unterschied zwischen Einschätzung und Vorhersage ist, als die zwei? Für die war eine Einschätzung ("Der sieht aus wie ein krasser israelischer Offizier") auch 'ne Vorhersage ("Der wird ein krasser israelischer Offizier"). Andersrum genauso. Ohne Einschätzung keine Vorhersage. Der Unterschied? Wenn Unsicherheit dazu kommt, wird aus der Einschätzung 'ne Vorhersage. "Adolf Hitler ist ein guter Redner" ist 'ne Einschätzung. "Adolf Hitler wird Kanzler" ist 'ne Vorhersage, zumindest vor dem 30. Januar 1933. Die Arbeit nannten sie dann "Über die Psychologie der Vorhersage". Da schrieben sie, dass Leute, wenn sie was vorhersagen oder einschätzen müssen, sich nicht an irgendwelche Statistik-Regeln halten. Stattdessen nehmen sie so Abkürzungen, so Heuristiken. Manchmal klappt das, manchmal geht's total daneben.
Im Nachhinein war das Thema eigentlich schon da, als der Daniel beim israelischen Militär war. Die Leute, die Daten von jungen Israelis gecheckt haben, konnten nicht vorhersagen, wer ein guter Offizier wird. Und die Chefs von der Offiziersschule auch nicht. Einmal haben Daniel und Amos einfach so die Berufe von den Kindern von Freunden geraten, und waren total selbstbewusst dabei, haha. Jetzt wollten sie zeigen – oder eher: präsentieren – wie Leute diese "Repräsentativitäts-Heuristik" nutzen, um Sachen vorherzusagen.
Dafür brauchten sie aber erstmal 'ne Aufgabe für die Leute.
Am Ende haben sie sich entschieden, den Leuten nur ein paar Charaktereigenschaften zu geben und sie raten zu lassen, wer später studiert und welches Fach. Erst sollten die Leute schätzen, wie viele Studenten welches Fach wählen.
BWL: 15%
Informatik: 7%
Ingenieurwesen: 9%
Geisteswissenschaften und Pädagogik: 20%
Jura: 9%
Bibliothekswissenschaft: 3%
Medizin: 8%
Physik und Biologie: 12%
Soziologie und Sozialarbeit: 17%
Wenn du raten sollst, was jemand studiert, kannst du diese Prozentzahlen als Basis nehmen. Wenn du nix über den Studenten weißt, aber weißt, dass 15% BWL studieren, dann ist deine beste Schätzung 15%. Wenn du nix weißt, nimm die Basisrate, so die Regel.
Aber was passiert, wenn man doch was weiß? Das wollten Daniel und Amos zeigen. Aber was gibt man den Leuten für Infos? Daniel hat 'nen ganzen Tag in Oregon darüber nachgedacht. Irgendwann hatte er dann so 'nen Prototyp für 'nen Informatikstudenten, den er "Tom W." nannte.
Tom W. ist intelligent, aber nicht kreativ. Er mag Ordnung und Klarheit und plant alles genau. Er schreibt langweilig, aber manchmal blitzt 'n bisschen Humor durch, oder so Sci-Fi-mäßiges Denken. Er will was leisten, aber interessiert sich nicht für andere und redet nicht gern mit Leuten. Er ist egozentrisch, aber hat Prinzipien.
Die Leute sollten dann sagen, wie ähnlich Tom W. den Studenten in den verschiedenen Fächern ist. Also, welches Fach am meisten "Tom W." ist.
Dann haben sie 'ner zweiten Gruppe noch mehr Infos gegeben:
Die Beschreibung von Tom W. hat ein Psychologe gemacht, als Tom in der Oberstufe war. Er hat so 'nen Projektiven Test gemacht. Jetzt ist Tom Student. Was glaubst du, was er studiert? Gib jedem Fach 'ne Wahrscheinlichkeit.
Außerdem haben sie gesagt, dass die Beschreibung vielleicht nicht so genau ist. Erstens, weil sie von 'nem Psychologen ist, und zweitens, weil sie schon älter ist. Amos und Daniel hatten Angst – und sie hatten recht – dass die Leute einfach von der Ähnlichkeit auf die Vorhersage schließen ("Der klingt wie 'n Computerfreak!") und die Basisrate (nur 7% studieren Informatik) und die unsichere Beschreibung ignorieren.
Als Daniel die Beschreibung fertig hatte, kam Robin Dawes ins Institut. Der war Statistik-Experte und super genau. Daniel hat ihm die Beschreibung von Tom W. gezeigt. "Er hat gelächelt und gesagt: 'Computerfreak!'", erzählte Daniel. "Da wusste ich, dass die Studenten in Oregon drauf reinfallen würden."
Und so war's auch. Die Studenten haben einfach geraten, dass Tom W. Informatik studiert, und die Fakten ignoriert. Leute lassen sich von Stereotypen ablenken. Und das hat Amos und Daniel zur nächsten Frage gebracht: Wenn Leute schon mit Infos falsche Vorhersagen machen, was passiert dann, wenn die Infos total egal sind? Die beiden haben sich fast totgelacht, als sie darüber nachgedacht haben, wie man mit irrelevanten Infos das Selbstbewusstsein der Leute beim Vorhersagen steigern kann. Am Ende hat Daniel noch 'ne Figur erfunden, "Dick".
Dick ist 30, verheiratet, keine Kinder. Er ist super fähig und ehrgeizig und wird in seinem Bereich viel erreichen. Alle mögen ihn.
Dann kam das nächste Experiment. Amos und Daniel hatten sich ja schon mal über so 'ne Aufgabe mit 'ner Tüte und Chips gestritten. Jetzt kam so was Ähnliches. Die Leute sollten sich vorstellen, es gibt 'ne Gruppe von 100 Leuten, 70% sind Ingenieure, 30% Juristen. Wie wahrscheinlich ist es, dass jemand, den du zufällig auswählst, Jurist ist? Die Leute haben richtig geantwortet: 30%. Wenn 70% Juristen sind, wie wahrscheinlich ist es dann? Wieder richtig: 70%. Aber dann kam Dick. Daniel hat die Beschreibung von Dick vorgelesen – total egal, sagt nix über seinen Beruf aus. Und plötzlich haben die Leute 50% gesagt. Sie haben die Infos über die Berufe ignoriert und einfach geraten. "Es ist klar, dass Leute anders reagieren, wenn sie keine Infos haben oder wenn sie unnütze Infos haben", schrieben Daniel und Amos. "Wenn sie keine Infos haben, nehmen sie die Basisrate. Wenn sie unnütze Infos haben, ignorieren sie die Basisrate."
In "Über die Psychologie der Vorhersage" ging's dann noch um andere Sachen. Zum Beispiel, dass Sachen, die unser Selbstbewusstsein beim Vorhersagen stärken, oft die Vorhersagen schlechter machen. Am Ende ging's dann wieder um die Frage, die Daniel schon beim Militär beschäftigt hatte: Wie wählt man die richtigen Soldaten aus?
Die Fluglehrer haben immer versucht, die Soldaten positiv zu bestärken, wie's die Psychologen gesagt haben. Wenn 'n Soldat gut geflogen ist, haben sie ihn gelobt. Aber das hat nicht so gut geklappt, fanden die Lehrer. Wenn sie jemanden für 'nen guten Flug gelobt haben, war der nächste Flug oft schlechter. Warum?
Die Leute hatten viele Ideen. Vielleicht werden die Soldaten übermütig durch das Lob. Oder die Lehrer meinen das Lob nicht ehrlich. Aber Daniel hat gecheckt: Auch ohne Lob schwanken die Leistungen. Mal fliegt man gut, mal schlecht. Das ist normal. Aber wenn man das nicht checkt, checkt man die Welt nicht. Wir belohnen Leute für schlechte Leistungen und bestrafen Leute für gute Leistungen, unser Leben lang.
Am Anfang haben Daniel und Amos nicht darüber nachgedacht, wer ihre Sachen liest. Vielleicht nur 'n paar Wissenschaftler, die zufällig Psychologie-Zeitschriften abonniert haben. Bis Sommer 1972 hatten sie fast drei Jahre lang über das Rätsel des menschlichen Urteilsvermögens und der Vorhersage geforscht. Die Beispiele waren entweder aus der Psychologie oder aus komischen Tests mit Schülern und Studenten. Aber sie waren sich sicher, dass ihre Erkenntnisse überall gelten, wo es um Wahrscheinlichkeiten und Entscheidungen geht. Sie wollten ein größeres Publikum. "Der nächste Schritt ist, die Forschung auf wichtige, professionelle Bereiche anzuwenden, wie Wirtschaftsplanung, Technologievorhersage, Politik, Medizin und Recht", schrieben sie. Sie hofften, dass Experten in diesen Bereichen "durch das Erkennen von Fehlern, diese vermeiden, reduzieren und so bessere Entscheidungen treffen können". Sie wollten die ganze Welt als ihr Labor. Und die Versuchskaninchen sollten nicht nur Studenten sein, sondern auch Ärzte, Richter und Politiker. Aber wie?
In Eugene wurde ihr Interesse an der Forschung immer größer. Daniel erinnerte sich: "In dem Jahr haben wir gemerkt, dass wir was Wichtiges machen. Andere haben uns respektiert." Irv Biederman, 'n Psychologieprofessor aus Stanford, war damals da. Anfang 1972 hat er 'nen Vortrag von Daniel über Heuristiken und Fehler gehört. Biederman erzählte: "Nach dem Vortrag hab ich meiner Frau gesagt, dass die Forschung den Nobelpreis für Wirtschaftswissenschaften gewinnen kann. Ich war mir sicher. Er hat Wirtschaft mit Psychologie erklärt. Besser geht's nicht. Er hat erklärt, warum Leute unvernünftige oder falsche Entscheidungen treffen. Das liegt an der Funktionsweise des Gehirns."
Biederman kannte Amos schon von der Uni Michigan. Jetzt war er an der Uni in Buffalo. Amos hat sich immer mit komischen, komplizierten Statistik-Problemen beschäftigt, die vielleicht wichtig waren, aber keiner lösen konnte. "Ich hätte Amos nie nach Buffalo eingeladen, um über seine Statistik zu reden", sagte Biederman. "Das hätte keinen interessiert." Aber die neue Forschung mit Daniel Kahneman fand er super. Sie hat gezeigt: "Die meisten wissenschaftlichen Fortschritte kommen nicht von genialen Momenten, sondern von interessanten Ideen und lustigen Gedanken." Er hat Amos überredet, auf dem Rückweg von Oregon nach Israel in Buffalo vorbeizukommen. In einer Woche hat Amos fünf Vorträge über das Projekt mit Daniel gehalten, jeder für 'n anderes Fach, und alle waren voll. 15 Jahre später, als Biederman 1987 von Buffalo nach Minnesota ging, haben die Leute immer noch von Amos' Vorträgen geschwärmt.
Amos hat die Heuristiken erklärt, die er und Daniel gefunden hatten, und über Vorhersagen gesprochen. Biederman fand den fünften Vortrag am besten. "Die historische Perspektive: Urteilen in Unsicherheit" hieß der. Vor den Geschichtsstudenten hat Amos erklärt, wie man mit ihrer Sichtweise menschliches Verhalten neu betrachten kann.
Im Leben passieren oft Sachen, die wir nicht verstehen. Wir checken nicht, warum jemand so oder so handelt, oder warum 'n Experiment so ausgegangen ist. Aber meistens finden wir schnell 'ne Erklärung, stellen 'ne Hypothese auf oder interpretieren die Fakten so, dass alles klar und normal wirkt. So ist's auch mit der Wahrnehmung der Welt. Menschen sind super darin, Muster in zufälligen Daten zu finden. Wir können leicht Szenarien entwerfen, Erklärungen liefern, aber wir sind schlecht darin, die Wahrscheinlichkeit von Ereignissen zu beurteilen oder kritisch zu hinterfragen. Wenn wir 'ne Hypothese oder Erklärung akzeptiert haben, verstärken wir sie fast immer, und es wird schwer, die Sache anders zu sehen.
Amos hat sich aber noch zurückgehalten. Er hat nicht gesagt, dass "Geschichtsbücher erschreckend langweilig sind, weil vieles darin erfunden ist". Aber was er dann gesagt hat, war vielleicht noch schockierender: Historiker haben die gleichen Denkfehler wie alle anderen. Er sagte: "Historische Urteile sind im Grunde intuitive Urteile, die auf Daten basieren." Auch historische Urteile sind fehlerhaft. Um das zu zeigen, hat Amos 'n Forschungsprojekt von Baruch Fischhoff, 'nem Studenten von der Uni Jerusalem, erwähnt. Damals hat Richard Nixon überraschend angekündigt, nach China und in die Sowjetunion zu reisen. Fischhoff hat die Leute vorhergesagt, wie wahrscheinlich verschiedene Folgen sind, z.B. ob Nixon sich mindestens einmal mit Mao trifft, ob die USA und die Sowjetunion zusammen an Raumfahrtprojekten arbeiten, oder ob Juden in der Sowjetunion verhaftet werden, weil sie mit Nixon reden wollen. Nachdem Nixon zurück war, hat Fischhoff die Leute wieder gefragt, was sie damals für Wahrscheinlichkeiten gesagt haben. Und die Erinnerungen waren total falsch. Jeder dachte, er hätte die richtigen Sachen vorhergesagt, aber das stimmte nicht. Wenn das Ergebnis klar ist, denken die Leute, dass sie es schon immer gewusst haben. Fischhoff hat das später "Hindsight Bias" genannt.
Amos hat den Historikern gesagt, dass ihr Job gefährlich ist: Sie akzeptieren leicht, was sie sehen (und ignorieren, was sie nicht sehen) und basteln daraus überzeugende Geschichten.
Oft können wir nicht vorhersagen, was passiert, aber wenn's passiert, tun wir so, als hätten wir's gewusst und erklären alles. Auch wenn die Infos unvollständig sind, erklären wir Sachen, die wir nicht vorhersagen konnten. Das zeigt 'n großes Problem beim logischen Denken, auch wenn man's nicht gleich sieht. Es lässt uns glauben, dass die Welt nicht unsicher ist und dass wir intelligenter sind, als wir denken. Denn wenn wir 'n Ergebnis erklären können, ohne andere Infos zu haben, dann war das Ergebnis ja vorherbestimmt und wir hätten es wissen müssen. Dass wir's nicht wussten, liegt an uns, nicht an der Unsicherheit der Welt. Wir ärgern uns immer, dass wir Sachen nicht vorhergesehen haben, die hinterher unvermeidlich erscheinen. War das Geschriebene an der Wand schon immer da? Konnten die Leute es sehen?
Sportkommentatoren oder Polit-Experten passen ihre Geschichten an, damit sie zum Ergebnis passen. Und Historiker auch. Sie zwingen Zufallsmustern 'ne Ordnung auf, vielleicht ohne es zu merken. Amos nannte das "kriechender Determinismus" und hat in seinen Notizen geschrieben, was daran so gefährlich ist: "Wer die Vergangenheit so betrachtet, als wäre alles klar gewesen, wird in Zukunft überall Überraschungen erleben."
Wenn wir vergangene Ereignisse falsch sehen, können wir die Zukunft schlechter vorhersagen. Die Historiker vor Amos waren stolz auf ihre "Konstruktionsfähigkeiten". Sie dachten, sie könnten aus Geschichtsfragmenten Erklärungen basteln, die alles vorhersehbar machen. Wenn 'n Historiker die Ursachen und Folgen erklärt hat, ist das einzige Rätsel, warum die Leute das Ergebnis nicht vorhergesehen haben. Biederman erinnerte sich: "Alle Historiker von der Uni waren bei Amos' Vortrag. Danach sind sie alle geknickt gegangen."
Amos meinte, dass wir historische Ereignisse so sehen, dass sie sicher und vorhersehbar wirken, obwohl sie's nicht sind. Nach dem Vortrag hat Biederman die Forschung von Amos und Daniel gecheckt. Er war sich sicher, dass sie alle Bereiche des Lebens beeinflussen wird, überall, wo Experten Wahrscheinlichkeiten einschätzen müssen. Aber die Ideen von Daniel und Amos waren noch auf die Wissenschaft beschränkt. Nur Professoren und Wissenschaftler – meistens Psychologen – hatten sie gehört. Wie die beiden in Jerusalem ihre Erkenntnisse in andere Bereiche bringen sollen, war noch unklar.
Anfang 1973, nach der Rückkehr aus Oregon nach Israel, haben Amos und Daniel 'ne lange Arbeit vorbereitet, in der sie alles zusammenfassen wollten. Sie wollten die wichtigsten Ideen aus ihren vier Arbeiten zusammenbringen und die Leser selbst Schlüsse ziehen lassen. Daniel sagte: "Wir haben beschlossen, es einfach so zu präsentieren: als 'ne psychologische Studie. Was das bedeutet, sollen die Leser entscheiden." Sie dachten, die Zeitschrift "Science" wäre die beste Chance, ihre Forschung über die Psychologie hinaus bekannt zu machen.
Die Arbeit wurde nicht geschrieben, sondern aufgebaut. Daniel sagte: "Ein Satz war ein guter Tag." Beim Aufbau haben sie 'nen klaren Weg gefunden, ihre Ideen mit dem Alltag zu verbinden. Und zwar durch 'nen Artikel von Ron Howard von der Uni Stanford, "Entscheidungsprobleme bei der Hurrikan-Manipulation". Howard war einer der Gründer des neuen Bereichs Entscheidungsanalyse. Die Idee dahinter ist, dass Entscheider verschiedenen Ergebnissen Wahrscheinlichkeiten geben müssen. Sie müssen ihren Denkprozess klar machen, bevor sie entscheiden. Ein Beispiel ist, wie man mit 'nem gefährlichen Hurrikan umgeht. Politiker könnten sich von Entscheidungsanalysten helfen lassen. Die Küste am Golf von Mexiko war gerade von Hurrikan Camille getroffen worden, und der Hurrikan hätte noch schlimmer sein können, wenn er New Orleans oder Miami getroffen hätte. Meteorologen dachten, sie hätten 'ne neue Technik: Silberjodid in Stürme streuen, um sie schwächer zu machen oder umzuleiten. Aber Hurrikane zu manipulieren ist nicht einfach. Wenn die Regierung sich einmischt, ist sie an allem schuld, was der Sturm anrichtet. Wenn nix passiert, lobt keiner die Regierung, weil keiner weiß, wie's ohne die Regierung gewesen wäre. Aber wenn was Schlimmes passiert, ist die Regierung schuld. In dem Artikel hat Howard verschiedene Strategien der Regierung analysiert, auch die Wahrscheinlichkeiten für verschiedene Ergebnisse.
Aber Daniel und Amos fanden die Methode der Entscheidungsanalysten komisch. Sie haben die Hurrikan-Experten in der Regierung an Glücksrädern drehen lassen. Ein Drittel war rot angemalt. Dann haben sie gefragt: "Setzen Sie auf Rot oder darauf, dass der Hurrikan Schäden von über 30 Milliarden Dollar verursacht?" Wenn der Beamte auf Rot gesetzt hat, dachte er, dass die Wahrscheinlichkeit für Schäden von über 30 Milliarden Dollar 33% ist. Dann haben die Analysten ihn an 'nem anderen Rad drehen lassen, wo nur 20% rot waren. Das ging so lange, bis die Prozentzahl zum Gefühl des Beamten gepasst hat. Sie dachten, die Hurrikan-Experten könnten sehr unsichere Ereignisse richtig einschätzen.
Daniel und Amos hatten in ihren früheren Studien schon gezeigt, dass das Gehirn in unsicheren Situationen komisch reagiert und die Wahrscheinlichkeiten falsch einschätzt. Sie glaubten, dass man mit ihren neuen Erkenntnissen über systematische Fehler die Entscheidungen verbessern kann. Zum Beispiel hängt die Einschätzung, wie wahrscheinlich 'n großer Sturm 1973 ist, davon ab, wie gut man sich an Hurrikan Camille erinnert. Aber wie stark beeinflusst das die Einschätzung? "Wir glauben, dass Entscheidungsanalyse mal wichtig wird, und wir können helfen", sagte Daniel.
Die Experten für Entscheidungsanalyse haben sich mit Ron Howard in Menlo Park in Kalifornien getroffen. Im Herbst 1973 sind Daniel und Amos dorthin geflogen. Aber bevor sie ihre Theorie über Unsicherheit auf die echte Welt anwenden konnten, ist was Unerwartetes passiert. Am 6. Oktober haben Ägypten und Syrien – mit Hilfe von Truppen und Flugzeugen aus neun arabischen Ländern – Israel angegriffen. Die Geheimdienste in Israel hatten den Angriff nicht erwartet, schon gar nicht von mehreren Ländern. Die Truppen waren überrascht. Auf den Golanhöhen wurden 100 israelische Panzer von 1400 syrischen Panzern angegriffen. Am Suezkanal wurden 500 israelische Soldaten und drei Panzer von 2000 ägyptischen Panzern und 100.000 Soldaten angegriffen und sofort vernichtet. Amos und Daniel waren in Menlo Park, bei schönstem Wetter, und haben von der Niederlage gehört. Sie sind sofort zum Flughafen und mit dem nächsten Flugzeug zurück nach Israel, um im nächsten Krieg mitzukämpfen.