Chapter Content

Calculating...

Also, ich muss echt sagen, diese Geschichte von dem Treffen zwischen Daniel und Amos, das ist schon 'ne Hausnummer. Die waren beide an der Uni in Michigan, aber irgendwie... keine Ahnung, haben sie sich nie wirklich über den Weg gelaufen. Der eine hat sich mit Pupillen beschäftigt, der andere mit mathematischen Modellen. "Wir hatten einfach keine Gemeinsamkeiten", hat Daniel gesagt.

Und dann, plötzlich, im Frühling '69, steht Amos in Daniels Seminar. Alle waren total überrascht, weil Daniel eigentlich nie Gäste eingeladen hat, das war immer so sein Ding alleine. Und Amos, als... ja, als Mathe-Psychologe, hat da irgendwie nicht so reingepasst in Daniels eher praxisorientierten Kurs. Und überhaupt, die beiden, die waren wohl nicht so richtig grün miteinander. Irgendwie, so haben's die Studenten empfunden, da war so 'ne Konkurrenz im Spiel.

Ein anderer Psychologe, Amnon Rapoport, der hat wohl schon vorher gespürt, dass Daniel Amos und ihn irgendwie komisch findet. "Ich glaube, er hatte Angst vor uns", hat Amnon gesagt. Daniel meinte aber nur, er war neugierig auf Amos. "Ich wollte ihn einfach besser kennenlernen", hat er gesagt.

Also hat Daniel Amos in sein Seminar eingeladen und ihm freie Hand gelassen, worüber er reden will. Und was macht Amos? Er redet nicht über seine eigene Forschung – die war ihm vielleicht zu theoretisch für das Seminar. Die hatte auch wenig mit der Realität zu tun. Und Daniel, der hat sich halt schon immer mehr für echte Probleme interessiert, obwohl er eigentlich ein Einzelgänger war.

Heutzutage wird Amos ja oft als "mathematischer Psychologe" bezeichnet, aber das ist irgendwie auch 'n bisschen komisch. Für Psychologen wie Daniel, die nix mit Mathe am Hut haben, sind Mathe-Psychologen so Leute, die ihr Unwissen über Psychologie mit Mathe zu kaschieren versuchen und dann irgendwelche sinnlosen Sachen machen. Und für die Mathe-Psychologen sind die anderen Psychologen halt einfach nur dumm, weil sie nicht verstehen, wie wichtig ihre Forschung ist. Damals hat Amos gerade mit 'ner Gruppe von Mathe-Genies an so einem dreibändigen, super komplizierten Lehrbuch gearbeitet, "Grundlagen der Messung", über tausend Seiten voller Argumente und Beispiele. Super theoretisch, aber irgendwie auch... naja, wenn's keiner liest, bringt's halt auch nix.

Also hat Amos im Seminar von 'ner anderen Studie erzählt, von 'nem Labor in Michigan, wo es darum ging, wie Leute auf neue Infos reagieren, wenn sie Entscheidungen treffen. Da haben die so 'n Experiment gemacht mit zwei Beuteln voller Chips, rote und weiße. In dem einen Beutel waren mehr weiße, in dem anderen mehr rote. Und die Leute mussten blind einen Beutel ziehen und dann Chips rausnehmen, einen nach dem anderen, und jedes Mal sagen, welchen Beutel sie wohl gezogen haben.

Das Coole an dem Experiment war, dass man da 'ne ganz genaue Antwort drauf kriegen konnte: Wie wahrscheinlich ist es, dass ich den Beutel mit den roten Chips gezogen habe? Und zwar mit dem Bayes-Theorem, benannt nach irgendeinem Typen, der schon lange tot war. Jedes Mal, wenn die Leute 'nen Chip gezogen haben, konnten sie mit dem Theorem ausrechnen, wie wahrscheinlich der eine oder der andere Beutel ist. Am Anfang war's 50:50, aber dann hat sich die Wahrscheinlichkeit jedes Mal verändert, je nachdem, welche Farbe der Chip hatte.

Klar, die Wahrscheinlichkeit hängt davon ab, wie viele rote und weiße Chips in den Beuteln sind, das muss man wissen. Wenn du weißt, in dem einen Beutel sind fast nur rote und in dem anderen fast nur weiße, dann kannst du natürlich viel schneller 'ne Aussage treffen. Aber was sagt das sonst noch aus? Wenn du das in die Formel eingibst, kriegst du die Antwort. Wenn in einem Beutel 75 % rote und 25 % weiße Chips sind und du ziehst dreimal hintereinander 'nen roten Chip, dann ist es dreimal wahrscheinlicher, dass du den roten Beutel hast. Wenn du dreimal 'nen weißen ziehst, dann ist es dreimal unwahrscheinlicher.

Je größer der Unterschied zwischen den roten und weißen Chips ist, desto schneller ändert sich die Wahrscheinlichkeit. Wenn du aus 'nem Beutel mit 75 % roten Chips dreimal 'nen roten Chip ziehst, dann ist es mit 'ner Wahrscheinlichkeit von über 96 % der rote Beutel.

Die Leute im Labor wussten aber nix von dem Theorem. Sonst hätte das Experiment ja keinen Sinn gemacht. Sie mussten raten, damit die Psychologen vergleichen konnten, wie die Leute raten und wie die echte Wahrscheinlichkeit ist. Sie wollten rausfinden, ob unser Gehirn irgendwie von Natur aus statistisch denkt. Ob wir auch ohne Formeln richtig raten können.

Die Psychologen dachten, das ist total wichtig, weil man das auf alles Mögliche anwenden kann: Wie entscheiden Investoren aufgrund von Geschäftsberichten? Wie beurteilen Patienten ihren Zustand nach 'ner Diagnose? Wie machen Politiker ihre Politik nach Umfragen? Und so weiter. 'Ne 20-jährige Frau, die 'nen Knoten in der Brust findet, hat 'ne viel höhere Wahrscheinlichkeit, dass es 'ne Fehldiagnose ist als 'ne 40-jährige, weil Brustkrebs bei jungen Frauen seltener ist. Merken die Leute das? Und wenn ja, wie gut? Solche Wahrscheinlichkeitsspiele gibt's ja überall im Leben. Wie gut sind wir darin?

Amos hat dann erzählt, dass die Leute in Michigan rausgefunden haben, dass die Leute schon merken, wenn sie 'nen roten Chip ziehen, dass der Beutel wahrscheinlich eher rot ist. Wenn sie dreimal 'nen roten Chip ziehen, dann schätzen sie, dass die Wahrscheinlichkeit, dass der Beutel rot ist, dreimal so hoch ist wie vorher. Das ist schon mal richtig, aber laut Bayes-Theorem müsste es 27 Mal so hoch sein. Die Leute denken also in die richtige Richtung, aber nicht so stark, wie sie eigentlich sollten. Die Forscher haben das "konservative Bayesianer" genannt, also so, als ob wir die Formel schon im Kopf hätten, aber halt nur so halb.

Viele Forscher haben das geglaubt, dass wir Menschen uns irgendwie an der Formel orientieren. Das hat auch zu dem gepasst, was man damals so über Menschen gedacht hat. So wie beim Billardspielen: Man rechnet nicht genau aus, welchen Winkel man braucht oder wie viel Kraft, aber man spielt trotzdem so, als ob man Physik studiert hätte. Unser Gehirn findet irgendwie die richtige Lösung. Wie, ist egal. Genauso ist das beim Wahrscheinlichkeiten einschätzen. Wir rechnen nicht genau, aber wir sind trotzdem oft ziemlich gut.

Daniel war aber irgendwie skeptisch. Er fand das komisch. "Amos hat da irgendwas erzählt, was die Leute da so machen, da glaubt man das halt einfach mal." "Wenn man sowas in 'ner Fachzeitschrift liest, dann denkt man, da muss ja was dran sein, sonst würde das ja nicht da stehen." Aber das Experiment, das fand Daniel irgendwie blöd. Wenn man 'nen roten Chip zieht, dann denkt man, der Beutel ist wahrscheinlich rot. Ja, was denn sonst? Daniel hat sich aber vorher nie so richtig mit Denken beschäftigt. Für ihn war Denken eher so wie Sehen. Und das Experiment, das hat für ihn nicht so richtig zu dem gepasst, wie Leute wirklich denken. Weil das, was man sieht und hört, das kann ja auch 'ne Täuschung sein.

Daniel hat sich immer für die Gestaltpsychologie interessiert, die ja viel mit optischen Täuschungen gearbeitet hat. Er fand Denken nicht so vertrauenswürdig. Wir sind keine geborenen Statistiker, unser Gehirn liefert nicht einfach so die richtige Antwort. Da muss man sich nur mal in 'ne Statistik-Vorlesung setzen. Die Studenten wissen nicht von Geburt an, wie wichtig die Basisrate ist. Sie ziehen aus kleinen Stichproben genauso schnell Schlüsse wie aus großen. Daniel selbst, der ja eigentlich 'n guter Statistik-Professor war, hat ja auch mal 'nen Fehler gemacht, als er aus der Vorliebe israelischer Kinder für bestimmte Zelte irgendwelche Schlüsse ziehen wollte, obwohl er nur wenige Kinder befragt hatte. Er dachte, 'n paar Chips im Beutel sagen genauso viel aus wie viele.

Daniel fand also, wir sind keine "konservativen Bayesianer", wir sind überhaupt keine Statistiker. Wir urteilen einfach so nach Gefühl. Wenn man sagt, unser Gehirn ist wie 'n Statistiker, dann ist das nur 'n Vergleich. Aber 'n schlechter. "Ich weiß, dass ich ein Bauchmensch bin", hat er gesagt, "aber ich weiß auch, dass ich nicht dümmer bin als andere."

Die Psychologen in Michigan, das war für Daniel so wie die Psychoanalytiker in Österreich. Die haben sich alle selbst überschätzt. Das Experiment von Amos, das hat nur Leute überzeugt, die eh schon dachten, wir sind eigentlich ganz gute Statistiker.

Wenn man mal drüber nachdenkt, ist das ja auch total absurd. Im echten Leben ist ja nix so klar wie in dem Experiment. Im besten Fall zeigt das Experiment nur, dass wir nicht gut darin sind, zu raten. Und wenn man gut darin ist, Chipfarben zu erraten, dann heißt das noch lange nicht, dass man auch beurteilen kann, ob irgendein Diktator Waffen hat. Daniel glaubt, das passiert, wenn Leute an Theorien festhalten. Dann suchen sie Beweise, die zu der Theorie passen, anstatt die Theorie zu prüfen. Und dann kriegen sie 'n Tunnelblick.

Das sieht man ja überall. Irgendwelche dummen Sachen werden als Wahrheit verkauft, weil sie in 'ne Theorie verpackt sind und mit irgendwelchen Forschungsergebnissen untermauert werden. "Denk mal drüber nach", hat Daniel gesagt. "Psychologen haben jahrelang geglaubt, man kann menschliches Verhalten durch Lernen erklären, also haben sie Ratten beobachtet, die in 'nem Labyrinth Futter suchen. Das war's. Jeder normale Mensch hat gedacht, das ist doch Quatsch, aber die haben's trotzdem gemacht."

Genauso ist das mit den Leuten, die Entscheidungen erforschen. "Konservative Bayesianer", das ist doch Quatsch. "Das bedeutet nur, die Leute kennen die richtige Antwort schon und klauen sie sich", hat Daniel gesagt, "aber was machen die eigentlich beim Denken?" Amos selbst, der ja eigentlich Psychologe ist, hat das Experiment total positiv dargestellt, oder zumindest nicht kritisiert. "Das ist doch nur 'ne Matheaufgabe", hat Daniel gesagt. Und deswegen hat Daniel, wie jeder anständige Mensch in Jerusalem, mit Amos gestritten. "Er hat immer gesagt, ich hätte ihn bloßgestellt", hat Daniel später erklärt. "In Amerika darf jeder seine Meinung sagen, aber in Jerusalem nicht."

Am Ende des Seminars hat Daniel wohl gemerkt, dass Amos nicht mehr weiter diskutieren konnte. Zu Hause hat Daniel dann seiner Frau erzählt, dass er 'nen jungen Kollegen fertiggemacht hat. Oder so hat's seine Frau in Erinnerung. "Das war ein wichtiger Moment israelischer Debattenkultur", hat Daniel gesagt, "zwei Redner, die sich nix schenken."

Amos hat aber eigentlich nie 'ne Debatte verloren. Und erst recht nicht zugegeben, dass er falsch liegt. "Man durfte ihm nicht widersprechen, selbst wenn er falsch lag", hat einer seiner Studenten gesagt. Nicht, weil er stur war. Amos hat gerne diskutiert und neue Ideen aufgenommen, aber meistens waren die Ideen halt nicht so gut wie seine. Er lag halt meistens richtig, deswegen haben alle, inklusive ihm selbst, gedacht, Amos hat Recht. Ein Wirtschaftsprofessor hat mal gesagt, das Erste, was ihm zu Amos einfällt, ist, dass er ihn mal mit 'ner Aussage überrascht hat. "Ich erinnere mich, dass er gesagt hat, 'Das habe ich noch nie bedacht'", hat der Professor gesagt, "und ich erinnere mich daran, weil es kaum etwas gibt, was Amos nicht schon bedacht hat."

Daniel hat später vermutet, dass Amos sich vielleicht gar nicht so richtig mit dem Verhältnis zwischen Denken und Statistik beschäftigt hat. Das war ja nicht sein Forschungsgebiet. "Vielleicht hat er das nie so richtig mit jemandem diskutiert", hat Daniel gesagt, "oder zumindest hat ihm keiner so deutlich widersprochen." Die Leute machen halt so statistische Analysen wie Matheaufgaben. Die meisten kriegen 7 x 8 hin. Aber wenn jemand 'n Fehler macht? Dann macht er halt 'n Fehler. Dann steckt da nicht 'n System dahinter. Wenn man Amos gefragt hätte, "Glaubst du, wir sind konservative Bayesianer?", dann hätte er wahrscheinlich gesagt, "Nicht alle, aber im Großen und Ganzen schon."

Zumindest war Amos damals noch nicht so abgeneigt von den gängigen Theorien. Anders als Daniel. Für ihn waren Theorien so wie Schubladen, in die man alles reinschmeißen kann. Solange es keine bessere Theorie gibt, sollte man die alten nicht wegschmeißen. Theorien sind wichtig für Wissen, sie helfen uns, bessere Vorhersagen zu machen. Und damals war die wichtigste Theorie, dass Menschen rational sind, oder zumindest ganz gute intuitive Statistiker. Sie können neue Infos gut verarbeiten und Wahrscheinlichkeiten gut einschätzen. Klar, sie machen auch mal Fehler, aber die Fehler sind meistens emotional bedingt und deswegen zufällig und nicht so wichtig.

Aber dieses Mal hat sich bei Amos irgendwas verändert. Nach dem Seminar von Daniel war er mal in so 'ner seltenen Stimmung: Er war skeptisch. Theorien, die er vorher mehr oder weniger geglaubt hat, kamen ihm plötzlich komisch vor.

Seine Freunde haben das gemerkt. Eigentlich war Amos ja schon immer skeptisch. Er hat mal erzählt von israelischen Offizieren, die ihre Truppen durch die Wüste führen mussten, was er ja auch gemacht hat. In der Wüste kann man Entfernungen und Formen schlecht einschätzen, deswegen ist es schwer, sich zu orientieren. "Das hat Amos total genervt", hat sein Freund Avishai Margalit gesagt. "Wenn man 'ne Truppe führt, muss man ständig die Richtung bestimmen. Amos war gut darin, aber selbst ihm fiel es in der Wüste schwer. Nachts sieht man 'n Licht und fragt sich, ist das nah oder fern? Man sieht 'ne Wasserquelle und denkt, die ist nur 'n Kilometer entfernt, aber dann braucht man Stunden, um da hinzukommen." Als israelischer Soldat musste man das Land kennen, aber das Land war schwer zu verstehen. Amos hatte zwar Karten, aber die haben oft nicht geholfen. Stürme haben die Landschaft verändert. Täler, die gestern noch da waren, waren heute woanders. Die Wüste hat ihm gezeigt, wie leicht man sich täuschen kann. Und wie gefährlich das ist. In den 50er und 60er Jahren haben die Soldaten den Offizieren nicht mehr vertraut, wenn sie sich in der Wüste verirrt haben. Weil sie wussten, dass Verirren den Tod bedeuten kann. Amos hat sich gefragt: Wenn wir Menschen uns eigentlich an unsere Umgebung anpassen können, warum täuschen wir uns dann so oft?

Auch in anderen Situationen hat sich gezeigt, dass Amos nicht immer mit den anderen Entscheidungstheoretikern übereinstimmt. Ein paar Monate vor dem Seminar wurde er in den Militärdienst einberufen, auf die Golanhöhen. Da war kein Krieg, er musste nur das Gebiet überwachen und gucken, ob die syrischen Soldaten angreifen wollen. Einer seiner Untergebenen war ein Mathematiker, der bald Professor in Stanford werden sollte. Der war wie Amos in Jerusalem aufgewachsen, mitten im Unabhängigkeitskrieg von 1948. Er hat sich noch gut daran erinnert, wie Juden in die Häuser von geflohenen Arabern eingebrochen sind und alles geklaut haben. "Ich dachte, die Araber sind ja genauso wenig schuld an dem Krieg wie ich", hat der Mathematiker gesagt. Einmal hat er gesehen, wie jüdische Schüler ein Klavier mit Messern zerstören wollten, nur um das Holz zu haben. Darüber haben Amos und der Mathematiker nicht geredet, das sollte man lieber vergessen.

Sie haben aber darüber geredet, wie man die Wahrscheinlichkeit von unsicheren Ereignissen einschätzt. Zum Beispiel, wie wahrscheinlich ist es, dass die Syrer angreifen? "Wir haben da gestanden und die syrischen Soldaten beobachtet", hat der Mathematiker erzählt, "und er hat über Wahrscheinlichkeiten geredet und wie man sie bestimmt. Er hat sich dafür interessiert, warum die Regierung vor dem Sinai-Krieg von 1956 dachte, der Krieg dauert höchstens fünf Jahre, während andere dachten, er dauert zehn Jahre. Amos wollte zeigen, dass Wahrscheinlichkeiten unsicher sind. Dass die Leute nicht wissen, wie man sie richtig einschätzt."

Seit Amos aus Israel zurück war, hatte er schon so 'n Knacks. Und das Treffen mit Daniel hat das Ganze noch verstärkt. Kurz danach hat er seinen Freund Avishai Margalit getroffen. "Ich hab da im Flur gewartet", hat Margalit gesagt, "und Amos kam vorbei und war total fertig. Er hat mich in sein Büro gezerrt und gesagt, 'Du glaubst nicht, was ich gerade erlebt habe.' Er hat mir von seinem Vortrag bei Daniel erzählt und dass Daniel gesagt hat, 'Das war zwar toll, aber ich glaube dir kein Wort.' Er war total durcheinander, ich konnte ihn nur trösten. Er hat gesagt, 'Urteilen und Wahrnehmen können nicht getrennt sein. Denken ist keine isolierte Handlung.'" Die neueste Forschung hat sich damit beschäftigt, wie unser Gehirn bei objektiven Urteilen funktioniert. Aber nicht damit, wie es sonst so funktioniert. "Das war ein wichtiger Moment für Amos", hat Daniel gesagt. "Die Theorie, an die er vorher geglaubt hat, die Ward Edwards' Forschung möglich gemacht hat, wurde an diesem Nachmittag durch 'ne andere Theorie ersetzt. Die hat die Forschung von Ward Edwards total lächerlich aussehen lassen."

Nach dem Seminar haben Amos und Daniel ein paar Mal zusammen Mittag gegessen, aber ansonsten haben sie getrennt voneinander gearbeitet. Im Sommer ist Amos nach Amerika gefahren, Daniel nach England, um seine Aufmerksamkeitsforschung weiterzumachen. Daniel wusste schon, dass die Forschung wichtig sein könnte. Zum Beispiel für Panzerfahrer. Er hat den Leuten Zahlen auf dem linken Ohr und andere Zahlen auf dem rechten Ohr vorgespielt und geguckt, wie schnell sie zwischen den Ohren hin und her schalten können und ob sie die Infos, die sie ignorieren sollen, auch wirklich ausblenden können. "Beim Panzerfahren ist es wie beim Duell: Wer zuerst das Ziel erfasst und reagiert, der überlebt", hat Daniel später gesagt. Mit dem Test konnte man rausfinden, welcher Panzerkommandant am besten abschneidet, also die wichtigen Infos schnell erkennt und sich darauf konzentriert, anstatt von 'ner Granate zerfetzt zu werden.

Im Herbst 1969 waren Amos und Daniel wieder in Jerusalem. Abgesehen vom Schlafen waren sie fast immer zusammen. Daniel war Frühaufsteher, also konnte man ihn vorm Mittagessen besuchen. Amos war 'ne Nachteule, also konnte man ihn auch nachts noch stören. Ansonsten waren sie meistens in 'nem Seminarraum verschwunden. Manchmal hat man sie laut streiten gehört, aber meistens haben sie gelacht. Alle haben gedacht, die reden über irgendwas total Interessantes und Geheimes, weil sie nie jemanden eingeladen haben. Und wenn man mal an der Tür gelauscht hat, dann hat man nur gehört, wie sie Englisch und Hebräisch durcheinanderreden. Vor allem Amos, der hat immer Hebräisch geredet, wenn er sich aufgeregt hat.

Früher waren die beiden klügsten Köpfe der Uni immer auf Abstand, aber jetzt waren sie total dicke Freunde. Das fanden die Studenten total komisch. "Es ist schwer vorstellbar, was da für 'ne Chemie entstanden ist", hat 'ne Psychologie-Studentin gesagt. Daniel hatte als Kind den Holocaust erlebt, während Amos, das war so 'n richtiges israelisches Urgestein. Daniel hat immer gedacht, er liegt falsch, während Amos immer gedacht hat, er liegt richtig. Daniel war nicht so der Partytyp, während Amos immer im Mittelpunkt stand. Daniel war korrekt, Amos war locker und unkonventionell. Bei Amos hat man sich sofort wohlgefühlt, während man Daniel erst mal kennenlernen musste. Amos war unmusikalisch, hat aber immer begeistert hebräische Volkslieder gesungen, während Daniel 'ne tolle Stimme hatte, sie aber lieber versteckt hat. Wenn Amos was unlogisch fand, hat er es einfach weggefegt, während Daniel immer gefragt hat, "Könnte das nicht unter bestimmten Umständen stimmen?" Daniel war Pessimist, Amos war Optimist, weil Pessimismus für ihn dumm war. Amos hat immer gesagt, wenn man pessimistisch ist, dann passiert das Schlimme doppelt so schlimm und wenn man sich Sorgen macht, dann kommen die Sorgen wieder. Ein Kollege an der Uni hat gesagt: "Die waren total verschieden. Daniel hat sich trotz seines Temperaments oft Mühe gegeben, es den anderen recht zu machen. Amos hat nicht verstanden, warum man das tun sollte. Er wusste zwar, dass Höflichkeit wichtig ist, aber er hat nicht verstanden, warum man so tun sollte." Daniel hat viele Sachen sehr ernst genommen, Amos hat das Leben eher mit Humor gesehen. Als Amos mal 'ne Doktorarbeit beurteilen musste, war er total entsetzt, wie schlecht die war. Aber er hat nicht direkt was gesagt, sondern nur: "Wenn die Arbeit in ihrem Fach gut ist, dann ist das für mich in Ordnung, aber der Autor muss die Kapitel klar voneinander trennen!"

Und Amos war einer der schlausten Menschen, die es gab. "Die Leute haben sich nicht getraut, mit ihm zu diskutieren", hat 'n Freund gesagt, weil sie Angst hatten, er findet irgendwelche Fehler, die sie selbst noch gar nicht bemerkt haben. 'Ne Studentin hat mal gesagt, sie hat Amos lieber selbst fahren lassen, weil sie Angst hatte, er kritisiert ihren Fahrstil. Jetzt war Amos ständig mit Daniel zusammen. Und Daniel, der war total sensibel und hat sich schon von 'ner schlechten Bewertung von 'nem Studenten total runterziehen lassen. Die beiden zusammen, das war so, als ob man 'ne Maus zu 'ner Schlange ins Gehege steckt, aber dann stellt man fest, dass die Maus die ganze Zeit redet und die Schlange nur still zuhört.

Sie hatten aber auch Gemeinsamkeiten. Beide waren Nachfahren osteuropäischer Rabbiner. Und beide haben sich dafür interessiert, wie sich Menschen in "normalen", nicht-emotionalen Zuständen verhalten. Sie wollten beide forschen und einfache, starke Wahrheiten finden. Daniel war vielleicht kompliziert, wollte aber trotzdem "nur Psychologe für 'ne bestimmte Art von Problemen" sein. Amos' Forschung war vielleicht auch kompliziert, aber er wollte immer zum Kern der Sache kommen. Beide waren unglaublich schlau, beide waren Juden in Israel und beide waren nicht religiös. Aber trotzdem sind den Leuten vor allem die Unterschiede aufgefallen.

Das beste Beispiel für die Unterschiede waren ihre Büros. Daniels Büro war total chaotisch, überall Zettel mit irgendwelchen Sätzen drauf. Überall Bücher, überall Papier. Die Bücher waren immer aufgeschlagen, damit er da weitermachen konnte, wo er aufgehört hat. Einmal hat seine Assistentin ihre Masterarbeit auf Seite 13 gefunden, da hatte er wohl gerade gelesen. Drei, vier Zimmer weiter war Amos' Büro und da war nix außer 'nem Stift auf dem Schreibtisch. In Daniels Büro hat man nix gefunden, weil es zu unordentlich war und in Amos' Büro hat man nix gefunden, weil es nix gab. Alle haben sich gefragt: Warum verstehen die sich so gut? Ein Kollege hat gesagt: "Daniel war total schwierig und Amos hat sich eigentlich nie mit solchen Leuten abgegeben, aber bei Daniel hat er sich Mühe gegeben. Das war total überraschend."

Was die beiden gemacht haben, wenn sie zusammen waren, darüber haben sie nicht viel erzählt. Aber das hat die Leute nur noch neugieriger gemacht. Am Anfang haben sie wohl vor allem über Daniels These diskutiert: dass wir keine Bayesianer sind, keine konservativen Statistiker, überhaupt keine Statistiker. Egal, wie wir Wahrscheinlichkeiten einschätzen, das hat nix mit Statistik zu tun. Aber wie soll man das den ganzen Sozialwissenschaftlern beibringen, die von Theorien geblendet sind? Wie soll man das beweisen? Sie haben beschlossen, 'nen Test zu entwickeln, der alle Regeln bricht. Den sollten die Wissenschaftler mal machen. Sie wollten echte Daten nehmen und 'nen Fragebogen entwickeln. Die Leute, die den Fragebogen ausfüllen, sollten sich mit Statistik auskennen, die sollten wissen, was Wahrscheinlichkeitstheorie ist. Die meisten Fragen hat Daniel sich ausgedacht. Das waren so Variationen von der "rote oder weiße Chips"-Frage. Zum Beispiel:

In 'ner Stadt haben Achtklässler 'nen durchschnittlichen IQ von 100. Um die Bildungsqualität zu überprüfen, werden 50 Schüler zufällig ausgewählt und getestet. Der erste Schüler hat 'nen IQ von 150. Was ist der durchschnittliche IQ der 50 Schüler?

Die Fragen hat Amos dann im Sommer 1969 mit zu 'ner Psychologie-Konferenz in Washington und zu 'ner Konferenz für mathematische Psychologie genommen. Da haben dann 'n Haufen Statistik-Experten, von denen einige sogar Statistik-Lehrbücher geschrieben haben, den Test gemacht. Amos hat die Ergebnisse eingesammelt und ist mit ihnen zurück nach Jerusalem geflogen.

In Jerusalem haben er und Daniel sich dann hingesetzt und angefangen, 'ne wissenschaftliche Arbeit zu schreiben. Die Büros waren zu klein, also haben sie in 'nem kleinen Seminarraum gearbeitet. Amos konnte nicht tippen und Daniel hat es gehasst, also haben sie sich mit ihren Notizbüchern hingesetzt. Sie haben jedes Wort genau überlegt und haben am Tag höchstens ein, zwei Absätze geschafft. "Ich hatte das Gefühl: Oh, das ist was Besonderes", hat Daniel gesagt, "weil es so interessant war."

Wenn Daniel an die Zeit zurückdenkt, dann denkt er vor allem an das Lachen. An das Lachen, das die Leute draußen gehört haben. "Ich habe das Bild vor Augen, wie ich fast vom Stuhl gefallen wäre, weil ich so lachen musste." Wenn die beiden wegen Amos' Witzen gelacht haben, dann war das meistens noch lauter, weil Amos immer total über seine eigenen Witze gelacht hat. ("Er war so lustig, dass es total normal war, wenn er einfach so vor sich hin gelacht hat.") Mit Amos ist Daniel lustiger geworden. Das hatte er vorher nie erlebt. Und durch Daniel hat sich Amos auch verändert. Er war nicht mehr so kritisch. Oder zumindest nicht mehr so kritisch gegenüber Daniels Ideen. Er hat ihm so 'n Selbstbewusstsein gegeben, das er vorher nicht hatte. Und Daniel hat sich mal wie der Angreifer gefühlt. "Amos hat nie defensiv geschrieben", hat Daniel gesagt. "Er hatte so 'n natürliches Selbstbewusstsein, er hat sich für schlauer gehalten als alle anderen." Der Artikel, der am Ende rausgekommen ist, der hat dieses Selbstbewusstsein total ausgestrahlt. Allein schon der Titel: "Über das Gesetz der kleinen Zahlen". Aber der Artikel war 'ne perfekte Zusammenarbeit, also fanden sie, dass keiner von beiden den ersten Autorenplatz alleine verdient hat. Also haben sie 'ne Münze geworfen. Und Amos hat gewonnen.

In dem Artikel haben die beiden 'n System von Denkfehlern aufgedeckt, die Leute, auch ausgebildete Statistiker, immer wieder machen. Sie haben geschrieben, dass die Leute oft fälschlicherweise annehmen, dass 'n Teil für das Ganze steht. Selbst Statistiker ziehen aus winzigen Beweisen voreilige Schlüsse. Daniel und Amos haben gesagt, das liegt daran, dass die Leute fälschlicherweise glauben, dass 'ne Stichprobe die Eigenschaften der Gesamtmenge widerspiegeln muss.

Besonders deutlich wird dieser Denkfehler, wenn es um Zufallsereignisse geht. Zum Beispiel beim Münzwurf. Wir wissen ja, dass die Wahrscheinlichkeit für Kopf oder Zahl gleich ist. Aber trotzdem denken wir, dass wenn 'ne Münze ein paar Mal hintereinander Kopf gezeigt hat, dass dann beim nächsten Mal eher Zahl kommt. Das nennt man den "Spielerfehlschluss". Die Leute denken wohl, die Münze muss das irgendwie ausgleichen, damit es wieder fair ist. "Selbst die fairste Münze kann angesichts ihrer begrenzten Gedächtniskapazität und Moral nicht so unparteiisch sein, wie die Spieler es sich wünschen", haben sie in dem Artikel geschrieben. So 'n Witz war in 'ner wissenschaftlichen Arbeit natürlich total ungewöhnlich.

Dann haben sie gezeigt, dass auch ausgebildete Wissenschaftler, die Psychologen, die an dem Experiment teilgenommen haben, solche Fehler machen. Zum Beispiel, wenn die Psychologen wussten, dass der erste Schüler 'nen IQ von 150 hat und dann den durchschnittlichen IQ der Schüler schätzen sollten, dann haben sie 100 gesagt, also den durchschnittlichen IQ der Achtklässler. Die haben gedacht, dass die besonders intelligenten und die besonders dummen Kinder sich gegenseitig aufheben, so wie beim Münzwurf. Dabei wäre laut Bayes-Theorem der durchschnittliche IQ der Schüler 101.

Selbst Experten für Statistik und Wahrscheinlichkeitstheorie haben nicht kapiert, dass kleine Stichproben nicht so gut für große Gruppen stehen, dass kleine Stichproben ungenauer sind als große. Die Leute denken, die Stichproben gleichen sich selbst aus, bis sie die Gesamtmenge genau widerspiegeln. In großen Gruppen ist das dank des Gesetzes der großen Zahlen ja auch so. Wenn man 'ne Münze tausendmal wirft, dann kommt am Ende ungefähr gleich oft Kopf und Zahl. Aber wenn man sie nur zehnmal wirft, dann kann das Ergebnis ganz anders aussehen. Aber das sehen die Leute irgendwie nicht. "Die Leute scheinen beim Zufallsprinzip das Gesetz der kleinen Zahlen zu beachten. Das heißt, sie gehen davon aus, dass kleine Stichproben genauso gut die Eigenschaften der Gesamtmenge widerspiegeln wie große", haben Daniel und Amos geschrieben.

Dieser intuitive Denkfehler hat viele wichtige Konsequenzen, zum Beispiel dafür, wie wir uns orientieren, wie wir urteilen und wie wir Entscheidungen treffen. Aber der Artikel, der am Ende in 'ner Fachzeitschrift veröffentlicht wurde, hat sich vor allem mit den Auswirkungen auf die Sozialwissenschaften beschäftigt. Bei sozialwissenschaftlichen Experimenten nehmen Wissenschaftler ja oft 'ne kleine Stichprobe aus 'ner großen Gruppe, um irgendwelche Theorien zu überprüfen. Zum Beispiel, 'n Psychologe glaubt, dass die Kinder, die beim Campen lieber alleine im Zelt schlafen, eher unsozial sind und die, die lieber mit anderen zusammen schlafen, eher sozial. Er nimmt sich zwölf Kinder als Stichprobe und bestätigt seine Vermutung. Aber in Wirklichkeit sind ja nicht alle Kinder, die alleine schlafen wollen, unsozial und nicht alle, die mit anderen zusammen schlafen wollen, sozial. Um sicherzugehen, nimmt der Psychologe noch 'ne Stichprobe, um zu gucken, ob die Ergebnisse auch stimmen. Aber er schätzt falsch ein, wie groß die Stichprobe sein muss, um das Ganze richtig abzubilden. Also hat er Glück, wenn die zweite Untersuchung seine Ergebnisse bestätigt.

Weil kleine Stichproben ungenau sind, kann es ja auch sein, dass die zweite Untersuchung ganz andere Ergebnisse liefert, die überhaupt nicht für die Mehrheit der Kinder gelten. Aber trotzdem hält der Psychologe an seiner Theorie fest, weil er denkt, die Stichproben gleichen sich schon irgendwie aus und bestätigen und widerlegen seine Theorie abwechselnd.

Das war in Daniels und Amos' Augen der Denkfehler vieler Psychologen: dass kleine Stichproben für die Gesamtmenge stehen. Daniel selbst war da keine Ausnahme. Obwohl er sich besser mit Statistik auskannte als die meisten Psychologen, sogar besser als die meisten Statistiker. Die Forschung war auch 'ne Art Selbstkritik. Er wollte die Fehler finden, er war fast schon besessen davon. Und genau das hat die Forschung so wertvoll gemacht. Es hat sich rausgestellt, dass Daniel nicht der Einzige war, der solche Fehler macht. Jeder macht sie. Das ist kein Problem von einzelnen Leuten, sondern 'ne Schwäche, die wir alle haben. Zumindest haben die beiden das gedacht.

Die Tests mit den Psychologen haben ihren Verdacht bestätigt. Wenn die Psychologen entscheiden sollten, welcher Beutel mehr rote Chips hat, dann haben sie sich meistens von den ersten paar Chips leiten lassen. Sie haben sich zu sehr auf den Zufall verlassen. Und weil sie so fest an das Gesetz der kleinen Zahlen geglaubt haben, haben sie sich immer irgendwelche Erklärungen für ihre Ergebnisse ausgedacht.

In dem Test von Amos und Daniel gab es auch 'ne Frage, wie man Studenten anleiten soll, 'ne psychologische Theorie zu überprüfen. Zum Beispiel, Leute mit großen Nasen lügen öfter. Wenn die Studenten diese Theorie mit Stichprobe A bestätigt haben, mit Stichprobe B aber widerlegt, was sollen sie dann tun? Daniel und Amos haben den Psychologen zur Auswahl gestellt: entweder die Stichprobe vergrößern, die Theorie verbessern oder was ganz anderes. Die Psychologen haben fast alle die vierte Antwort gewählt: "Er sollte versuchen, die Unterschiede zwischen den Stichproben zu analysieren."

Das heißt, wenn die Stichprobe A gezeigt hat, dass Leute mit großen Nasen öfter lügen und die Stichprobe B das Gegenteil gezeigt hat, dann sollen die Studenten sich irgendwelche Erklärungen dafür ausdenken. Die Psychologen haben sich so sehr auf kleine Stichproben verlassen, dass sie dachten, es muss 'n Grund für die Unterschiede geben. Daniel und Amos haben geschrieben: "Der Psychologe wird selten Abweichungen von seinen Erwartungen auf Stichprobenfehler zurückführen, weil er jede Inkonsistenz 'erklären' wird. Dadurch wird es ihm schwerfallen, Stichprobenfehler zu erkennen. Seine Abhängigkeit vom Gesetz der kleinen Zahlen wird dadurch aufrechterhalten."

Amos hat noch hinzugefügt: "Edwards hat mal gesagt, die Leute können aus zufälligen Daten nicht genügend Informationen ziehen, um 'ne klare Schlussfolgerung zu ziehen. Er nannte das 'konservativ'. Aber in unserer Forschung ist es schwer, die Probanden als 'konservativ' zu bezeichnen. Im Gegenteil, sie verlassen sich zu sehr auf zufällige Daten, um daraus voreilige Schlüsse zu ziehen." Daniel hat gesagt: "Ward Edwards war 'ne große Nummer in der Wissenschaft und wir haben ihn da so runtergeputzt, Amos' Zunge hatte ihn schon im Griff."

Als der Artikel Anfang 1970 fertig war, wussten die beiden gar nicht mehr, wer was geschrieben hat. Man konnte nicht sagen, wer mehr beigetragen hat. Aber Daniel fand, dass der selbstbewusste, fast schon arrogante Schreibstil auf jeden Fall von Amos kam. Daniel selbst war eher vorsichtig. Er hat gesagt: "Wenn ich den Artikel alleine geschrieben hätte, dann hätte ich hundert Zitate reingepackt, alles total vorsichtig formuliert und gesagt, ich bin ja nur 'n dummer Anfänger. Ich hätte den Artikel vielleicht auch alleine schreiben können, aber dann hätte er keine Sau interessiert. Der Artikel hat so 'ne Starqualität, das kommt von Amos."

Daniel fand, dass er den Artikel alleine nicht so witzig, frech und provokant hätte schreiben können. Eigentlich fand er das auch schon den größten Beitrag von Amos. Nach dem Fertigstellen haben sie den Artikel jemandem gegeben, von dem sie wussten, dass er skeptisch ist, 'nem Psychologie-Professor aus Michigan. Der war auch 'n guter Mathematiker und hat mit Amos an diesem komplizierten Lehrbuch gearbeitet. "Ich fand den Artikel total genial", hat der Professor erzählt. "Ich finde ihn immer noch einen der wertvollsten Artikel überhaupt. Andere Artikel haben immer versucht, menschliche Entscheidungen zu erklären, indem sie Abweichungen vom Bayes-Modell korrigiert haben. Dieser Artikel war ganz anders. Der stand im kompletten Gegensatz zu meinen bisherigen Vorstellungen. Wir sollten uns in unsicheren Situationen auf Statistik verlassen, aber das tun wir nicht. Sie haben als Versuchspersonen Statistik-Experten genommen und selbst die haben Fehler gemacht! Jede falsche Antwort, die die Probanden gegeben haben, hätte ich auch falsch beantwortet."

Der Professor fand also, der Artikel von Daniel und Amos ist nicht nur lustig, sondern auch wichtig. Und das hat sich dann auch außerhalb der Psychologie rumgesprochen. "Die Wirtschaftswissenschaftler sagen immer, 'Wenn es Beweise dafür gibt, dass etwas richtig ist, dann werden die Leute schon irgendwie den richtigen Weg finden'", hat 'n Wirtschaftsprofessor gesagt. "Eigentlich sind wir alle gute Statistiker. Sonst könnten wir ja gar nicht überleben. Wenn man also gucken will, was wichtig ist auf der Welt, dann gehört die Tatsache, dass die Leute nicht an Statistik glauben, auf jeden Fall dazu."

Daniel selbst hat Lob immer eher gelassen hingenommen. ("Als der Professor gesagt hat, 'Das ist 'ne bahnbrechende Entdeckung', da dachte ich, der spinnt doch.") Aber es stimmt schon, Daniel und Amos haben mehr rausgefunden als nur, wie man statistische Analysen richtig macht. Wir neigen so stark dazu, aus wenigen Beweisen voreilige Schlüsse zu ziehen, dass wir uns sehenden Auges in die

Go Back Print Chapter