Chapter Content
Also, pass auf, ich erzähl euch mal was, ne? Und zwar geht's um...ja, wie wir so Entscheidungen treffen, was da so im Kopf abgeht.
Angefangen hat das Ganze eigentlich...ja, mit so 'nem Typen, Paul Hoffmann, Psychologieprofessor in Amerika, so in den 60ern. Der hatte irgendwie die Nase voll vom Unterrichten, war frustriert, weil seine Karriere nicht so richtig voranging. Und dann hat er 'ne fette Finanzspritze bekommen, 60.000 Dollar, von der National Science Foundation. Damit konnte er sich dann so richtig seiner Leidenschaft widmen, nämlich...wie wir Menschen so ticken, wenn's ums Entscheiden geht.
Der hat dann seinen Job gekündigt und in so 'ner schicken Gegend 'n Haus gekauft, wo früher mal 'ne Kirche war. Daraus hat er dann das "Oregon Research Institute" gemacht. War wohl die einzige private Forschungseinrichtung weltweit, die sich nur mit menschlichem Verhalten beschäftigt hat. Und das hat natürlich neugierige Blicke auf sich gezogen, auch von...ja, klugen Köpfen, die da mitforschen wollten.
Einer von denen, Paul Slovic, der hat mal 'ne witzige Geschichte erzählt. Seine Kinder haben ihn gefragt, was er denn so macht zum Geldverdienen. Und dann hat er auf so 'n Poster mit 'nem Gehirn gezeigt und gesagt: "Ich erforsche, was da drin so vor sich geht!". Clever, oder?
Die Psychologie war ja schon immer so 'ne Art Sammelbecken für Probleme, die in anderen Bereichen keiner haben wollte. Und das Oregon Research Institute war dann quasi der noch größere Mülleimer, haha! Eine ihrer ersten Aufgaben war dann auch gleich mal...naja, etwas ungewöhnlich. Sie sollten nämlich 'ner Baufirma helfen, die in New York das World Trade Center gebaut hat, diese Twin Towers.
Der Architekt selbst hatte Höhenangst, krass, oder? Und die Betreiber, die New Yorker Hafenbehörde, die wollten sicherstellen, dass die Mieter in den oberen Stockwerken nichts vom Wind mitbekommen. War also eher 'n psychologisches Problem: Wie lange dauert's, bis man im 99. Stock merkt, dass sich das Gebäude bewegt? Tja, und da kam dann Paul Hoffmann ins Spiel.
Der hat dann in Eugene, wo sein Institut war, ein Haus gemietet und da drin so 'ne Art...ja, "Wackelraum" gebaut. Mit Hydraulik konnte man das Ding hin und her bewegen, ganz leise, so wie im Wind eben. Das Ganze war natürlich top secret, weil die Hafenbehörde keine Panik machen wollte und Hoffmann befürchtete, dass die Testpersonen überempfindlich reagieren würden, wenn sie wüssten, dass sie in 'nem beweglichen Haus sind.
Also, wie bringt man die Leute da rein, ohne was zu verraten? Ganz einfach: Er hat 'n Schild "Oregon Research Institute: Visual Research Center" aufgehängt und kostenlose Sehtests angeboten. Und den Sehtest hat dann 'n Student gemacht, der zufällig auch Optiker war. Während der Student dann die Augen untersucht hat, hat Hoffmann die Hydraulik angemacht. Und siehe da: Die Leute haben sofort gemerkt, dass sich was bewegt, viel schneller als die Ingenieure erwartet hatten. "Komisches Haus", haben die Leute gesagt, "vielleicht liegt's an meiner Brille...oder ist das 'n Scherz?". Der arme Student war am Abend total schwindelig, haha!
Nachdem Hoffmann seine Ergebnisse präsentiert hatte, sind die ganzen Ingenieure und Behördenleute nach Eugene geflogen, um das selbst zu erleben. Die konnten das erst nicht glauben. Aber am Ende haben sie dann doch extra Dämpfer in die Türme eingebaut, um das Schwingen zu reduzieren. Und wer weiß, vielleicht haben diese Dämpfer ja sogar dazu beigetragen, dass die Türme beim Anschlag länger standen und mehr Menschen entkommen konnten.
Aber für das Oregon Research Institute war das nur so 'ne Art Aufwärmübung. Die Psychologen da haben sich nämlich vor allem dafür interessiert, wie Menschen Entscheidungen treffen. Und da gab's auch so 'n Buch, "Clinical vs. Statistical Prediction", wo drinstand, dass einfache statistische Formeln oft besser sind als Expertenurteile.
Wenn das stimmt, dann haben wir ja echt 'n Problem, oder? Weil die meisten Bereiche, wo Expertenurteile gefragt sind, eben keine so guten Daten haben wie die Psychologie. Ärzte, Richter, Finanzberater, Politiker...die müssen alle Entscheidungen treffen, ohne dass es dafür 'ne klare Formel gibt. Und Hoffmann und seine Kollegen wollten herausfinden, wie diese Experten überhaupt vorgehen. Wie bringen die all die Infos zusammen, um am Ende zu 'ner Entscheidung zu kommen?
Anstatt aber gleich zu gucken, wo die Experten schlecht sind, haben sie erst mal versucht, 'n Modell zu erstellen, das zeigt, wie die Experten denken. Oder, wie Lou Goldberg vom Oregon Research Institute es formuliert hat: "Wir wollten herausfinden, wann und wo menschliches Urteilsvermögen am wahrscheinlichsten versagt." Wenn man diese Schwachstellen kennt, kann man die Experten ja vielleicht verbessern und den Unterschied zu den statistischen Formeln verringern.
Hoffmann hat dann 'ne Methode entwickelt, um das herauszufinden. Man guckt sich an, welche Infos die Experten bei ihren Entscheidungen verwenden ("Hinweise", wie er das genannt hat) und versucht dann, aus ihren Urteilen abzuleiten, wie wichtig die einzelnen Infos für sie sind. Wenn man zum Beispiel wissen will, wie die Yale-Universität Studenten auswählt, fragt man die Zulassungsbeamten, welche Kriterien sie berücksichtigen. Dann analysiert man ihre Entscheidungen und guckt, welche Kriterien wirklich wichtig sind. Und mit genug Mathe kann man dann sogar 'n Modell erstellen, das zeigt, wie die Kriterien zusammenwirken.
Hoffmann war mathematisch fit genug, um so ein Modell zu erstellen. Und er hat dann auch 'nen Artikel darüber geschrieben, mit 'nem total komplizierten Titel, "The Paramorphic Representation of Clinical Judgment". War aber auch egal, weil das eh nur 'n paar Psychologen gelesen haben.
Am Anfang haben sie sich auf klinische Psychologen konzentriert, aber ihnen war klar, dass die Ergebnisse auch für andere Bereiche relevant sein könnten, für Ärzte, Meteorologen, Talentscouts im Baseball...Paul Slovic meinte mal, "wir waren vielleicht nur 15 Leute weltweit, die sich mit diesem Thema beschäftigt haben, aber wir wussten, dass wir was Wichtiges tun: Wir versuchen, das Rätsel der intuitiven Urteilsfindung mit Zahlen zu lösen."
Und sie haben dann auch echt spannende Sachen herausgefunden. Lou Goldberg hat dann 'nen Artikel in so 'ner Fachzeitschrift veröffentlicht, wo er gezeigt hat, dass Expertenurteile oft schlechter sind als einfache statistische Formeln. Er schrieb: "In einer Vielzahl von klinischen Beurteilungsaufgaben (einschließlich der Aufgaben, die speziell darauf abzielen, die besten Ärzte oder die schlechtesten Versicherungsmathematiker zu beurteilen) besitzen die einfachsten aktuarischen Formeln eine Validität, die der klinischen Experten nicht nachsteht."
Was machen die Experten also falsch? Goldberg dachte, dass Ärzte bei 'ner Diagnose total komplexe Denkprozesse durchlaufen. Und wenn man das modellieren will, braucht man auch 'n komplexes Modell. Aber er wollte es lieber einfach halten. Er hat sich dann erst mal angeguckt, wie Ärzte Krebs diagnostizieren.
Er hat sich 'ne Studie angeguckt, wo Radiologen Röntgenbilder von Mägen beurteilen mussten. Die Ärzte haben gesagt, dass sie vor allem auf sieben Dinge achten: Größe des Geschwürs, Form des Randes, Breite der Erosion usw. Goldberg hat diese Dinge dann auch "Hinweise" genannt, wie Hoffmann. Und er hat gesagt, dass es total viele verschiedene Kombinationen dieser Hinweise gibt und dass die Ärzte daraus dann 'ne Schlussfolgerung ziehen müssen. Wenn das Geschwür gleich groß ist, kann 'n glatter Rand was ganz anderes bedeuten als 'n unregelmäßiger Rand. Und Experten beschreiben ihre Denkprozesse ja auch gerne als total subtil und kompliziert, sodass man die kaum modellieren kann.
Also hat das Oregon Research Institute 'n ganz einfaches Computerprogramm geschrieben, wo die sieben Hinweise alle gleich gewichtet wurden, um zu entscheiden, ob 'n Geschwür gutartig oder bösartig ist. Dann haben sie die Ärzte 96 verschiedene Röntgenbilder von Magengeschwüren beurteilen lassen, auf so 'ner Skala von "definitiv bösartig" bis "definitiv gutartig". Und sie haben jedes Bild zweimal gezeigt, ohne dass die Ärzte das wussten. Die Daten wurden dann auf Lochkarten übertragen und an die UCLA geschickt, wo dann 'n großer Computer die Analyse gemacht hat. Sie wollten also 'n Computerprogramm erstellen, das die Entscheidungen der Ärzte simuliert.
Goldberg dachte, dass das nur 'n erster, einfacher Versuch ist und dass man das Programm noch viel komplexer machen muss, um die subtilen Unterschiede zu berücksichtigen, wie die Ärzte die Hinweise gewichten.
Aber dann kam das Ergebnis von der UCLA und die Forscher vom Oregon Research Institute waren baff. Das einfache Programm hat die Diagnosen der Ärzte ziemlich gut vorhergesagt. Die Ärzte dachten, ihre Denkprozesse sind total subtil und kompliziert, aber das Modell konnte das alles mit 'ner einfachen Formel abbilden. Und was noch krasser war: Die Ärzte waren sich untereinander oft uneinig. Und wenn sie dasselbe Bild zweimal gesehen haben, haben sie manchmal sogar unterschiedliche Diagnosen gestellt. Sie waren sich also nicht nur mit anderen Ärzten uneinig, sondern auch mit sich selbst. Goldberg schrieb: "Diese Befunde deuten darauf hin, dass die medizinische Diagnostik nicht konsistenter ist als die klinische Psychologie – man sollte es sich zweimal überlegen, bevor man das nächste Mal seinen Hausarzt aufsucht." Wenn die Ärzte sich selbst nicht einig sind, wie sollen sie dann 'ne richtige Diagnose stellen?
Dann haben die Forscher das Ganze mit klinischen Psychologen und Psychiatern wiederholt. Die sollten anhand von bestimmten Kriterien beurteilen, ob psychisch Kranke gesund genug sind, um aus der Klinik entlassen zu werden. Und auch da war das Ergebnis erschreckend. Die Ärzte mit der wenigsten Erfahrung (die Studenten) waren genauso gut darin zu beurteilen, wer entlassen werden kann, wie die Ärzte mit der meisten Erfahrung (die teuren Chefärzte). Berufserfahrung hatte scheinbar keinen Einfluss auf die Genauigkeit der Diagnosen, zum Beispiel bei der Beurteilung, ob jemand selbstmordgefährdet ist. Goldberg schrieb: "Die Genauigkeit, mit der sie diese Aufgabe erfüllten, stand in keinem Zusammenhang mit der Größe ihrer Berufserfahrung."
Goldberg wollte aber nicht gleich die Ärzte verurteilen. Er meinte, dass das Problem vielleicht darin liegt, dass Ärzte und Psychiater selten die Möglichkeit haben, ihre Denkprozesse zu überprüfen und zu verbessern. Sie bekommen keine direkte Rückmeldung. Also hat er sich mit 'nem Kollegen zusammengetan und versucht, diese Rückmeldung zu erzeugen. Sie haben Ärzte in zwei Gruppen aufgeteilt und beiden Gruppen Tausende von Fällen zur Diagnose gegeben. Die eine Gruppe hat sofort 'ne Rückmeldung bekommen, die andere nicht. Sie wollten gucken, ob die Gruppe mit der Rückmeldung ihre Urteile verbessern kann.
Aber das Ergebnis war enttäuschend. Goldberg schrieb: "Rückblickend war unsere erste Konzeption von Forschung zu klinischen Interventionen viel zu einfach – um diese Art von schwieriger Aufgabe zu meistern, ist mehr als nur eine Ergebnisrückmeldung erforderlich." Und dann hatte einer seiner Kollegen 'ne krasse Idee. Goldberg konnte sich nicht mehr erinnern, wer das war, aber der Kollege hat gesagt: "Vielleicht ist das Modell, das du baust, um die Denkprozesse der Ärzte abzubilden, genauer als die Ärzte selbst." Goldberg war erstmal geschockt. Wie soll das denn gehen? So 'n simples Modell soll besser sein als 'n Arzt, der Krebs diagnostiziert? Das Modell basiert doch auf dem Wissen der Ärzte, die haben die Infos doch selbst geliefert.
Aber die Forscher haben die Hypothese dann doch mal getestet. Und siehe da: Der Kollege hatte recht. Wenn man wissen will, ob man Krebs hat, sollte man nicht zum Radiologen gehen, sondern das Modell der Forscher benutzen. Das Modell war nicht nur besser als die Ärzte im Durchschnitt, sondern auch besser als der beste Arzt. Man konnte 'nen Arzt mit 'ner einfachen Formel ersetzen, die von irgendjemandem erstellt wurde, der keine Ahnung von Medizin hat.
Als Goldberg dann seinen zweiten Artikel geschrieben hat, "Man versus Model", war er nicht mehr so optimistisch, weder was die Experten noch was die Methoden des Oregon Research Institute betrifft. "In diesem Artikel berichtete ich über das Versagen der versuchten Rekonstruktion der Komplexität des menschlichen Urteilsvermögens", schrieb er über seinen ersten Artikel. "Angesichts der Vermutungen über die komplexen Interaktionen, die bei der klinischen Beurteilung durch Fachleute eine Rolle spielen, waren wir naiv genug zu glauben, dass einfache lineare Kombinationen von "Hinweisen" die menschlichen Urteile nicht gut vorhersagen können, und dass wir daher schnell zu komplexeren mathematischen Modellen übergehen müssten, um die Strategien der Individuen genau zu erfassen. Das war unnötig." Die Ärzte hatten scheinbar 'ne Theorie, wie wichtig die einzelnen Merkmale bei 'ner Diagnose sind. Und das Modell hat diese Theorie perfekt abgebildet. Aber die Ärzte haben sich in der Praxis nicht immer an ihre eigene Theorie gehalten und wurden deshalb von ihrem eigenen Modell geschlagen.
Diese Erkenntnis war total wichtig. Goldberg schrieb: "Wenn diese Schlussfolgerung auf andere Bereiche der Beurteilung verallgemeinert werden kann, dann sind subjektive Urteile bei der Personalauswahl wahrscheinlich der aktuarischen Vorhersage unterlegen." Aber warum ist das so? Warum ist 'n Experte, zum Beispiel 'n Arzt, schlechter als 'n Modell, das auf dem Wissen des Experten basiert? Goldberg meinte, dass das daran liegt, dass Experten eben auch nur Menschen sind. "Kliniker sind keine Maschinen", schrieb er. "Selbst wenn er über alle Kenntnisse verfügt, die ihm zur Formulierung von Forschungshypothesen befähigen, fehlt ihm die Zuverlässigkeit, die eine Maschine besitzt. Er wird durch Langeweile, Müdigkeit, Krankheit, Umweltfaktoren, zwischenmenschliche Belastungen usw. beeinträchtigt, und all diese Dinge können ihn dazu bringen, bei ein und derselben Sache unterschiedliche Urteile zu fällen. Um diese zufälligen Fehler zu eliminieren und die Unzuverlässigkeit des Menschen zu vermeiden, sollten wir die Validität der Vorhersagen verbessern."
Kurz nachdem Goldberg diesen Artikel veröffentlicht hatte, kam Amos Tversky im Sommer nach Eugene, Oregon. Er war auf dem Weg nach Stanford und wollte seinen alten Freund Paul Slovic besuchen. Die beiden hatten zusammen an der University of Michigan studiert. Und Amos hat Slovic erzählt, dass er und Daniel Kahneman sich in letzter Zeit mit den inneren Abläufen des Gehirns beschäftigen und herausfinden wollen, wie intuitive Urteile entstehen. Sie wollten 'nen ruhigen Ort finden, wo sie ungestört forschen können. Und sie hatten schon erste Erkenntnisse darüber, warum Experten so viele systematische Fehler machen: Es liegt nicht daran, dass sie 'nen schlechten Tag haben.
Amos hatte schon zugesagt, im akademischen Jahr 1970/71 in Stanford zu forschen, also waren er und Daniel, der noch in Israel war, erst mal getrennt. Sie haben aber vereinbart, getrennt Daten zu sammeln. Und zwar mit lustigen Fragen, die sie sich ausgedacht hatten. Daniel hat Studenten der Hebräischen Universität mit Taxis losgeschickt, um in ganz Israel Teenager zu suchen. Denen haben sie dann 2-4 komische Fragen gestellt und sie gebeten, die in 'n paar Minuten zu beantworten.
Zum Beispiel:
"In dieser Stadt haben wir alle Familien mit sechs Kindern untersucht. In 72 Familien war die Geburtenfolge: Mädchen, Junge, Mädchen, Junge, Junge, Mädchen.
Wie viele Familien schätzen Sie, in denen die Geburtenfolge Junge, Mädchen, Junge, Junge, Junge, Junge ist?"
Keiner weiß, was die israelischen Teenager von diesen Fragen gehalten haben, aber die Studenten haben insgesamt 1500 Antworten gesammelt. Und Amos hat den Studenten in Michigan und Stanford ähnliche, aber ebenso seltsame Fragen gestellt.
Zum Beispiel:
"In jeder Runde eines Spiels werden 20 Murmeln zufällig auf 5 Kinder verteilt: Alan, Ben, Carl, Dan und Ed. Hier sind zwei mögliche Verteilungen:
Verteilung A Verteilung B
Alan: 4 Murmeln Alan: 4 Murmeln
Ben: 4 Murmeln Ben: 4 Murmeln
Carl: 5 Murmeln Carl: 4 Murmeln
Dan: 4 Murmeln Dan: 4 Murmeln
Ed: 3 Murmeln Ed: 4 Murmeln
Werden die oben gezeigten Verteilungen im Laufe vieler Runden auftreten?"
Bei diesen Fragen ging es darum herauszufinden, wie Menschen urteilen, wenn es schwierig ist, Wahrscheinlichkeiten zu beurteilen. Alle Fragen hatten 'ne richtige Antwort. Und die Antworten der Teilnehmer wurden dann mit den richtigen Antworten verglichen und die falschen Antworten wurden dann weiter analysiert. "Das Ziel war: Was machen die Leute?", sagte Daniel, "was machen sie im Kopf, wenn sie Wahrscheinlichkeiten beurteilen? Das ist 'ne sehr abstrakte Frage, aber es muss 'ne Antwort geben."
Die meisten Leute haben die Fragen falsch beantwortet, aber das war auch so von Amos und Daniel erwartet, weil sie selbst ähnliche Fehler gemacht hatten. Daniel hat nämlich irgendwann 'nen Fehler gemacht und gemerkt, dass er 'n Fehler gemacht hat. Und dann hat er versucht, zu verstehen, warum er den Fehler gemacht hat. Und Amos fand Daniels Fehler und Daniels Erkenntnisse darüber total spannend und hat dann unweigerlich denselben Fehler gemacht. "Wir waren so besessen davon, dass diese Konzentration zur Intuition wurde", sagte Daniel, "die einzigen Fehler, die uns interessierten, waren die, die wir selbst gemacht hatten." Wenn die beiden denselben Fehler gemacht haben, konnten sie davon ausgehen, dass die meisten anderen Leute denselben Fehler machen würden. Und das hat sich dann auch bestätigt. Die Forschung in Israel und Amerika war eher so 'ne Art Überraschungstüte: Guck mal, so funktioniert das menschliche Denken!
Amos hat schon früh gemerkt, dass manche Leute ihr Leben extra kompliziert machen. Und er hatte das Talent, sich von diesen "überkomplizierten Menschen" fernzuhalten. Aber manchmal hat er auch Leute getroffen, meistens Frauen, deren Komplexität ihn fasziniert hat. Und seine Freundschaft mit Daniel war für Außenstehende auch überraschend. Ein Freund von Amos hat mal gesagt: "Amos hat immer gesagt: 'Menschen sind nicht kompliziert, Beziehungen sind kompliziert.' Dann hat er 'ne Pause gemacht und hinzugefügt: 'Außer Daniel und ich.'" Daniel hatte irgendwas, wodurch Amos sich entspannen konnte und in Daniels Gegenwart jemand anderes wurde. "Wenn wir zusammengearbeitet haben, wurde Amos' Skepsis außer Kraft gesetzt", sagte Daniel, "das hat er vor anderen Leuten selten gemacht. Und das war der Motor unserer Zusammenarbeit."
Im August 1971 ist Amos mit seiner Familie und 'nem Haufen Daten nach Eugene zurückgekehrt. Er hat sich 'ne Wohnung gemietet, die über die ganze Stadt schaute. Der Vormieter war ein Psychologe vom Oregon Research Institute, der in Urlaub war. "Der Thermostat war auf 29,4 Grad eingestellt", sagte Barbara, Amos' Frau. "Das Haus hatte Glaswände vom Boden bis zur Decke, ohne Vorhänge. Und sie hatten 'n riesigen Haufen Wäsche hinterlassen, aber kein einziges Kleidungsstück." Später haben sie dann herausgefunden, dass die Vormieter Nudisten waren. Willkommen in Eugene! Nicht nach unten gucken! Wenige Wochen später ist dann auch Daniel mit seiner Familie und 'nem noch größeren Haufen Daten nach Eugene gekommen. Die haben dann 'n Haus mit Rasen gemietet, was Daniel noch mehr Angst gemacht hat als die Nudisten. Aber er hat trotzdem versucht optimistisch zu sein. Obwohl er aus 'ner Stadt mit viel Sonne kam, hat er gesagt: "In meiner Erinnerung war Eugene immer sonnig." Dabei gab's in Eugene eigentlich viel mehr bewölkte Tage als sonnige.
Egal wie das Wetter war, Daniel war die meiste Zeit drinnen, in dem ehemaligen Kirchengebäude, wo er und Amos weiter über die Themen diskutiert haben, die sie schon in Jerusalem angefangen hatten. "Ich hatte das Gefühl, dass sich mein Leben verändert hat", sagte Daniel. "Wir waren total synchronisiert und haben die Gedanken des anderen schneller verstanden als unsere eigenen. Der kreative Prozess, bei dem man irgendwas denkt und dann vielleicht erst nach Jahren merkt, was man da eigentlich gedacht hat, war bei uns total verkürzt. Wenn ich irgendwas gesagt habe, hat Amos es sofort verstanden. Und wenn einer von uns 'ne Idee hatte, hat der andere versucht, das Beste daraus zu machen. Du hast den ersten Satz gesagt und der andere hat den zweiten gesagt, und zwar genau den richtigen. Wir haben uns natürlich auch gegenseitig überrascht und uns manchmal gegenseitig Gänsehaut verpasst." Zum ersten Mal in ihrer Karriere hatten sie auch 'n Team, das ihnen zugearbeitet hat, das Papiere abgetippt hat, Probanden gesucht hat und Geld beschafft hat. Sie mussten nur noch eins tun: reden.
Und beim Reden haben sie sich vor allem mit 'nem Thema beschäftigt: Wie unser Gehirn Fehler produziert. Sie haben angefangen darüber nachzudenken, welche Fehler unser Gehirn so macht und welche Vorurteile es hat. Und dann haben sie so 'ne Art Routine entwickelt: Daniel ist jeden Morgen ins Büro gegangen und hat die Antworten der Studenten der University of Oregon von gestern analysiert. Daniel konnte es nicht leiden, wenn man Sachen aufschiebt. Und zu Studenten, die es nicht geschafft haben, die Daten innerhalb von 24 Stunden zu analysieren, hat er gesagt: "In der Forschung ist das 'n sicheres Zeichen für 'nen Abstieg." Gegen Mittag ist dann Amos gekommen. Die beiden sind dann zusammen zu 'nem Imbiss gegangen, wo es Fish and Chips gab und haben das im Stehen gegessen, wie alle anderen. Und dann sind sie zurück ins Büro gegangen und haben den Rest des Tages geredet. "Sie hatten 'ne ganz eigene Art zu arbeiten", erzählte Paul Slovic, "Stunden über Stunden haben sie geredet, ohne aufzuhören."
Die Forscher vom Oregon Research Institute haben auch gemerkt, dass Amos und Daniel immer total happy waren, egal worüber sie geredet haben. Weil sie fast die Hälfte der Zeit gelacht haben. Sie haben auf Hebräisch und Englisch geredet und die beiden Sprachen auch immer wieder vermischt. Sie waren in Eugene, umgeben von Joggern, Nudisten, Hippies und Pinienwäldern, aber es hätte ihnen auch in der Mongolei nicht anders gefallen. "Ich glaube, die beiden haben sich gar nicht für die Umgebung interessiert", sagte Slovic, "es war ihnen egal, wo sie waren, solange sie ihre Gedanken austauschen konnten." Und was auch aufgefallen ist: Die beiden waren total vertraut miteinander. Bevor sie nach Eugene gekommen sind, hatte Amos noch angedeutet, dass Paul Slovic vielleicht mitmachen könnte. Aber als Daniel dann da war, war klar: Slovic war außen vor. "Wir konnten nicht zu dritt sein", sagte Paul Slovic, "die beiden wollten von niemandem gestört werden."
Die beiden wollten gar nicht mehr sie selbst sein, sondern das, was sie waren, wenn sie zusammen waren. Für Amos war Arbeit wie Spielen. Wenn er keinen Spaß an der Arbeit hatte, war sie es nicht wert. Und das hat Daniel jetzt auch beeinflusst. Alles war neu. Daniel war wie 'n Kind mit dem besten Spielzeugschrank der Welt, das so unentschlossen ist, dass es nie richtig Spaß an den Spielsachen hat. Ständig überlegt er, ob er lieber mit der Wasserpistole oder dem elektrischen Skateboard spielen soll. Amos hat dann gesagt: "Komm, reiß dich zusammen, lass uns alles ausprobieren!". Daniel ist später auch ein paar Mal in tiefe Depressionen verfallen. Dann ist er auf und ab gegangen und hat gesagt: "Ich hab keine Ideen mehr." Aber Amos konnte ihn dann trotzdem aufheitern. Ein Freund von den beiden, Avishai Margalit, hat mal gesagt: "Immer wenn Daniel gesagt hat 'Ich bin fertig, mein Gehirn ist leer', hat Amos gelacht und gesagt: 'Daniel hat in einer Minute mehr Ideen als 100 Leute in 100 Jahren.'" Wenn die beiden dann zusammen geschrieben haben, waren sie fast wie zusammengeklebt. "Wenn die zusammen an der Schreibmaschine saßen", erzählte Richard Nisbett, 'n Psychologe von der University of Michigan, "konnte ich das kaum ertragen. Das war so, als ob mir jemand anders die Zähne putzen würde." Aber Daniel hat gesagt: "Wir haben uns die Gedanken geteilt."
Ihr erster Artikel, den sie mehr oder weniger als akademisches Spiel angesehen haben, hat gezeigt, dass Menschen bei Wahrscheinlichkeitsfragen mit 'ner richtigen Antwort nicht so denken wie Statistiker. Selbst Statistiker denken nicht wie Statistiker. Und das hat 'ne neue Frage aufgeworfen: Wenn Menschen nicht statistisch denken, selbst wenn sie es könnten, wie denken sie dann? Wie denken sie in all den zufälligen Situationen des Lebens, zum Beispiel am Black-Jack-Tisch? In ihrem zweiten Artikel haben sie das genauer untersucht. Aber Amos hatte Probleme mit dem Titel. Er wollte erst anfangen zu schreiben, wenn der Titel feststand. Für ihn musste der Titel genau das widerspiegeln, worum es in dem Artikel geht.
Aber dieses Mal haben sie 'nen total komplizierten Titel gewählt. Sie mussten sich ja auch an die Regeln der akademischen Welt halten. Mit 'nem einfachen Titel hätte der Artikel keine Aufmerksamkeit bekommen. Ihr erster Versuch, das Rätsel des menschlichen Urteilsvermögens zu lösen, hieß dann "Subjective Probability: A Judgment of Representativeness".
Subjektive Wahrscheinlichkeit – da konnte man sich ja noch was drunter vorstellen. Subjektive Wahrscheinlichkeit ist das, was man persönlich für wahrscheinlich hält. Wenn man nachts aus dem Fenster guckt und sieht, wie der Sohn heimlich zur Haustür schleicht, denkt man: "Der ist bestimmt betrunken." Das ist subjektive Wahrscheinlichkeit. Aber was ist "Urteil der Repräsentativität"? "Subjektive Wahrscheinlichkeit spielt eine wichtige Rolle im Leben", beginnt der Artikel. "Entscheidungen, Schlussfolgerungen und Erklärungen basieren in der Regel auf Überzeugungen über die Wahrscheinlichkeit unsicherer Ereignisse wie der Erfolg eines neuen Arbeitsplatzes, das Ergebnis einer Wahl oder die Aussichten für den Aktienmarkt." Anstatt zu versuchen, die richtige Wahrscheinlichkeit zu berechnen, tun die Menschen stattdessen etwas anderes.
Daniel und Amos haben gesagt: Das Gehirn benutzt Daumenregeln anstelle von Wahrscheinlichkeitsregeln. Diese Daumenregeln haben sie "Heuristiken" genannt. Und die erste Heuristik, die sie untersucht haben, war die "Repräsentativität".
Die beiden haben gesagt, dass Menschen bei ihren Urteilen immer vergleichen, was sie beurteilen, mit irgendwelchen Mustern, die sie im Kopf haben. Sehen die Wolken so aus wie die Wolken, die ich von 'nem Gewitter kenne? Sieht das Geschwür so aus wie das, was ich mir unter 'nem bösartigen Tumor vorstelle? Entspricht Jeremy Lin meiner Vorstellung von 'nem zukünftigen NBA-Star? Sieht der kriegerische deutsche Kanzler aus wie 'n Massenmörder, der 'nen Völkermord plant? Die Welt ist nicht nur 'ne Bühne, sondern auch 'n Kasino. Und das Leben ist wie 'n Glücksspiel, bei dem man immer wieder Wahrscheinlichkeiten einschätzen muss. Und bei diesen Wahrscheinlichkeitseinschätzungen geht es eigentlich darum, Ähnlichkeiten zu beurteilen, oder eben Repräsentativität. Man hat so 'ne Vorstellung von etwas, zum Beispiel "Gewitterwolken", "Magentumor, der Krebs verursacht", "Völkermörder-Diktator" oder "NBA-Spieler". Und wenn man dann irgendwas Konkretes sieht, vergleicht man das mit der Vorstellung, die man im Kopf hat.
Amos und Daniel haben sich nicht damit beschäftigt, wie diese Vorstellungen überhaupt entstehen und wie Menschen Repräsentativität beurteilen. Sie haben sich stattdessen darauf konzentriert, in welchen Situationen diese Vorstellungen besonders deutlich werden. Je ähnlicher etwas Konkretes der Vorstellung ist, die man im Kopf hat, desto eher hält man es für repräsentativ. Sie haben geschrieben: "Wir argumentieren, dass in vielen Situationen das Ereignis A als wahrscheinlicher beurteilt wird als das Ereignis B, wenn A repräsentativer für B ist." Je ähnlicher 'n Basketballspieler der Vorstellung von 'nem NBA-Spieler ist, desto eher hält man ihn für 'n NBA-Spieler.
Sie hatten das Gefühl, dass die Fehler, die Menschen machen, nicht zufällig sind, sondern systematisch. Und die komischen Fragen, die sie den israelischen Teenagern und den amerikanischen Studenten gestellt haben, sollten helfen, diese Fehler zu finden und zu beschreiben. Das Ganze war sehr abstrakt. Die Heuristik, die sie "Repräsentativität" genannt haben, ist ja nicht immer falsch. Die Art und Weise, wie unser Gehirn in unsicheren Situationen vorgeht, kann zwar zu Fehlurteilen führen, aber meistens ist sie sehr hilfreich. Die meisten Leute, die NBA-Spieler werden, entsprechen auch dem typischen Bild, das man von 'nem NBA-Spieler hat. Aber es gibt eben auch Ausnahmen. Und dadurch entstehen dann systematische Fehler. Dann sieht man eben, wie die Heuristik funktioniert.
Zum Beispiel: Bei den Familien mit sechs Kindern ist die Geburtenfolge Junge, Mädchen, Junge, Junge, Junge, Junge genauso wahrscheinlich wie Mädchen, Junge, Mädchen, Junge, Junge, Mädchen. Aber die israelischen Kinder fanden, dass Mädchen, Junge, Mädchen, Junge, Junge, Mädchen wahrscheinlicher ist. Warum? "Weil die Kombination von fünf Jungen und einem Mädchen nicht der Geschlechterverteilung in Israel entspricht", haben sie erklärt. Die Kombination ist nicht repräsentativ. Und wenn man denselben israelischen Kindern zwei andere Geburtenfolgen zur Auswahl gegeben hat – Junge, Junge, Junge, Mädchen, Mädchen, Mädchen und Mädchen, Junge, Junge, Mädchen, Junge, Mädchen – haben die meisten die zweite gewählt. Auch hier sind beide Geburtenfolgen gleich wahrscheinlich. Warum haben sie die zweite gewählt? Daniel und Amos haben gesagt, weil die Leute davon ausgehen, dass Geburtenfolgen zufällig sind. Und die zweite Geburtenfolge sieht zufälliger aus als die erste.
Die nächste Frage war dann: Wann führt die Repräsentativitätsheuristik zu großen Fehleinschätzungen? Eine Antwort ist: Immer dann, wenn man etwas beurteilen muss, wo Zufall im Spiel ist. Daniel und Amos haben geschrieben, dass die Ähnlichkeit zwischen etwas Unsicherem und dem großen Ganzen nicht ausreicht. "Es sollte auch die Eigenschaften des Prozesses widerspiegeln, der die Unsicherheit erzeugt hat." Wenn der Prozess zufällig ist, sollte das Ergebnis auch zufällig aussehen. Die beiden haben nicht erklärt, wie die Vorstellung von Zufall überhaupt entsteht. Sie haben nur gesagt: Lasst uns über zufällige Urteile reden. Psychologen sind sich ja weitgehend einig darüber, was Zufall ist.
Im Zweiten Weltkrieg haben die Einwohner von London immer gedacht, dass die Bomben, die vom Himmel fallen, gezielt abgeworfen werden, weil manche Gegenden immer wieder getroffen wurden und manche verschont blieben. (Statistiker haben aber später bewiesen, dass die Verteilung der Bomben genau dem entspricht, was man bei 'ner zufälligen Bombardierung erwarten würde.) Wenn zwei Schulkameraden am selben Tag Geburtstag haben, halten die Leute das für 'nen krassen Zufall. Aber in jeder Gruppe von 23 Leuten ist die Wahrscheinlichkeit, dass zwei am selben Tag Geburtstag haben, größer als 50 Prozent. Unsere Vorstellung von Zufall ist weit entfernt von dem, was wirklich zufällig ist. Weil das, was wir für zufällig halten, nicht die Dinge und Muster enthält, die nur beim echten Zufall vorkommen. Wenn man 20 Murmeln zufällig auf 5 Kinder verteilt, ist es wahrscheinlicher, dass jedes Kind 4 Murmeln bekommt, als dass die Murmeln so verteilt werden wie in Verteilung A (siehe oben). Aber die amerikanischen Studenten haben gesagt, dass Verteilung A wahrscheinlicher ist als Verteilung B. Warum? Weil Verteilung B "zu gleichmäßig aussieht, um zufällig zu sein".
Daniel und Amos haben gefragt: Zufall ist ja was, das man messen kann. Wenn 'n falsches Verständnis von Zufall schon zu Fehlurteilen führt, wie viele andere Fehler macht man dann erst bei Dingen, die noch unklarer sind?
"Die durchschnittliche Körpergröße von erwachsenen Männern und Frauen in den USA beträgt 1,78 m bzw. 1,63 m. Die Standardabweichung beträgt in beiden Gruppen 6,35 cm."
"Ein Forscher wählt zufällig eine Geschlechtsgruppe aus und wählt daraus eine Reihe von Einzelpersonen aus.
Was halten Sie für die Wahrscheinlichkeit, dass der Forscher die Gruppe der Männer ausgewählt hat, wenn:
1. Eine Person eine Körpergröße von 1,78 m hat.
2. Die durchschnittliche Körpergröße von 6 Personen 1,73 m beträgt."
Die meisten Leute haben gesagt, dass die Wahrscheinlichkeit bei Fall 1 8:1 ist und bei Fall 2 2,5:1. Aber in Wirklichkeit sind die richtigen Antworten 16:1 bzw. 29:1. Eine Stichprobe von 6 Leuten liefert viel mehr Informationen als 'ne einzelne Person. Aber die Leute denken trotzdem, dass 'ne Körpergröße von 1,78 m eher für 'ne Gruppe von Männern spricht als 'ne durchschnittliche Körpergröße von 1,73 m. Warum? Weil sie denken: 1,78 m, das ist doch 'n Mann! Sie haben sich so auf die Größe konzentriert, dass sie vergessen haben, dass das auch 'ne Frau sein kann.
"In einer Stadt gibt es zwei Krankenhäuser. Im größeren Krankenhaus werden durchschnittlich 45 Babys pro Tag geboren. Im kleineren Krankenhaus werden durchschnittlich 15 Babys pro Tag geboren. Ungefähr 50 % aller Babys sind Jungen. Aber der genaue Prozentsatz der Jungen variiert von Tag zu Tag, manchmal liegt er über 50 %, manchmal darunter.
Ein Jahr lang haben die Krankenhäuser die Tage gezählt, an denen mehr als 60 % der Neugeborenen Jungen waren. Welches Krankenhaus hat Ihrer Meinung nach mehr solcher Tage gezählt? Bitte wählen Sie aus den folgenden Optionen:
- Das große Krankenhaus
- Das kleine Krankenhaus
- Ungefähr gleich (d. h. innerhalb von 5 %)."
Auch hier haben die Leute 'nen Fehler gemacht. Die meisten haben gesagt "ungefähr gleich", aber die richtige Antwort ist "das kleine Krankenhaus". Je kleiner die Stichprobe, desto weniger repräsentativ ist sie für das große Ganze. "Natürlich wollen wir damit nicht sagen, dass die Leute nicht verstehen, wie sich die Stichprobengröße auf Stichprobenvariationen auswirkt", haben Daniel und Amos geschrieben. "Die Leute können die richtige Methode lernen und sie wahrscheinlich auch schnell beherrschen. Der Punkt ist, dass sie sich nicht daran halten, wenn sie selbst Probleme lösen."
Vielleicht haben die amerikanischen Studenten gedacht: Was sind das überhaupt für komische Fragen? Was hat das mit meinem Leben zu tun? Aber Amos und Daniel waren überzeugt, dass das viel mit ihrem Leben zu tun hat. "Im täglichen Leben stellen sich die Menschen und stellen sich anderen Fragen wie: Wie wahrscheinlich ist es, dass dieser 12-Jährige Wissenschaftler wird? Wie wahrscheinlich ist es, dass dieser Kandidat befördert wird? Wie wahrscheinlich ist es, dass dieses Unternehmen bankrott geht?" Sie haben zugegeben, dass sie sich auf Fragen beschränkt haben, bei denen man die Wahrscheinlichkeit objektiv berechnen kann. Aber sie waren sich sicher, dass die Leute auch bei Fragen, bei denen es schwierig ist, die Wahrscheinlichkeit zu beurteilen, dieselben Fehler machen würden. Zum Beispiel, wenn sie sich fragen, was aus 'nem Jungen mal wird, lassen sie sich von ihren Vorstellungen leiten. Wenn der Junge ihrer Vorstellung von 'nem Wissenschaftler entspricht, sind sie überzeugt, dass er Wissenschaftler wird. Dabei berücksichtigen sie gar nicht, wie viele Kinder wirklich Wissenschaftler werden.
Ob die Leute bei Fragen, bei denen es keine richtige Antwort gibt, wirklich Fehler machen, kann man natürlich nicht beweisen. Wie will man beweisen, dass die Leute 'ne falsche Antwort geben, wenn es gar keine richtige Antwort gibt? Aber wenn die Leute sich durch Ähnlichkeiten zu Fehlurteilen verleiten lassen, wenn die Wahrscheinlichkeit bekannt ist, sind ihre Urteile dann nicht vielleicht noch ungenauer, wenn die Wahrscheinlichkeit unbekannt ist?
Die erste wichtige Erkenntnis von Daniel und Amos war: Es gibt 'n Mechanismus in unserem Gehirn