Chapter Content
A ver, a ver, déjame que te cuente... allá por el año 60, un profesor de psicología de la Universidad Estatal de Oregón, Paul Hoffman, que estaba super interesado en cómo tomamos decisiones, consiguió una beca de la Fundación Nacional de Ciencias, ¡imagínate, 60.000 dólares! Con eso, pudo dejar de dar clases, que la verdad es que no le gustaba mucho, y se dedicó a montar lo que él llamaba el "Centro de Investigación Básica en Ciencias del Comportamiento". Estaba un poco frustrado porque no avanzaba en su carrera, así que con la pasta se compró un edificio en Eugene, en una zona llena de árboles, que antes había sido una iglesia unitaria, y le puso de nombre "Instituto de Oregón".
¿Y sabes qué? Se convirtió en el único centro de investigación privado del mundo que se dedicaba solo al comportamiento humano. Obviamente, atrajo un montón de gente curiosa y con talento. Un periódico local decía que era como "un grupo de gente inteligente investigando en silencio los misterios detrás de las decisiones humanas, en un ambiente de trabajo adecuado".
Claro, esa descripción era un poco vaga, y la verdad es que el Instituto de Oregón era así, un poco misterioso. Nadie sabía muy bien qué hacían esos psicólogos, solo que ya no podían decir que eran profesores para salir del paso. Uno de ellos, Paul Slovic, que se había ido de la Universidad de Michigan para unirse al instituto, me acuerdo que sus hijos le preguntaron de qué vivía, y él les enseñó un póster del cerebro y les dijo: "De estudiar los misterios que esconde el cerebro".
Y es que la psicología, pues, como que siempre ha sido un cajón de sastre donde van a parar los problemas que otras disciplinas no quieren, ¿no? Y el Instituto de Oregón era como un cajón de sastre pero más grande. Al principio, le salió un trabajo de una empresa constructora de Eugene que estaba ayudando a construir las Torres Gemelas en Nueva York.
Resulta que el arquitecto de las Torres, Minoru Yamasaki, tenía miedo a las alturas, ¡fíjate! Y era la primera vez que diseñaba un edificio de más de 28 pisos. El dueño, la Autoridad Portuaria de Nueva York, quería que los pisos de arriba fueran más caros, así que le pidió al ingeniero jefe, Leslie Robertson, que se asegurara de que los inquilinos de los pisos altos no notaran el viento. Era más un problema de psicología que de ingeniería. ¿Cuánto tiempo tardarías en notar que el edificio se mueve si estás en el piso 99? Así que Robertson contactó con el Instituto de Oregón de Paul Hoffman.
Entonces, Hoffman alquiló otro edificio en otra zona arbolada de Eugene y montó una habitación encima de unos cilindros hidráulicos. Cuando encendía el cacharro, la habitación se movía como si estuvieras en la cima de un rascacielos de Manhattan en un día de viento. Pero claro, todo esto era secreto. La Autoridad Portuaria no quería que los futuros inquilinos pensaran que iban a vivir balanceándose con el viento, y Hoffman temía que si los participantes sabían que estaban en un edificio que se movía, serían demasiado sensibles al balanceo y arruinarían el experimento. Como decía Paul Slovic, "el problema era cómo meter a la gente en esa habitación sin decirles por qué". Así que le pusieron un cartel que decía "Centro de Investigación Visual del Instituto de Oregón" y ofrecían exámenes de la vista gratis. (Tenían a un estudiante de psicología de la Universidad Estatal de Oregón que era óptico titulado para hacer los exámenes).
Mientras el estudiante examinaba los ojos de la gente, Hoffman encendía los cilindros hidráulicos y la habitación empezaba a moverse. Y descubrió que la gente notaba el movimiento mucho antes de lo que los diseñadores de las Torres Gemelas pensaban. La gente decía cosas como "Qué casa más rara. Será que no llevo las gafas. ¿Es una broma? Qué interesante". El pobre psicólogo que hacía los exámenes de la vista llegaba a casa cada noche mareadísimo.
Claro, cuando los ingenieros, los diseñadores y los jefazos de la Autoridad Portuaria de Nueva York se enteraron, volaron a Eugene para probar la "casa que se mueve". No se creían los resultados de Hoffman. Robertson dijo en una entrevista con el New York Times que pensaba que "mil millones de dólares se iban a la basura". Así que volvió a Manhattan y construyó su propia "casa que se mueve", y al final diseñó unos amortiguadores de metal de 75 centímetros que metió en cada habitación de las Torres Gemelas. Probablemente, gracias a ese acero extra, las torres aguantaron un poco más después del impacto de los aviones, y eso permitió que parte de las 14.000 personas que estaban dentro escaparan antes de que se derrumbaran.
Pero bueno, para el Instituto de Oregón, la "casa que se mueve" fue solo una pequeña prueba. A los psicólogos que trabajaban allí, como a Paul Hoffman, lo que más les interesaba era cómo tomamos decisiones. También les interesaba mucho un libro que se llamaba "Diagnóstico Clínico y Predicción Estadística" de Paul Meehl, donde explicaba cómo los psicólogos eran peores que las fórmulas estadísticas a la hora de diagnosticar a los pacientes o predecir su comportamiento. Daniel Kahneman había leído ese libro en los años 50 y, poco después, empezó a usar fórmulas estadísticas para seleccionar a los soldados en lugar de confiar en el juicio humano. Meehl, que era psicólogo clínico, pensaba que él y otros psicólogos tenían una intuición que no se podía expresar con fórmulas estadísticas. Pero a principios de los 60, la mayoría de los estudios apoyaban la idea de Meehl, o sea, que desconfiaban del juicio humano.
Si el juicio humano es peor que una simple fórmula, entonces tenemos un problema gordo, porque la mayoría de las profesiones que requieren juicio experto no tienen tantos datos como la psicología. En muchas áreas de la vida no hay suficientes datos para crear una fórmula que reemplace el juicio humano. En la vida real, la mayoría de los problemas difíciles requieren el juicio de expertos, como médicos, jueces, asesores de inversión, funcionarios, directores de admisión, dueños de cines, ojeadores de béisbol, jefes de personal y, en general, gente que toma decisiones en todo tipo de trabajos. Hoffman y los otros psicólogos del instituto querían entender cómo hacían los expertos para tomar decisiones. Paul Slovic decía que no tenían una perspectiva única, sino que pensaban que era un tema importante: "¿Cómo junta la gente toda la información que tiene, cómo la procesa y cómo llega a una decisión o a un juicio?".
Lo curioso es que lo primero que hicieron no fue estudiar lo mal que lo hacían los expertos cuando tenían que competir contra fórmulas estadísticas. Al contrario, empezaron a crear un modelo de lo que los expertos pensaban cuando tomaban decisiones. O como decía Lou Goldberg, que se unió al Instituto de Oregón en 1960 desde la Universidad de Stanford, "para identificar cuándo y dónde es más probable que el juicio humano falle". Si encontraban el punto donde los expertos se equivocaban, entonces podrían reducir la diferencia entre los expertos y las fórmulas estadísticas. Slovic decía que si entendían cómo la gente hacía juicios o tomaba decisiones, podrían mejorar el juicio humano y hacer que la gente predijera y juzgara con más precisión. Eso era lo que pensaban entonces, aunque no lo tuvieran muy claro.
Para eso, Hoffman publicó un artículo en 1960 donde explicaba cómo hacían los expertos para tomar decisiones. Podían preguntarles directamente, claro, pero eso era demasiado subjetivo. La gente no siempre dice la verdad. Así que Hoffman propuso que, para entender mejor cómo pensaban, había que fijarse en la información que recibían cuando tomaban decisiones (lo que Hoffman llamaba "pistas") y deducir cuánto peso le daban a cada información según sus juicios. Por ejemplo, si querían saber cómo elegían a los estudiantes en la Universidad de Yale, podían preguntarles qué criterios tenían en cuenta. Normalmente, dirían que miran las notas, los resultados de los exámenes, la capacidad deportiva, los contactos con antiguos alumnos, el tipo de instituto, etc. Luego, según las decisiones que tomara el comité de admisión, podrían sacar información valiosa y saber cuánto peso le daban a cada criterio. Si tenían un buen nivel de matemáticas, podían incluso crear un modelo que explicara cómo interactuaban esos criterios en el proceso de decisión de los responsables de admisión. (Por ejemplo, puede que le dieran más importancia a la capacidad deportiva de los estudiantes que vienen de institutos públicos, pero no tanto a los estudiantes ricos que vienen de colegios privados).
Y Hoffman tenía suficiente nivel de matemáticas para crear ese modelo. En el artículo que mandó a la revista Psychological Bulletin, le puso un título un poco raro: "El Paramorfismo en el Juicio Clínico". Pero es que Hoffman no esperaba que mucha gente leyera su artículo. Era un mundo pequeño, un rincón de la psicología que acababa de descubrir, y no pensaba que le fueran a hacer mucho caso. Lou Goldberg decía que la gente que tomaba decisiones en la vida normal no iba a leer ese artículo porque no estudiaban psicología ni leían revistas de psicología.
Al principio, el Instituto de Oregón eligió a psicólogos clínicos como sujetos de estudio, pero sabían que los resultados serían útiles para la gente que tomaba decisiones en todo tipo de profesiones, como médicos, meteorólogos, ojeadores de béisbol, etc. Paul Slovic decía que a lo mejor solo había 15 personas en todo el mundo trabajando en ese tema, pero sabían que estaban haciendo algo muy importante: usar números para resolver el misterio de la intuición en las decisiones complejas. A finales de los años 60, Hoffman y su equipo habían hecho algunos descubrimientos muy interesantes, que Lou Goldberg explicó en dos artículos muy completos. En 1968, Goldberg publicó su primer artículo en la revista académica American Psychologist. En él, empezó enumerando algunos estudios que demostraban que los expertos no eran tan buenos como las fórmulas estadísticas. "He llegado a la conclusión, basándome en la creciente cantidad de estudios", escribió Goldberg, "de que en muchas tareas de juicio clínico (incluyendo aquellas diseñadas para juzgar lo mejor que puede hacer un médico o lo peor que puede hacer un actuario), la fórmula actuarial más simple es tan válida como el juicio del experto clínico".
Entonces, ¿qué hacían los expertos clínicos? Como otros que se habían preguntado lo mismo, Goldberg pensaba que cuando un médico diagnosticaba a un paciente, su cerebro debía de estar haciendo cosas muy complicadas. Y pensaba que si querían crear un modelo del proceso de pensamiento del médico, el modelo también tenía que ser muy complicado. Por ejemplo, un psicólogo de la Universidad de Colorado quería estudiar a sus colegas para ver cómo predecían qué estudiantes tendrían problemas para adaptarse a la universidad. Grababa a sus colegas mientras analizaban los datos y luego intentaba simular su proceso de pensamiento con un programa informático muy complejo. Goldberg decía que él prefería algo más sencillo. En el primer estudio de caso, eligió el método que usaban los médicos para diagnosticar el cáncer.
Goldberg explicó que la razón era que el Instituto de Oregón acababa de terminar un estudio sobre médicos. En la Universidad de Oregón, los investigadores les habían preguntado a un grupo de radiólogos cómo hacían para saber si un paciente tenía cáncer a partir de las radiografías de su estómago. Los radiólogos respondieron que se fijaban en siete cosas: el tamaño de la úlcera, la forma de los bordes, el ancho de la zona erosionada, etc. Como Hoffman, Goldberg llamaba a esas cosas "pistas". Obviamente, había muchas combinaciones posibles de esas siete pistas, y los médicos tenían que sacar conclusiones de cada una de ellas. Por ejemplo, si el tamaño de la úlcera era el mismo, un borde liso y un borde irregular podían significar cosas muy diferentes. Goldberg señalaba que los expertos solían describir su proceso de pensamiento como algo muy sutil y complicado, lo que hacía muy difícil crear un modelo de él.
Así que, a modo de prueba, los investigadores del Instituto de Oregón diseñaron un programa informático muy simple donde le daban el mismo peso a cada uno de los siete criterios para decidir si la úlcera era benigna o maligna. Luego, les pidieron a los médicos que juzgaran 96 radiografías diferentes de úlceras de estómago usando una escala de siete puntos, desde "definitivamente maligno" hasta "definitivamente benigno". Proyectaron cada imagen dos veces, y mezclaron copias de algunas imágenes sin que los médicos lo supieran, para que no se dieran cuenta de que ya habían diagnosticado esa imagen antes. No tenían ordenadores, así que apuntaban todos los datos en tarjetas perforadas y las mandaban a la Universidad de California en Los Ángeles, donde las procesaba un ordenador grande. Esperaban crear un programa informático que simulara el proceso de decisión de los médicos.
Goldberg pensaba que este primer intento era solo el principio. Creía que el programa informático tenía que ser más complicado, que necesitaba conocimientos de matemáticas más avanzados y que tenía que explicar las sutiles reacciones de los médicos al evaluar las pistas. Por ejemplo, cuando la úlcera era muy grande, el médico tenía que volver a evaluar las otras seis pistas.
Pero cuando la Universidad de California en Los Ángeles les devolvió los resultados del análisis de los datos, los investigadores del Instituto de Oregón se quedaron flipando. (Según Goldberg, el resultado era "aterrador"). Primero, el programa simple que habían diseñado para entender el proceso de diagnóstico de los médicos era bastante eficaz y podía predecir el diagnóstico de los médicos con bastante precisión. Los médicos pensaban que su proceso de pensamiento era sutil y complicado, pero el modelo matemático era capaz de registrarlo casi a la perfección. Eso no quiere decir que el proceso de pensamiento de los médicos fuera simple, solo que se podía expresar con una fórmula simple. Pero lo más sorprendente es que los médicos no se ponían de acuerdo entre ellos. Y no solo eso, sino que daban diagnósticos diferentes cuando veían la misma imagen de la úlcera dos veces. Eso demostraba que los médicos no solo no coincidían con los demás, sino que tampoco coincidían consigo mismos. "Estos estudios sugieren que el diagnóstico en la medicina clínica no es más consistente que en la psicología clínica", escribió Goldberg. "Piénsatelo dos veces antes de ir al médico de cabecera". Si los propios médicos no podían ser consistentes con sus diagnósticos, entonces era difícil garantizar que el diagnóstico fuera correcto.
Después, los investigadores repitieron el experimento con psicólogos clínicos y psiquiatras. Les dieron una serie de criterios para saber si un paciente mental se había recuperado y podía salir del hospital, y sus juicios volvieron a aparecer en los gráficos. Y lo más raro es que los médicos con menos experiencia (los estudiantes de posgrado) eran tan precisos como los médicos con más experiencia (los médicos veteranos que cobraban un pastizal) a la hora de juzgar qué pacientes podían salir del hospital. La experiencia laboral no parecía tener nada que ver con la precisión del diagnóstico (por ejemplo, para saber si alguien tenía tendencias suicidas). Según Goldberg, "la precisión que demostraron en esta tarea no tenía nada que ver con la cantidad de experiencia profesional que tenían".
Pero Goldberg no se apresuró a culpar a los médicos. En el epílogo de su artículo, señaló que el problema podía ser que los médicos y los psiquiatras rara vez tenían la oportunidad de evaluar o, cuando era necesario, ajustar la precisión de su pensamiento. Les faltaba "retroalimentación inmediata". Así que él y un colega del Instituto de Oregón llamado Leonard Rorer se propusieron crear esa "retroalimentación inmediata". Dividieron a los médicos en dos grupos y les dieron miles de casos para que los diagnosticaran. Un grupo recibía retroalimentación inmediatamente después de diagnosticar el caso, y el otro no. El objetivo era ver si el grupo que recibía retroalimentación mejoraba su precisión a la hora de hacer juicios en el futuro.
Pero el resultado no fue bueno. "Ahora parece que nuestra idea inicial de estudiar los problemas de la intervención clínica era demasiado simple: para entender una tarea tan difícil, no basta con la retroalimentación de los resultados, sino que se necesita mucha más información", escribió Goldberg. En este punto, otro investigador de Oregón, Goldberg no recuerda quién era, hizo una sugerencia audaz. "Dijo: 'Puede que los modelos que estás creando para reflejar el proceso de pensamiento de los médicos sean más precisos que el diagnóstico de los propios médicos'", recordó Goldberg. "Pensé: 'Dios mío, qué tontería. ¿Cómo va a ser eso posible?'". ¿Cómo iba a ser que un modelo tan simple fuera más preciso que el diagnóstico de un médico, por ejemplo, para diagnosticar el cáncer? El modelo lo habían creado los propios médicos, porque toda la información que contenía la habían proporcionado ellos.
Aunque no estaba muy convencido, el equipo de investigación del Instituto de Oregón puso a prueba esta hipótesis. Y resultó que su colega tenía razón. Si querían saber si tenían cáncer, lo mejor no era ir a un radiólogo para que analizara sus radiografías, sino usar el modelo de los investigadores para calcularlo. El modelo no solo superaba a los médicos en general, sino que también era mejor que los mejores médicos individualmente. Para hundir a un médico, bastaba con sustituirlo por una fórmula creada por un aficionado a la medicina.
Cuando Goldberg empezó a escribir su segundo artículo, "El Hombre contra el Modelo Hecho por el Hombre", ya no era tan optimista ni con los expertos ni con los métodos que utilizaba el Instituto de Oregón. "En el artículo documenté los fracasos del experimento: no pudimos explicar la complejidad del juicio humano", dijo sobre su primer artículo publicado en American Psychologist. "Dadas las conjeturas sobre las complejas interacciones que podían estar presentes en los diagnósticos clínicos de los profesionales, pensamos ingenuamente que una simple combinación lineal de 'pistas' no podía predecir con precisión los juicios de la gente, y por lo tanto nos dispusimos a construir modelos matemáticos más complicados que reflejaran con precisión las estrategias que utilizaban las personas al hacer juicios. Pero eso no era necesario". Parece que los médicos tenían su propia teoría sobre cuánto peso le daban a cada característica de una úlcera a la hora de diagnosticarla. Y el modelo matemático coincidía perfectamente con su teoría y era capaz de hacer el diagnóstico más preciso de la úlcera. Pero por desgracia, en la práctica, los médicos no cumplían del todo con su propia teoría y acababan siendo derrotados por el modelo que habían creado ellos mismos.
Este descubrimiento tenía importantes implicaciones. Goldberg escribió: "Si esta conclusión se puede aplicar a otros procesos de juicio, entonces la forma subjetiva de contratar personal probablemente tenga que rendirse ante el modelo matemático". Pero, ¿por qué pasa esto? ¿Por qué el juicio de un experto, como un médico, es menos preciso que un modelo, y además el modelo está creado con el propio conocimiento del experto? En este punto, Goldberg solo pudo decir que los expertos también son humanos. "El clínico no es una máquina", escribió Goldberg. "Aunque domine todo el conocimiento profesional y tenga todas las habilidades que le permitan formular hipótesis de investigación, no tiene la fiabilidad única de una máquina. Tiene las preocupaciones de cualquier persona: aburrimiento, cansancio, enfermedad, influencias ambientales, problemas interpersonales. Todo esto le afecta y acaba haciendo juicios totalmente diferentes sobre la misma cosa. Para eliminar estos errores aleatorios en el proceso de juicio, para evitar la falta de fiabilidad humana, deberíamos aumentar la validez de los resultados de la predicción".
Poco después de que Goldberg publicara este artículo, en el verano del 70, Amos Tversky llegó a Eugene, Oregón. Estaba de paso para visitar a su viejo amigo Paul Slovic, y luego pensaba pasar un año en la Universidad de Stanford. Se conocían de la Universidad de Michigan. Slovic jugaba en el equipo de baloncesto y recordaba cuando Amos y él tiraban a canasta en el camino de entrada. Amos no era del equipo y casi siempre daba con la pelota en el aro. No parecía que estuviera jugando al baloncesto, sino haciendo gimnasia, en palabras de su hijo Oren, "lanzando la pelota que abrazaba contra su pecho al aro, como a cámara lenta". A pesar de ello, Amos tenía una extraña afición por el baloncesto. "A Amos le gustaba tirar a canasta como a otra gente le gusta hablar mientras camina", dijo Slovic, y añadió con cuidado: "No parecía que fuera de los que tiraban mucho a canasta". Después de verse, volvieron a coger la pelota. Mientras tiraba, Amos le contó a Slovic que él y Daniel Kahneman estaban pensando mucho en cómo funciona el cerebro y querían seguir explorando el proceso de formación del juicio intuitivo. "Dijo que querían encontrar un lugar tranquilo donde alejarse de las distracciones de la universidad y concentrarse en estudiar este tema", dijo Slovic. Ya tenían algunas conclusiones sobre por qué los expertos también cometían errores importantes y sistemáticos: no era porque los expertos tuvieran un mal día. "Sus sutiles ideas me abrieron los ojos", dijo Slovic.
Amos ya le había prometido a la Universidad de Stanford que iba a investigar allí durante el año 70-71, así que él y Daniel, que seguía en Israel, se separaron por un tiempo. Ese año, quedaron en que iban a recoger datos por su cuenta. Los datos venían de las preguntas interesantes que diseñaban. Los primeros sujetos de estudio de Daniel fueron los estudiantes de instituto. Contrató a unos 20 estudiantes de posgrado de la Universidad Hebrea y les dijo que cogieran taxis para buscar a chicos de esa edad por todo Israel. ("Casi no hay estudiantes de secundaria en Jerusalén"). Los estudiantes de posgrado les hacían entre dos y cuatro preguntas raras y les pedían que respondieran a cada una de ellas en unos minutos. "El cuestionario tenía muchas preguntas", dijo Daniel. "Los chicos no podían hacerlas todas, así que solo podían elegir algunas".
Piensa en la siguiente pregunta:
La encuesta se realizó a todas las familias de la ciudad que tienen seis hijos. En 72 familias, el orden de nacimiento de los hijos es niña, niño, niña, niño, niño, niña.
¿Cuántas familias crees que hay en total con el orden niño, niña, niño, niño, niño, niño?
Es decir, en esta ciudad ficticia, si en 72 familias con seis hijos el orden de nacimiento de los hijos es niña, niño, niña, niño, niño, niña, ¿cuántas familias de seis hijos estimas que tienen el orden niño, niña, niño, niño, niño, niño? Nadie sabe qué pensaron los estudiantes de secundaria israelíes de esta pregunta, pero los estudiantes de posgrado recogieron un total de 1.500 respuestas. Y Amos, al otro lado del océano, también les hacía preguntas raras a los sujetos, solo que él eligió a los estudiantes universitarios de la Universidad de Michigan y de la Universidad de Stanford.
En cada ronda del juego, se reparten 20 piedras al azar entre cinco niños: Alan, Ben, Carl, Dan y Ed. Mira las siguientes distribuciones:
Primera Segunda
Alan: 4 Alan: 4
Ben: 4 Ben: 4
Carl: 5 Carl: 4
Dan: 4 Dan: 4
Ed: 3 Ed: 4
¿Es probable que las dos distribuciones anteriores vuelvan a aparecer en muchas rondas del juego?
El objetivo de esta pregunta era ver cómo la gente tomaba decisiones, o mejor dicho, cómo cometía errores, cuando era difícil calcular la probabilidad. Todas las preguntas tenían una respuesta correcta. Las respuestas de los sujetos se comparaban con las respuestas correctas, y las respuestas incorrectas se analizaban más a fondo. "El objetivo general era: ¿Qué hace la gente?", dijo Daniel. "¿Qué hace su cerebro cuando juzga probabilidades? Es una pregunta muy abstracta, pero tiene que haber una respuesta".
En sus preguntas inventadas, la mayoría de los sujetos se equivocaban, y eso era lo que Amos y Daniel esperaban, porque ellos mismos se habían equivocado en preguntas parecidas. Más concretamente, Daniel se había equivocado y se había dado cuenta de su error, y luego había teorizado sobre por qué se había equivocado. Y Amos estaba tan atento al error de Daniel y a su comprensión del error que no pudo evitar cometer el mismo error. "Nos obsesionamos con esto hasta que la obsesión se convirtió en intuición", dijo Daniel. "Solo los errores que habíamos cometido nosotros nos parecían interesantes". Si los dos se equivocaban en el proceso de pensamiento o se equivocaban sin darse cuenta, entonces podían asegurar que la mayoría de la gente también cometería sus errores, y así fue. Durante un año, la investigación que hicieron los dos en Israel y en Estados Unidos fue más una serie de pequeñas sorpresas que experimentos: mira, así es como funciona el voluble pensamiento humano.
Desde pequeño, Amos descubrió que algunas personas se empeñaban en complicar la vida. Tenía el don de alejarse de esas "personas demasiado complicadas". Pero de vez en cuando se encontraba con alguien, normalmente una mujer, cuya complejidad le llamaba la atención. En el instituto, se hizo muy amigo de la que luego sería poeta Dahlia Ravikovitch, lo que sorprendió a sus compañeros. Su amistad con Daniel también sorprendió a mucha gente. Un viejo amigo de Amos recordó más tarde: "Amos siempre decía: 'La gente en sí no es compleja, lo que es complejo es la relación entre las personas'. Y luego hacía una pausa y añadía: 'Excepto Daniel y yo'". Daniel tenía una cualidad que hacía que Amos se relajara y se transformara en otra persona cuando estaba con él. "Cuando trabajábamos juntos, el espíritu crítico de Amos se quedaba a un lado", dijo Daniel. "Rara vez hacía eso delante de otra gente. Y esa era precisamente la fuerza motriz de nuestra colaboración".
En agosto de 1971, Amos volvió a Eugene con su mujer, sus hijos y un montón de datos, y se mudó a un apartamento en la ladera de una colina con vistas a toda la ciudad. Un psicólogo del Instituto de Oregón estaba de vacaciones y les había alquilado su casa. "La temperatura de la casa estaba fijada en 29,4 grados centígrados", dijo Barbara. "La casa tenía ventanas del suelo al techo sin cortinas. Dejaron un montón de cosas sucias para lavar, pero ninguna era ropa". Poco después descubrieron que los dueños eran nudistas. (¡Bienvenidos a Eugene! ¡No mires abajo!). Unas semanas después, Daniel también llegó a Eugene con su mujer, sus hijos y un montón aún más grande de datos, y se mudó a una casa que a Daniel le parecía aún más inquietante que los nudistas: una casa con jardín. Nadie entendía mejor que Daniel lo difícil que era cuidar un jardín, pero se mostró sorprendentemente optimista. Aunque venía de una ciudad con mucho sol, dijo: "En mi memoria, Eugene siempre está soleado". Aunque en realidad, en Eugene había muchos más días nublados que soleados.
Hiciera el tiempo que hiciese, Daniel pasaba la mayor parte del tiempo dentro, en el edificio que antes había sido una iglesia unitaria, donde él y Amos seguían hablando de lo que habían empezado a hablar en Jerusalén. Daniel dijo: "Tuve la sensación de que mi vida había cambiado. Siempre estábamos en sintonía, podíamos entender las ideas del otro muy rápido, incluso más rápido que las nuestras. El proceso creativo suele significar que mencionas una idea y luego, a lo mejor, tardas años en darte cuenta. Pero en nosotros, ese proceso se acortaba mucho. En cuanto yo decía una idea, Amos la entendía enseguida. Si a uno de nosotros se le ocurría una sugerencia brillante, el otro siempre intentaba encontrarle algo bueno. En cuanto decías la primera parte, el otro era capaz de decir la segunda, y normalmente acertaba. Claro que también nos sorprendíamos mucho el uno al otro, a veces las ideas del otro nos ponían los pelos de punta". En ese momento, también tenían por primera vez en su carrera un equipo a su disposición, que se encargaba de meter los datos en los ordenadores, buscar sujetos de estudio y recaudar fondos para la investigación. Y ellos solo hacían una cosa: hablar.
Una parte de la estructura del pensamiento humano está especializada en cometer errores, y ese también era un tema recurrente en sus conversaciones. Empezaron a pensar en qué errores adorables cometía esa parte del pensamiento, o mejor dicho, qué sesgos causaba. Poco a poco, crearon un patrón fijo: Daniel iba a la oficina todas las mañanas y analizaba las respuestas a las preguntas que los estudiantes de la Universidad de Oregón le habían entregado el día anterior. (A Daniel no le gustaba perder el tiempo, y les decía a los estudiantes de posgrado que no eran capaces de analizar los datos en 24 horas: "En la vida de la investigación, perder el tiempo es una mala señal"). Amos no aparecía hasta casi el mediodía. Los dos iban juntos a una freiduría y comían de pie, como todo el mundo. Luego volvían a la oficina y se pasaban el resto del día hablando. "Tenían una forma de trabajar muy peculiar", recordó Paul Slovic. "Se pasaban horas y horas hablando sin parar".
Como los profesores de la Universidad Hebrea, los investigadores del Instituto de Oregón también descubrieron que, hablaran de lo que hablaran Amos y Daniel, siempre parecían estar contentos, porque casi la mitad de sus conversaciones iban acompañadas de risas. A veces hablaban en hebreo, a veces en inglés, y cuando se interrumpían, mezclaban los dos idiomas. Les tocó vivir en Eugene, rodeados de gente que salía a correr, nudistas, hippies y bosques de pinos amarillos, pero les habría dado igual estar en Mongolia. "Creo que a los dos les daba igual el entorno geográfico", dijo Slovic. "No les importaba dónde estaban, solo les importaban sus ideas". Otra cosa que llamaba la atención era la intimidad que había en sus conversaciones. Antes de venir a Eugene, Amos había insinuado que quería que Paul Slovic trabajara con ellos, pero cuando llegó Daniel, quedó claro: Slovic era un extraño. "No podíamos ser tres", dijo Paul Slovic. "Los dos no querían que nadie los interrumpiera".
Lo curioso es que no querían ser los mismos de siempre, sino que querían ser lo que eran cuando estaban juntos. Para Amos, trabajar era divertirse, y si no se divertía en el trabajo, pensaba que no merecía la pena hacerlo. Ahora, esa forma de pensar también había afectado a Daniel. Todo era una sensación nueva. Daniel era como un niño con el mejor armario de juguetes del mundo, pero era tan indeciso que se quedaba paralizado y nunca disfrutaba de sus juguetes, solo se limitaba a elegir entre una pistola de agua y un patinete eléctrico, sin dejar de dudar y de preocuparse. Amos era una excepción, y fue él quien le dijo a Daniel "Vamos, anímate, vamos a jugar con todo esto". En sus siguientes encuentros, Daniel también cayó un par de veces en una profunda depresión. Se ponía a dar vueltas y a murmurar: Se me ha ido la inspiración. Pero incluso en esos momentos, Amos era capaz de bromear. Su amigo común Avishai Margalit recordó: "Cada vez que oía a Daniel decir 'Se acabó, se me ha secado el cerebro', Amos siempre decía riendo: 'Daniel tiene más ideas en un minuto de las que tienen 100 personas en 100 años'". Cuando se sentaban a escribir, sus cuerpos estaban casi pegados, y la gente que veía esto no podía creerlo. "Cuando escribían, se sentaban uno al lado del otro delante de la máquina de escribir", recordó el psicólogo Richard Nisbett de la Universidad de Michigan. "No podía soportarlo. Era como si alguien viniera a cepillarme los dientes". Pero en palabras de Daniel: "Compartíamos ideas".
Su primer artículo, que seguían viendo más o menos como un juego en el mundo académico, ya había señalado que, ante los problemas de probabilidad que tenían una respuesta correcta, la gente no juzgaba como los estadísticos. Ni siquiera los propios estadísticos pensaban como estadísticos. El artículo "Creencia en la Ley de los Números Pequeños" planteó otra pregunta evidente: si la gente no utilizaba el razonamiento estadístico para resolver los problemas, aunque se pudieran resolver con el razonamiento estadístico, ¿qué tipo de razonamiento utilizaban entonces? ¿Cómo pensaban en las diversas situaciones de la vida llenas de azar, por ejemplo, en una mesa de blackjack, si no pensaban así? En el segundo artículo, los dos respondieron detalladamente a las preguntas anteriores. En cuanto al título, eso era lo que le preocupaba a Amos. Se negaba a escribir si no se le ocurría un título. Pensaba que el título debía reflejar con precisión el tema que quería expresar el artículo.
Pero esta vez, pusieron un título difícil de entender al artículo. Por lo menos al principio, tenían que cumplir con las reglas del juego del mundo académico, si el título era sencillo y directo, el artículo no llamaría la atención. El primer intento de los dos de explorar el misterio del juicio humano se tituló "Probabilidad Subjetiva: Juicio por Representatividad".
Probabilidad subjetiva: la gente se imagina lo que significa. Probabilidad subjetiva se refiere a las conjeturas o evaluaciones subjetivas que hacen las personas sobre la probabilidad de que ocurra algo. A medianoche, cuando ves por la ventana a tu hijo adolescente acercándose sigilosamente a la puerta principal, te dices: "Seguro que ha bebido". Eso es la probabilidad subjetiva. Pero, ¿qué significa "juicio por representatividad"? "El juicio subjetivo juega un papel importante en la vida", así empezaba el artículo. "Las decisiones que tomamos, las conclusiones que sacamos, las explicaciones que damos, se basan en juicios que hacemos sobre la posibilidad de acontecimientos inciertos, por ejemplo, un nuevo trabajo, el resultado desconocido de unas elecciones o unas perspectivas de mercado impredecibles". En este tipo de situaciones, el cerebro humano no calcula de forma natural la probabilidad correcta. Entonces, ¿qué hace?
Daniel y Amos daban la respuesta: el cerebro sustituye las leyes del azar por reglas empíricas. Llamaban a estas reglas empíricas "heurísticas". Y la primera heurística que querían explorar era la "representatividad".
Los dos señalaban que, a la hora de juzgar, la gente comparaba lo que juzgaba con un patrón ya establecido en su cerebro. ¿Son iguales estas nubes a las nubes que conozco cuando se acerca una tormenta? ¿Se parece esta úlcera a la imagen que tengo de un tumor maligno? ¿Encaja Jeremy Lin con la imagen que tengo de una futura estrella de la NBA? ¿Se parece ese belicoso líder alemán a un asesino que planea una política de exterminio de razas? El mundo no solo es un escenario, también es un casino, y la vida de cada persona es como una apuesta de resultado incierto. Cuando la gente hace conjeturas sobre la probabilidad en diferentes situaciones de la vida, en realidad está juzgando la similitud, o mejor dicho, la representatividad. Tienen un concepto básico del conjunto, por ejemplo, "nubes que simbolizan una tormenta", "úlcera de estómago que puede ser cancerosa", "dictador que aplica una política de exterminio de razas" o "jugador de la NBA". Cuando se encuentran con casos concretos, los comparan con el concepto general.
Amos y Daniel no profundizaron en cómo se forman estos patrones de pensamiento al principio, ni en cómo juzga la gente la representatividad. En cambio, se centraron en las situaciones en las que son más evidentes los patrones de pensamiento en la mente de la gente. Cuanto más se pare un objeto concreto a la imagen que tienen en la cabeza, más probable será que la gente reconozca su representatividad. Escribieron: "Nuestro argumento es que, en la mayoría de los casos, siempre que el evento A sea más representativo que el evento B, pensaremos que la probabilidad de que ocurra el evento A es mayor que la del evento B". Cuanto más se pare un jugador de baloncesto a la imagen que tienes de una estrella de la NBA, más probable será que lo veas como un jugador de la NBA.
Tenían la intuición de que los errores que cometía la gente al juzgar no eran aleatorios, sino sistemáticos. En los cuestionarios que distribuyeron a los estudiantes de secundaria israelíes y a los estudiantes universitarios estadounidenses, las preguntas raras servían para explorar y ordenar las formas de los errores humanos. La pregunta era muy abstracta. La regla empírica que llamaban "representatividad" no siempre era errónea. Si la forma que adopta el pensamiento en situaciones de incertidumbre a veces lleva a hacer juicios erróneos, también es porque esta forma suele ser muy eficaz. La mayoría de los que pueden convertirse en jugadores de la NBA coinciden con la imagen típica que tienes de un jugador de la NBA. Pero también hay algunas excepciones, por lo que la gente comete algunos errores sistemáticos, donde puedes ver la sombra de la regla empírica.
Por ejemplo, en las familias que tienen