Chapter Content

Calculating...

A ver, a ver... Por dónde empiezo... Mira, Amos solía decir que, da igual lo que te pidan, ¿sabes?, ir a una fiesta, dar un discurso, ayudar a alguien... que nunca, nunca digas que sí inmediatamente. Aunque realmente quieras hacerlo, ¡ojo! Su consejo era esperar un día. Y, fíjate, ¡te sorprenderías! Porque después de darle una vuelta, te das cuenta de que rechazas la mitad de las invitaciones que antes habrías aceptado sin pensarlo dos veces.

En temas de agenda, el tío era inflexible. Si algo no le apetecía, se borraba y punto. Y, claro, cuando uno tiene que ir a una reunión aburridísima o a un cóctel que no le interesa nada, pues como que le da cosa irse a mitad. Pero Amos, nada, si no quería estar ahí, ¡adiós muy buenas! Decía que, una vez que tomas esa decisión, te sorprendes de lo creativo que te vuelves. En segundos, te inventabas una excusa para salir corriendo.

Y esta actitud la aplicaba a todo, ¿eh? No solo a la vida social. Decía que si no te sentías mal por haberte quitado algo de encima al menos una vez al mes, es que no te estabas quitando suficientes cosas. Vamos, que todo lo que no consideraba importante, lo descartaba sin piedad. Así que lo que quedaba era porque había sobrevivido a su filtro... implacable, ¿eh?

Y, mira, una de las cosas que sobrevivieron, que a priori no parecía que fuera a hacerlo, era un papelito arrugado, con unas frases que él y Daniel habían escrito justo antes de irse de Eugene, en el '72. No sé por qué lo guardó, la verdad. Decía algo así:

"La gente predice creando historias."

"La gente predice poco y explica mucho."

"La gente vive en la incertidumbre, quiera o no."

"La gente cree que puede predecir el futuro si se esfuerza lo suficiente."

"La gente acepta cualquier explicación que parezca encajar."

"Lo escrito en la pared está en tinta invisible, ¿sabes?"

"La gente busca conocer lo que ya conoce y rehúye lo que no conoce."

"El hombre es un ser que busca certezas en un universo incierto."

"En la lucha entre el hombre y el universo, el resultado siempre sorprende."

"Lo que ocurre es inevitable, al final."

Así, a primera vista, parecía un poema, ¿no? Pero en realidad, eran ideas sueltas para un nuevo trabajo que estaban preparando Daniel y Amos. Iban a intentar, por primera vez, presentar sus ideas de una forma diferente, para llegar a campos más allá de la psicología. Ya antes de volver a Israel, tenían la idea de escribir sobre la predicción humana.

Y es que nadie entendía mejor la diferencia entre juicio y predicción que ellos dos. Para ellos, juzgar ("Parece un oficial israelí muy valiente") implicaba predecir ("Será un oficial israelí muy valiente"). Y al revés, predecir también implicaba juzgar. Si no juzgas, ¿cómo vas a predecir? La diferencia, según ellos, estaba en que cuando metes incertidumbre en el juicio, lo conviertes en predicción. "Adolf Hitler es un orador elocuente", eso es un juicio. Pero "Adolf Hitler será canciller de Alemania", eso es una predicción... al menos, hasta el 30 de enero de 1933.

A este nuevo trabajo le pusieron "Sobre la psicología de la predicción". Y ahí escribían que, al predecir o juzgar en situaciones de incertidumbre, la gente no parece usar la teoría estadística, sino que se basa en atajos mentales, en "heurísticas", decían. Y a veces, acertaban, pero otras veces metían la pata hasta el fondo con errores sistemáticos.

Curiosamente, este tema ya le rondaba la cabeza a Daniel desde su época en el ejército israelí. La gente que se dedicaba a analizar los datos de los jóvenes que iban a entrar al ejército no era capaz de predecir quiénes serían buenos oficiales. Ni los responsables de la escuela de oficiales eran capaces de predecir qué oficiales serían los mejores en combate o en el día a día.

Una vez, Daniel y Amos se pusieron a predecir las profesiones de los hijos de sus amigos, así, por diversión. Y se dieron cuenta de que lo hacían con una seguridad pasmosa. Y ahí fue cuando decidieron investigar, o mejor dicho, mostrar cómo la gente usa esa "heurística de la representatividad" para hacer predicciones.

Pero, claro, para eso tenían que poner a prueba a la gente.

Así que al final decidieron dar a los participantes del estudio algunos rasgos de personalidad y pedirles que predijeran qué estudiantes acabarían haciendo un posgrado y qué asignaturas elegirían entre nueve opciones. Lo primero que les pidieron fue que estimaran el porcentaje de estudiantes que elegían cada asignatura.

Y después, para predecir qué estudiante se especializaría en qué área, podías usar esos porcentajes como base, como "tasa base", lo llamaban. Es decir, si no sabías nada del estudiante, pero sabías que el 15% de los estudiantes de posgrado se especializaban en negocios, pues la probabilidad de que ese estudiante se especializara en negocios era del 15%. La regla de oro con las tasas base es que, cuando no sabes nada, ¡esa es tu respuesta!

Pero, ¿qué pasa cuando sí sabes algo? Daniel y Amos querían mostrarlo. ¿Qué información les daban? Daniel se pasó un día entero pensando en ello en el Instituto de Investigación de Oregón. Y después de una noche en vela, ¡lo tuvo! Creó un prototipo de estudiante de posgrado en informática. Lo llamó Tom W.

Decían que Tom W tenía un coeficiente intelectual alto, pero poca creatividad. Le gustaba el orden y la claridad, y necesitaba tenerlo todo bien organizado. Su escritura era aburrida, pero a veces soltaba algún chiste o tenía ideas de ciencia ficción. Quería ser competente, pero no le importaban los problemas de los demás ni le gustaba interactuar con la gente. Era egocéntrico, pero con principios en temas importantes.

Así que le pidieron a un grupo de participantes, el "grupo de similitud", que evaluaran la similitud entre Tom W y un estudiante de posgrado en cada una de las áreas. Querían confirmar qué área era la que mejor "representaba" a Tom W.

Después, le dieron a otro grupo, el "grupo de predicción", esta información adicional:

"La descripción de la personalidad de Tom W fue hecha por un psicólogo en su tercer año de instituto, basándose en un test proyectivo. Ahora, Tom es estudiante de posgrado. Por favor, ordenen las áreas de estudio según la probabilidad de que Tom se especialice en ellas."

Además, les avisaron de que la descripción de Tom W podía no ser fiable. Primero, porque la había hecho un psicólogo. Segundo, porque era de hacía años. Amos y Daniel temían, y ya lo habían comprobado en sí mismos, que la gente pasara directamente del juicio de similitud a la predicción ("¡Este tío suena a informático!"), ignorando la tasa base (solo el 7% de los estudiantes de posgrado se especializan en informática) y la dudosa fiabilidad de la descripción.

La mañana en que Daniel terminó la descripción de Tom W, el primero en llegar al instituto fue Robin Dawes, un experto en estadística famoso por su rigor. Daniel le enseñó la descripción de Tom W. "Leyó y sonrió con picardía, como diciendo '¡Ya sé por dónde vas!'", contaba Daniel. "Y dijo: '¡Informático!'. Fue una confirmación. Sabía que la descripción iba a funcionar con los estudiantes de Oregón."

Y, efectivamente, los estudiantes de Oregón, sin pensarlo dos veces, dijeron que Tom W estudiaría informática, sin prestar atención a los datos objetivos. Demostraba que la gente se dejaba llevar por los estereotipos, ¿no?

Así que Amos y Daniel se hicieron otra pregunta: si la gente hacía predicciones irracionales con información relevante, ¿qué harían con información totalmente irrelevante? Se encerraron en una habitación y se partieron de risa pensando en cómo dar información inútil para que la gente tuviera más confianza en sus predicciones. Al final, Daniel creó otro personaje: Dick.

Dick era un hombre de 30 años, casado, sin hijos. Era muy capaz, muy motivado y prometía tener mucho éxito en su campo. Sus compañeros le adoraban.

Y entonces hicieron otro experimento, parecido a aquel del libro de problemas y las fichas de colores que les había dado tantos quebraderos de cabeza. Les dijeron a los participantes que había un grupo de 100 personas, de las cuales el 70% eran ingenieros y el 30% abogados. Si elegían a una persona al azar, ¿qué probabilidad había de que fuera abogado? La respuesta era 30%, correcto. Si el 70% eran abogados y el 30% ingenieros, ¿qué probabilidad había de que la persona elegida fuera abogado? Otra vez correcto: 70%.

Pero, cuando les daban la descripción de Dick, esa descripción irrelevante que no decía nada sobre su profesión, la gente respondía 50%. ¡Ignoraban por completo la información sobre las proporciones de cada profesión! Se basaban en la información inútil y decían que era igual de probable que Dick fuera abogado o ingeniero. "Está claro que la gente reacciona de forma diferente cuando no tiene información y cuando tiene información inútil", escribieron Daniel y Amos. "Cuando no tienen información, usan la probabilidad a priori, la tasa base. Pero cuando tienen información inútil, la ignoran por completo."

En este artículo, "Sobre la psicología de la predicción", exploraron otras cosas, como que las cosas que hacen que la gente tenga más confianza en sus predicciones también pueden hacer que sean menos precisas. Y al final, volvieron al tema que le preocupaba a Daniel en el ejército israelí: cómo seleccionar y formar a los soldados.

Los instructores de la escuela de vuelo habían adoptado la técnica de refuerzo positivo que recomendaban los psicólogos. Cada vez que un soldado hacía una buena maniobra, le felicitaban. Pero, después de un tiempo, los instructores se quejaron de que no funcionaba. ¡Al revés! Cuando felicitaban a un alumno por una maniobra complicada, lo normal era que la siguiente vez lo hiciera peor. ¿Cómo explicaba esto la psicología?

Los participantes del estudio dieron todo tipo de explicaciones. Que los alumnos se confiaban demasiado con las felicitaciones. Que los instructores no eran sinceros al felicitarles. Pero Daniel fue el único que dio con la clave: aunque los instructores no dijeran nada, el rendimiento de los alumnos iba a subir y bajar. Si una vez lo hacían mal, lo normal era que la siguiente vez lo hicieran mejor. Y si una vez lo hacían perfecto, lo normal era que la siguiente vez lo hicieran peor. ¡Era la regresión a la media! Cuando no te das cuenta de que existe la regresión a la media, no puedes entender el mundo que te rodea. Y estamos condenados a castigar a la gente por recompensarla y a recompensarla por castigarla.

Al principio, cuando escribían estos artículos, Daniel y Amos no pensaban en quién los iba a leer. Quizá algún que otro académico que estuviera suscrito a alguna revista de psicología. Llevaban casi tres años investigando los misterios del juicio y la predicción humana. Los ejemplos que usaban eran del mundo de la psicología o de esos extraños experimentos que diseñaban ellos mismos para estudiantes de instituto y universidad. Pero estaban convencidos de que sus conclusiones se podían aplicar a cualquier campo en el que hubiera juicios de probabilidad y toma de decisiones. Necesitaban llegar a un público más amplio.

"El siguiente paso es extender esta investigación a actividades profesionales de alto nivel, como la planificación económica, la predicción tecnológica, la toma de decisiones políticas, el diagnóstico médico y la evaluación de pruebas legales", escribieron en una propuesta. Esperaban que los expertos en estos campos, "al ser conscientes de los sesgos, pudieran evitarlos, reducirlos y, al final, tomar mejores decisiones". Querían convertir el mundo en su laboratorio. Y los conejillos de indias ya no serían solo estudiantes, sino también médicos, jueces y políticos.

Pero, ¿cómo hacerlo?

En Eugene, su interés por la investigación no dejaba de crecer. Daniel recordaba: "Fue en ese año cuando nos dimos cuenta de que estábamos haciendo algo importante. La gente nos miraba con admiración." Irv Biederman, profesor adjunto de psicología de Stanford, que estaba allí como profesor visitante, escuchó a Daniel hablar sobre las heurísticas y los sesgos a principios del '72. "Cuando llegué a casa, le dije a mi mujer que este trabajo merecía el Premio Nobel de Economía. Estaba convencido. Estaba usando la psicología para estudiar la economía. No había nada mejor. Explicaba por qué la gente tomaba decisiones irracionales o equivocadas. Todo venía del funcionamiento interno del cerebro."

Biederman conocía a Amos de la Universidad de Michigan. Ahora era profesor en la Universidad Estatal de Nueva York en Buffalo. Para él, Amos siempre había sido un tío que se perdía en problemas estadísticos muy oscuros, quizá importantes, pero imposibles de resolver. "Jamás se me ocurriría invitar a Amos a Buffalo para que hablara de sus mediciones estadísticas", decía Biederman. "A nadie le interesaría. Nadie lo entendería." Pero este nuevo trabajo con Daniel Kahneman le había abierto los ojos. Confirmaba su idea de que "la mayoría de los avances científicos no vienen de momentos de inspiración divina, sino de ideas interesantes y ocurrencias divertidas."

Convenció a Amos para que, de camino a Israel desde Oregón en el verano del '72, hiciera una parada en Buffalo. Durante una semana, Amos dio cinco charlas sobre su trabajo con Daniel, cada una dirigida a un campo diferente. Y todas llenas hasta la bandera. Quince años después, cuando Biederman se fue de Buffalo a la Universidad de Minnesota en el '87, la gente seguía hablando de las charlas de Amos.

En estas charlas, Amos hablaba de las heurísticas que habían descubierto él y Daniel, y también del tema de la predicción. Lo que más le impresionó a Biederman fue la quinta y última charla. "La perspectiva histórica: juicio en condiciones de incertidumbre". Ante una sala llena de historiadores, Amos, con un gesto de la mano, les explicó cómo él y Daniel veían el comportamiento humano desde una perspectiva totalmente nueva.

En nuestra vida personal y profesional, a menudo nos encontramos con cosas que no entendemos. No entendemos por qué el señor X hizo esto o aquello, o por qué los resultados de un experimento salieron así o asá. Pero, casi siempre, en muy poco tiempo, encontramos una explicación, una hipótesis o una interpretación que lo pone todo en orden, que lo hace comprensible y lógico. Lo mismo ocurre con nuestra percepción del mundo exterior. Somos muy buenos encontrando patrones y tendencias en datos aleatorios. Podemos crear escenarios, dar explicaciones, dar razones. Pero, en cambio, somos muy malos evaluando la probabilidad de que ocurran las cosas o analizando los hechos con espíritu crítico. Una vez que aceptamos una hipótesis o una explicación, casi siempre la magnificamos y nos cuesta mucho ver el problema desde otra perspectiva.

Amos, al expresarse, era bastante comedido. No dijo, como solía hacer, que "los libros de historia son aburridos hasta un punto que asusta, porque gran parte de lo que cuentan es pura invención". Pero lo que sí dijo quizá sorprendió aún más a su público: que los historiadores, como todo el mundo, también caían en los sesgos cognitivos que él y Daniel habían identificado. "Los juicios sobre la historia, a gran escala, son juicios intuitivos basados en datos", dijo. El juicio histórico también está sujeto a sesgos. Para ilustrarlo, Amos habló de un proyecto de investigación que estaba llevando a cabo un estudiante de la Universidad Hebrea llamado Baruch Fischhoff. Cuando Richard Nixon anunció su viaje a China y la Unión Soviética, todo el mundo se quedó boquiabierto. Fischhoff aprovechó este acontecimiento para diseñar un cuestionario en el que pedía a la gente que predijera las posibles consecuencias del viaje de Nixon. Por ejemplo, qué probabilidad había de que Nixon se reuniera con Mao al menos una vez, qué probabilidad había de que Estados Unidos y la Unión Soviética colaboraran en un proyecto espacial, o qué probabilidad había de que un judío soviético fuera arrestado por intentar hablar con Nixon.

Cuando Nixon volvió de su viaje, Fischhoff volvió a contactar con la gente que había participado en el estudio y les pidió que recordaran las probabilidades que habían dado a cada pregunta. Y descubrió que sus recuerdos estaban muy distorsionados. Todo el mundo creía haber predicho con gran precisión lo que realmente había ocurrido, pero la verdad es que no le habían dado tanta probabilidad. Es decir, cuando el resultado ya era evidente, pensaban que las cosas habían pasado tal y como ellos habían predicho. Años después de la charla de Amos, Fischhoff le puso un nombre a este fenómeno: "sesgo retrospectivo".

En la charla, Amos les hizo ver a los historiadores los riesgos de su profesión: el riesgo de aceptar cualquier hecho que vieran (y de ignorar los que no veían o no podían ver) y de construir con esos hechos historias convincentes.

Muchas veces, no podemos predecir lo que va a pasar. Pero, cuando pasa, actuamos como si siempre lo hubiéramos sabido y damos explicaciones muy elaboradas. Incluso con información incompleta, la gente puede explicar cosas que no podía predecir. Esto revela un gran defecto en nuestro razonamiento, aunque sea difícil de ver. Nos hace creer que el mundo no es tan incierto como parece y que no somos tan listos como creemos. Porque, si podemos explicar algo que no podíamos predecir, sabiendo solo el resultado, eso significa que ese resultado estaba predestinado y que podríamos haberlo predicho. Si no lo hicimos, es porque no somos lo suficientemente inteligentes, no porque el mundo sea incierto. Siempre nos echamos la culpa de no haber visto antes lo que, a posteriori, parece inevitable. ¿Estaban escritas en la pared? ¿O es que la gente no es capaz de verlas?

Los comentaristas deportivos o los analistas políticos, para justificarse, cambian la historia para que coincida con el resultado final. Y los historiadores hacen lo mismo. Imponen patrones a eventos aleatorios, quizá sin darse cuenta. Amos llamaba a esto "determinismo rastrero". Y en sus notas escribió uno de sus peligros: "Quien mira al ayer con la certeza de que nada podía haber sido diferente, se enfrentará a un mañana lleno de sorpresas."

Esta forma incorrecta de ver lo que ya ha pasado hace que sea más difícil predecir el futuro. Los historiadores que estaban escuchando a Amos se enorgullecían de su capacidad para "construir" historias, para explicar los acontecimientos con fragmentos del pasado y hacer que parecieran predecibles. Una vez que el historiador explicaba las causas y las consecuencias, el único misterio que quedaba era por qué los protagonistas no habían previsto el resultado. "Todos los historiadores de la universidad fueron a escuchar a Amos", recordaba Biederman. "Y salieron de allí con la cabeza gacha."

Amos les estaba diciendo que la forma en que percibimos los eventos históricos hace que el pasado parezca más cierto y predecible de lo que realmente es. Después de escuchar esto, Biederman entendió por completo el trabajo de Amos y Daniel. Estaba convencido de que iba a tener un impacto en todos los ámbitos de la vida en los que se necesitara a expertos para juzgar la probabilidad de eventos inciertos. Pero, de momento, las ideas de Daniel y Amos se quedaban en el ámbito académico. Solo los profesores y los investigadores, sobre todo de psicología, habían tenido la suerte de escucharles. Cómo iban a conseguir que sus descubrimientos llegaran a otros campos era, en ese momento, un misterio.

A principios del '73, después de volver a Israel desde Eugene, Amos y Daniel se pusieron a preparar un artículo largo, un compendio de todos sus descubrimientos. Querían juntar las ideas principales de los cuatro artículos que ya habían escrito y dejar que los lectores sacaran sus propias conclusiones. "Decidimos presentarlo tal cual: como un estudio de psicología puro y duro", decía Daniel. "Dejaremos que los lectores decidan qué implicaciones tiene." Los dos pensaban que, si querían que su trabajo llegara a campos más allá de la psicología, la revista *Science* era su mejor opción.

Este artículo no se escribió, sino que se construyó. Daniel decía que una frase buena era un día bueno. Mientras construían el artículo, se toparon con una forma clara de conectar sus ideas con la vida cotidiana de la gente. Era un artículo del profesor de Stanford Ron Howard, "Sobre el problema de la decisión en el control de huracanes". Howard era uno de los fundadores del campo del análisis de decisiones. La idea central de este campo es que los responsables de la toma de decisiones deben asignar probabilidades a los diferentes resultados. Y para eso, tienen que clarificar su proceso de pensamiento antes de tomar la decisión.

Un ejemplo era cómo enfrentarse a un huracán muy peligroso. En este caso, los políticos podían recurrir a analistas de decisiones para que les ayudaran a resolver el problema. Gran parte de la costa del Golfo de México acababa de ser devastada por el huracán Camille. Pero podría haber sido mucho peor si hubiera golpeado Nueva Orleans o Miami. Los meteorólogos creían tener una nueva técnica: rociar las tormentas con yoduro de plata para debilitarlas o incluso cambiar su trayectoria. Pero controlar los huracanes era muy arriesgado. Si el gobierno intervenía, se iba a ver involucrado en cualquier daño que causara la tormenta. Si todo salía bien, ni el público ni los tribunales iban a darle las gracias al gobierno, porque nadie iba a saber qué habría pasado si no hubiera intervenido. Pero si las pérdidas eran grandes, toda la sociedad iba a pedir cuentas a los gobernantes por los daños causados por el huracán. En su artículo, Howard analizaba las posibles estrategias que podía seguir el gobierno, incluyendo la estimación de la probabilidad de que ocurrieran diferentes resultados.

Pero a Daniel y Amos les parecía raro el método que usaban los analistas de decisiones para obtener las probabilidades de los expertos en huracanes. Les hacían jugar a la ruleta a los expertos del gobierno en control de huracanes. En la ruleta, un tercio de los espacios estaba pintado de rojo. Les preguntaban: "¿Apuestas por el rojo o a que el huracán causará daños por valor de más de 30.000 millones de dólares?". Si el responsable respondía que apostaba por el rojo, significaba que pensaba que había un 33% de probabilidad de que el huracán causara daños por valor de más de 30.000 millones de dólares. Entonces, el analista le hacía girar otra ruleta, una con solo el 20% de los espacios pintados de rojo. Y así seguían ajustando la ruleta hasta que el porcentaje de espacios rojos coincidía con la probabilidad que el responsable asignaba al huracán de causar daños por valor de más de 30.000 millones de dólares. Asumían que los expertos en huracanes podían evaluar correctamente eventos muy inciertos.

Daniel y Amos ya habían demostrado en sus trabajos anteriores que el cerebro humano reacciona de muchas formas ante la incertidumbre, lo que afecta a la precisión de nuestros juicios de probabilidad. Creían que podían mejorar la precisión de los juicios de probabilidad humana gracias a sus descubrimientos sobre los sesgos sistemáticos. Por ejemplo, la probabilidad que alguien asignara a que una gran tormenta tocara tierra en el '73 iba a depender de lo reciente que fuera su recuerdo del huracán Camille. Pero, ¿en qué medida afectaba ese recuerdo a su juicio? "Creemos que el análisis de decisiones se convertirá en algo importante y queremos ayudar a que eso ocurra", decía Daniel.

Los principales expertos en análisis de decisiones se reunían con Ron Howard en el Instituto de Investigación de Stanford, en Menlo Park, California. En el otoño del '73, Daniel y Amos volaron hasta allí para reunirse con ellos. Pero antes de que pudieran aplicar sus teorías sobre la incertidumbre al mundo real, pasó algo inesperado. El 6 de octubre, las fuerzas armadas de Egipto y Siria, con ayuda de tropas y aviones de hasta nueve países árabes, atacaron Israel. Los analistas de inteligencia israelíes no esperaban un ataque, y mucho menos un ataque conjunto. Las tropas fueron tomadas por sorpresa. En los Altos del Golán, un centenar de tanques israelíes fueron atacados por 1.400 tanques sirios. En el Canal de Suez, 500 soldados israelíes y tres tanques fueron aniquilados en cuestión de horas por 2.000 tanques egipcios y 100.000 soldados. Amos y Daniel estaban en Menlo Park. En un día fresco y despejado, recibieron la impactante noticia de que las fuerzas israelíes se estaban retirando en todos los frentes. Fueron corriendo al aeropuerto y cogieron el primer vuelo de vuelta a Israel para unirse a lo que parecía ser una nueva guerra.

Go Back Print Chapter