Chapter Content

Calculating...

A ver, a ver... ¿por dónde empiezo? Bueno, pues resulta que había un tipo, Daniel, que allá por... bueno, en un momento dado, se dio cuenta de que su relación con otro tipo, Amos, era algo... peculiar, digamos. No sé si me explico. Nadie, pero nadie, entendía lo que pasaba entre ellos.

Parece ser que el curso que dieron juntos en la universidad fue un desastre total. Daniel decía que Amos, delante de la gente, perdía todo ese encanto que tenía cuando estaban a solas. "Éramos como dos extraños," decía Daniel. "Nos interrumpíamos, nos ridiculizábamos... Nadie entendía qué hacíamos juntos, qué éramos." Era como una relación amorosa, pero sin lo del amor, ¿sabes? Algo súper intenso, más que con nadie más.

Las primeras en darse cuenta fueron sus esposas. Una de ellas, Bárbara, decía que eran más unidos que un matrimonio. Que estaban obsesionados con la inteligencia del otro, una cosa... como predestinada. Y Daniel sentía que a su esposa no le hacía mucha gracia, mientras que Amos le decía a Daniel que Bárbara era muy comprensiva.

Daniel decía que con Amos sentía algo que no había sentido con nadie más. "Uno puede amar a una persona, a una cosa... pero yo estaba fascinado con él. Así de simple. Era algo... increíble."

Pero resulta que el que más se esforzaba por mantener esa conexión era Amos. Daniel se definía como alguien que se echaba para atrás, que mantenía las distancias por miedo a perderlo.

Y en esas que, de repente, ¡guerra! Un ataque sorpresa a Israel, en pleno Yom Kippur. Los pilló a todos desprevenidos. Amos y Daniel estaban en Estados Unidos, estudiando análisis de decisiones, cuando se enteraron. ¡Imagínate! Corrieron al aeropuerto, cogieron el primer avión a París (porque la hermana de Daniel trabajaba en el consulado israelí allí) y desde ahí intentaron colarse en un vuelo a Israel. En esos momentos, solo volaban pilotos y jefes militares, reemplazando a los que habían caído. ¡Un caos! Todo israelí en edad de luchar se apuntaba.

Dicen que el presidente egipcio amenazó con derribar cualquier avión comercial que intentara aterrizar en Israel. Así que Amos y Daniel se quedaron en París, esperando que la hermana de Daniel les hiciera el favor de colarlos en un vuelo. Aprovecharon para comprarse botas de combate, de esas de tela, más ligeras que las de cuero del ejército israelí.

Mientras tanto, en Israel, Bárbara, la esposa de Amos, estaba llevando a su hijo a urgencias porque se había metido una pepino por la nariz jugando con su hermano. ¡Menudo drama! Y de repente, la gente empezó a parar su coche, a gritarle que despejara la vía. El país en pánico, aviones de combate sobrevolando Jerusalén... La universidad cerrada otra vez. Los camiones militares rompiendo el silencio de la noche cerca de la casa de Amos. Todo a oscuras, las farolas apagadas, los coches con las luces de freno tapadas con cinta aislante. Las estrellas brillando como nunca, pero el miedo... ¡uf!

Bárbara se dio cuenta de que el gobierno estaba mintiendo, que esta guerra era distinta, que Israel podría perder. Y sin saber dónde estaba Amos, qué iba a hacer. No podían llamarse por teléfono, era muy caro. Solo se escribían cartas. Y como ella, muchos otros, esperando noticias de sus seres queridos que volvían a luchar.

Entonces, Bárbara se puso a investigar, escribió un artículo sobre el estrés y cómo afrontarlo. Y una noche, a las diez de la noche, con los niños dormidos, trabajando en su estudio a oscuras, oyó pasos. ¡Y de repente, Amos! Había llegado en un vuelo especial, lleno de soldados. Aterrizaron a oscuras, en Tel Aviv. Amos fue al ático, se puso su uniforme (ahora de capitán), y a las cinco de la mañana ya estaba listo para irse.

Lo mandaron al departamento de psicología, como a Daniel. Parece que desde que Daniel rediseñó el sistema de selección de personal, el departamento había crecido mucho. Un psicólogo americano, de nombre James Lester, estudió el tema y flipó con la confianza que el ejército israelí le tenía a los psicólogos.

Decía que el jefe del departamento era un tal Benny Shalit, un tío muy insistente que había conseguido que la psicología militar tuviera un papel importante. ¡Quería hasta ponerle un escudo especial al uniforme! Y tuvo ideas locas para convertir el departamento en una unidad de combate. Una de esas ideas fue hipnotizar a árabes para que asesinaran a sus líderes. ¡Imagínate!

Se rumoreaba que Shalit tenía los historiales psicológicos de todos los mandos del ejército y que no dudaría en usarlos. Pero, fuera como fuese, tenía una habilidad especial para moverse por el ejército. Una de las cosas que consiguió fue que los psicólogos estuvieran en las unidades de combate, para aconsejar a los comandantes en el momento. Y no solo eso, sino que los psicólogos también daban consejos sobre cómo evitar que los soldados usaran los cargadores de munición para abrir botellas (y así no romperlas) o cómo mejorar la puntería ajustando los visores de los fusiles. ¡Una locura! Los americanos alucinaban con el papel de la psicología en el ejército israelí.

Pero nadie sabía qué podían hacer los psicólogos en una guerra de verdad. El segundo de Shalit decía que no tenían ni idea, que la guerra les había pillado por sorpresa. En pocos días, Israel había perdido más soldados, proporcionalmente, que Estados Unidos en toda la guerra de Vietnam. El gobierno lo llamó una "catástrofe demográfica".

Alguien propuso hacer un cuestionario para mejorar la moral de las tropas. Y Amos se apuntó, para estar cerca de la acción. "Íbamos en un jeep por el Sinaí, intentando ayudar al país," contaba Daniel.

Sus compañeros pensaban que estaban locos. Decían que Amos estaba como un niño con zapatos nuevos, pero que el Sinaí era peligroso, lleno de minas y tanques enemigos. ¡Una misión suicida! Y encima, sin escolta. Pero Daniel destacaba más que Amos en esos momentos.

Daniel se bajaba del jeep, les hacía preguntas a los soldados. Amos era más práctico, pero Daniel tenía un don para ver problemas donde nadie más los veía y para encontrar soluciones. Por ejemplo, se dio cuenta de que había montañas de basura a los lados de la carretera: latas de comida americana que los soldados no se comían. Las analizó, vio qué comían y qué tiraban (parece que les gustaba la fruta enlatada) y escribió un artículo proponiendo que el ejército analizara la basura para darles a los soldados la comida que realmente les gustaba. ¡Y salió en la portada del periódico!

Además, los tanquistas estaban sufriendo muchas bajas. Daniel fue a un campo de entrenamiento de tanquistas, donde los estaban entrenando a toda prisa para mandarlos al frente. Vio que los dividían en grupos de cuatro y los rotaban cada dos horas. Y se dio cuenta de que cuanto más se repite algo en poco tiempo, mejor se aprende. Así que propuso rotarlos cada media hora, para que aprendieran a manejar los tanques más rápido. ¡Y funcionó!

También aplicó sus ideas a la fuerza aérea. Los pilotos de combate estaban sufriendo muchas bajas por los misiles tierra-aire soviéticos. Una escuadrilla estaba especialmente mal. Los generales querían investigar y castigar a los pilotos. Daniel le dijo al general que estaba cometiendo un error, que la escuadrilla estaba mal por casualidad. Que si investigaba, encontraría algún patrón, como que los pilotos se iban mucho de permiso o que les gustaba la ropa interior llamativa. Pero que todo eso sería una tontería, porque la muestra era demasiado pequeña, no era estadísticamente significativa. Y que, además, una investigación así desmoralizaría a las tropas. "Creo que esa fue mi única contribución a la guerra," decía Daniel.

Entonces Daniel se dio cuenta de que lo que estaban haciendo (repartir cuestionarios a los soldados) no servía para nada. Muchos estaban traumatizados. "Queríamos ayudar a la gente asustada, evaluar su trauma," decía Daniel. "Pero todo el mundo estaba asustado por lo horrible de la guerra, y no había nada que pudiéramos hacer." Los soldados israelíes asustados eran como gente deprimida. Y Daniel sabía que había cosas que no podía arreglar.

Así que decidió que no quería seguir en el Sinaí, no quería estar ahí de la forma en que Amos quería estar. "Sentía que estaba perdiendo el tiempo," decía. Y cuando el jeep lo lanzó por los aires otra vez, decidió que ya era suficiente, y dejó a Amos solo con los cuestionarios.

Después, un instituto de investigación del ejército americano hizo un estudio sobre los traumas psicológicos de la guerra de Yom Kippur. Descubrieron que la guerra había sido especialmente dura (24 horas de combate al día, al menos al principio), que las pérdidas habían sido enormes y que, por primera vez, los soldados israelíes estaban siendo diagnosticados con traumas psicológicos.

Los cuestionarios que Amos había ayudado a redactar incluían preguntas sencillas: ¿Dónde estabas? ¿Qué hiciste? ¿Qué viste? ¿Ganamos o perdimos? ¿Por qué perdimos? Cosas así. "La gente empezó a hablar de sus miedos," contaba una tal Yafa Singer. "A hablar de sus emociones. Desde la guerra de la independencia, en el 48, hasta el 73, eso no estaba permitido. Teníamos que ser superhombres, nadie se atrevía a decir que tenía miedo. Si lo decías, podías morir."

Después de la guerra, Amos, Yafa y otros compañeros analizaron los cuestionarios. Hablaban de sus motivos para luchar. "Lo que la gente no decía era lo que más nos impactaba," decía Yafa. Resulta que los soldados les contaban a los psicólogos cosas obvias, pero que nadie había dicho antes. "¿Por qué luchaban por Israel?" preguntaba Yafa. "Siempre habíamos pensado que era por amor a la patria. Pero cuando vimos las respuestas, quedó claro: luchaban por sus amigos, por su familia. No por el país, no por el sionismo. En ese momento, fue un descubrimiento importante." Los soldados israelíes, después de ver a sus compañeros hechos pedazos, después de ver a sus mejores amigos muertos en la calle, por primera vez se atrevieron a expresar sus emociones. "Era desgarrador," decía Yafa.

Y cuando la guerra estaba a punto de terminar, Amos tomó una decisión sorprendente, una decisión que muchos consideraron estúpida. "Quería ir al canal de Suez a ver el final de la guerra," contaba Bárbara, "aunque sabía que los combates seguían después del alto el fuego." A veces, ni siquiera su esposa entendía cómo Amos se tomaba su seguridad personal. Decía que quería saltar de un avión solo porque sería divertido. "Le dije que era padre de familia y lo convencí de que no lo hiciera." Amos no era un buscador de emociones, pero tenía una pasión infantil que lo impulsaba a arriesgarse donde nadie más lo haría.

Así que se fue al Sinaí, al canal de Suez. Se rumoreaba que el ejército israelí iba a marchar sobre El Cairo y que los soviéticos iban a enviar armas nucleares a Egipto para detenerlos. Cuando llegó al canal, se dio cuenta de que los combates no solo no habían cesado, sino que se habían intensificado. Los árabes y los israelíes tenían la costumbre de aprovechar hasta el último segundo antes del alto el fuego para matar al máximo número de enemigos posible. La idea era: si puedes, mata. Y mientras andaba por ahí, esquivando balas, se metió en una trinchera y cayó encima de un soldado israelí.

"¿Eres una bomba?" le preguntó el soldado, asustado.

"No, soy Amos," le respondió.

"¿Entonces no estoy muerto?"

"No, no estás muerto," le dijo.

Eso es lo que contaba Amos. No hablaba mucho más de la guerra.

A finales del 73, o principios del 74, Daniel dio una charla que luego repetiría varias veces, titulada "Limitaciones cognitivas y juicios en la toma de decisiones públicas." Empezaba diciendo que le preocupaba que un ser orgánico, con emociones y sistema nervioso, no fuera muy diferente de un ratón de laboratorio al que le dieran el poder de destruir todo el planeta con solo pulsar unos botones. Él y Amos acababan de terminar de estudiar cómo la gente juzga las cosas y se había dado cuenta de algo aún más preocupante. "¿Cuántas grandes decisiones a lo largo de la historia no se han tomado por capricho de unos pocos?" Si los que toman las decisiones no se dan cuenta de cómo piensan, si no controlan sus emociones, "es probable que el destino de toda una sociedad se vea alterado por errores evitables de sus líderes."

Antes de la guerra, Daniel y Amos querían aplicar sus descubrimientos sobre la toma de decisiones a situaciones de alto riesgo. En este nuevo campo, llamado "análisis de decisiones," querían convertir los problemas de decisiones de alto riesgo en problemas de ingeniería. Diseñarían un sistema de decisiones. Los expertos en análisis de decisiones se sentarían con los directores de empresas, los líderes militares y los jefes de gobierno, y los ayudarían a analizar cada decisión, a calcular las probabilidades de que ocurriera una cosa u otra, y a darle un peso a cada posible consecuencia. Si queremos controlar un huracán, y hay un 50% de probabilidades de que lo debilitemos, pero también hay un 5% de probabilidades de que engañemos a la gente que necesita evacuar, ¿qué hacemos? En una negociación, los analistas de decisiones les recordarían a los que están a punto de tomar una decisión importante que no se dejen engañar por sus instintos. "Este cambio general hacia una cultura guiada por fórmulas numéricas creará un lugar para el estudio de la incertidumbre," escribió Amos en sus apuntes de clase. Amos y Daniel pensaban que los grupos más afectados por las decisiones de alto riesgo, como los votantes y los accionistas, podrían llegar a entender mejor cómo se toman las decisiones. Aprenderían a evaluar una decisión por el proceso, no por el resultado. El trabajo del que toma las decisiones ya no sería garantizar el éxito, sino entender las posibles consecuencias de cada decisión y actuar en consecuencia. Como dijo Daniel en una charla en Israel, lo que realmente se necesitaba era "un cambio cultural en la actitud hacia la incertidumbre, y atreverse a experimentar."

Nadie sabía cómo convencer a los líderes del mundo empresarial, militar y político para que aceptaran su guía. ¿Cómo convencer a un peso pesado para que definiera sus "contribuciones" en números? A los grandes no les gusta que nadie les hurgue en sus emociones, ni siquiera ellos mismos. Ahí estaba la dificultad.

Después, Daniel recordó el momento en que él y Amos perdieron la fe en el análisis de decisiones. El hecho de que los servicios de inteligencia israelíes no previeran el ataque sorpresa de Yom Kippur provocó un terremoto en el gobierno israelí. Ganaron la guerra, pero parecía que la hubieran perdido. Los egipcios, que habían sufrido más bajas, celebraron en las calles como si hubieran ganado. En Israel, todos intentaban entender qué había fallado. Antes de la guerra, a pesar de que había muchas pruebas de que los egipcios estaban tramando algo, los servicios de inteligencia israelíes pensaban que no atacarían mientras mantuvieran su superioridad aérea. Pero los egipcios sí atacaron. Después de la guerra, con la idea de hacerlo mejor, el Ministerio de Asuntos Exteriores israelí creó su propio departamento de inteligencia. El jefe del departamento, Zvi Lanir, le pidió ayuda a Daniel. Al final, los dos pusieron en marcha una elaborada operación de análisis de decisiones. La idea era medir la rigurosidad de las decisiones relacionadas con la seguridad nacional con nuevos criterios. "Lo primero que se nos ocurrió fue abolir los informes militares convencionales," decía Daniel. "Los informes de inteligencia se escribían como ensayos, y la principal característica de un ensayo es que no te da placer leerlo." En cambio, Daniel quería presentar las distintas posibilidades a los líderes israelíes en forma de números.

En 1974, el secretario de Estado americano, Henry Kissinger, actuó como mediador en las negociaciones de paz entre Israel y Egipto, y entre Israel y Siria. Para que la operación tuviera éxito, Kissinger le entregó al gobierno israelí una evaluación de la CIA en la que decía que si las negociaciones de paz fracasaban, las consecuencias podrían ser desastrosas. Daniel y Lanir le proporcionaron al ministro de Asuntos Exteriores israelí, Yigal Allon, unas cifras exactas que reflejaban la probabilidad de que ocurrieran algunas de esas consecuencias negativas. Elaboraron una lista de posibles "consecuencias graves," como la caída del régimen jordano, el reconocimiento americano de la OLP, otra guerra a gran escala entre Israel y Siria, etc. Después, entrevistaron a expertos y observadores veteranos para confirmar las posibilidades de que ocurrieran esos hechos. Los expertos estaban muy de acuerdo: no tenían grandes diferencias en cuanto a las distintas posibilidades. Por ejemplo, cuando Daniel les preguntaba si fracasaba la mediación de Kissinger, ¿cuánto aumentaría la posibilidad de que estallara una guerra entre Siria e Israel? La respuesta era básicamente "aumentaría un 10%".

Daniel y Lanir le presentaron su evaluación al Ministerio de Asuntos Exteriores israelí (le pusieron el nombre de "La apuesta del país"). El ministro de Asuntos Exteriores, Allon, miró los números y dijo: "¿Un 10% de aumento en la probabilidad? No es gran cosa."

Daniel se quedó de piedra. Si la posibilidad de que estallara una guerra a gran escala entre Israel y Siria aumentaba un 10% por culpa del fracaso de la mediación de Kissinger, las consecuencias serían inimaginables. Si un aumento así no le interesaba a Allon, ¿qué aumento le interesaría? Ese 10% era la probabilidad más exacta que podían calcular, pero estaba claro que el ministro de Asuntos Exteriores no iba a aceptarla. Prefería fiarse de su instinto. "En ese momento," decía Daniel, "decidí abandonar el análisis de decisiones. Nadie va a tomar decisiones basándose en números. La gente necesita entender todo el asunto." Décadas después, cuando la CIA les pidió que describieran su experiencia en el análisis de decisiones, Daniel y Lanir escribieron: "Al Ministerio de Asuntos Exteriores israelí no le importaban las probabilidades concretas." Si los que participan en la apuesta no creen en el análisis de probabilidades, ni quieren saber la probabilidad de ganar, ¿qué sentido tiene poner esa probabilidad sobre la mesa? Daniel sospechaba que era porque "la gente sabe muy poco de números, y por eso no cree que los números puedan reflejar la realidad. Todos piensan que las probabilidades son algo abstracto, que solo existen en la cabeza de algunos."

En la vida de Daniel y Amos, era difícil separar su pasión por las ideas de su pasión por el otro. Con el tiempo, los días antes y después de la guerra de Yom Kippur, su colaboración no era tanto un debate sobre proposiciones, sino más bien una excusa para estar juntos. Pensaban que podían dar por terminado el estudio sobre cómo la gente se equivoca al juzgar las cosas basándose en su intuición en situaciones de incertidumbre. Y por lo que respecta al análisis de decisiones, al que le tenían tantas esperanzas, al final se dieron cuenta de que no servía para nada. Querían escribir un libro sobre los fenómenos de la mente humana al enfrentarse a situaciones de incertidumbre, pero no sé por qué se quedaron en el esquema, y aunque escribieron el principio de algunos capítulos, al final no hicieron nada. Después de la guerra de Yom Kippur, los israelíes pusieron en duda la capacidad de juicio de los funcionarios del gobierno. Daniel y Amos se dieron cuenta de que lo que realmente tenían que hacer era mejorar el sistema educativo para inculcarles a las futuras generaciones de líderes algo de pensamiento científico. "Ya les hemos enseñado a los demás a cuidarse de los errores en los que es fácil caer al razonar," escribieron en aquel libro que nunca llegó a terminarse, "ya hemos intentado compartir estas ideas con gente de todos los niveles de la política y el ejército, pero con poco éxito."

La mente de los adultos es muy fácil que caiga en errores de autoengaño, pero los niños no. Daniel les daba un curso sobre capacidad de juicio a los alumnos de primaria, Amos hacía algo parecido con alumnos de secundaria, y luego los dos juntos elaboraron planes de publicación. "Esta experiencia nos animó mucho," escribieron. ¿Qué pasaría si les enseñaran a los niños israelíes a pensar de forma científica, a diferenciar las ideas intuitivas pero erróneas, y a corregirlas? Quizá algún día, cuando esos niños fueran mayores, se darían cuenta de lo inteligente que sería invitar a Henry Kissinger una vez más para que mediara en la paz entre Israel y Siria. Por desgracia, no siguieron adelante con ese trabajo. Parece que, a la hora de llamar la atención del público, siempre era más fácil que las ideas del otro los arrastraran a un lado.

Amos invitó a Daniel a solucionar una duda que tenía él en el campo de la psicología: ¿cómo toma decisiones la gente? "Un día, Amos me dijo, 'el estudio sobre la capacidad de juicio ya está terminado, ahora vamos a estudiar la toma de decisiones'," recordaba Daniel.

La capacidad de juicio y la toma de decisiones, como la capacidad de juicio y la predicción, son muy parecidas. Pero para Amos y para otros psicólogos matemáticos, eran dos campos totalmente distintos. Al juzgar, la gente calcula las probabilidades. ¿Qué probabilidad hay de que ese tipo sea un buen jugador de baloncesto de la NBA? ¿Qué riesgo tiene esa hipoteca subprime de nivel 3A? ¿Esa sombra en la radiografía es un tumor? Después de juzgar no tiene por qué haber una decisión, pero antes de tomar una decisión siempre hay un juicio. El campo de la toma de decisiones estudia qué hace la gente después de formarse una opinión, es decir, después de conocer las probabilidades, o de creer que las conoce, o de haberlas juzgado. ¿Hay que fichar a ese jugador? ¿Hay que comprar ese bono? ¿Operación o quimioterapia? Este campo se dedica a entender cómo reacciona la gente al enfrentarse a opciones arriesgadas.

Los que estudian la toma de decisiones más o menos abandonan el mundo real, y se limitan a experimentos creados artificialmente, que llevan a cabo los sujetos y en los que las probabilidades están perfectamente definidas. Las situaciones artificiales que se dan en el campo de la toma de decisiones son como la mosca de la fruta en la genética, que se usa para sustituir a fenómenos de la vida real que no pueden aislarse. Para ayudar a Daniel a empezar, porque él era un completo novato en este campo, Amos le dio un libro de texto de psicología matemática para alumnos de grado. El libro de texto lo había escrito él con su profesor, Clyde Coombs, y con otro alumno, Robin Dawes. Robin Dawes había ayudado a Daniel en el Instituto de Oregón a analizar la descripción de la personalidad de Tom W. y había respondido con seguridad "informático", solo que se equivocó. Amos le dijo a Daniel que leyera con atención el larguísimo capítulo sobre "la toma de decisiones individual".

El libro decía que la teoría de la toma de decisiones empezó a principios del siglo XVIII. En aquel momento, a los aristócratas franceses, muy aficionados a los juegos de dados, les pidieron a los matemáticos de la corte que les ayudaran a calcular cómo lanzar para ganar. En una partida de juego, el valor esperado es la suma de todos los resultados, y refleja la probabilidad de que se dé un resultado determinado. Si tiras una moneda al aire y te dicen que si cae de cara te dan 100 dólares, pero que si cae de cruz pierdes 50, entonces el valor esperado de esa partida es de 100 dólares x 0.5 + (-50 dólares) x 0.5, es decir, o 75 dólares, o 25 dólares. Puede que tu principio a la hora de jugar a este tipo de juegos sea que el valor esperado sea positivo, y si no, no juegas. Pero cualquiera se da cuenta de que la gente, al apostar, no siempre busca maximizar el valor esperado. También acepta apuestas con un valor esperado negativo. Si no fuera así, ¿qué sentido tendrían los casinos? Cuando la gente compra un seguro, el dinero que paga suele ser superior a las pérdidas previstas. Si no fuera así, ¿cómo ganarían dinero las aseguradoras? Al intentar explicar por qué una persona racional se arriesga, cualquier teoría debería tener en cuenta al menos algunas necesidades habituales de los seres humanos, como comprar seguros, y, en muchas ocasiones, la gente no puede maximizar el valor esperado.

El libro de texto de Amos indicaba que la idea principal de la teoría de la toma de decisiones la planteó por primera vez el matemático suizo Daniel Bernoulli en la década de 1730. Bernoulli intentó añadir más cosas a la simple estimación del valor esperado para comentar algo más sobre el comportamiento humano. Decía: "Imaginemos un pobre que tiene una papeleta de lotería que o no le toca nada, o le tocan 20.000 monedas de oro, y la probabilidad es del 50%. ¿Le dará a esa papeleta el mismo valor que a 10.000 monedas de oro? ¿O usará la papeleta para cambiarla por 9.000 monedas de oro?" La respuesta es que hará esto último. Para explicar por qué el pobre preferiría 9.000 monedas de oro a arriesgarse para ganar 20.000, Bernoulli pensaba que existía una suposición oculta. La gente no busca maximizar el valor, sino que busca maximizar la "utilidad".

¿A qué se refiere la gente con "utilidad"? (Esta palabra rara y odiosa se refiere principalmente al "valor que una persona le da al dinero".) Por supuesto, depende de la capacidad económica de una persona. Cuando un pobre tiene una papeleta de lotería con un valor esperado de 10.000 monedas de oro, está claro que piensa que cambiar la papeleta por 9.000 monedas de oro en mano tiene más "utilidad".

Para predecir el comportamiento humano, no basta con el criterio de "la gente elegirá lo que más quiere". La "teoría de la utilidad esperada" tiene sentido porque tiene en cuenta la naturaleza humana. Bernoulli, además de decir que "la gente buscará maximizar la utilidad," también planteó la psicología de "evitar el riesgo" que tiene la gente. En los libros de texto definen "evitar el riesgo" de la siguiente manera: "Cuanta más riqueza tiene una persona, menos valor tiene para ella cada nueva riqueza. Asimismo, la utilidad de cada nueva riqueza también se reduce con el aumento de la riqueza total." El segundo millar de dólares que ganas no pesa tanto como el primero, y el tercer millar de dólares que ganas no vale tanto como el segundo. Ese dinero que usas para comprar un seguro contra incendios tiene un valor límite inferior a las pérdidas económicas que sufrirías si se incendiara la casa. Precisamente por eso, aunque comprar un seguro es, en sentido estricto, un negocio ruinoso, sigues comprándolo. Al tirar una moneda al aire, tienes la oportunidad de ganar 1.000 dólares, pero a tus ojos, estos 1.000 dólares valen menos que los otros 1.000 que ya tienes en tu cuenta bancaria, y que podrías perder, así que rechazas esa partida. A un pobre le importan más las 9.000 monedas de oro que tiene en la mano, y por eso, aunque correr el riesgo pudiera traerle más beneficios, lo rechaza.

Esto no significa que, por tener las características que indicó Bernoulli, la gente de la vida real vaya a comportarse así obligatoriamente. Solo que su teoría parece reflejar cómo trata la gente el dinero en el mundo real. Puede explicar muy bien los motivos por los que la gente compra seguros, pero, obviamente, no explica por qué la gente compra lotería. Ha conseguido ignorar por completo todo lo relacionado con la apuesta. Es curioso que los franceses quisieran explicar teóricamente cómo toma decisiones arriesgadas la gente, pero al final también les enseñaron cómo ser un jugador de ventaja.

Después de presentar las ideas de Bernoulli, el libro de texto de Amos omitió el largo proceso de evolución de la teoría de la utilidad, y pasó directamente a 1944. Ese año, un judío húngaro llamado John von Neumann y un antijudío austríaco llamado Oskar Morgenstern, no se sabe cómo, colaboraron para publicar artículos sobre "principios racionales". Según ellos, una persona racional no debería infringir la "ley de la transitividad" a la hora de elegir entre dos proposiciones: si entre A y B se inclina por A, y entre B y C se inclina por B, entonces, lógicamente, debería elegir A entre A y C. Si alguien elige A entre A y B, elige B entre B y C, pero al final elige C entre A y C, entonces está yendo en contra de la "teoría de la utilidad esperada". Entre las demás teorías de Von Neumann y Morgenstern, la más importante, dadas sus posibles consecuencias, es la "ley de la independencia". Según esta ley, al hacer una elección entre dos opciones, no deberías verte afectado por la incorporación de una opción ajena. Por ejemplo: entras en una charcutería, y quieres comprarte un sándwich, y el encargado te dice que solo puede ponerle rosbif o pavo asado. Eliges pavo. Cuando te está preparando el sándwich, levanta la vista y te dice: "Ah, por cierto, también tengo jamón." Entonces dices: "Vale, pues cámbiamelo por rosbif." En realidad, la "ley de la independencia" de Von Neumann y Morgenstern dice que, si cambias el pavo que habías pedido por carne porque el dueño de la tienda tiene un poco de jamón en la cocina, entonces tu actitud no es lógica.

De verdad, ¿quién cambiaría de opinión en este momento? La "ley de la independencia", como otras leyes relacionadas con la racionalidad, parece muy lógica, y no parece que haya un conflicto evidente entre ella y cómo se comporta la gente en la vida real.

La "teoría de la utilidad esperada" solo es una teoría, no tiene capacidad para explicar ni para predecir, y no nos hace saber qué hará la gente al enfrentarse a una elección arriesgada. Daniel no vio la importancia que tenía esta teoría en el libro de texto que le dio Amos, pero sí le llamó la atención la forma en que Amos la mencionaba. "Para Amos, era algo sagrado," decía Daniel. A pesar de que esta teoría no se autoproclamaba como una gran verdad psicológica, el libro de texto que Amos había escrito con otros sí reconocía claramente su posición en el campo de la psicología. Casi todo el que estaba interesado en este tema, incluidos todos los que trabajaban en algo relacionado con la economía, parecía pensar que esta teoría describía con acierto cómo decide la gente normal al enfrentarse a elecciones arriesgadas. Este salto en el reconocimiento por lo menos tuvo una consecuencia positiva para los economistas: en los consejos económicos que les daban a los líderes políticos, todo se basaba en darles a los demás más libertad de elección, y los mercados se quedaban de lado. De todas formas, si queríamos que los humanos siguieran siendo racionales en esencia, entonces los mercados también debían serlo.

Por lo visto, Amos tenía algunas dudas al respecto, y estas dudas ya existían cuando estaba estudiando el máster en la Universidad de Michigan. Amos siempre tenía una tendencia instintiva a buscar los fallos de los puntos de vista de los demás. Por supuesto, sabía que solo con la teoría no se podían predecir las decisiones de la gente. Él mismo había investigado cómo infringía la gente el "principio de la transitividad", justo al contrario de lo que decía la teoría. Cuando estudiaba el máster en la Universidad de Michigan, había hecho pruebas a alumnos de grado de la Universidad de Harvard y a delincuentes reincidentes de la cárcel, una y otra vez, en las que tenían que elegir entre A o B, entre B o C, y entre C o A. Los resultados de la prueba demostraron que el comportamiento de la gente no cumplía los criterios de la teoría de la utilidad esperada. Pero Amos nunca profundizó en esa duda. Había visto los errores que cometía la gente en ocasiones, pero en el proceso de toma de decisiones, no había visto ninguna actitud que no fuera racional. Todavía no sabía cómo podía unir la visión que tenía de la naturaleza humana a los estudios matemáticos sobre los problemas de las decisiones humanas.

Hasta el verano del 73, Amos había estado pensando en poner en duda la teoría de la toma de decisiones que dominaba en aquel momento, como él y Daniel habían destruido por completo la teoría que decía que la capacidad de juicio humana seguía las leyes de la estadística. En un viaje que hizo a Europa con su amigo Paul Slovic, le mencionó sus últimas ideas: quería que las decisiones del campo teórico tuvieran un sitio para la complejidad de la naturaleza humana. "Amos recordó que no había que poner en contra de la 'teoría de la utilidad esperada' los 'modelos de elección' en el estudio empírico," le contó Slovic a un compañero en una carta que le escribió en septiembre del 73, "El problema es que la teoría de la utilidad está tan extendida que es difícil echarla abajo. Nuestra estrategia debería ser la de atacar por iniciativa propia, creando nuestros propios casos. No hay que ir en contra de la teoría de la utilidad, sino que hay que introducir las limitaciones humanas como un factor que limita los sistemas de ideas de la gente."

En cuanto a las limitaciones humanas, Amos tenía un gran experto a su lado: Daniel. Se deshacía en elogios hacia Daniel, y decía que era "el mayor psicólogo del mundo que seguía vivo". Aunque tampoco alababa abiertamente a Daniel. (Daniel había dicho: los hombres deberían ser más discretos.) Nunca le explicó a Daniel por qué lo invitaba a participar en el estudio sobre la teoría de la toma de decisiones, un campo puramente técnico que no le interesaba nada a Daniel y del que sabía muy poco. Pero si dijéramos que Amos se inventó cualquier excusa para poder trabajar con él, estaríamos exagerando. Si dijéramos que a Amos le hacía ilusión ver cómo reaccionaba Daniel al ver el libro de texto de psicología matemática, nos estaríamos acercando más a la verdad. Este momento se parece un poco a una escena de la película "Los tres chiflados": Larry toca "Hola, topo", y hace que Curly se asuste.

Daniel leyó el libro que le prestó Amos como si fuera marciano, o mejor dicho, descifrando lo que decía. Hacía mucho tiempo que sabía que no tenía mucho talento para las matemáticas aplicadas, pero sí podía entender la lógica que contenían las fórmulas matemáticas. Sabía que debía respetar, o incluso admirar, esas cosas. La psicología matemática que estudiaba Amos era muy importante, y los psicólogos de este campo miraban por encima del hombro a los demás campos de la psicología. "Los psicólogos que entienden de matemáticas parecen tener una magia," decía Daniel, "tienen una posición importante porque están rodeados por el enorme halo de las matemáticas, y los demás no tienen ni idea de lo que están estudiando." Incluso estando en el campo de las ciencias sociales, Daniel no podía evitar el prestigio de las matemáticas, porque eso le perjudicaría. Pero en el fondo, no le daba ninguna importancia a la teoría de la toma de decisiones, ni le importaba nada. A él le importaba por qué la gente se comportaba de una forma u otra. Y, en opinión de Daniel, la idea principal de la teoría de la toma de decisiones ni siquiera explicaba cómo toma decisiones la gente.

Cuando por fin estaba a punto de terminar de leer el capítulo sobre la teoría de la utilidad esperada que había escrito Amos, y vio la frase "sin embargo, hay algunos que siguen sin estar convencidos con estas leyes", seguro que Daniel se sintió aliviado.

El libro seguía diciendo que, por "algunos", se refería al economista francés Maurice Allais. A Allais le daba asco la actitud engreída de los psicólogos americanos, y sobre todo la actitud que se estaba poniendo de moda en el campo de la economía después de que Von Neumann y Morgenstern establecieran su teoría: usar modelos matemáticos para reflejar el comportamiento humano, y considerar que estos modelos describían con precisión el proceso de toma de decisiones humano. En una conferencia económica que se celebró en 1953, Allais sacó su arma fatal para hundir la teoría de la utilidad esperada. Les pidió a los asistentes que imaginaran qué elección harían en las dos situaciones siguientes (las cantidades de dólares que dijo Allais aquí se han multiplicado por 10 para reflejar la inflación):

Situación 1: debes elegir entre las dos opciones siguientes:

(1) Garantizar 5 millones.

(2) Apostar. El 89% de probabilidad de ganar 5 millones

Go Back Print Chapter