Chapter Content
A ver, a ver... vamos a hablar un poquito de... cómo entendemos a la sociedad, ¿no? Y te digo una cosa, a veces parece más difícil que la mismísima ciencia de cohetes. Imagínate, ¿no?, que eres un rey o una reina, ahí sentado en tu palacio, y tienes a un montón de adivinos, de oráculos, que vienen a contarte cosas sobre el futuro, ¿sabes? Y, bueno, resulta que llegan dos. Los dos te dicen que saben un montón sobre el futuro. La primera te dice: "Mira, puedo predecir con bastante exactitud algo que va a pasar dentro de seis meses". Y luego, el segundo oráculo se arrodilla y, con una seguridad impresionante, te suelta: "Yo puedo predecir, con toda certeza, un evento que va a pasar el sábado, 26 de abril del año 3000". ¿A quién le harías más caso, eh?
Lo primero que piensas, quizás, es fijarte en el que habla del plazo más corto, ¿no? Porque en 975 años, pues, pueden pasar muchísimas cosas. Pero, bueno, en realidad depende de qué están prediciendo y, sobre todo, de qué tipo de incertidumbre están intentando controlar, ¿no? Y esto se ve más claro si te digo que la primera predicción es que el crecimiento económico de Estados Unidos va a estar por encima del 3% dentro de seis meses, mientras que la segunda es que va a haber un eclipse total el sábado 26 de abril del año 3000. Yo apostaría por el eclipse sin pensármelo dos veces, pero por el crecimiento económico... ni de broma.
A ver, usamos mucho la frase "no es ciencia de cohetes", ¿verdad? Pero, yo te voy a intentar convencer de que, en realidad, y sí, ya sé que al principio suena un poco loco, tendría más sentido decir "no es ciencia social" para referirnos a un problema súper difícil. Hay genios trabajando en los dos tipos de problemas, ¿eh? Pero los científicos de cohetes te dirían, sin dudarlo, que predecir el comportamiento más o menos estable de los planetas y las lunas es pan comido comparado con hacer predicciones a largo plazo sobre los sistemas complejos que forman ocho mil millones de seres humanos interconectados.
Y es que, piensa, gran parte de nuestro mundo está construido sobre una comprensión defectuosa de cómo funciona la humanidad, fíjate. Asignamos presupuestos y fijamos impuestos basándonos en previsiones económicas que casi nunca son precisas más allá de un plazo corto. Nos metemos en guerras, o no, basándonos en evaluaciones subjetivas del riesgo que, luego, se demuestran ser catastróficamente erróneas. Las empresas invierten miles de millones basándose en predicciones especulativas de las tendencias, ¿sabes?
Hasta ahora, hemos visto que el mundo funciona de manera diferente a como nos lo imaginamos, ¿no? Y esta imagen falsa de la realidad sigue ahí porque se refleja en una investigación social que no es perfecta. La mayoría de nuestros oráculos modernos de la economía, la ciencia política y la sociología, pues, refuerzan nuestra versión de cuento de la realidad, esos mitos ordenados que eliminan las casualidades importantes de la vida y las dejan como "ruido". Gran parte de nuestra comprensión de nosotros mismos parte de la suposición incorrecta de que los patrones regulares y lineales de causa y efecto son estables en el tiempo y en el espacio. Nuestra búsqueda de comprensión es una búsqueda de "¿X causa Y?", que rebaja sistemáticamente el papel del azar y la complejidad. Pero si la versión de cuento de la realidad que se utiliza en la mayoría de las investigaciones es engañosa, ¿cómo podemos presentar la realidad de una manera que capte los accidentes contingentes y los tome en serio como impulsores del cambio?
"Todos los modelos están mal, pero algunos son útiles", dijo el estadístico George Box. Demasiado a menudo, nos hemos olvidado de esa lección, confundiendo el mapa con el territorio, imaginando erróneamente que nuestras representaciones simplistas del mundo lo representan con precisión. ¿Cuántas veces has leído alguna versión de "una nueva previsión dice" o "un estudio reciente descubrió que" y lo has aceptado al pie de la letra sin examinar los supuestos o la metodología subyacentes? La investigación social es nuestra mejor herramienta para navegar en un mundo incierto. A menudo es tremendamente útil. Pero si queremos evitar errores costosos, a veces catastróficos, necesitamos reconocer con mayor precisión lo que podemos —y no podemos— entender de nosotros mismos mientras navegamos por un mundo complejo influenciado por lo aleatorio, lo arbitrario y lo accidental. Es hora de ser honestos sobre lo poco que sabemos con certeza. Necesitamos sumergirnos brevemente en el mundo de la investigación social y ver cómo se elaboran las conclusiones.
Podemos dividir este problema en dos partes, que yo llamo el Problema Fácil de la Investigación Social y el Problema Difícil de la Investigación Social. El Problema Fácil se deriva de métodos defectuosos. Puede —y debe— ser resuelto. Tiene solución. Por el contrario, el Problema Difícil es probablemente irresoluble, ya que se deriva no del error humano o de una mala metodología, sino porque algunas formas de incertidumbre ligadas al comportamiento humano son absolutas e irresolubles.
Vamos a examinar lo que es fácil, y lo que es difícil.
Hace una década, un destacado psicólogo social, Daryl Bem, decidió probar si la precognición o la percepción extrasensorial (PES) eran reales. Bem no era ningún chiflado. Había estudiado física en el MIT, se había doctorado en la Universidad de Michigan y había enseñado en Harvard, Stanford y Cornell. Utilizando una metodología de investigación estándar, Bem llevó a cabo una serie de experimentos. En uno de ellos, se mostraban a los participantes dos cortinas en una pantalla, y tenían que adivinar qué cortina ocultaba una imagen erótica. Asombrosamente, los participantes acertaron con más frecuencia de lo que se habría predicho por azar. Aún más asombroso es que sus poderes de predicción desaparecían si las fotos detrás de las cortinas no eran eróticas. Estos resultados se verificaron utilizando medidas estándar de significación estadística.
Bem no tenía ninguna explicación convincente para esta habilidad aparentemente sobrenatural (ni ninguna teoría plausible de por qué los participantes eran milagrosamente mejores para anticipar imágenes sexys que no sexys). Pero cuando Bem hizo los cálculos, confirmó su sospecha: algunas personas podían, como sugería el título de su artículo, "sentir el futuro". Los resultados de la investigación de Bem de 2011 pasaron por el proceso estándar de revisión por pares y se publicaron en una de las principales revistas del campo, el Journal of Personality and Social Psychology. Causó sensación. La prensa se lo tragó todo. Bem se dio un baño de gloria, apareciendo en programas de televisión de alto nivel.
Pero no todo el mundo estaba convencido. Los investigadores Stuart Ritchie, Richard Wiseman y Christopher French intentaron replicar los resultados de forma independiente. Cuando llevaron a cabo los mismos experimentos, nadie en sus estudios pudo "sentir el futuro". Aquí había pruebas convincentes de que los hallazgos de Bem no eran tan reales como él sugería. Sin embargo, cuando el trío intentó publicar su impugnación a Bem, no encontraron muchos interesados. Estaban pisando terreno antiguo, les dijeron. ¿Por qué repetir algo que ya se había estudiado? Finalmente consiguieron que su artículo se enviara a revisión por pares, el proceso por el cual la investigación es evaluada anónimamente por otros académicos. El primer revisor elogió con entusiasmo su trabajo. El segundo revisor rechazó el artículo, matando sus posibilidades de publicación. ¿El nombre del segundo revisor? Daryl Bem.
Finalmente, el nuevo estudio, que desafiaba el "descubrimiento" de Bem, fue publicado. Contribuyó a un ajuste de cuentas largamente esperado en la investigación social, y particularmente en la psicología social, conocido como la "crisis de la replicación". Cuando los investigadores intentaron repetir estudios y experimentos anteriores —incluidos los hallazgos que habían sido ampliamente aceptados como sabiduría convencional— obtuvieron resultados diferentes. En un estudio de 2015, los investigadores intentaron replicar los hallazgos de cien experimentos influyentes publicados en destacadas revistas de psicología. Sólo treinta y seis pasaron la prueba. Se invalidaron afirmaciones audaces. Muchas cosas que creíamos saber resultaron ser erróneas. Este terremoto metodológico sacudió nuestra fe en las verdades aceptadas. También planteó una pregunta inquietante: ¿En qué más nos equivocamos?
Para demostrar lo roto que se había vuelto el sistema de entendimiento de nosotros mismos, algunos investigadores intentaron que se publicaran afirmaciones obviamente falsas. En un caso, los investigadores produjeron con éxito resultados aparentemente estadísticamente válidos que demostraban que escuchar la canción de los Beatles "When I'm Sixty-Four" hacía que la gente se volviera más joven. No sentirse más joven. Volverse más joven. Otro estudio mostró que las mujeres eran más propensas a votar por Barack Obama en 2008 si estaban ovulando cuando emitían su voto. Estos "hallazgos" siguieron las metodologías aceptadas y superaron los umbrales estadísticos estándar para la publicación. ¿Qué estaba pasando?
Los investigadores sociales son, desafortunadamente, a veces culpables de utilizar malos métodos de investigación o incluso de manipular deliberadamente el sistema. Esto puede parecer algo muy específico, las preocupaciones esotéricas de alguien, como yo, que está empleado profesionalmente como científico social. Pero todos tenemos interés en entender cómo se produce la investigación social, con sus defectos y todo, porque a menudo es la información que nuestras sociedades —y líderes— utilizan para tomar decisiones. Ventilar los trapos sucios de la investigación social es útil como correctivo de nuestra incorrecta versión de cuento de la realidad, el mundo imaginado en el que X siempre causa Y y las casualidades no importan. Pero entender estos fallos también te dará las herramientas intelectuales para evaluar nuevos "hallazgos" con una buena dosis de escepticismo.
Debo ahora, me temo, llevarnos brevemente a lo intrincado. Ten paciencia conmigo, es importante entender por qué a menudo nos equivocamos. La mayoría de los estudios realizados en ciencia política, economía, sociología, psicología, etc., producen una métrica cuantitativa conocida como valor P. Voy a pasar por alto muchos de los detalles matemáticos aquí, pero esta es la medida que los investigadores sociales utilizan como un atajo para determinar si un hallazgo podría ser "real" —o si puede ser un estudio que no descubre nada, produciendo un "resultado nulo". Cuando el valor P es suficientemente bajo, los investigadores tienden a interpretar eso como evidencia de que el hallazgo es probable que sea real, o, como se conoce formalmente, estadísticamente significativo. La comunidad de investigación ha acordado en gran medida que el umbral para la publicación es un valor P inferior a 0.05. En la práctica, esto a menudo significa que un estudio con un valor P de 0.051, justo por encima del umbral, no se publicará, mientras que el mismo estudio con un valor P de 0.049, justo por debajo del umbral, probablemente sí. Así que, si ese temido número 0.051 aparece, los investigadores pueden salvar la oportunidad de ser publicados si pueden masajear creativamente ese valor P hasta 0.05 o 0.049. Después de todo, los datos pueden ser cortados y dados en dados de muchas maneras justificables diferentes. Los investigadores podrían razonablemente elegir la opción que produce el valor P más bajo. Ronald Coase, premio Nobel de economía, lo expresó así: "Si torturas los datos el tiempo suficiente, confesarán".
Este sistema de umbral inserta un incentivo terrible en la producción de investigación, ya que la publicación está ligada a promociones, futuras subvenciones y avance profesional. Cuando los investigadores ajustan su análisis de datos para producir un valor P que sea lo suficientemente bajo para que un artículo se publique, eso se llama P-hacking, y es una plaga de la investigación moderna, una que causa que malentendamos nuestro mundo. Pero, ¿cuán extendido está?
En un análisis de artículos publicados en las principales revistas, los investigadores encontraron un enorme aumento en el número de artículos que tenían valores P justo por debajo del umbral para la publicación, una fuerte evidencia de que la investigación publicada está siendo sesgada por este sistema. La crisis de la replicación, parcialmente desatada por los estudios de PES desacreditados de Bem, destapó el P-hacking. Desafortunadamente, no hizo mucho para detenerlo. Cuando los economistas examinaron los datos en veinticinco de las principales revistas de economía muchos años después de la crisis de la replicación, encontraron que hasta una cuarta parte de los resultados que utilizaban ciertos tipos de métodos de investigación mostraban interpretaciones de datos engañosas y evidencia potencial de P-hacking. Esa es una gran proporción de investigación que afecta cómo vemos el mundo, y nuestro lugar dentro de él. Estos estudios falsos, que a menudo rastrean causas y efectos sencillos, refuerzan incorrectamente la noción de que podemos eliminar las casualidades de la sociedad porque la realidad, cuando es distorsionada por el P-hacking, aparece más ordenada y ordenada. ¡X causa Y de una manera sencilla, y tenemos el valor P bajo para probarlo!
La mala investigación a veces también ve la luz del día debido a un problema conocido como el problema del cajón de archivos. Piénsalo de esta manera: si te pido que lances una moneda diez veces, hay aproximadamente un 5 por ciento de posibilidades de que termines con al menos ocho caras. Si lanzas una moneda diez veces seguidas en veinte ocasiones separadas, es razonablemente probable que termines con al menos ocho caras en una de esas veinte ocasiones. Ahora, imagina que decides repetir los diez conjuntos de lanzamientos de monedas una y otra vez hasta que obtengas ocho caras. Cuando finalmente lo haces, corres a contarle a un amigo (fácil de impresionar) tu asombroso resultado: "¡Lancé una moneda diez veces y obtuve ocho caras! ¡Qué resultado raro e interesante!". Para reforzar el asombro del amigo, no mencionas cuántas veces intentaste, y fallaste, antes de ese intento.
Ahora, imagina la misma lógica, pero con investigadores tratando de establecer la legitimidad de la PES o la precognición. Diecinueve investigadores realizan experimentos y no encuentran nada. Sin hallazgo, sin publicación. Silenciosamente toman sus hallazgos y los pegan en un cajón de archivos, para nunca más ser vistos. Entonces, puramente por azar, el vigésimo investigador "descubre" algo asombroso que pasa los puntos de referencia estadísticos que se utilizan convencionalmente en el campo. Emocionadamente, ella/él se apresura a publicar, y debido a que pasa las pruebas estadísticas, pasa la revisión por pares y se publica, con un gran revuelo. Los diecinueve experimentos fallidos son invisibles porque nunca aparecen fuera del cajón de archivos. El único experimento "exitoso" es visible, y convence a la gente de que un efecto es real. Ese es el problema del cajón de archivos.
Si supieras que diecinueve de cada veinte investigadores no habían encontrado ningún resultado, cuestionarías el "descubrimiento", pero esos diecinueve estudios no se publican, están acumulando polvo en los cajones de archivos, así que eres ciego a su existencia. No sólo el problema del cajón de archivos produce una forma perniciosa de sesgo de publicación que sesga nuestra comprensión de la realidad al hacer que parezca más ordenada de lo que es, sino que también crea fuertes incentivos para que los investigadores se centren en la investigación que produce resultados "positivos" de hallazgos novedosos e intrigantes, en lugar de las tareas menos gratificantes pero igualmente importantes de mostrar ninguna relación entre una causa y un efecto, o de desacreditar la mala investigación. Algunos investigadores que hicieron afirmaciones audaces que luego fueron desacreditadas siguen siendo famosos. Pocos han oído hablar de los que hacen la desacreditación.
Desafortunadamente, la mala investigación es tan influyente como la buena investigación. Un estudio de 2020 encontró que la investigación que no pudo replicarse (y por lo tanto es probable que sea falsa) se cita a la misma tasa que la investigación que ha sido verificada independientemente a través de un estudio repetido. Estos fallos de investigación a menudo son descaradamente obvios. Un estudio pidió a expertos que leyeran artículos y luego hicieran apuestas sobre qué investigación se confirmaría y cuál no a través de pruebas de replicación. De manera abrumadora, sus apuestas dieron sus frutos. Podían detectar lo que era demasiado bueno para ser verdad a una milla de distancia. DARPA, la secreta agencia americana de investigación de defensa, incluso ha dedicado recursos a lo que algunos han llamado un "detector de tonterías" para la investigación social, con cierto éxito. Pero a pesar de ser razonablemente fácil de detectar, todavía se produce mucha mala investigación. Y la revisión por pares —el mecanismo de hacer que los académicos revisen el trabajo de los demás para determinar qué merece la publicación— es, en sí misma, un sistema roto. En un estudio, los investigadores plantaron deliberadamente graves fallos en los artículos de investigación sólo para ver cuántos serían atrapados por los revisores por pares. ¿Adivina cuántos lo fueron? Uno de cada cuatro.
Estos problemas se superponen a otros que están más directamente ligados a nuestra versión de cuento de la realidad. Por ejemplo, un enorme cuerpo de investigación continúa imaginando que vivimos en un mundo lineal en el que el tamaño de una causa es proporcional al tamaño de su efecto: el mundo mapeado como si todo encajara en una línea recta. Como hemos visto, una y otra vez, esa es claramente la forma equivocada de entender nuestro mundo. Sin embargo, muchos modelos cuantitativos de uso generalizado todavía imaginan que ese mundo existe. ¿Por qué? Porque la ciencia social cuantitativa surgió principalmente en los años 80 y 90, cuando la potencia informática era cara y menos sofisticada. Pero debido al bloqueo arbitrario, esa forma de ver el mundo se mantuvo, y continúa dominando la mayoría de los campos de investigación social, a pesar de que ahora somos capaces de modelar mucho más sofisticadamente.
La ciencia de la complejidad —y aquellos que utilizan la lógica más sofisticada de los sistemas adaptativos complejos para entender nuestro mundo— lamentablemente representa una pequeña parte de la producción de investigación moderna. Simplemente fingimos que el mundo es de una manera cuando sabemos que es de otra manera, y eso nos causa cometer errores graves y evitables en cómo dirigimos la sociedad.
Ahora, algunos lectores descuidados podrían tomar estas críticas como una directiva para tirar al bebé con el agua del baño, concluyendo erróneamente que la investigación social es inútil, sin sentido, irremediablemente defectuosa. No lo es. Navegamos por nuestro mundo mucho mejor que en el pasado debido a los importantes avances en los campos de investigación que nos estudian a nosotros mismos. Se advierte a los estudiantes graduados de ciencias sociales sobre los peligros del P-hacking, y algunas revistas están haciendo sabios esfuerzos para abordar el problema del cajón de archivos. La transparencia ha aumentado sustancialmente. El hecho de que los economistas o los politólogos se equivoquen algunas veces no significa que debamos abandonar la economía y la ciencia política. Más bien, deberíamos trabajar duro para resolver el Problema Fácil de la Investigación Social. Y puede resolverse.
Pero lo que no se puede resolver, me temo, es el Problema Difícil.
Aquí es donde todo se vuelve bastante desconcertante, y donde se hace evidente que el "ruido" aparentemente aleatorio importa mucho más de lo que pretendemos. Hace unos años, científicos sociales de Alemania y el Reino Unido decidieron probar algo novedoso. Iban a recurrir a la investigación colectiva para tratar de responder a una pregunta de larga data que había dividido tanto a los académicos como al público por igual: a medida que más inmigrantes llegan a un país, ¿los votantes se vuelven menos partidarios de la red de seguridad social? ¿Una afluencia de inmigrantes crea una reacción violenta contra los programas de gasto social, como los subsidios de desempleo, por parte de los votantes que los ven como "limosnas" ilegítimas? Esa pregunta es claramente importante, pero la evidencia hasta ahora ha sido mixta. Algunos estudios han dicho que sí, mientras que otros han dicho que no. ¿Qué pasaría, se preguntaron los investigadores, si le dieran a un montón de investigadores los mismos datos exactos y les hicieran la misma pregunta? ¿Obtendrían las mismas respuestas?
Participaron setenta y seis equipos de investigación. No hubo comunicación entre ellos, así que no pudieron comparar notas o sucumbir al pensamiento grupal. En cambio, cada uno tomó su propio enfoque para descifrar los patrones ocultos en los números. Cuando el estudio terminó, los setenta y seis equipos habían producido 1,253 modelos matemáticos para estimar el efecto de la inmigración en el apoyo a los programas de bienestar social. Ninguno de los modelos era el mismo. Cada equipo de investigación tomó un enfoque ligeramente diferente.
Lo que encontraron fue extraordinario: un resultado completamente mixto. Un poco más de la mitad de los investigadores no encontraron una clara relación entre los niveles de inmigración y el apoyo público a la red de seguridad social. Pero los equipos restantes estaban divididos, casi por la mitad, con algunos encontrando que la inmigración erosionó el apoyo a la red de seguridad social, mientras que otros encontraron exactamente lo contrario. Alrededor de una cuarta parte de los modelos decían que sí, alrededor de una cuarta parte decían que no, y la mitad decían "nada que ver aquí".
Tratando de averiguar lo que había sucedido, los investigadores examinaron cuidadosamente las decisiones metodológicas de cada equipo. Pero las opciones metodológicas sólo podían explicar alrededor del 5 por ciento de la variación en los hallazgos. El otro 95 por ciento era materia oscura inexplicable. Nadie podía explicarlo. Los investigadores llegaron a una conclusión que coincide con el espíritu de este libro: "Incluso las decisiones [metodológicas] aparentemente más pequeñas podrían dirigir los resultados en diferentes direcciones; y sólo la conciencia de estas minucias podría conducir a discusiones teóricas productivas o pruebas empíricas de su legitimidad". Las decisiones más pequeñas marcaron una gran diferencia. Eso crea desafíos inevitables que no pueden ser borrados o resueltos con mejores matemáticas. Parte del Problema Difícil es que vivimos dentro, como sugería el título de ese artículo, de un "universo de incertidumbre".
La mayoría de las veces, setenta y seis equipos de investigación no son asignados para responder a una pregunta específica. Casi siempre es sólo un investigador, o un pequeño grupo de ellos, trabajando para abordar una pregunta sobre nuestro mundo. Imagina lo que habría sucedido si esta pregunta hubiera sido hecha y respondida por sólo un investigador o equipo de investigación. Podría haberse publicado un estudio autoritativo que mostrara que la inmigración disminuye el apoyo al gasto social, o uno que mostrara que la inmigración aumenta el apoyo al gasto social. (Este experimento muestra que cada hallazgo sería aproximadamente igual de probable). Ese estudio solitario podría haber generado cobertura de prensa y cambiado las opiniones públicas sobre la inmigración. Pero sería una incógnita si el estudio dijera que la inmigración era útil o perjudicial para el apoyo público al gasto social.
Ahora, imagina si la investigación fuera de final abierto y cada equipo pudiera escoger y elegir los datos que prefiriera en lugar de utilizar los mismos datos para responder a la pregunta. Todas las apuestas estarían canceladas. Pero así es como funciona normalmente la investigación. Esta es otra parte del Problema Difícil: no podemos ponernos de acuerdo sobre lo que está pasando incluso cuando estamos trabajando en la misma pregunta exacta con los mismos datos exactos.
Desafortunadamente, ahí no termina el Problema Difícil. ¿Qué pasa si el mundo que estamos tratando de entender está, como nos recordó Heráclito, cambiando constantemente? Tomemos el estudio de las dictaduras, por ejemplo. En los años 90 y 2000, los científicos políticos desarrollaron un concepto llamado "durabilidad autoritaria" para describir las dictaduras. La idea era sencilla. Ciertos tipos de dictaduras sobreviven durante mucho tiempo, pase lo que pase. La teoría tenía sentido. Los datos la respaldaban. Incluso había carteles de palacio para la teoría, particularmente en el Medio Oriente: terribles tiranos como Muammar Gaddafi de Libia, Ben Ali de Túnez y Hosni Mubarak de Egipto. Se escribieron libros sobre por qué sus regímenes resilientes eran tan inquebrantables. Se hicieron carreras a partir de esos libros. El concepto se convirtió en sabiduría aceptada. Los dictadores pueden ser despiadados, pero, ¡caramba!, producen estabilidad.
Entonces, a finales de 2010, un vendedor de verduras en Túnez se prendió fuego. Pronto, la teoría fue aparentemente borrada. Los carteles fueron derrocados, sus palacios saqueados por turbas enfurecidas en la vanguardia de las revoluciones. En cuestión de meses, Ben Ali huyó al exilio, Mubarak fue arrestado y Gaddafi fue asesinado. La durabilidad autoritaria aparentemente había estado muy equivocada. Sus principales defensores vieron caer sus estrellas y parecían estar profundamente equivocados en su diagnóstico de los asuntos mundiales. Pero había tomado a todos por sorpresa, no sólo a los de las torres de marfil. Cuando estaba trabajando para obtener mi doctorado, poco antes de viajar para llevar a cabo una investigación de campo en Túnez, recuerdo estar sentado en la oficina de un profesor y mirar un cartel que había colgado en la pared para demostrar este punto. Era un "mapa de riesgo político" de 2010 del Medio Oriente, creado por personas que estaban empleadas profesionalmente para navegar por el riesgo y la incertidumbre. Los países seguros y estables estaban sombreados en verde. Mientras miraba el mapa a principios de 2011, noté que cada área verde en el mapa estaba actualmente en llamas, en medio de una revolución o guerra.
Aquí está la pregunta crucial e ineludible: ¿Estaba equivocada la teoría original, o cambió el mundo?
Es plausible que Gaddafi y Mubarak fueran frágiles desde el principio, y simplemente los malinterpretamos y sobreestimamos. Pero hay una explicación alternativa: tal vez la Primavera Árabe cambió la forma en que funcionan las dictaduras del Medio Oriente. Lo que una vez fue resistente se volvió quebradizo. Aceptamos estos cambios en el mundo físico, de la misma manera que el agua golpeada con un martillo absorbe un golpe y en su mayoría vuelve a su estado anterior, pero la congelamos, y el daño de un golpe de martillo se vuelve visible y duradero, grabado en el hielo. El agua ha cambiado, así que la teoría de sus propiedades también debe cambiar. Tal vez la teoría de las dictaduras del Medio Oriente era correcta, al menos desde la Guerra Fría hasta alrededor de 2010, y entonces el mundo se convirtió en un lugar fundamentalmente diferente. ¿Quién sabe? Es imposible decirlo con certeza. Las teorías no vienen con una fecha de caducidad.
Sin embargo, cuando concluimos que las teorías sociales se han equivocado en algo, muchos asumen que la teoría estaba equivocada desde el principio. Ese es un error. Las teorías sociales no son lo mismo que las de la química. Si los cavernícolas pudieran añadir bicarbonato de sodio y vinagre juntos, obtendrían la misma efervescencia que nosotros. Tal estabilidad duradera a través del tiempo, el espacio y la cultura no existe con la dinámica social. En cambio, un patrón de causas y efectos puede existir en un contexto durante un tiempo, hasta que el mundo social cambie y el patrón deje de existir. En la sociedad humana, algunas formas de causalidad cambian de forma. Sin embargo, imaginamos que hay alguna Verdad Fija sobre nosotros que estamos a punto de descubrir, mientras que no reconocemos que la verdad real de nuestros sistemas sociales está constantemente transformándose, cambiando, eludiendo nuestra comprensión.
Todo se vuelve aún más desconcertante cuando se considera que habitamos sólo un mundo posible. Si te tomas en serio la metáfora del Jardín de los Senderos que se Bifurcan —y deberías hacerlo— entonces nuestro mundo es claramente la ramificación de innumerables caminos potenciales que, si no fuera por un pequeño ajuste, podríamos haber seguido. Pero sólo tenemos una Tierra para observar. Eso hace imposible que sepamos lo que es probable y lo que es improbable, particularmente para eventos raros e importantes.
El 10 de septiembre de 2001, por ejemplo, había alguna probabilidad desconocida de que los ataques planeados para el día siguiente tuvieran éxito en matar a un gran número de personas. Tal vez los terroristas tenían un 5 por ciento de posibilidades de llevar a cabo el ataque. O, tal vez tenían un 95 por ciento de posibilidades, casi una cosa segura. Pero una vez que ocurrió el 11-S, no podemos repetir la historia y tratar de averiguar cuál era, porque sólo tenemos un único punto de datos: sucedió.
Los eventos con baja probabilidad a veces suceden, y también los eventos con alta probabilidad, pero si un evento sólo sucede una vez, es difícil decir si el evento era inevitable o una casualidad. Puedes seguir lanzando una moneda para entender sus propiedades, pero no puedes seguir repitiendo la historia. Simplemente no podemos saber si nuestro mundo es una muestra representativa de todos los mundos posibles, o si es un extraño atípico, una realidad bizarra de uno entre mil millones. Con sólo una Tierra para observar, hay algunas cosas que quizás nunca sepamos.
Volvamos a la previsión de Nate Silver en las elecciones presidenciales de 2016, que predijo que Hillary Clinton tenía un 71.4 por ciento de posibilidades de victoria. Los modelos utilizados por su sitio web son una agregación de encuestas, combinadas con datos de "fundamentos" que se incluyen en base a las creencias que Silver tiene sobre cómo tienden a desarrollarse las elecciones en base a patrones pasados. Silver es un experto de talla mundial en estimar si las encuestas están capturando con precisión las actitudes públicas y luego armar un modelo basado en esos datos combinados con un riguroso conjunto de supuestos. Pero no es mejor que el resto de nosotros para anticipar lo que se conoce como incertidumbre epistémica, mirando hacia el futuro para predecir eventos altamente contingentes (como si un gobierno extranjero hackeará un servidor de datos políticos o si los archivos informáticos no relacionados de un político agresor sexual incitarán al director del FBI James Comey a reabrir una investigación federal días antes de las elecciones). Sin embargo, todo el análisis de Silver tiene la apariencia de ciencia dura porque es increíblemente sofisticado estadísticamente, utilizando miles de simulaciones para probar sus puntos. Pero no hay miles de elecciones. Sólo hay una. Es inherentemente incierto. No sabemos si el resultado que experimentamos —la victoria de Trump— fue un resultado promedio, un valor atípico extremo o algo intermedio porque no podemos repetir la historia. Puedes averiguar que la probabilidad subyacente de lanzar una cara en un lanzamiento de moneda es aproximadamente del 50 por ciento simplemente lanzando la moneda una y otra vez y observando los resultados. Pero, ¿puedes decir si una moneda es justa o sesgada si todo lo que tienes es un único lanzamiento que sale cruz? Obviamente no, pero para eventos únicos en un contexto altamente particular, con demasiada frecuencia intentamos, y fracasamos, hacer ese juicio.
Cuando Clinton perdió, Silver señaló su modelo como defensa: ¡71.4 por ciento no es 100 por ciento! ¡Había casi un 30 por ciento de posibilidades de que Clinton perdiera en el modelo, así que el modelo no estaba equivocado, era sólo algo que sucedería casi un tercio del tiempo! ¡Si dices que estábamos equivocados, no entiendes las matemáticas! Esto plantea la pregunta obvia: ¿Podría el modelo de Nate Silver alguna vez estar "equivocado" en esas elecciones? Cuando el modelo predice algo con una baja probabilidad y sucede, entonces es sólo el mundo el que está siendo extraño, no el modelo el que es incorrecto. Es infalsificable, imposible de refutar. Y cuando no puedes refutar las cosas, nos atascamos en surcos, y nuestros conceptos erróneos sobre nuestro mundo empeoran constantemente.
Ahora, todavía hay una pregunta persistente que abordar: Si la vieja cosmovisión de cuento de hadas del individualismo ordenado, las relaciones lineales y los grandes efectos que tienen grandes causas es tan errónea, entonces, ¿por qué persiste? Seguramente, si fuera tan errónea, habría sido reemplazada por algo mejor y más preciso. ¿Verdad?
Para entender cómo se supone que funciona la ciencia, considera las diferencias entre el baloncesto y el remo. Los equipos de baloncesto con una estrella excepcional —el jugador que puede anotar cincuenta puntos en un partido— pueden ganar incluso si uno de los jugadores del equipo es inútil. Eso hace que el baloncesto, para tomar prestado el término de Chris Anderson y David Sally, sea un problema de enlace fuerte. Puedes permitirte tener un enlace débil, siempre y cuando tu enlace más fuerte sea realmente fuerte. Spotify es otro ejemplo de un problema de enlace fuerte. Millones y millones de canciones terribles pueden estar en Spotify y seguirás estando contento, siempre y cuando tenga las canciones que más te gustan. Los enlaces débiles —esas canciones terribles que nunca escuchas— no desbaratan su eficacia como plataforma de música. Para mejorar un problema de enlace fuerte, puedes ignorar las cosas malas y centrarte en hacer que las mejores cosas sean mejores.
El remo es exactamente lo contrario. La velocidad es una función de la sincronización, el equilibrio y el tiempo. En una tripulación de ocho remeros y un timonel, si incluso un remero está un poco desviado, el barco empezará a dar bandazos de un lado a otro, los remos golpeando el agua y creando arrastre. La tripulación perderá. Sólo son tan buenos como su peor atleta. Eso lo convierte en un problema de enlace débil. Los problemas de enlace débil acechan por todas partes. En palabras del psicólogo Adam Mastroianni, "La seguridad alimentaria, por ejemplo, es un problema de enlace débil. No quieres comer nada que te mate... Un motor de coche es un problema de enlace débil: no importa lo buenos que sean tus bujías si tu transmisión está averiada". Para solucionar un problema de enlace débil, no puedes centrarte en las mejores partes. Debes eliminar los enlaces más débiles.
Como señala Mastroianni, la ciencia es un problema de enlace fuerte. Son los mejores descubrimientos los que cambian la sociedad, y no importa mucho si un montón de cieno falso obstruye las revistas académicas de bajo nivel. Mucha gente tenía ideas estúpidas sobre cómo dividir el átomo. Eso no importó porque todo lo que se necesitaba era una idea que funcionara.
Además de ser un problema de enlace fuerte, la ciencia es un ámbito de supervivencia del más apto. La ciencia realiza pruebas de ácido en las teorías. En algún momento simplemente no funcionan, y podemos concluir que la teoría ha sido falsificada. Un montón de idiotas todavía creen que la tierra es plana, pero eso no afecta nuestra capacidad de participar en la exploración espacial porque es el enlace fuerte, no el débil, el que importa. La ciencia es por lo tanto un motor de progreso porque combina un problema de enlace fuerte con presiones evolutivas, lo que generalmente hace que los enlaces fuertes sean más fuertes con el tiempo. Las ideas débiles eventualmente mueren, relegadas al montón de cenizas de la historia científica. Las ideas fuertes sobreviven, impulsando el progreso humano.
En principio, la misma dinámica debería aplicarse a las teorías sociales. En la práctica, no lo hacen. Eso, desafortunadamente, da a las malas ideas poder de permanencia. En física, incluso el más mínimo error es a menudo suficiente para que una idea sea rechazada y reemplazada por algo mejor. Eso no es remotamente cierto en las teorías sociales. Recuerda que el FMI no pudo predecir con precisión las recesiones, pero los mismos modelos económicos siguen dominando. Incluso las teorías con un historial sorprendentemente malo —como la noción de que reducir los impuestos para las personas más ricas de la sociedad conduce a un gran aumento en el crecimiento económico— tienen una extraña capacidad para persistir durante décadas. Es difícil falsificar las teorías sociales. Acertar algunas veces suele ser suficiente para que la gente siga creyendo en la teoría. Eso hace que sea más difícil diferenciar el oro de la basura. Como resultado, la basura no se recoge y se lleva.
Incluso cuando una teoría parece fallar, es imposible concluir que ha sido falsificada. Tal vez ese país era sólo un valor atípico. Tal vez la economía se hundió por otra razón. La complejidad social y la ideología protegen la investigación social de la poda de enlaces cada vez más fuertes que se produce en las ciencias naturales. La obstinada supervivencia de las teorías sociales incorrectas también empeora porque todo el mundo se siente como un experto en la comprensión de la sociedad, lo que no es cierto para la mecánica cuántica o la nanotecnología. Lo que debería ser un problema de enlace fuerte termina distorsionándose, y los enlaces débiles pueden dominar, incluso convertirse en el paradigma dominante. Pocas teorías sociales influyentes se desmienten alguna vez definitivamente de la misma manera que, por ejemplo, la falsa creencia de que el sol gira alrededor de la tierra. Como resultado, obtenemos una visión distorsionada de la realidad reflejada cada vez que leemos sobre cómo se