Chapter Content
¡Hola! Bueno, a ver por dónde empiezo... hoy quiero platicarles un poquito sobre algo que me parece súper interesante, y es esto que llaman emergencia, ¿no? Que suena así como a... a magia, pero en realidad es algo mucho más profundo.
Miren, para entender la emergencia, tenemos que conectar lo físico con lo informacional. Al final, la naturaleza está hecha de cosas físicas, ¿verdad? Pero esas cosas resuelven problemas procesando información. Y ahí es donde está la clave. O sea, solo conectando lo físico con lo informacional podemos entender qué hacen todas esas piececitas cuando se juntan para formar algo más grande.
La ciencia actual, bueno, a veces se equivoca un poco con la complejidad, pero también nos da herramientas importantes, como la teoría de la información, la teoría de la computación y la evolución. Ya hemos hablado un poco de esto antes, así por encima, para entender la abstracción física y cómo la naturaleza construye las cosas. Ahora, vamos a profundizar un poquito más para ver cómo funciona realmente la emergencia.
Ojo, eh, lo que les voy a contar no es algo que esté aceptado por todos, porque la verdad es que la comunidad científica todavía está muy metida en el reduccionismo para definir bien cómo ocurre la emergencia. Así que les voy a dar mi visión, lo que yo creo que es la explicación más lógica, basada en la información, la computación y la evolución. Y aunque seguro que tiene cosas en común con otras teorías, aquí se las presento como mi propia propuesta.
Empecemos por la teoría de la información. Formalmente, es una rama de las matemáticas aplicadas y la informática que se encarga de cuantificar la información, sobre todo en la comunicación. Los principios básicos vienen de Claude Shannon, un matemático e informático que sentó las bases en los años 40. Y el concepto clave aquí es la entropía, que viene de la termodinámica, gracias a Rudolf Clausius y Ludwig Boltzmann.
La entropía en termodinámica se refiere al comportamiento de las moléculas a nivel microscópico y la tendencia de los sistemas a evolucionar hacia el equilibrio. En cambio, la entropía de Shannon se refiere a la cantidad de información necesaria para describir o predecir los resultados de un proceso aleatorio. Normalmente, se ven como interpretaciones separadas, pero, como vamos a ver, están conectadas. Yo diría más, ¡son lo mismo! Visto desde diferentes ángulos, claro. La información siempre viene de algo físico. Y las dos versiones de la entropía, la física y la informacional, son fundamentales para la creatividad de la naturaleza. Era obvio que Shannon y Boltzmann iban a llegar al mismo concepto, ¿no?
La teoría de la información se abstrae de la física del sistema que estamos estudiando, lo que permite que se centre en patrones más altos que emergen del comportamiento estadístico. Así podemos hablar de sistemas complejos sin perdernos en detalles innecesarios... y que normalmente son incorrectos. La teoría de la información se aplica a muchas cosas diferentes, como sistemas de comunicación, redes biológicas e interacciones sociales. Y esto es importante, porque solo las cosas que son verdaderamente fundamentales en la naturaleza tienen conexiones tan profundas y universales.
La entropía nos permite cuantificar la incertidumbre, porque mide el desorden que hay en un sistema. A muchos científicos no les gusta la palabra "desorden" para describir la entropía, porque hay casos en los que los sistemas parecen más ordenados aunque tengan más entropía. Pero eso es más una cuestión de palabras. Lo importante es que más entropía significa más incertidumbre, como una habitación desordenada es menos predecible que una ordenada.
En el mundo físico, la entropía nos dice cuántas configuraciones o distribuciones de partículas microscópicas corresponden a un estado macroscópico dado. Es una forma de contar cuántas configuraciones microscópicas son compatibles con las propiedades macroscópicas que observamos. Por ejemplo, la temperatura, la presión y el volumen son propiedades macroscópicas, mientras que las partículas individuales, como los átomos y las moléculas, son la perspectiva microscópica.
Si un sistema tiene más configuraciones posibles, es menos predecible, porque hay menos certeza sobre lo que es o podría llegar a ser. Un gas que llena todo un recipiente tiene más entropía que si estuviera confinado en un lado.
También podemos pensar en la entropía como la cantidad promedio de información necesaria para describir o predecir los resultados de un proceso. Si lanzamos una moneda al aire, tenemos un proceso con máxima entropía, porque hay máxima incertidumbre sobre qué lado va a salir. Pero si doblamos la moneda con unos alicates, tendremos mucha más certeza sobre el resultado y, por lo tanto, menos entropía.
La entropía de Shannon mide esta incertidumbre midiendo la distribución de probabilidades asociadas a los diferentes resultados. Es como si lanzáramos miles de monedas y anotáramos cuántas veces sale cara y cuántas veces sale cruz, y luego dibujáramos un gráfico de barras con los resultados.
Claro, dos barras en un gráfico no son una distribución muy buena. La realidad no es como lanzar una moneda. Los sistemas reales tienen muchísimas configuraciones posibles, y por eso cualquier intento de representar las frecuencias relativas de esas configuraciones se suavizaría y parecería una curva. Ahí están las distribuciones suaves que vemos en los libros de texto, la más famosa es la campana de Gauss. Lanzar monedas no puede producir una campana de Gauss, porque solo hay dos resultados posibles, pero cosas como la altura de las personas sí pueden. El resultado más probable es el pico de la distribución, porque la mayoría de las personas tienen una altura similar.
Pero la campana de Gauss no puede capturar la complejidad, porque no tiene interacciones. Las alturas individuales son independientes. Las alturas no "hablan" entre sí. La altura de tu mejor amigo no puede influir en la tuya. Por eso hay una altura promedio bien definida para los humanos. Esto no se parece en nada a la complejidad, porque la complejidad se define por muchas piezas con muchas interacciones. Son las innumerables interacciones dentro de los sistemas complejos las que dan lugar a las propiedades que dictan sus estructuras y comportamientos, y hacen que la idea de las distribuciones sea demasiado simple. La "distribución" que existe en la naturaleza seguramente no se parece a nada que veamos en los libros de texto.
El concepto clave que nos da la entropía, y que voy a usar como base para hablar de la emergencia, es la idea de que hay muchas configuraciones diferentes que corresponden a una única observación macroscópica. Ese, en mi opinión, es el mecanismo clave que mejor describe el proceso real por el que ocurre la emergencia. No una suma de pasos discretos que producen el resultado, sino algo que surge de la configuración estadísticamente más probable.
La complejidad usa la materia física para hacer cosas informacionalmente. Por eso existen procesos en los sistemas naturales: para organizar la materia y convertir entradas en salidas para resolver problemas. La entropía es una medida del contenido de información y, por lo tanto, juega un papel fundamental en cómo se procesa la información. Como todos los procesos físicos transforman información, podemos esperar que la resolución de problemas de la naturaleza muestre cambios en la entropía.
La entropía aumenta cuando el calor fluye de objetos calientes a objetos fríos, porque la energía térmica se distribuye más uniformemente entre las partículas. La entropía aumenta cuando los reactivos se transforman en productos durante las reacciones químicas. Las transiciones de fase, como cuando el hielo se derrite y se convierte en agua, ven aumentar la entropía porque las moléculas de agua se desordenan más en la fase líquida. Siempre que los gases se expanden en volúmenes más grandes, la entropía aumenta.
También vemos que la entropía disminuye (localmente) cuando la naturaleza crea sus objetos. Los organismos vivos son construcciones de menor entropía en relación con el desorden que los creó. La vida puede organizar y mantener estructuras de baja entropía gracias a la energía que recibe continuamente de su entorno. La disposición de los átomos o las moléculas a menudo se vuelve más ordenada cuando las sustancias se solidifican a partir de una solución. El orden puede surgir espontáneamente en bandadas de pájaros o bancos de peces.
Sabemos que las entidades tienen mayor entropía si hay más configuraciones microscópicas (microestados) que son compatibles con la propiedad macroscópica que observamos, como la presión o el volumen de un sistema. Imaginen que se acercan a un sistema y miden su presión. Esa presión será la que tenga más configuraciones microscópicas (disposición de átomos) que producirían esa presión. Todas las demás presiones posibles que podríamos haber observado tendrán menos configuraciones microscópicas asociadas a sus valores. En otras palabras, lo que observamos es el estado más probable del sistema, que, por definición, es el estado con el mayor número de microestados subyacentes que producen lo que estamos viendo.
Los sistemas evolucionan naturalmente hacia estados con el mayor número de microestados accesibles. Y esto no solo ocurre con las presiones y las temperaturas. Podemos esperar que las estructuras y los comportamientos físicos que observamos surjan porque tienen el mayor número de microestados compatibles con su apariencia. Esta es una propiedad general de cómo funcionan los sistemas complejos, y no se limita únicamente a las configuraciones atómicas. Es un mecanismo que se desarrolla en todas las escalas.
Pensemos en las estructuras emergentes que vemos en la naturaleza. Son patrones que surgen de las interacciones de muchas piezas. Esas piezas son los microestados de nivel inferior que se mapean a alguna estructura emergente macroscópica. De nuevo, microscópico no tiene por qué referirse a cosas que son realmente microscópicas en tamaño, sino solo a un nivel por debajo del que observamos.
El papel de la entropía en la vida se ha debatido mucho. Por un lado, la segunda ley de la termodinámica nos dice que la entropía siempre aumenta en los sistemas aislados, lo que implica que las estructuras deberían evolucionar hacia estados de mayor desorden. Y, sin embargo, los organismos vivos son, en cierto sentido, estructuras muy ordenadas, caracterizadas por una baja entropía. La solución a esta paradoja es que los sistemas de la vida solo disminuyen su entropía localmente, a expensas de aumentar la entropía en su entorno. Esto significa que los organismos vivos no son sistemas aislados, ya que intercambian energía y materia con su entorno.
Pero caracterizar a los organismos vivos como altamente ordenados y abiertos no puede ser toda la historia. Dentro de una sola entidad, vemos que más desorden en los niveles inferiores (mayor entropía) debería producir más orden en los niveles superiores. Por eso las estructuras emergentes surgen de la mayor entropía posible que un sistema estable puede tener. Esto significa que la entropía no está ni disminuyendo ni aumentando en ningún sentido definido, sino que siempre está en flujo, con el aumento de la entropía de bajo nivel alimentando la disminución de la entropía en escalas superiores.
En cualquier caso, lo más importante aquí es que una explicación de la emergencia no requiere una cadena de causalidad entre niveles. La emergencia no necesita una aproximación basada en el reduccionismo o el razonamiento determinista. Cuando se ve en términos de entropía, la emergencia es simplemente la consecuencia física de tener la mayor cantidad de piezas de materia de nivel inferior que corresponden a las estructuras y los comportamientos que observamos, medimos y experimentamos.
Las rayas del pez cebra son lo que vemos. Preguntar cómo se forman es la pregunta equivocada. Ninguna cantidad de imágenes celulares o herramientas genéticas que intenten reconstruir alguna historia causal va a responder a esto correctamente. Pero lo que sabemos es que las rayas existen en el nivel más alto (n) y deben haber surgido de las células de abajo (n-1). Esto significa que las células de abajo deben existir con la mayor cantidad posible de configuraciones que sean compatibles con las rayas que vemos. De todas las configuraciones celulares posibles, las que funcionan para producir rayas son las más numerosas.
La colonia de hormigas muestra una sofisticada autoorganización, división del trabajo, robustez, adaptabilidad y una gran eficiencia. Estas características surgen como patrones emergentes. No hay una cadena causal que pueda decirnos de dónde vienen esos patrones, pero sí sabemos que esos patrones (n) deben surgir de las configuraciones microscópicas que son compatibles con los patrones macroscópicos que observamos. Esto, en mi opinión, es lo que es la emergencia.
Como ya he mencionado, otra consecuencia importante de todo esto es que la entropía no puede discutirse adecuadamente en una sola escala. Deberíamos esperar que el aumento y la disminución de la entropía coincidan dentro de una sola entidad. Una solución natural tendrá los niveles inferiores de su sistema con más entropía que sus niveles superiores. Las rayas de un pez cebra deben tener una entropía menor que sus estructuras de nivel inferior, como las células. Por eso consideramos que los detalles internos son más desordenados que el orden de nivel superior que observamos.
Esto es tan cierto para la filosofía como para los sistemas físicos de la naturaleza. Esta última frase haría que la mayoría de los científicos se estremecieran, pero la fuente de su descontento no es la falta de verdad objetiva, sino su dependencia de un paradigma reduccionista moribundo. La realidad es, en última instancia, informacional y computacional, y dentro de este marco hay grados de tratabilidad. Las verdades invariables que existen (que han resistido el paso del tiempo) son las que existen en los niveles más altos de abstracción, mientras que los detalles específicos están siempre en flujo.
Esto no es una declaración de valor con respecto a la filosofía, ni un intento de incorporarla a la disciplina de la ciencia, sino simplemente la lógica innegable de cómo se comportan los sistemas basándose en la información y la computación. Así es como funciona la naturaleza, les guste o no.
Así como el pico de una campana de Gauss nos dice la altura más probable que observaremos en un grupo de personas, el pico de cualquier distribución es donde la probabilidad está más concentrada. Es este punto más alto de la densidad de probabilidad el que nos dice lo que podemos esperar ver. Aquí es donde los microestados más numerosos de un sistema corresponden a lo que observamos. Por supuesto, la naturaleza no utiliza nada tan básico como una campana de Gauss, pero el punto se mantiene. Los picos en las distribuciones son lo que observamos probabilísticamente porque es estadísticamente donde residen las configuraciones que producen más estructura/comportamiento.
Por lo tanto, podemos pensar en las estructuras emergentes como las versiones físicas de los picos de las distribuciones de probabilidad. Al colapsar las interpretaciones termodinámicas y de la teoría de la información de la entropía en una sola interpretación, empezamos a ver lo que realmente es la emergencia.
La entropía nos muestra la conexión entre las configuraciones subyacentes y los atributos macroscópicos que observamos. Cualquiera que sea la escala que veamos en la naturaleza, debemos esperar que la estructura observada sea el pico de una distribución de posibilidades. Ese pico representa las configuraciones más posibles que producen el mismo resultado. Esto significa que cualquier característica que estemos observando en la naturaleza, es la que se puede lograr de la mayor cantidad posible de maneras.
En consecuencia, siempre habrá muchas maneras de calcular la respuesta correcta a un problema difícil. Esto se debe a que las estructuras emergentes de la naturaleza son sus construcciones de computación, y se llega a ellas mapeando muchos microestados posibles a su existencia. Esto significa que no es físicamente posible que un solo camino produzca un resultado en un objeto complejo.
Este hecho por sí solo excluye completamente la noción de reduccionismo, y la premisa de que los sistemas de la naturaleza podrían ser internamente deterministas. Las piezas individuales de las que se compone cualquier cosa en la naturaleza no están, por definición, conectadas determinísticamente a los resultados. No puede haber causas raíz en los sistemas complejos, porque algo que tiene la mayor cantidad posible de maneras de lograrse no puede tener una causa raíz. La entropía nos dice que, en lugar de que exista un camino de la entrada a la salida, lo que tenemos es un sistema que se organiza de innumerables maneras para producir la misma salida. Así es como la naturaleza se estructura a sí misma, y son esas estructuras las que procesan la información para producir lo que vemos.
Las soluciones de la naturaleza son múltiplemente realizables. Lo que medimos, observamos y experimentamos en los entornos naturales es lo que se puede lograr de la mayor cantidad posible de maneras.
Aquí voy a hacer una afirmación fuerte: la emergencia no es un fenómeno nicho que a veces encontramos en la naturaleza, sino que es la naturaleza misma. Cuando miramos cualquier sistema a cualquier escala, no estamos observando algo que está determinado determinísticamente. Las piezas que componen lo que vemos no tienen roles individuales específicos, sino que contribuyen a una nueva entidad sinérgica; algo con una existencia distinta e independiente. La emergencia se considera generalmente como elementos individuales que producen un efecto combinado mayor que la suma de sus efectos separados. Esto es cierto, pero la palabra mayor es problemática. Sugiere que el todo todavía está conectado causalmente a las piezas individuales. Yo sostengo que la emergencia es una transición abrupta de una colección de piezas individuales a un objeto completamente nuevo con una funcionalidad distinta. Esta emergencia borra cualquier noción de causalidad entre los niveles inferiores y superiores.
Las funcionalidades distintas que surgen en cada escala son una consecuencia natural de la realización informacional y computacional de las configuraciones que computan salidas únicas. La naturaleza crea lo que se necesita para resolver un problema dado, y la única manera en que esto sucede es por el mecanismo de entropía múltiplemente realizable. Debe existir un mapeo de muchas entradas posibles a unas pocas salidas específicas. Esto no puede suceder usando caminos causales deterministas, sino solo por la compresión de información impulsada entrópicaamente.
La estructura atómica no es el resultado de que los neutrones, protones y electrones trabajen juntos de una manera simplista. Ya sabemos que este es el caso, ya que todos los átomos por encima del hidrógeno en la tabla periódica no pueden ser resueltos exactamente. Una vez que entramos en el problema de los 3 cuerpos, las interacciones entre los componentes de un sistema impiden hacer predicciones deterministas exactas. Tales cálculos se tratan "aproximadamente", pero como argumenté, la naturaleza no es una aproximación. Los cálculos utilizados hoy en día asumen un determinismo subyacente e intentan crear una versión más suave de ese determinismo. Pero si la naturaleza hace una transición abrupta de sus diversas escalas como entidades completamente nuevas, estos cálculos no son aproximaciones, son más bien como casi accidentes. Las aproximaciones son respuestas que no son tan buenas o exactas como lo serían si abordáramos el problema directamente. Cuando utilizamos enfoques como los métodos numéricos, la heurística, la optimización matemática o el aprendizaje automático, no estamos encontrando "soluciones aproximadas", porque no hay nada que aproximar. Estas técnicas no están sentadas sobre una realidad causal más profunda.
Yo sostengo que no existe tal cosa, ni siquiera conceptualmente, como ser más directo en nuestros cálculos. Observar las cosas a diferentes escalas (por ejemplo, molécula versus átomos, célula versus orgánulos) es observar cosas completamente nuevas. Los cálculos que utilizamos para modelar la complejidad están, de hecho, más cerca de lo real, no algo próximo a una realidad subyacente. En otras palabras, los buenos modelos que parecen definir lógicamente o incluso predecir un fenómeno complejo se están convirtiendo en algo parecido al fenómeno mismo.
Esto está más cerca de lo que algunos llaman emergencia fuerte. La emergencia débil sugiere que las propiedades y los comportamientos que surgen de las interacciones de componentes más simples son totalmente explicables en términos de las reglas subyacentes y las interacciones de esos componentes. En contraste, la emergencia fuerte afirma que las estructuras y los comportamientos que se ven en los fenómenos complejos no pueden ser reducidos o explicados por las reglas subyacentes y las interacciones de los componentes del sistema. Estoy de acuerdo, pero no relegó la complejidad a algún rincón nicho de la ciencia. La emergencia es la naturaleza. Toda ella. Y esto no es una mera creencia, sino que se basa en los mecanismos propuestos alineados a las propiedades conocidas de la información, la computación y la evolución.
La emergencia que defiendo aquí significa que la naturaleza está totalmente desconectada de las suposiciones reduccionistas de nuestro actual paradigma de la ciencia y la ingeniería. Si bien la visión reduccionista funciona en ciertas situaciones, en última instancia es incorrecta. Así como la mecánica clásica es bastante útil, pero en última instancia errónea. Pero mientras que la mecánica clásica sigue siendo útil, las cosas que debemos construir en la era de la complejidad hacen que el reduccionismo y el diseño sean totalmente nulos. Alcanzar las entrañas de los sistemas complejos y organizar sus piezas deliberadamente solo puede producir resultados inútiles o peligrosos.
En lugar de pensar en la complejidad y la emergencia como algo que pertenece solo a ciertos fenómenos, es mucho más honesto intelectualmente admitir que la emergencia es la naturaleza. Ver la naturaleza en términos de sus propiedades universales hace que este relato sea verdaderamente riguroso. No recurre a cuentos indemostrables sobre la causalidad interna. Se basa en lo que sabemos que sucede.
El determinismo flexible hace que las soluciones de la naturaleza no se parezcan en nada a la ingeniería basada en reglas utilizada a lo largo de la historia de la humanidad. Y, sin embargo, las soluciones de la naturaleza comparten algo en común con las reglas, en el sentido de que están convirtiendo entradas en salidas. Lo que hace que esta conversión sea tan diferente de la ingeniería basada en reglas es que la computación de la naturaleza no es una cadena causal de eventos uno a uno. La naturaleza no produce la misma salida para la misma entrada. La naturaleza aplasta muchas entradas diferentes en un pequeño conjunto de salidas familiares que resuelven un problema dado. Este aplastamiento ocurre en el extremo, en el sentido de que hay innumerables entradas que se convierten en menos salidas. De todos los diferentes desafíos ambientales a los que se enfrenta un castor, siempre produce las mismas pocas salidas de castor. Este es el determinismo flexible que vemos en la naturaleza.
Las soluciones en la naturaleza no pueden ser un conjunto de reglas que hacen la conversión. Deben ser algo más. Ya hemos visto que este algo más son las abstracciones físicas creadas por la naturaleza. Pero, ¿qué están haciendo las abstracciones físicas que permiten que las soluciones de la naturaleza alberguen su determinismo flexible? La respuesta debe ser la compresión de información.
La compresión de información es otro concepto central de la teoría de la información, que se refiere al proceso de reducir el tamaño de los datos sin perder información significativa. En la comunicación, esto puede considerarse como la búsqueda de maneras de representar los datos de una manera más eficiente, de modo que puedan almacenarse o transmitirse utilizando menos bits. Esto se logra típicamente explotando las redundancias en los datos, ya que la repetición o la previsibilidad pueden reconstruirse después de que se reciba un mensaje.
Imaginemos que tenemos una cadena de letras como "AAAABBBCCDAA". Podríamos enviar esto a través del cable de una manera más eficiente reduciendo su tamaño, representando sus patrones repetidos de manera más eficiente. Podríamos representar secuencias de caracteres repetidos por el carácter en sí seguido del número de veces que se repite, codificando nuestra cadena original de letras como "4A3B2C1D2A". Nuestro mensaje se ha "aplastado" de 12 caracteres a 10. No parece mucho, pero cuando hay muchos datos puede hacer una gran diferencia. En el extremo receptor (descompresión) podemos simplemente expandir cada carácter seguido del número de veces que debe repetirse, volviendo al mensaje original. Los algoritmos de compresión modernos utilizados en los ordenadores actuales utilizan este enfoque para almacenar archivos, fotos y otros elementos de manera eficiente.
La compresión de información es lo que la naturaleza está logrando a través de sus estructuras emergentes. Este debe ser el caso, ya que son las estructuras emergentes en las soluciones de la naturaleza las que convierten innumerables posibilidades en las pocas salidas que resuelven su gran cantidad de desafíos.
Esta es la razón por la que la naturaleza es tan flexible y adaptable. Cuando pensamos en la capacidad de un guepardo para maniobrar sobre una moneda de diez centavos, y ejecutar su velocidad en tantas situaciones, nos sorprende su sofisticación, en relación con algo como el automóvil. Pero la razón por la que esto nos sorprende es porque estamos pensando en términos de sistemas simples. La gente visualizará componentes discretos chocando entre sí y se preguntará cómo el animal tiene en cuenta tantos factores.
Pero cuando vemos las cosas correctamente, a través de la lente de la compresión de información, podemos entender cómo el guepardo es capaz de lograr este nivel de sofisticación. Las innumerables entradas, representadas al guepardo como diferencias en el terreno, obstáculos, condiciones climáticas, competencia de otras presas, etc., se reducen a las pocas salidas que permiten al guepardo correr eficazmente. Los objetos hechos por el hombre (aparte de cosas como la IA) no pueden hacer esto. Tales objetos requieren piezas individuales para dar cuenta del procesamiento de la información explícitamente. Hay demasiadas entradas para convertir en salidas para que tales máquinas deterministas operen fuera de entornos altamente artificiales y estrechos. Solo la compresión de información realizada por la materia física puede permitir a la naturaleza hacer lo que hace.
Las abstracciones físicas creadas por la naturaleza hacen lo que hacen todas las abstracciones. Comprimen la información en menos salidas. Pero las abstracciones físicas de la naturaleza tienen mucho más en común con el proceso de abstracción mental que con las abstracciones físicas diseñadas de la ingeniería tradicional. Mientras que la ingeniería tradicional reduce el número de palancas que uno debe tirar haciendo conexiones causales explícitas entre los niveles, las abstracciones físicas de la naturaleza reducen los recursos necesarios para computar.
Las estructuras y los comportamientos emergentes que vemos en la naturaleza se entienden mejor en términos de cómo procesan la información. Y la manera en que procesan la información es comprimiendo innumerables entradas en menos salidas. Así como nuestras mentes forman conceptos que actúan como nombres comunes para todos los conceptos subordinados, la naturaleza produce estructuras a las que se adhieren los detalles físicos subordinados. Así como perro es una categoría para todas las razas de perros, también lo son las rayas de un pez cebra una "categoría" física para todos los tejidos o células subordinadas que hacen posibles esas rayas.
Mentalmente, crear abstracciones es lo que disminuye la carga cognitiva al maniobrar a través de entornos complejos y resolver problemas difíciles. Al agrupar cosas superficialmente diferentes en categorías individuales, basándose en estructuras compartidas más profundas, limitamos la cantidad de potencia de procesamiento necesaria para computar las respuestas. Pero esto no es solo un fenómeno informacional. Como ya se ha discutido, no podemos separar completamente lo físico de lo informacional. Las estructuras físicas en la naturaleza existen para resolver problemas, y la resolución de problemas es algo informacional. Siempre hay la transformación de la información de las entradas a las salidas que ocurre en la naturaleza.
Ver las soluciones de la naturaleza a diferentes escalas, como comparar todo el árbol con sus ramas y hojas individuales, es ver las diferentes interfaces de un sistema. Estas interfaces, sus abstracciones físicas, han sido creadas por la naturaleza según el progreso por abstracción. El árbol no se detiene en la solución del problema que resuelven sus ramas, sino que resuelve problemas más difíciles formando todo el árbol.
Las ramas de un árbol y todo el árbol abordan diferentes problemas, cumpliendo diferentes roles dentro del contexto más amplio de la supervivencia del árbol y la función ecológica general. Las ramas se utilizan para maximizar la fotosíntesis y proporcionar soporte estructural. Todo el árbol resuelve el problema más difícil de anclarse al suelo a través de su sistema de raíces, y extraer agua y nutrientes del suelo.
El árbol es un sistema de interfaces que existen a diferentes niveles de abstracción, no solo mentalmente, sino físicamente. Las demarcaciones que definimos en la naturaleza, como "árbol" y "ramas" son las abstracciones físicas que han sido creadas por la naturaleza para computar respuestas a sus desafíos de supervivencia. Estos niveles llegan hasta abajo. Desde el árbol nos movemos hacia abajo a las ramas y hojas, luego más abajo al nivel celular microscópico, aún más abajo a los átomos y moléculas que forman las células. No importa cómo elijamos demarcar los diferentes niveles, cada nivel está resolviendo un problema, lo que significa que está procesando información de un tipo específico.
Uno podría argumentar en este punto que simplemente estoy reificando las abstracciones mentales. Que las diferentes escalas del árbol no son más que demarcaciones convenientes que los humanos hacen mentalmente. Además, al definir roles y niveles, podría parecer que estoy confiando en el mismo reduccionismo contra el que argumento. Este no es el caso, ya que los roles que estoy identificando pierden su significado una vez que el grupo deja de existir. Bajo el reduccionismo, los orgánulos en una célula tienen definiciones autónomas. La mitocondria es responsable de producir energía a través de la respiración celular. Esto es cierto, pero ese rol no tiene significado fuera de la célula. Si no fuera por todos los otros orgánulos y la matriz en la que se sientan, no tendría sentido producir energía a través de la respiración celular. Esto, de hecho, hace que la identificación del rol de un individuo sea mucho menos significativa de lo que sugeriría el reduccionismo. Más al punto, si intentáramos diseñar una mejor solución para la respiración celular, apuntando a la mitocondria, podemos esperar que tales diseños conduzcan a malos resultados.
Las abstracciones mentales no son inventos de nuestra imaginación, son unidades de procesamiento. Definir diferentes niveles en un objeto natural es observar la estructura anidada de los desafíos que ese objeto resuelve. Aprenderemos más sobre la estructura anidada de los problemas. El punto aquí es que no estamos reificando la naturaleza en constructos artificiales pero convenientes. Esto se trata de computación innegable, no de reificación. Esto es robusto incluso a la posibilidad de que estemos demarcando incorrectamente. Independientemente de dónde uno elija colocar los límites, cualquier nivel observado de la naturaleza (n) está resolviendo un problema que es diferente del grupo de piezas de abajo (n - 1) y del grupo de piezas de arriba (n + 1).
Discutí cómo las abstracciones físicas que se han creado a lo largo de la historia de la humanidad han sido diseñadas, utilizando el conocimiento interno de la causalidad para conectar el nivel (n - 1) al nivel (n). Pero en la naturaleza no existe tal conexión causal. Cada nivel es su propia entidad con una funcionalidad distinta que resuelve un problema distinto. Y, sin embargo, la abstracción física es la forma en que debe ocurrir el progreso de cualquier tipo, como se argumentó en el capítulo 1. Esto significa que la naturaleza está produciendo sus propias abstracciones físicas dentro de las soluciones que crea. De hecho, las abstracciones físicas son lo que son las estructuras emergentes. Las estructuras emergentes son las interfaces creadas por la naturaleza que reducen el número de "palancas" que la siguiente etapa de progreso debe tirar para coordinar los detalles subyacentes.
Mientras que los humanos están ideando tales interfaces a través del diseño, la naturaleza no está usando la cognición para tomar decisiones sobre qué subsumir en qué. De nuevo, la receta de la naturaleza es un proceso maravillosamente inconsciente. Pero esto plantea una pregunta obvia. Si no se están tomando decisiones, ¿cómo puede la naturaleza formar abstracciones físicas? ¿Cómo elige la naturaleza qué piezas combinar en un paquete en un nivel (n), para servir al siguiente nivel (n + 1)?
Los humanos hacen abstracciones operando desde fuera del sistema. Uno solo puede notar que todas las razas de perros pertenecen a la misma categoría abstracta de perro al salir del sistema de perros y notar lo que todos tienen en común. Todos los perros tienen 4 patas, dientes, una cola, etc. La descripción precisa de lo que hace que un perro sea un perro nunca será suficiente, porque la precisión no puede capturar lo que sucede bajo la complejidad. Pero el cerebro humano puede reconocer cuándo una especie es realmente un perro, y colocar esto en una categoría mental. Este es también el caso de las abstracciones físicas que han sido diseñadas a lo largo de la historia. Los humanos utilizan su conciencia y cognición para detectar cómo se pueden agrupar las diferentes piezas de un sistema en una sola unidad. Pero, ¿cómo "observa" la naturaleza cómo las diferentes piezas tienen algo en común? ¿Cómo puede la naturaleza "observarse" a sí misma para crear sus abstracciones físicas?
Los humanos crean abstracciones mentales y físicas haciendo analogías. Una analogía es una comparación de dos cosas para mostrar sus similitudes. Hacer una analogía implica detectar alguna estructura más profunda entre cosas superficialmente dispares, y la abstracción es cómo hacemos eso. La abstracción nos permite aislar los atributos o características centrales de los dominios de origen y destino, de modo que podamos compararlos más eficazmente. Al eliminar los detalles, uno puede centrarse en los principios o estructuras más esenciales que son comunes a ambas cosas que se comparan. Si comparamos el sistema solar con un átomo, es por abstracción que relacionamos las partes atómicas con las partes celestiales.
Esto significa que si la naturaleza está creando abstracciones físicas, debe estar haciendo algo parecido a hacer analogías. Esto suena bastante raro, ya que hacer analogías es obviamente una actividad cognitiva que requiere conciencia. ¿Qué significaría que un proceso inconsciente como la selección natural provocara la realización de analogías? Pero cuando se ve mecánicamente podemos ver que los sistemas complejos pueden, de hecho, asumir el aparato de hacer analogías. Mencioné anteriormente que la naturaleza debe "observarse" a sí misma para notar cómo las diferentes piezas tienen algo en común. Mecánicamente esto significa que el sistema debe ser autorreferencial.
Así como una analogía une las cosas, los sistemas autorreferenciales pueden unir los detalles internos por sus estructuras compartidas. Esta unión no requiere conciencia, solo el proceso inconsciente de producir invarianza debido a la supervivencia. Considere cómo la selección natural mantiene ciertas cosas alrededor mientras desecha todo lo demás. Esto puede ocurrir porque las salidas de la selección natural (una generación dada) se convierten en sus entradas (la siguiente generación).
La autorreferencia conduce a reforzar y estabilizar ciertas estructuras y comportamientos que persisten en medio del flujo de todo lo demás. Así es como sucede toda la formación de patrones en la naturaleza. La autorreferencia conduce a la estabilización, selección y refuerzo de estados o estructuras particulares. Vemos esto manifestarse en diversas áreas, tales como atractores dentro de los patrones climáticos, puntos fijos en los sistemas ecológicos, el comportamiento periódico de los latidos del corazón, la minimización de la energía dentro de las reacciones químicas y la formación de rayas en nuestro pez cebra. Esta es la evolución escrita en grande, no solo las partes relevantes para la biología. El mismo mecanismo de formación de patrones ocurre en nuestras ciudades, sistemas financieros, redes eléctricas, internet y sistemas de inteligencia artificial. Es la complejidad la que provoca el mecanismo autorreferencial debido a los bucles de retroalimentación, y este mecanismo es como obtenemos cosas no aleatorias para que aparezcan y permanezcan.
La autorreferencia es cómo la naturaleza se observa a sí misma. Es cómo la supervivencia se convierte en el modo por el cual se crean mejores cosas. Por el cual algunas cosas se quedan, y otras no. Las estructuras y los comportamientos que vemos en la naturaleza no son más que las partes que persistieron, automática e inevitablemente a través de la autorreferencia.
Es la autorreferencia lo que permite a la naturaleza agrupar las entrañas de sus sistemas en abstracciones físicas. Son estas abstracciones físicas las que computan las respuestas a los desafíos planteados por la naturaleza, como ya se ha descrito. La autorreferencia construye configuraciones de materia emergente que computan la respuesta necesaria en los sistemas naturales. Esta es la razón por la que las propiedades de la complejidad son tan automáticas e inevitables. Las estructuras y los comportamientos emergentes no necesitan guía o camino, solo la capacidad de unir la materia por autorreferencia continua.
Lo que nos lleva al método por el cual la naturaleza es capaz de referenciarse a sí misma. La pieza final en nuestra búsqueda para desmitificar la emergencia.