Chapter Content

Calculating...

Bueno, bueno, aquí estamos otra vez. Vamos a hablar un poquito sobre...eh... lo que yo llamaría "chocar contra la pared", ¿no? Eso de... "Progreso sin diseño". Mmm, interesante título, ¿verdad?

Mira, hasta ahora hemos visto cómo los humanos progresan. Y no es por ser más listos, ni por trabajar más duro, ni gracias a los "genios" esos que dicen por ahí. Es a través del acto progresivo de diseñar niveles de abstracción cada vez más altos. ¿Me explico? Una generación dada puede resolver los mismos problemas que la anterior, pero, ¡ojo!, mucho más rápido. ¿Por qué? Porque sus puntos de partida, sus bases, se han adelantado.

Pero aquí viene el "pero"... El diseño depende del determinismo, ¿sí? Y el determinismo, pues... no puede resolver los problemas realmente difíciles. El tipo de problemas para los que ahora queremos, o necesitamos, construir soluciones. El número de factores e interacciones que deben atender nuestras creaciones es... ¡uf!, muchísimo mayor que cualquier cosa que un paradigma basado en reglas pueda abordar. Es como... no sé, como intentar meter un elefante en un Seat Panda, ¿sabes? Imposible.

Así que... nos queda una pregunta importante, muy importante. ¿Cómo puede la humanidad seguir haciendo progreso tecnológico si ya no podemos diseñar nuestras soluciones? ¿Cómo podemos razonar sobre las cosas que debemos construir si no hay causalidad que descubrir, ni un conjunto detallado de pasos que implementar, ni una noción de conocimiento interno de los sistemas que creamos? Y más aún, ¿cómo podemos dar a la próxima generación nuevos puntos de partida si no podemos, deliberadamente, crear interfaces para manejar un número cada vez mayor de detalles? ¡Es un lío!

Creo que... hemos chocado contra una pared en términos de progreso por abstracción. Como argumentamos antes, el progreso por abstracción es una verdad universal. Todos los sistemas lo necesitan para avanzar, para cualquier noción de progreso. La única forma de seguir ampliando los límites de la abstracción es encontrar una nueva forma de hacerlo. Una forma que no dependa del diseño. Y estoy convencido de que ese modo alternativo de construcción debe existir dentro de los sistemas naturales, porque la naturaleza no podría progresar sin él.

La naturaleza se define, sobre todo, por su complejidad. Y esto nos dice que la complejidad es necesaria para seguir adelante. Más aún, la complejidad es lo que debemos construir. No podemos progresar simplemente aumentando la complicación. No se trata solo de añadir más piezas, sino de lograr una complejidad genuina.

Chocar contra la pared del diseño significa alcanzar nuestro límite creativo bajo el paradigma actual. No se puede avanzar con máquinas simples, creadas a través de un razonamiento simplista. Y, aunque pueda parecer contradictorio, lo nuevo que necesitamos es el proceso más antiguo que existe. Es el proceso inconsciente utilizado por la naturaleza el que tiene la clave del reino complejo. Pero el precio de adoptar este enfoque es... insondable para muchos. Renunciar al supuesto pensamiento ilustrado de nuestro pasado reduccionista parece ser la única forma de avanzar. Pero, ojo, son los mecanismos inconscientes y sin razonamiento de la naturaleza los que unen partes dispares en una funcionalidad común: las abstracciones que computan respuestas a problemas difíciles. Esto es lo que debemos aprender a construir.

Eso sí, esta forma natural de construir no puede ser un esfuerzo aleatorio para mezclar cosas al azar, esperando lo mejor. Nuestros esfuerzos deben funcionar dentro de la viabilidad de la resolución de problemas y del espacio de posibilidades que alberga la solución de un problema. El enigma que plantea la necesidad de complejidad parece ir directamente en contra de cómo los humanos usan sus mentes para resolver problemas.

Pero... ¡ojo!, no todo lo que los humanos han construido se ajusta al marco reduccionista y determinista. Los humanos han creado cosas cuyos resultados no son producidos únicamente por sus diseños intencionales. Hay cosas como las sociedades, los mercados y ciertas tecnologías que funcionan gracias a algo que no fue deliberadamente colocado allí por diseño. Esto significa que los humanos tenemos la capacidad de crear cosas como la naturaleza, lo que nos da pistas sobre cómo podríamos seguir progresando por abstracción, sin diseño.

Así que... ¿qué pistas tenemos para construir esa complejidad?

Los humanos hemos hecho algunas cosas que se comparan con la naturaleza en sofisticación. Eso sí, la palabra "hecho" debe tomarse con pinzas. No estamos hablando de sistemas que han sido diseñados, sino de sistemas que se han convertido en lo que son, sin intención. Objetos que no fueron tanto diseñados como a los que se llegó, utilizando algo más allá de lo que se estableció originalmente. Estos objetos bordean la verdadera complejidad, no solo porque tienen muchas piezas e interacciones, sino porque muchos de sus resultados críticos son producidos por mecanismos que nunca creamos.

Lo más cerca que hemos estado de crear verdadera complejidad, como la que vemos en la naturaleza, son cosas como las ciudades, los sistemas financieros, las redes eléctricas, internet y los sistemas de inteligencia artificial. Lo que hace que estos objetos entren en el reino de la verdadera complejidad es que sus resultados no son producidos únicamente por la ingeniería deliberada. Todos estos objetos muestran los primeros signos de lo que llamamos emergencia, es decir, la aparición de estructuras y comportamientos que no existen en las piezas de las que están hechos.

Por ejemplo, las redes eléctricas muestran fluctuaciones de voltaje, oscilaciones de energía y desviaciones de frecuencia que no fueron diseñadas en el sistema. Estos comportamientos no son "duendes" en la máquina, ni subproductos de la complejidad que deben ser tolerados. Las redes eléctricas funcionan gracias, en gran parte, a sus propiedades emergentes. La estabilidad de una red es posible gracias a su naturaleza autoorganizativa. Las redes eléctricas han demostrado una resistencia incorporada a fallos de equipos, desastres naturales y ciberataques, adaptándose dinámicamente a las interrupciones y redirigiendo los flujos de energía. Las redes pueden aislar naturalmente las áreas afectadas y restaurar la funcionalidad a través de sistemas redundantes. Si bien la creación de múltiples vías redundantes para la transmisión de energía es, de hecho, un esfuerzo deliberado, la auto-curación y el aislamiento natural de las áreas afectadas surgen de la interacción de estos componentes diseñados, no del control humano explícito.

Las ciudades no existen únicamente a través de la planificación y la toma de decisiones deliberadas. Cualquier gran ciudad debe su forma y función al comportamiento autoorganizativo. Piensa en dónde se ubican los negocios, basándose en innumerables variables posibles, como los cambios en la accesibilidad, la demografía de los clientes y la competencia dinámica. La formación de un distrito comercial puede surgir de una manera altamente impredecible. Los patrones de las calles y las densidades de los edificios emergen de los efectos acumulativos de las limitaciones geográficas mezcladas con las decisiones individuales, en lugar de la planificación centralizada solamente. Las ciudades son centros de actividad económica, donde los bienes, los servicios, la mano de obra y los bienes raíces operan interdependientemente, produciendo las estructuras y los comportamientos que dan a las ciudades su aspecto y su ambiente. A medida que los ciudadanos interactúan orgánicamente, vemos focos de cohesión comunitaria y sistemas de transporte público que nacen de patrones de tráfico no planificados y demandas de movilidad imprevistas.

Nuestros sistemas financieros son el resultado de la mezcla entre entidades, instrumentos y participantes del mercado. Las acciones colectivas de inversores, comerciantes e instituciones generan precios de mercado, volúmenes de negociación y volatilidad que son en gran medida imprevistos. Los patrones de oferta y demanda, el sentimiento de los inversores y la difusión de información se mezclan y combinan para producir esto que llamamos mercado. La determinación de los precios no es tan "determinada" después de todo, sino que surge de la agregación de diversas opiniones, creencias y estrategias de negociación. Los marcos regulatorios en constante evolución surgen de la combinación de necesidades y prioridades, aportando estabilidad e integridad incorporadas al sistema. Nuestros sistemas financieros pueden (generalmente) resistir choques, interrupciones y tensiones; una resistencia que nunca fue diseñada en el sistema.

Internet provoca la formación de opiniones y la toma de decisiones colectivas, gracias a la agregación y difusión electrónica de diversas opiniones, creencias y conocimientos. Como red descentralizada de dispositivos interconectados, internet muestra los signos reveladores de la complejidad, como la escalabilidad de la red, la resistencia y la adaptabilidad. Las comunidades en línea y las redes sociales emergen espontáneamente, a medida que los usuarios participan en debates, colaboraciones y acciones colectivas. La democratización de la creación y distribución de contenidos ha llevado a la aparición de contenidos virales, memes, tendencias e incluso movimientos culturales.

Claro que... este comportamiento emergente también puede ir en nuestra contra. Las redes eléctricas pueden tomar una pequeña fluctuación de voltaje o una desviación de frecuencia y convertirla en un apagón en cascada. Hay burbujas, caídas y amplificaciones de retroalimentación que pueden desestabilizar los mercados. Este es el precio de la complejidad. Lo que hace que las cosas complejas funcionen también puede producir resultados desfavorables para nuestros casos de uso refinados. La cuestión es que estos comportamientos no fueron diseñados deliberadamente en el sistema, y ninguno de estos sistemas funcionaría como lo hace sin sus propiedades emergentes.

Podría decirse que lo más complejo que los humanos hemos creado son nuestros sistemas de IA actuales, o más específicamente los modelos que los impulsan. Estos se basan en técnicas de aprendizaje automático, específicamente el aprendizaje profundo. El aprendizaje profundo convierte los datos brutos en resultados inteligentes como la conversación en lenguaje natural y el reconocimiento facial. Pero la forma en que tiene lugar esta conversión no se conoce, al menos no de la manera habitual en que los científicos e ingenieros explican las cosas. Ningún investigador o ingeniero entiende cómo se convierten las entradas dadas a los sistemas de IA en las salidas que hacen posible su versión de inteligencia. Esto se debe a que la IA no está programada de la forma en que lo está el software tradicional. Si bien el andamiaje de los sistemas de IA está, de hecho, basado en reglas, los detalles internos que producen resultados inteligentes son mucho más parecidos a cómo las redes eléctricas, las ciudades y los mercados financieros producen sus resultados más importantes.

Para entender cómo funciona el aprendizaje profundo, primero debemos redefinir lo que entendemos por "cómo funcionan las cosas". El "cómo" en nuestra explicación no puede ser un conjunto determinista de pasos que muestren la información transformándose de una manera específica. En cambio, los ingenieros solo pueden programar el andamiaje exterior que pone en marcha un proceso que eventualmente converge a lo que se necesita.

La analogía más sencilla, aunque suelta, para describir lo que está haciendo la IA se basa en la noción de ajustar una línea a los datos. Este es un enfoque común en la ciencia utilizado para encontrar algo más profundo que los datos solos. Cuando ajustamos una línea a los datos, estamos intentando encontrar una tendencia general que pueda darnos alguna capacidad predictiva con respecto al sistema de interés. Digamos que estamos trazando la temperatura contra las ventas de helado. Trazar esos valores y buscar una tendencia probablemente produciría una línea que muestra que las temperaturas más altas corresponden a más ventas de helado.

Con esta línea en la mano, ahora estamos en posesión de algo que presumiblemente puede predecir las ventas de helado. Podemos mirar la temperatura de mañana y leer la cantidad de helado que es probable que vendamos a esa temperatura. De hecho, no necesitamos el gráfico en absoluto. Como ajustamos una línea a los datos, y una línea puede representarse como una expresión matemática, tenemos una función. Una función es algo que mapea entradas a salidas, permitiéndonos producir un valor a partir de una entrada dada. En nuestro ejemplo de helado, podemos enchufar la temperatura en un día dado y sale un valor para la cantidad de helado que podemos esperar vender.

Esta noción de ajustar una línea a los datos para llegar a una función no puede ser muy diferente de lo que nuestra mente está haciendo cuando aprende sobre el mundo. Por supuesto, la mente no está usando líneas simplistas a través de algún gráfico de valores de baja dimensión, pero el concepto de alto nivel es el mismo. Encontramos nuestro mundo a través de nuestros sentidos, lo cual es similar a la recolección de datos. Estos datos son las entradas brutas que utilizamos para crear modelos mentales sobre cómo funcionan las cosas y lo que significan. Cuando los niños aprenden a hablar por primera vez, están desarrollando modelos latentes internos relacionados con la gramática, el vocabulario y la estructura de las oraciones. La "función" que aprenden convierte las entradas (los sonidos que escuchamos) en salidas (el significado de las palabras).

Toda la vida es similar a aprender funciones, incluso si esas funciones son puramente en el sentido abstracto. Cuando interactuamos con otros, captamos las dinámicas sociales, y usamos nuestras expectativas de comportamiento, normas y señales sociales para navegar a través de situaciones complejas. Son nuestros modelos mentales de estas situaciones los que nos permiten predecir las reacciones de otros a lo que decimos y hacemos. Cuando conducimos un coche, estamos implementando nuestros modelos del trazado de la carretera, los patrones de tráfico y el comportamiento de otros conductores. Anticipamos los peligros potenciales y tomamos decisiones sobre la velocidad, la dirección y el tiempo. Nada de esto sería posible sin un conjunto de funciones internas que mapean entradas a salidas. Aprender cualquier cosa es "ajustar líneas" a los datos sensoriales para crear modelos del mundo que nos rodea.

Construir un modelo, como una línea, requiere encontrar parámetros, ya que son los parámetros los que dan a los modelos su forma. Los parámetros son como pomos que se giran para ajustar una línea que se ajuste a los datos. Un método común es usar la regresión lineal para ajustar una ecuación lineal a los datos observados. Siempre que veas una línea que atraviesa un montón de puntos de datos en un gráfico, hay una buena posibilidad de que sea la regresión lineal en juego. En este caso, girar una perilla ajusta la pendiente de la línea haciendo la línea más o menos empinada, mientras que girar otra perilla reposiciona la línea verticalmente. Obtener la pendiente correcta y la intercepción significa obtener el mejor ajuste posible a los datos. En otras palabras, encontrar las mejores posiciones de nuestras perillas es cómo uno intenta modelar la relación entre la entrada (variable independiente) y la salida (variable dependiente) usando datos.

La regresión lineal es esencialmente un enfoque de "enchufar y usar", por el cual los datos recogidos en un experimento se enchufan en una expresión de forma cerrada (limpia y comprensible) para producir la pendiente y la intercepción necesarias para ajustar la línea. Esto significa que los parámetros no son tanto encontrados como calculados directamente.

La regresión lineal no está aprendiendo en ningún sentido propio de esa palabra. La regresión lineal computa sus valores de parámetro de acuerdo con una estructura matemática predefinida. Si realmente queremos aprender los pomos que definen cómo una función convierte las entradas en salidas, entonces no haríamos suposiciones tan drásticas sobre cómo se supone que se ve una función. En cambio, nos embarcaríamos en lo que todo el verdadero aprendizaje requiere; prueba y error. Esto implicaría primero tomar una suposición aleatoria en los valores del parámetro, ver lo equivocados que estamos (de acuerdo con algún conjunto de criterios), ajustar los valores y volver a intentarlo. Seguiríamos adivinando, evaluando y ajustando hasta que nuestro enfoque converja en alguna definición de un buen ajuste.

Esto es lo que el aprendizaje automático, el enfoque computacional que sustenta los sistemas de IA de hoy en día, busca hacer. En lugar de forzar los datos en alguna estructura bien definida y calcular los parámetros directamente, utiliza grandes cantidades de datos e iteración para seguir haciendo conjeturas hasta que logra la convergencia. En el aprendizaje profundo, se está ajustando un modelo a los datos, excepto que en lugar de una línea recta es algo de alta dimensión que no puede ser visualizado por nuestras mentes tridimensionales. La función aprendida por la IA no es una simple asignación determinista entre las entradas a las salidas, es una expresión monstruosa, complicada, imposiblemente intrincada que contiene miles de millones de parámetros.

No hay expresiones interpretables de forma cerrada en la IA. No podemos quitar sus capas y exponer alguna cadena causal de pasos que transforman la información de las entradas a las salidas. Este no es el reino de las matemáticas de enchufar y usar, este es el mundo de la optimización iterativa y la toma de decisiones blandas, utilizado para aprender de una manera similar a cómo aprende la gente.

El aprendizaje profundo representa así una filosofía muy diferente sobre cómo construir software. Debido a que la IA no tiene una función explícita o visible, no podemos conocer las estructuras internas que producen sus resultados. No hay diseño de las entrañas de una máquina de IA para producir las salidas que necesitamos. Todo lo que podemos hacer es poner en marcha un proceso de alto nivel que intente iterativamente girar mil millones de pomos hasta que produzca las respuestas que (normalmente) esperamos.

La forma en que se crea la IA de hoy en día es mediante la programación de neuronas artificiales individuales, que son unidades de código interconectadas creadas para imitar el comportamiento de las neuronas biológicas en el cerebro humano. Las neuronas biológicas son la forma en que nuestro sistema nervioso procesa y transmite información a través de señales eléctricas y químicas. Cada neurona en el cerebro recibe señales de otras neuronas a través de estructuras llamadas dendritas. Las neuronas integran estas señales entrantes en su cuerpo celular (soma) y generan un potencial de acción (un breve cambio en el potencial eléctrico) si la entrada combinada excede un umbral. Los potenciales de acción se propagan a lo largo de los axones, que son proyecciones largas de una neurona que conducen los impulsos eléctricos lejos de su cuerpo. Los axones son las principales líneas de transmisión del sistema nervioso, responsables de llevar señales a otras neuronas, músculos, etc.

En términos menos jerga, esto significa que el cerebro humano parece procesar la información, y por lo tanto lograr su cognición, mediante el uso de una red masiva de unidades funcionales interconectadas que cada una transmite señales eléctricas dependiendo de su interacción con las unidades vecinas. Esta es la arquitectura que inspira el aprendizaje profundo, donde las unidades funcionales son neuronas artificiales, y la transmisión de señales eléctricas es la información enviada entre las neuronas en forma de valores numéricos; valores que representan los niveles de activación y las fortalezas de las conexiones.

Los parámetros del aprendizaje profundo no son cosas como la pendiente y la intercepción, como con nuestro ejemplo de regresión lineal. Los parámetros utilizados en el aprendizaje profundo, llamados pesos y sesgos, se cuentan en miles de millones, y se relacionan con la fuerza de la conexión entre las neuronas, y el nivel de flexibilidad permitido dentro de cada neurona. Mientras que los parámetros en la regresión lineal significan algo específico gracias a su forma matemática ordenada, los parámetros en un modelo de aprendizaje profundo solo tienen sentido cuando se considera la red como un todo.

¿Cómo pueden establecerse los parámetros sin tener una expresión matemática explícita? ¿Cómo pueden encontrarse sus valores si se cuentan en miles de millones? El aprendizaje profundo lo hace pasando grandes cantidades de datos a través del sistema, y ajustando los valores de los parámetros (inicialmente establecidos en valores aleatorios) hasta que todo el sistema produce las salidas que necesitamos. Esto se hace usando algoritmos de optimización donde el modelo intenta minimizar la diferencia entre la salida que predice y la salida real necesaria. En el reconocimiento facial, la salida real necesaria es la identidad de la cara (por ejemplo, Bob) y la salida predicha es la mejor suposición en cualquier momento (por ejemplo, ¿Bill? ¿Susan?). Esto significa que la forma en que el aprendizaje profundo aborda los problemas no es a través del cálculo deliberado, sino más bien cerrando la brecha entre las etiquetas predichas y reales hasta que estén mayormente de acuerdo. Si bien no todas las formas de aprendizaje profundo utilizan etiquetas, el enfoque fundamental es el mismo; cerrar alguna brecha entre lo que el modelo piensa inicialmente y lo que es.

Este es un juego de adivinar e iterar, no de cálculo razonado. Este enfoque más holístico para construir máquinas es fundamentalmente diferente de cómo el software y las estadísticas han funcionado a lo largo de la historia. En el aprendizaje profundo admitimos la incertidumbre epistémica saliendo del sistema de interés y empleando solo un proceso de nivel superior que converge por sí solo. Esta es una distinción crítica, ya que nos muestra una verdad importante sobre cómo se crean los sistemas complejos. No podemos crear complejidad uniendo cosas individuales y conectándolas como un motor de combustión interna. Si bien las arquitecturas de redes neuronales están diseñadas en términos del número y la disposición de las neuronas artificiales, el proceso por el cual los parámetros dentro de la red se encuentran y se establecen está fuera de nuestras manos.

El aprendizaje profundo distingue entre parámetros internos y externos. Los pesos y sesgos son los parámetros internos que afectan directamente el uso y la transformación de la información por parte del modelo. También hay hiperparámetros, que son externos a la arquitectura del modelo en sí. Estos pueden considerarse como configuraciones o configuraciones que rigen el proceso de entrenamiento. Incluyen cosas como la tasa de aprendizaje, el tamaño del lote, el número de épocas y varias opciones de arquitectura de red, como el número de capas y neuronas por capa.

Son los hiperparámetros los que son configurados por el ingeniero, no los parámetros internos del modelo, y sin embargo son los parámetros internos del modelo los que deben establecerse en alguna configuración específica para que el modelo funcione. Esto muestra cuán diferente es la ingeniería de la IA de cualquier cosa que los humanos hayan construido antes. En casi todos los demás casos, los humanos buscan alcanzar las entrañas de los sistemas y tomar decisiones deliberadas sobre cómo la energía y la información se moverán a través del sistema.

La gente tiene dificultades para entender la diferencia entre los procesos deterministas y los no deterministas. Las neuronas artificiales individuales son piezas de código deterministas, ya que las mismas entradas y pesos siempre producirán la misma salida. Esto las hace en línea con la programación de computadoras tradicional, basada en reglas. Sin embargo, cuando estas neuronas trabajan juntas en agregado, el comportamiento de la red neuronal es difícilmente determinista, especialmente durante la fase de entrenamiento. Esta es la transición crítica que ocurre en los objetos verdaderamente complejos. Hay una profunda desconexión entre las piezas de las que está hecho algo, y las propiedades que definen su estructura y comportamiento.

A medida que la información pasa a través de múltiples capas de neuronas artificiales, cada una aplicando su propia pieza de no linealidad, la red aprende asignaciones altamente complejas y no lineales de las entradas a las salidas. Cualquiera que sea el código determinista (basado en reglas) que se utilice a pequeña escala trae algo muy diferente a mayor escala. Tal complejidad desata la capacidad de la firma de los objetos complejos para reflejar el mundo natural de una manera mucho más profunda y realista que cualquier cosa que los humanos pudieran diseñar por sí mismos.

Así es como los sistemas de IA muestran signos de verdadera complejidad, y por qué el enfoque utilizado para construir la IA está en línea con cómo construye la naturaleza. La acumulación de muchas pequeñas no linealidades deterministas en algún no determinismo agregado es lo que vemos en los objetos húmedos, viscosos y dinámicos de la naturaleza. Esto no quiere decir que la IA de hoy esté a la par con las soluciones de la naturaleza, solo que refleja la estructura y el comportamiento de la complejidad natural, y habla de lo que sucede cuando se adopta un enfoque desde el exterior para construir cosas. Esta es la única manera en que los problemas categóricamente difíciles pueden ser resueltos. Uno debe salir del funcionamiento interno de un sistema y permitir que converja por sí solo, permitiendo que los internos se asienten naturalmente.

Es por eso que el aprendizaje profundo se considera una especie de alquimia. Esto hace que muchos se sientan incómodos, especialmente los ingenieros de mentalidad más tradicional. Hay un esfuerzo continuo para tratar de explicar la IA matemáticamente, lo que huele a reduccionismo y determinismo que funciona directamente en contra de la complejidad. Elaboraré sobre este tema más adelante.

Los modelos de aprendizaje profundo son objetos que bordean la verdadera complejidad, porque su funcionalidad se basa en propiedades que nunca fueron puestas en el sistema por nosotros. En cierto sentido, cosas como las ciudades, los mercados financieros y la IA no fueron creadas en absoluto, sino que se precipitaron a partir de las innumerables interacciones de cosas más pequeñas que no se parecen en nada a las cosas más grandes a las que llevaron.

Más importante que si los sistemas de IA son verdaderamente complejos es el hecho de que la ingeniería de la IA es nuestro mejor ejemplo de humanos construyendo bajo un paradigma completamente diferente. El aprendizaje profundo representa el primer intento deliberado de los humanos de no construir de la manera en que los humanos siempre lo han hecho. Si bien la aparición de redes eléctricas, ciudades, mercados e internet se realizó más tarde, el aprendizaje profundo adoptó un paradigma fundamentalmente diferente desde el principio. El aprendizaje profundo es posible porque no intenta instruir a una computadora sobre cómo llevar a cabo sus tareas.

Si el enfoque actual de la IA logra o no la verdadera inteligencia general artificial (AGI) no es el punto. El aprendizaje profundo es una señal de lo que vendrá. El aprendizaje profundo representa el tipo de ingeniería que redefine cómo los humanos construyen cosas. Sabemos que no podemos resolver nuestros desafíos más destacados utilizando la ingeniería determinista de nuestros antepasados.

Esto no es solo un cambio en cómo construimos las cosas. Llega al corazón mismo de cómo nuestro mundo define actualmente el conocimiento, la habilidad y la capacidad de los individuos para contribuir a la economía. Nuestro mundo funciona sobre la noción de diseño, porque el diseño se trata de alcanzar las entrañas de los sistemas y utilizar lo que vemos para dar el siguiente paso. El diseño asigna los esfuerzos de los constructores a las estructuras preexistentes. No es así como construye la naturaleza.

Así que...toca reiniciar.

Todo el edificio de la construcción basada en el diseño que sustenta la economía actual, y la capacidad de las personas para contribuir a ella, requiere una revisión masiva. Para abrazar el no determinismo necesario para crear en la era de la complejidad necesitamos un enfoque completamente diferente. Este nuevo enfoque debe estar arraigado en una posición que sea diametralmente opuesta a cómo esperamos actualmente construir las cosas.

Hay una direccionalidad fundamental de cómo funciona la complejidad, y es opuesta a lo que nos dice la narrativa académica. No son los cimientos los que conducen a cosas buenas, es la mezcla, el caos y la incertidumbre los que traen las estructuras que terminamos codificando en nuestros libros de texto. En términos más simples, las bases, la estructuración, el diseño que se nos dice que pongamos en marcha desde el inicio de un proyecto funciona directamente contra lo que se necesita para que las estructuras correctas emerjan.

Dar un reinicio a la forma en que construimos las cosas, definir una noción adecuada de mérito y crear una economía en línea con el cambio necesario, exige una desmitificación de la emergencia. Esto requiere presentar una descripción conceptualmente sucinta de lo que es la emergencia; una que se alinee con las propiedades científicas conocidas de la información, la computación y la evolución.

No he encontrado que tal exposición exista. A pesar de los intentos en curso por parte de los científicos de hoy para explicar la emergencia, todos fallan por la misma razón (incluidos los realizados por muchos "científicos de la complejidad"). Todos intentan explicar la emergencia dentro del paradigma científico actual. Por un lado, esto no debería ser demasiado sorprendente, después de todo, ¿de qué otra manera se publicarían los trabajos? Pero esto inevitablemente conduce al tipo de reduccionismo que va en contra de la complejidad.

La complejidad necesita un tipo diferente de explicación, a diferencia de las que se encuentran en los anales de la ciencia y la ingeniería. No una explicación de la causalidad sino de las propiedades. El tipo de explicación que no alcanza las entrañas de los sistemas, envolviendo nociones obsoletas de promedios y renormalización en sus piezas. Tales explicaciones sugieren erróneamente que lo que observamos en el nivel alto es meramente alguna versión borrosa manchada de lo que vemos en el nivel inferior. Tales intentos están impregnados de nociones obsoletas de causa raíz y vías, que sin éxito intentan coaccionar la complejidad en la linealidad y el determinismo de los sistemas simples.

En cambio, podemos ver la complejidad como el crecimiento inevitable de los sistemas físicos que resuelven sus problemas difíciles, asentándose en configuraciones organizadas por sí solos. No necesitamos apelar a teorías que llaman a la materia por estricta causa y efecto. Ni debemos conjurar algún argumento mal definido que intente rellenar nuestros vacíos en el conocimiento con descripciones abstractas sin sentido. No tener una explicación causal para algo no significa que no pueda explicarse. Se pueden revelar mecanismos que se adhieren a las propiedades y restricciones de los sistemas naturales, sin inventar cuentos de hadas sobre cómo las piezas chocan con las piezas.

El primer paso hacia una resolución al obstáculo planteado por el progreso por abstracción frente a la complejidad es obvio. Los humanos siempre han mirado a la naturaleza en busca de inspiración. La mayoría de las cosas que construimos tienen alguna contraparte encontrada en los sistemas naturales que nos rodean. Es la naturaleza la que nos hace saber lo que es posible. Pero usar la naturaleza como nuestra musa ya no es suficiente. La naturaleza nos dice mucho más que solo lo que es posible. Si damos un paso atrás, nos deshacemos de nuestra dependencia del reduccionismo y el determinismo, y aceptamos la complejidad por lo que es, también podemos aprender cómo la naturaleza produce sus soluciones complejas. Podemos aprender a construir como construye la naturaleza.

Go Back Print Chapter