Chapter Content
Ay, Dios mío, a ver, por dónde empiezo... Bueno, pues vamos a hablar un poco de... ¿cómo lo diría yo? De la reglobalización, la tecnología de la información y la hiperglobalización. Uf, ¡qué trabalenguas!
A ver, todo este rollo empezó, más o menos, allá por los años 70, cuando el mundo empezó a... bueno, a inclinarse hacia el neoliberalismo, ¿no? Y ya para el año 2000, digamos que ya estaba casi todo hecho. El neoliberalismo, con sus diferentes caras, había subido al poder, por decirlo de alguna manera, y como que dictaba las normas económicas y políticas del mundo.
Y aquí viene lo interesante, ¿no? Porque, a ver, el neoliberalismo, en realidad, no había traído ni más inversión, ni más emprendimiento, ni un crecimiento más rápido de la productividad, ni tampoco había hecho que la clase media ganara más dinero. ¡Al contrario! Lo que sí había traído era una desigualdad brutal en la distribución de la riqueza. Entonces, ¿cuál era el truco? ¿Por qué seguía en pie?
Pues, básicamente, porque se atribuía el mérito de haber ganado la Guerra Fría, porque se decía que gracias a él los que no se lo merecían no recibían nada, y porque los que tenían el poder, con sus altavoces, se encargaban de repetir una y otra vez que ellos se merecían el crédito por todo lo que, supuestamente, el neoliberalismo había logrado. Y así, pues, se jugó la partida.
Ahora bien, hubo cuatro fuerzas principales que influyeron en cómo se desarrolló todo esto. Primero, la reglobalización después de la Segunda Guerra Mundial. O sea, como que se deshizo el retroceso que había habido en la globalización entre 1914 y 1950, ¿me entiendes? Segundo, un cambio importante en la tecnología. A partir de los años 50, el contenedor marítimo, esa caja de acero, conquistó el mundo. Tercero, otro cambio tecnológico enorme: el mundo fue conquistado por los ceros y unos de la tecnología de la información, esa cosa casi etérea, ¿no? Y, cuarto, las propias políticas neoliberales y cómo interactuaban con las otras tres fuerzas. Todas juntas, estas cuatro cosas convirtieron la reglobalización en hiperglobalización.
Entonces, como verás, no es una historia sencilla, ¿eh? Y para hacerlo aún más complicado, esta historia tiene dos partes. Una sigue las consecuencias de la reglobalización, el auge de la tecnología de la información y la hiperglobalización para el Sur Global. Y la otra se centra en las consecuencias para el Norte Global. Y, al final, si te parece bien o mal, depende mucho de si eres más de Hayek o de Polanyi, ¿sabes?
Los países del Sur Global que supieron usar las ideas neoliberales para reducir la corrupción en sus sociedades, y que evitaron las consecuencias negativas de las políticas neoliberales en el Norte Global, pudieron usar el mercado mundial en su beneficio, en lugar de ser usados por él. Por primera vez desde 1870, estas economías no se vieron obligadas a alejarse del camino del Norte Global, haciéndose relativamente más pobres a pesar de que se hacían absolutamente más ricas. A partir de 1990, en términos generales, el Sur Global empezó a ver un crecimiento real de los ingresos más rápido que el Norte Global. Y entonces parecía que el mercado, ¡vaya!, sí que podía ser beneficioso para la humanidad.
Para los países del Norte Global, hubo beneficios al aumentar el comercio mundial y la expansión de la tecnología de la información. Pero estas ganancias terminaron concentrándose en manos de los que estaban en la cima de las sociedades del Norte Global, enriqueciendo aún más a los ricos. Tener un trabajo sindicalizado en una fábrica en la misma región que la sede corporativa ya no significaba que te llevabas una buena parte de esa riqueza que se concentraba. La re- y la hiperglobalización, sumadas a la tecnología de la información, en el contexto del neoliberalismo, significaron que los jefes y los ingenieros se dieron cuenta de que podían poner sus fábricas en cualquier otro lugar del mundo. Y el flujo de información tan rápido significaba que ya no tenían que ir a la fábrica para ver qué pasaba, gestionarla y mejorarla. En las regiones del Norte Global, que por primera vez experimentaron la desindustrialización que el Sur Global llevaba sufriendo desde antes de 1870, se lamentaron los derechos polanyianos.
Pero... ¡ojo!, que esos lamentos eran solo una pieza del Norte Global. La tecnología de la información, al alcanzar una masa crítica a principios de los años 90, hizo que el Norte Global alcanzara un crecimiento de la productividad equivalente al de los Treinta Gloriosos durante una década y media. Y aunque el funcionamiento de la Segunda Edad Dorada impidió que ese crecimiento de la productividad se tradujera completamente en salarios más altos, también significó que la violación de las expectativas de la gente y de los derechos polanyianos también era una cosa... pues, como... ¡un mosaico!, ¿no? Aquí sí, allá no, y no en la misma medida. Una de las consecuencias fue un cambio profundo en la forma en que se tomaban las decisiones económico-políticas.
Todavía en 2007, los neoliberales en la cima podían felicitarse a sí mismos, creyendo que las cosas iban razonablemente bien, y que seguirían así. Parecía que el crecimiento de la productividad había vuelto y, se decían a sí mismos, cuando la distribución de los ingresos se estabilizara, las olas de crecimiento generalizado se reanudarían y los focos de descontento populista disminuirían. En la cima, de nuevo, parecía que el funcionamiento del mercado podría ser realmente beneficioso para la humanidad.
Pero esa creencia pasaba por alto gran parte de lo que realmente estaba pasando por debajo. Después de 2007, la crisis financiera y la Gran Recesión fueron desastres en toda regla. Pero, para esta historia, lo importante es que estos desastres quitarían el velo y revelarían que la arrogancia neoliberal realmente había traído consigo el castigo divino.
La reglobalización posterior a la Segunda Guerra Mundial fue una rima histórica del patrón posterior a 1870: el establecimiento de un orden económico internacional bajo un hegemón más una revolución tecnológica del transporte, que una vez más impulsó la globalización a un ritmo rápido. Pero después de 1870, Gran Bretaña, como hegemón, lo hizo sola, estableciendo un patrón en espléndido aislamiento al que los demás tuvieron que adaptarse. Estados Unidos, después de la Segunda Guerra Mundial, construyó instituciones, y así la era posterior a la Segunda Guerra Mundial se convirtió en una gran época para las nuevas organizaciones de cooperación global. En el ámbito político, por supuesto, estaba la ONU, las Naciones Unidas, con su Consejo de Seguridad, su Asamblea General y todas sus ramas.
En el ámbito económico, habría tres organizaciones más. O al menos ese era el plan: solo dos y media llegaron a existir realmente. El recién dominante Estados Unidos apostó a que el comercio internacional pronto se convertiría en un facilitador tanto de la paz internacional como de la prosperidad interna. Europa Occidental se unió a esta apuesta, sobre todo con la creación a mediados de la década de 1950 de la Comunidad Europea del Carbón y del Acero para el libre comercio de esos productos básicos, una iniciativa que se convirtió en la actual Unión Europea. Y en la Conferencia de Bretton Woods de 1944, Harry Dexter White, de Estados Unidos, y John Maynard Keynes, de Gran Bretaña, diseñaron un sistema para tratar de hacer que el aumento de la globalización funcionara para bien.
Las tres organizaciones planeadas para promover la cooperación económica mundial eran el Banco Mundial, el Fondo Monetario Internacional (FMI) y, la que no llegó a existir del todo, la Organización Internacional del Comercio (OIC). El Banco Mundial comenzó como lo que se llamó el Banco Internacional de Reconstrucción y Fomento y se creó con el doble propósito de financiar la reconstrucción tras la destrucción de la guerra y desarrollar aquellas partes del mundo que aún no habían aprovechado las oportunidades productivas de la tecnología industrial. El FMI se creó para gestionar los valores de las monedas y el flujo neto de recursos financieros a través de las fronteras, para permitir a los países que necesitaban restablecer las condiciones en las que comerciaban y para obligar a ciertos países a cumplir sus obligaciones económicas. Y la OIC, que se había planeado, iba a negociar reducciones mutuamente beneficiosas de los aranceles y a arbitrar las disputas comerciales.
Pero aunque la administración Truman impulsó la ONU, el Banco Mundial y el FMI a través del Congreso de Estados Unidos, a finales de 1950 decidió que ratificar la OIC sería una organización internacional de más. Era, según la administración, demasiado pedir al Congreso. Para entonces, las mareas habían cambiado en contra del espíritu de cooperación internacional de mente abierta que había dominado en los años inmediatamente posteriores a la guerra; la larga lucha crepuscular entre el mundo libre y el comunismo global conocida como la Guerra Fría estaba comenzando. La desaparición de la OIC fue el resultado. Y así, en lugar de una organización con dientes destinada a hacer cumplir las resoluciones de las disputas comerciales, iba a haber un acuerdo, un Acuerdo General sobre Aranceles Aduaneros y Comercio (GATT), bajo los auspicios del cual se negociarían múltiples rondas de reducciones arancelarias multilaterales durante décadas. Así, incluso al comienzo de este impulso de reglobalización, había contracorrientes, de las cuales esta era la principal: mientras que la OIC habría exigido que los países, los sectores y las clases comieran lo que el mercado les pusiera delante en respuesta a las reducciones arancelarias automáticas, el GATT exigía que se formara una coalición política interna en cada país signatario antes de que una ronda de reducción arancelaria del GATT pudiera completarse y entrar en vigor.
Tales coaliciones se formaron. Entre 1947 y 1994 se negociaron e implementaron ocho rondas de reducciones arancelarias: Ginebra (terminada en 1947), Annecy (1949), Torquay (1950-1951), Ginebra II (1956), Ginebra III (1962, más comúnmente llamada la Ronda Dillon, ya que fue propuesta por C. Douglas Dillon cuando era subsecretario de Estado para el presidente republicano Eisenhower y concluida por C. Douglas Dillon cuando era secretario del Tesoro para el presidente demócrata Kennedy), la Ronda Kennedy (Memorial) (1967), la Ronda de Tokio (1979) y la Ronda de Uruguay (1994). En la década de 1990, cada ronda tardaba casi una década en negociarse, con casi una década de agotamiento entre rondas.
Pero eso era solo una parte de la historia. Las mejoras en la producción interna se habían adelantado a las mejoras de la productividad en el transporte de larga distancia desde 1914 hasta 1950. Entonces los ritmos se invirtieron, con revoluciones en el transporte oceánico, la más impresionante de las cuales fue la llegada de la contenerización.
El contenedor de carga: tiene 20 o 40 pies de largo, 8.5 o 9.5 pies de alto y 8 pies de ancho. Lleva hasta 29 toneladas en sus 2,000 pies cúbicos de espacio disponible recomendado, bienes por valor de aproximadamente $500,000 (o más) cuando se venden al por menor. Puede ser transportado en un mes a cualquier parte del mundo donde haya puertos, ferrocarriles, locomotoras, carros planos, tractocamiones y carreteras adecuados. Puede ser movido transportando bienes no frágiles, no perecederos desde cualquier fábrica moderna con un muelle de carga a cualquier almacén moderno en cualquier parte del mundo por quizás el 1 por ciento del valor al por menor de los bienes. Antes de 1960, los costos del envío transoceánico internacional para la mayoría de los productos básicos podían ascender fácilmente al 15 por ciento del valor al por menor. En la década de 1950, la ciudad de San Francisco tenía ochocientas mil personas, y cincuenta mil de ellas eran estibadores, al menos a tiempo parcial. Para 1980 había menos de una quinta parte.
Cuando mi familia compró una lavadora de fabricación alemana en una tienda de almacén en San Leandro, California, justo en el lado sur de la ciudad de Oakland como nosotros aquí en Berkeley estamos en el lado norte, nos costó ocho veces más llevar la máquina desde el almacén hasta nuestro sótano de lo que había costado llevarla desde la fábrica donde se hizo, en Schorndorf, hasta el almacén.
Y así procedió la reglobalización durante los Treinta Gloriosos después de la Segunda Guerra Mundial. Gran parte de la fuerza para la expansión provino del lado político-económico, especialmente cuando Estados Unidos llegó a ver el acceso a sus mercados como una herramienta importante en la lucha contra la Guerra Fría. Y entonces se estableció el círculo virtuoso del comercio: el aumento de la productividad impulsó la demanda de bienes cada vez más alta, y así la capacidad expandida se satisfizo con la demanda expandida. Para 1975, el comercio mundial como parte de la actividad económica mundial había vuelto a su pico de 1914 del 25 por ciento, alrededor de un octavo de lo que una región típica gastaba en bienes y servicios era para bienes y servicios importados, y alrededor de un octavo de las ganancias de una región típica provenía de la exportación de bienes y servicios.
Este círculo virtuoso fue con mucho más fuerte en el Norte Global. Que 1800-1914 había concentrado la industria y el conocimiento sobre la industria en los distritos industriales del Norte Global tuvo consecuencias, ya que la creación de ideas se basa en el stock de ideas. La industrialización previa del Norte Global aceleró el crecimiento del Norte Global, mientras que la desindustrialización previa del Sur Global frenó el crecimiento del Sur Global. La generación de nuevas ideas, después de todo, depende de la densidad y la magnitud del stock de ideas ya desplegadas en uso en la región. Los distritos industriales del Norte Global impulsaron así el crecimiento. Este círculo virtuoso fue mucho menos evidente en el Sur Global, que, recuerden, había sido relativamente desindustrializado por el funcionamiento de la ola anterior de globalización.
Sin distritos manufactureros vibrantes y comunidades profundas y densas de práctica de ingeniería propias, ¿cómo podría el Sur Global beneficiarse de esta reglobalización? La única manera era afianzándose aún más en su lugar en la división mundial del trabajo. Eso significaba aprovechar los valiosos recursos que poseía, como los minerales y los productos agrícolas tropicales, donde los precios relativos continuaron disminuyendo. Y así, aunque el Sur Global se hizo más rico durante la década de reglobalización posterior a la Segunda Guerra Mundial, se hizo más rico más lentamente, y la brecha de ingresos relativos continuó creciendo hasta al menos 1990.
En la primera generación posterior a la Segunda Guerra Mundial, en pocas palabras, se podía entender quién se benefició de la reglobalización hablando de la "curva de la tristeza". Al principio, el lado izquierdo, la curva de la tristeza es bajo: hay relativamente poca riqueza que ganar al proporcionar materias primas, ya que la oferta elástica y la demanda inelástica significan que los productores de productos primarios, que como grupo trabajan duro para aumentar su productividad, pueden hacer poco más que reducir los precios a los que pueden vender a medida que aumenta la productividad; y por lo tanto hay relativamente poca riqueza que ganar en el diseño, ya que los competidores pueden rápidamente hacer ingeniería inversa de algo que ya existe y es visible. Hay, sin embargo, una gran cantidad de riqueza que ganar en el medio, donde la curva de la tristeza es alta. Allí, el saber hacer y el saber qué de los distritos industriales del Norte Global trajeron consigo las enormes eficiencias de la producción en masa de mediados y finales de la década de 1900. Y hay relativamente poca riqueza que ganar al final, el lado derecho, donde la curva de la tristeza es una vez más baja: el marketing y la distribución, la correspondencia de los productos básicos a las necesidades particulares de los individuos, o al menos convencer a los individuos de que vale la pena pagarle a usted por hacerlo, tampoco es donde se encuentra la mayor parte de la acción.
Pero la historia de la reglobalización a través de la economía política y la contenerización es solo el primer tercio de la historia de este capítulo. En la década de 1980 hubo otro enorme cambio tecnológico que estaba ganando fuerza y que tendría poderosas influencias en el comercio mundial y mucho más allá: la tecnología de la información. Se produjo una verdadera revolución en el costo de transportar no bienes sino bits, no objetos materiales sino información. El internet global de comunicación y datos, y los enormes cables submarinos y subterráneos de fibra óptica, más los transmisores, receptores y satélites de transmisión restringida y abierta, transformaron el mundo de nuevo a partir de la década de 1990.
No he escrito mucho en este libro sobre precisamente cómo las nuevas tecnologías han avanzado los poderes colectivos humanos sobre la naturaleza, sobre cómo nos permitieron organizarnos de nuevas maneras, y qué eran y qué hacían. Simplemente he escrito sobre su tasa de crecimiento: por ejemplo, el 2 por ciento anual en el crecimiento de las ideas después de 1870. Haberse centrado en lo que eran y lo que hacían habría sido un libro muy diferente, uno que necesita más de un ingeniero y menos de un economista político. Permítanme apresurarme a agregar que ese libro diferente, ejecutado competentemente, sería un gran libro sobre cosas de vital, quizás abrumadora, importancia. El difunto profesor David Landes's The Unbound Prometheus logró esta tarea para Europa desde 1750 hasta 1965, y sigue siendo un clásico. Y Robert Gordon ha escrito un nuevo clásico que cubre los Estados Unidos desde 1870 en la misma línea.
Pero aquí y ahora creo que es apropiado traer algunas características de estas tecnologías al centro del escenario. Consideren la idea de las Tecnologías de Propósito General (TPG): aquellas tecnologías cuyos avances cambian, si no todo, casi todo, a medida que se ramifican a través de sector tras sector. La energía de vapor a principios de la década de 1800 fue la primera. Las primeras máquinas herramienta, que encarnaban en su diseño y construcción tanto conocimiento tecnológico sobre cómo dar forma a los materiales, a mediados de la década de 1800 fueron la segunda. Luego, después de 1870, llegaron las telecomunicaciones, la ciencia de los materiales, la química orgánica, los motores de combustión interna, la línea de ensamblaje, las generaciones subsiguientes de máquinas herramienta y la electricidad: las tecnologías cuyo florecimiento conforman la "gran ola" de avance tecnológico de Robert Gordon, y que él ve transformando el Norte Global durante el período 1870-1980 y luego disminuyendo. A partir de la década de 1950 y alcanzando una masa crítica en la década de 1990, llegó otra TPG: la microelectrónica. Los electrones ahora se hacían bailar no al servicio de proporcionar energía sino más bien para ayudar y amplificar el cálculo, y la comunicación. Y resultó que la microelectrónica como microcontroladores podría permitir la construcción de materiales que podrían funcionar mucho mejor y que eran más baratos y ligeros que depender de materia tonta dispuesta de maneras que se unieran mecánicamente.
Tomen los componentes de cuarzo de la arena común. Purifíquenlos y licúenlos calentándolos a más de 1,700°C (3,100°F). Agreguen carbono para sacar los átomos de oxígeno del cuarzo, dejando atrás silicio líquido puro y fundido. Enfríen el silicio y, justo antes de que se solidifique, dejen caer un pequeño cristal semilla en él. Luego, levanten el cristal semilla y el silicio circundante que se adhiere a él.
Si han hecho esto bien, entonces tendrán un cilindro de silicio monocristalino. Córtenlo fina y delgadamente en "obleas". Estas obleas de cristal de silicio puro no conducen la electricidad. ¿Por qué no? Debido a los catorce electrones de un átomo de silicio, diez no pueden moverse para convertirse en corrientes porque están bloqueados al núcleo en lo que los químicos llaman sus "orbitales" 1s y 2sp. ("Orbital" es un nombre inapropiado: en realidad no "orbitan". Niels Bohr hace un siglo o más pensó que sí, pero no lo entendió bien. Erwin Schrödinger lo corrigió). Solo los cuatro electrones más externos, en los orbitales 3sp, podrían alguna vez energizarse y luego moverse para convertirse en corrientes eléctricas. Pero en el silicio puro nunca pueden hacerlo porque están bloqueados entre el núcleo de su átomo y los núcleos de sus cuatro vecinos en el cristal. Suficiente energía para sacarlos de los orbitales 3sp y llevarlos a los orbitales de la "banda de conducción" rompería el cristal.
Pero supongan que reemplazaran algunos de los átomos de silicio en el cristal, 1 de cada 10,000 átomos es más que suficiente, con átomos de fósforo, que no tienen catorce sino quince electrones cada uno. Catorce de cada átomo de fósforo actuarán como los electrones del átomo de silicio: bloqueados en su lugar, fuertemente unidos en sus orbitales 1s y 2sp a su núcleo doméstico, y los cuatro externos unidos en su orbital 3sp tanto a su núcleo doméstico como a los cuatro núcleos vecinos. Pero el decimoquinto electrón no puede encajar. Encuentra un estado orbital de mayor energía, en el que solo está vagamente unido a un solo núcleo. Puede y se mueve en respuesta a pequeños gradientes en el campo eléctrico local. Y así, la región de su cristal de silicio que han "dopado" con fósforo se convierte en un conductor de electricidad. Pero si fueran a hacer algo que alejara esos decimoquintos electrones a otro lugar, esa región también se convertiría en un aislante no conductor como el resto del cristal. Una región dopada de un cristal de silicio es, por lo tanto, como el interruptor de encendido y apagado en su pared que controla la luz de su techo. Al aplicar o eliminar pequeños voltajes de corriente eléctrica y presión electromagnética, podemos activar y desactivar ese interruptor a nuestra elección, y así dejar que la corriente fluya o no a nuestra elección.
Ahora mismo, en los fabricantes de semiconductores de Taiwan Semiconductor Manufacturing Company (TSMC), las máquinas que ha comprado (a ASML Holding en los Países Bajos y Applied Materials en Silicon Valley) e instalado y programado están tallando trece mil millones de tales interruptores de estado sólido semiconductores con caminos de corriente y control adjuntos en una pieza de una oblea que se convertirá en un "chip" de silicio cristalino de aproximadamente dos quintas partes de una pulgada de ancho y dos quintas partes de una pulgada de alto. Los materiales de marketing de TSMC implican que la más pequeña de las características talladas tiene solo veinticinco átomos de silicio de ancho. (En realidad, las características son más como diez veces ese tamaño). Si los trece mil millones de interruptores componentes de este pequeño chip de roca cristalina hecha de arena se tallaran correctamente, y pasa sus pruebas, que requieren que sus caminos de corriente se enciendan y apaguen con precisión y sincronicidad 3.2 mil millones de veces por segundo, el chip terminará en el corazón de una máquina como la que está conectada al teclado en el que se escribieron estas palabras. Será un microprocesador Apple M1, un circuito de integración a muy gran escala (VLSI) compuesto por estos diminutos interruptores de cristal de silicio dopado, que llamamos transistores.
William Shockley, John Bardeen y Walter Brattain son los tres a los que se les atribuye la construcción del primer transistor en Bell Telephone Laboratories en 1947. A Dawon Kahng y Mohamed Atalla se les atribuye la construcción del primer transistor de efecto de campo de semiconductor de óxido metálico. El grupo de Jay Last, basándose en las ideas de Robert Noyce y Jean Hoerni de Fairchild Semiconductor, construyó el primer circuito integrado de estado sólido operacional compuesto por más de un transistor. Para 1964, General Microelectronics estaba fabricando y vendiendo un circuito integrado de 120 transistores. Los elementos de conmutación electrónica de tubo de vacío anteriores tenían cuatro pulgadas de largo: cien milímetros. Los transistores en 1964 se empaquetaron a una veinticincoava parte de una pulgada, a un milímetro de distancia: eran cien veces más pequeños, lo que permitía empaquetar diez mil veces más potencia de cálculo en el mismo espacio, con órdenes de magnitud menos consumo de energía.
Gordon Moore, que entonces también trabajaba en Fairchild Semiconductor, observó en 1965 que el número de transistores microelectrónicos de estado sólido en circuitos integrados de frontera había crecido de uno a cien en los siete años desde 1958. Hizo una predicción audaz y muy especulativa de que podíamos esperar un futuro de "equipos repletos de componentes", proyectando que en 1975, que estaba a solo diez años de distancia, un chip de silicio de cien milímetros cuadrados contendría sesenta y cinco mil componentes. Eso permitiría que "las técnicas electrónicas estén más generalmente disponibles en toda la sociedad, realizando muchas funciones que actualmente se hacen inadecuadamente por otras técnicas o no se hacen en absoluto", dijo. Predijo "computadoras domésticas, o al menos terminales conectadas a una computadora central, controles automáticos para automóviles y comunicaciones portátiles personales". Dijo que habría "circuitos integrados en filtros digitales [para] separar canales en equipos multiplexados", y pronosticó avances en los circuitos telefónicos y el procesamiento de datos. "Las computadoras serán más potentes y se organizarán de maneras completamente diferentes", concluyó.
Para 1971, los fabricantes de semiconductores de circuitos integrados habían dado cuatro pasos hacia abajo a un proceso más fino para inscribir patrones en el cristal. El primer microprocesador, el Intel 4004, empaquetó veinte mil transistores en un milímetro cuadrado: las características estaban a doscientos micrones, doscientas millonésimas de metro, de distancia. Para 2016, la distancia característica más separación se había reducido a doscientos nanómetros, doscientas milmillonésimas de metro. (Y para 2021, habría una mayor contracción, de más de la mitad, y las distancias característica más separación serían de solo noventa nanómetros, 450 átomos de silicio, de ancho). En 1979, para ejecutar un MIPS, un millón de instrucciones por segundo, se requería un vatio de energía. Para 2015, un vatio podía impulsar más de un millón de MIPS. A medida que los componentes se hacían más pequeños, se hacían más rápidos. Reduzcan a la mitad el tamaño de la característica, y pueden ejecutarlo dos veces más rápido, hasta cierto punto. Antes de 1986, la velocidad del microprocesador se cuadruplicaba cada siete años. Luego, con la llegada de la simplicidad de los conjuntos de instrucciones reducidos, llegaron diecisiete años en los que cada cuadruplicación de la velocidad tomaba tres años en lugar de siete. Luego, después de 2003, el tiempo de cuadruplicación volvió a ser de siete años, hasta que las mejoras adicionales de velocidad chocaron contra una pared alrededor de 2013.
Pero el empaquetamiento de más y más transistores más pequeños en chips VLSI continuó a través de lo que solo puedo llamar Magia Profunda, aunque a un ritmo más lento que con la "Ley de Moore" original. Puedo leer que la máquina ASML TWINSCAN NXE:3400C utiliza luz ultravioleta extrema con una longitud de onda de 13.5 nanómetros y pensar: esa máquina se está manteniendo alineada y está tallando veinte millones de líneas con sus láseres en el cristal de silicio de una oblea de trescientos milímetros (doce pulgadas) sin errar en el posicionamiento de ninguna de esas líneas ni siquiera en una treinta milésima parte de un cabello humano. Y no puedo comprender cómo esto podría hacerse posiblemente, de forma regular y fiable, por un costo variable de solo $50 por microprocesador.
A su ritmo más rápido durante la revolución de la tecnología de la información, la empresa en el corazón de la economía de la innovación, el diseñador y fabricante de microprocesadores Intel, estaba haciendo ticktock: tick, mejorando los detalles microarquitectónicos de sus microprocesadores para que los programas pudieran ejecutarse más rápido; tock, mejorando la resolución fina de su fabricación para que pudiera hacer las características, y por lo tanto todo el microprocesador, más pequeño, y completando un ciclo completo en menos de tres años. Con los microprocesadores duplicando su velocidad cada dos años, y con el sector de la tecnología de la información aprovechando al máximo, el crecimiento medido de la productividad en toda la economía después de 1995 volvió a aumentar, acercándose a su ritmo de la edad de oro inmediatamente posterior a la Segunda Guerra Mundial, hasta que llegó la interrupción de la Gran Recesión a finales de 2007. La riqueza creada se extendió ampliamente y se difundió entre los usuarios, que obtuvieron capacidades notables para aprender, comunicarse y entretenerse a un precio asombrosamente bajo, y los tecnopríncipes de Silicon Valley y aquellos que les ayudaron. Hubo disrupciones económicas: perdedores. Había medio millón de mujeres en los Estados Unidos atendiendo conmutadores telefónicos en compañías telefónicas y en escritorios de recepción en 1960. Hay menos de dos mil hoy. Pero, en su mayor parte, y a nivel nacional, la llegada de la tecnología de la información a la masa crítica cambió las tareas que había que hacer para componer la ocupación, en lugar de destruir las ocupaciones en sí mismas.
A medida que la infotecnología se extendió por la economía, la naturaleza del trabajo cambió. Nosotros, los simios de las llanuras del África Oriental, hemos tenido durante mucho tiempo espaldas y muslos fuertes con los que mover objetos pesados, dedos ágiles para hacer un trabajo fino, bocas y oídos con los que comunicarnos y cerebros con los que pensar y manipular símbolos. Comenzando con la domesticación del caballo y continuando con la máquina de vapor, el lugar de las espaldas y los muslos en el trabajo humano se había reducido en gran medida para 1870, pero todavía había mucha manipulación fina por hacer. Con la llegada de la electricidad y su maquinaria, los dedos humanos también comenzaron a ser reemplazados por máquinas, pero todavía había una enorme cantidad de diseño complejo por hacer, junto con la lluvia de ideas y la contabilidad e información rutinarias, todo trabajo por hacer por cerebros, bocas y oídos. Cada máquina requería un microcontrolador, y el cerebro humano era con mucho el mejor disponible. Así que hasta ahora la tecnología había complementado la mano de obra en lugar de sustituirla: más máquinas y más tecnología de la información hacían que los seres humanos fueran más valiosos y más productivos, en lugar de menos. Pero para muchos, el nuevo trabajo se parecía menos al tipo de cosas que un artesano maestro de alto estatus podría hacer y más a las tareas requeridas de un sirviente, ya sea del cliente o de la propia máquina de aspecto cada vez más autónomo.
A escala internacional, la tecnología de la información más la reglobalización en curso se convirtió, en la década de 1990, cuando la infotecnología alcanzó una masa crítica, en hiperglobalización.
El economista internacional Richard Baldwin puso el dedo en la llaga de lo que él llama la "segunda desagregación": la de la comunicación dentro de la empresa. Con la llegada de internet, ya no era necesario que la sofisticada división industrial del trabajo de una empresa estuviera concentrada geográficamente. Ya no era necesario poder caminar o conducir hasta las oficinas y fábricas de su proveedor para mostrarles cómo lo que tenían no era exactamente lo que usted necesitaba. Podía, primero, en la década de 1980, dibujar una imagen y enviar un fax. Luego, en la década de 1990, podía enviar un correo electrónico. A finales de la década de 2000 podía enviar archivos de datos de varios megabytes por todo el mundo.
¿Y para aquellos, muchos, casos en los que las palabras en papel o las palabras e imágenes en la pantalla no eran suficientes? Después de 1990, cada vez más, podía subirse a un jet transoceánico sin escalas durante la noche. Se dice que Apple Computer tenía cincuenta asientos de primera clase al día de ida y vuelta entre San Francisco y China en los meses anteriores a la llegada de la plaga de COVID-19. ¿Y para aquellos casos en los que los límites de la división del trabajo no eran tanto la comunicación del conocimiento sino el establecimiento cara a cara, mirando a los ojos, de la confianza y sus límites? El vuelo transoceánico en avión también funcionó allí.
Así, después de 1990, la manufactura, que se había estado concentrando cada vez más en el Norte Global desde 1800, comenzó a extenderse fuera del Norte Global a una velocidad tremenda. No solo mejor, sino revolucionaria y superlativamente mejor, las comunicaciones hicieron posible extender lo que habían sido concentraciones regionales de empresas en cadenas de valor que abarcan todo el mundo. Las extraordinarias brechas salariales que un siglo de divergencia económica había creado entre el Norte Global y el Sur Global hicieron que todo esto fuera inmensamente rentable. En el espacio de una generación, con la extensión de la producción en redes de cadenas de valor que abarcan todo el mundo, gran parte de la manufactura global se volvió tanto de alta tecnología como de bajos salarios.
Como dijo Baldwin, la lógica de la producción global después de 1990 fue impulsada cada vez más por la "curva de la sonrisa": baja en el medio, alta al principio y al final. Se ganó un gran valor al principio al proporcionar materias primas y recursos y, lo que es más importante, diseño industrial. Se añadió poco valor en el medio mediante la manufactura y el ensamblaje cada vez más rutinarios. Y se añadió un gran valor al final mediante el marketing, la marca y la distribución, proporcionando información (y desinformación) a los consumidores sobre lo que podrían querer de la enorme variedad de tipos y calidades de bienes que podrían salir de la capacidad en expansión de las fábricas. Y fue, de nuevo, un mosaico. Cosas muy buenas sucedieron en lugares seleccionados. Otros lugares, cercanos en cultura, lealtades políticas y actitudes, quedaron atrás: o bien sus industrias de las que se valían para nichos de relativamente alto valor y altos ingresos en la división mundial de cosas buenas empacaron y se mudaron, o nunca llegaron.
Aunque he dicho que este proceso de "segunda desagregación" transfirió la manufactura al Sur Global, eso no es del todo correcto. La manufactura global de alta tecnología fue a Corea, tanto que Corea es ahora un miembro pleno del Norte Global, junto con Japón, así como Taiwán. Fue, sobre todo, a partes de China, pero específicamente a las megaciudades de polos de crecimiento del Delta del Río de las Perlas, Shanghái y Pekín, y en segundo lugar a las costas, pero no al interior. También fue a la India, pero abrumadoramente a Maharashtra y Karnataka, no a Uttar Pradesh. Fue a Indonesia, Tailandia y Malasia, y ahora está yendo a Vietnam. Fue a Polonia, al lado de la potencia manufacturera de Alemania, cuyas empresas encontraron enormes beneficios al extender sus cadenas de valor para hacer uso de la mano de obra de bajos salarios que se encuentra al lado. Fue a México, pero mucho menos de lo que aquellos de nosotros que teníamos grandes esperanzas para el Tratado de Libre Comercio de América del Norte (TLCAN) a principios de la década de 1990 esperábamos. ¿En otros lugares? En general, no. Es un mosaico. La oportunidad de hacerse con un lugar sustancial en las redes de producción de cadenas de valor globales solo se abrió a unos pocos en el Sur Global. Las empresas tenían que invitar a los productores locales a unirse a sus redes de valor. Y aunque el conocimiento puede ser transmitido a través de internet, la confianza todavía requiere la interacción cara a cara. Puede que hayan sido el vuelo transoceánico sin escalas y las cadenas hoteleras internacionales la conexión clave en esta segunda desagregación.
Los concursos en curso sobre quién se beneficiaría y cuánto produjeron enormes ganancias para el mundo. Más del 80 por ciento de la población mundial vivía con menos de US$2 por día en 1870. Esa fracción se redujo al 7