Chapter Content

Calculating...

Also, it's kind of a wild ride, so buckle up!

Okay, also, it's a bit kompliziert, aber ich versuch's mal. Also, die Welt hat so in den 70ern angefangen, sich so'n bisschen neoliberal auszurichten, ne? Und so um 2000 war das dann auch fast komplett. Neoliberalismus in allen möglichen Varianten war dann irgendwie voll im Trend und hat so die politischen und wirtschaftlichen Entscheidungen beeinflusst.

Und das ist schon 'ne komische Sache eigentlich. Weil, dieser neoliberale Umschwung hat ja nicht wirklich zu mehr Investitionen, mehr Unternehmertum, schnellerem Wachstum oder besseren Löhnen für die Mittelschicht geführt. Stattdessen gab's halt viel mehr Ungleichheit. Also, warum hat das dann trotzdem funktioniert? Naja, die Neoliberalen haben sich halt für den Sieg im Kalten Krieg auf die Schulter geklopft, sie haben dafür gesorgt, dass die "Falschen" nichts bekommen, was sie nicht verdienen, und die Mächtigen haben halt immer wieder betont, dass sie die Lorbeeren für alles verdient haben, was die neoliberale Politik angeblich erreicht hat. So lief das dann halt.

Es gab da so vier Hauptkräfte, die das Ganze beeinflusst haben. Erstens, die Reglobalisierung nach dem Zweiten Weltkrieg. Das war so'n bisschen die Umkehrung von dem Rückschritt weg von der Globalisierung, die es so zwischen 1870 und 1914 gab. Zweitens, 'ne große technologische Veränderung: Ab Mitte der 50er hat der Stahlcontainer die Welt erobert. Drittens, noch 'ne technologische Veränderung: Die digitale Technologie mit ihren Nullen und Einsen hat die Welt im Sturm genommen. Und viertens, die neoliberale Politik selbst und wie die mit den anderen drei Kräften zusammengearbeitet hat. Und das alles zusammen hat die Reglobalisierung in 'ne Hyperglobalisierung verwandelt.

Tja, die Geschichte ist also nicht so einfach. Also, die Geschichte von Reglobalisierung, Informationstechnologie und Hyperglobalisierung hat zwei Seiten. Eine Seite betrifft die Folgen für den globalen Süden. Und die andere Seite betrifft die Folgen für den globalen Norden. Und ob du das jetzt alles toll findest oder nicht, hängt davon ab, ob du eher auf der Seite von Hayek oder Polanyi stehst.

Die Länder im globalen Süden, die es geschafft haben, neoliberale Ideen zu nutzen, um ihre Gesellschaften weniger korrupt zu machen – und die nicht von den negativen Folgen der neoliberalen Politik im globalen Norden getroffen wurden – konnten den globalen Weltmarkt nutzen, anstatt von ihm ausgenutzt zu werden. Zum ersten Mal seit 1870 mussten sich diese Länder nicht mehr vom globalen Norden abkoppeln und relativ gesehen ärmer werden, obwohl sie absolut gesehen reicher wurden. So ab 1990 hat der globale Süden im Großen und Ganzen ein höheres Einkommenswachstum als der globale Norden erlebt. Es sah also so aus, als ob der Markt tatsächlich zum Wohle der Menschheit funktionieren könnte.

Für die Länder im globalen Norden gab es natürlich auch Vorteile durch den zunehmenden Welthandel und die Verbreitung der Informationstechnologie. Aber diese Vorteile kamen vor allem denjenigen zugute, die an der Spitze der Gesellschaft standen. Ein gut bezahlter Job in 'ner Fabrik mit Tarifvertrag in derselben Region wie die Unternehmenszentrale bedeutete nicht mehr, dass man 'nen großen Teil des Gewinns abbekam. Re- und Hyperglobalisierung plus Informationstechnologie im Kontext des neoliberalen Umschwungs bedeuteten, dass Chefs und Ingenieure ihre Fabriken auch woanders auf der Welt hinstellen konnten. Durch den schnelleren Informationsfluss mussten sie auch nicht mehr in die Fabrik fahren, um zu sehen, was los ist, um sie zu verwalten und zu verbessern. In einigen Regionen des globalen Nordens, die zum ersten Mal seit 1870 die Deindustrialisierung erlebten, die der globale Süden schon lange kannte, wurden die Rechte von Polanyi besungen.

Aber das war eben nur ein Teil des Bildes. Der Durchbruch der Informationstechnologie Anfang der 90er bedeutete, dass der globale Norden anderthalb Jahrzehnte lang ein ähnlich hohes Produktivitätswachstum wie in den "Goldenen Dreißigern" erreichte. Und obwohl dieses Produktivitätswachstum aufgrund der Umstände nicht vollständig bei den Löhnen ankam, bedeutete es auch, dass die Verletzung der Erwartungen der Menschen und der Rechte von Polanyi eben auch nicht überall gleich stark war. Und das führte dann zu tiefgreifenden Veränderungen in der Art und Weise, wie politische und wirtschaftliche Entscheidungen getroffen wurden.

So bis 2007 waren die Neoliberalen an der Spitze noch zufrieden und dachten, alles läuft ganz gut. Sie dachten, das Produktivitätswachstum ist zurück und wenn sich die Einkommensverteilung stabilisiert, gibt es wieder breite Wachstumswellen und die Unzufriedenheit in der Bevölkerung wird abnehmen. Es sah also wieder so aus, als ob der Markt tatsächlich zum Wohle der Menschheit funktionieren könnte.

Aber diese Ansicht hat halt vieles übersehen, was wirklich vor sich ging. Nach 2007 waren die Finanzkrise und die Große Rezession, die in einem anderen Kapitel behandelt werden, Katastrophen für sich. Für dieses Kapitel ist es aber wichtig zu wissen, dass diese Katastrophen den Vorhang lüften und zeigen würden, dass die neoliberale Hybris wirklich ihre Strafe nach sich zog.

Die REGLOBALISIERUNG nach dem Zweiten Weltkrieg war wie 'ne Wiederholung der Geschichte nach 1870: die Etablierung einer internationalen Wirtschaftsordnung unter einer Führungsmacht plus 'ne Revolution der Transporttechnologie, die die Globalisierung wieder beschleunigte. Aber nach 1870 war Großbritannien als Führungsmacht alleine vorgegangen und hatte ein Muster vorgegeben, an das sich die anderen anpassen mussten. Die Vereinigten Staaten nach dem Zweiten Weltkrieg bauten Institutionen auf. So wurde die Zeit nach dem Zweiten Weltkrieg zu einer großartigen Zeit für neue globale Kooperationsorganisationen. Auf politischer Seite gab es natürlich die UN – die Vereinten Nationen – mit ihrem Sicherheitsrat, ihrer Generalversammlung und all ihren Zweigstellen.

Auf wirtschaftlicher Seite sollte es drei weitere Organisationen geben. Oder zumindest war das der Plan – aber es entstanden nur zweieinhalb. Die Vereinigten Staaten, die nun die führende Rolle spielten, wetteten darauf, dass der internationale Handel bald sowohl den internationalen Frieden als auch den nationalen Wohlstand fördern würde. Westeuropa schloss sich dieser Wette an, vor allem mit der Gründung der Europäischen Gemeinschaft für Kohle und Stahl Mitte der 50er Jahre, die sich zur heutigen Europäischen Union entwickelte. Und auf der Bretton-Woods-Konferenz 1944 entwarfen Harry Dexter White aus den Vereinigten Staaten und John Maynard Keynes aus Großbritannien ein System, um die zunehmende Globalisierung zum Guten zu nutzen.

Die drei geplanten Organisationen zur Förderung der globalen wirtschaftlichen Zusammenarbeit waren die Weltbank, der Internationale Währungsfonds (IWF) und – diejenige, die nicht vollständig zustande kam – die Internationale Handelsorganisation (ITO). Die Weltbank begann als Internationale Bank für Wiederaufbau und Entwicklung und wurde für den doppelten Zweck geschaffen, den Wiederaufbau nach den Kriegszerstörungen zu finanzieren und diejenigen Teile der Welt zu entwickeln, die die produktiven Möglichkeiten der industriellen Technologie noch nicht ergriffen hatten. Der IWF wurde geschaffen, um die Werte der Währungen und den Nettofluss finanzieller Ressourcen über die Grenzen hinweg zu verwalten, um Ländern, die die Bedingungen für ihren Handel ändern mussten, dies zu ermöglichen und um bestimmte Länder zu zwingen, ihren wirtschaftlichen Verpflichtungen nachzukommen. Und die geplante ITO sollte für beide Seiten vorteilhafte Zollsenkungen aushandeln und Handelsstreitigkeiten schlichten.

Aber während die Truman-Regierung die UN, die Weltbank und den IWF durch den US-Kongress brachte, entschied sie Ende 1950, dass die Ratifizierung der ITO eine internationale Organisation zu viel wäre. Es war, so die Regierung, zu viel vom Kongress verlangt. Zu diesem Zeitpunkt hatten sich die Gezeiten gegen das Ethos der offenen internationalen Zusammenarbeit gewendet, das in den unmittelbaren Nachkriegsjahren vorherrschend gewesen war; der lange Kampf zwischen der freien Welt und dem globalen Kommunismus, der als Kalter Krieg bekannt war, begann. Das Scheitern der ITO war eine Folge davon. Anstelle einer Organisation mit Zähnen, die dazu bestimmt war, die Beschlüsse in Handelsstreitigkeiten durchzusetzen, sollte es also ein Abkommen geben – ein Allgemeines Zoll- und Handelsabkommen (GATT), unter dessen Schirmherrschaft über Jahrzehnte hinweg mehrere Runden multilateraler Zollsenkungen ausgehandelt werden sollten. So gab es schon zu Beginn dieses Reglobalisierungsbestrebens Gegenströmungen, von denen dies die wichtigste war: Während die ITO von Ländern, Sektoren und Bevölkerungsgruppen verlangt hätte, alles zu akzeptieren, was der Markt ihnen als Reaktion auf automatische Zollsenkungen vorsetzte, erforderte das GATT, dass in jedem Unterzeichnerstaat eine nationale politische Koalition gebildet werden musste, bevor eine GATT-Zollsenkungsrunde abgeschlossen und in Kraft treten konnte.

Solche Koalitionen wurden gebildet. Zwischen 1947 und 1994 wurden acht Runden von Zollsenkungen ausgehandelt und umgesetzt: Genf (abgeschlossen 1947), Annecy (1949), Torquay (1950–1951), Genf II (1956), Genf III (1962, besser bekannt als Dillon-Runde, da sie von C. Douglas Dillon vorgeschlagen wurde, als er Unterstaatssekretär für den republikanischen Präsidenten Eisenhower war, und von C. Douglas Dillon abgeschlossen wurde, als er Finanzminister für den demokratischen Präsidenten Kennedy war), die Kennedy-(Memorial)-Runde (1967), die Tokio-Runde (1979) und die Uruguay-Runde (1994). In den 90er Jahren dauerte jede Runde fast ein Jahrzehnt, und zwischen den Runden herrschte fast ein Jahrzehnt lang Erschöpfung.

Aber das war nur ein Teil der Geschichte. Die Verbesserungen in der heimischen Produktion waren von 1914 bis 1950 schneller vorangeschritten als die Produktivitätssteigerungen im Ferntransport. Dann kehrte sich das Tempo um, mit Revolutionen im Seeverkehr, von denen die beeindruckendste die Einführung der Containerisierung war.

Der Frachtcontainer: Er ist 20 oder 40 Fuß lang, 8,5 oder 9,5 Fuß hoch und 8 Fuß breit. Er transportiert bis zu 29 Tonnen auf seinen 2.000 Kubikfuß empfohlenem verfügbaren Platz – Waren im Wert von etwa 500.000 US-Dollar (oder mehr), wenn sie im Einzelhandel verkauft werden. Er kann innerhalb eines Monats überall auf der Welt transportiert werden, wo es geeignete Häfen, Eisenbahnen, Lokomotiven, Flachwagen, Lastwagen und Straßen gibt. Er kann mit nicht zerbrechlichen, nicht verderblichen Gütern von jeder modernen Fabrik mit einer Laderampe zu jedem modernen Lagerhaus überall auf der Welt für vielleicht 1 Prozent des Einzelhandelswerts der Güter transportiert werden. Vor 1960 konnten die Kosten für internationale transozeanische Transporte für die meisten Güter leicht 15 Prozent des Einzelhandelswerts betragen. In den 50er Jahren hatte die Stadt San Francisco achthunderttausend Einwohner, von denen fünfzigtausend Seeleute waren, zumindest in Teilzeit. 1980 waren es weniger als ein Fünftel.

Als meine Familie eine in Deutschland hergestellte Waschmaschine in einem Lagerverkauf in San Leandro, Kalifornien, kaufte, also südlich von Oakland, hat es uns achtmal so viel gekostet, die Maschine vom Lager in unseren Keller zu bekommen, wie es gekostet hatte, sie von der Fabrik in Schorndorf ins Lager zu bringen.

Und so schritt die Reglobalisierung während der "Goldenen Dreißig Jahre" nach dem Zweiten Weltkrieg voran. Ein großer Teil der Expansion ging von der politisch-ökonomischen Seite aus, insbesondere als die Vereinigten Staaten den Zugang zu ihren Märkten als ein wichtiges Instrument im Kampf gegen den Kalten Krieg ansahen. Und dann setzte der positive Handelskreislauf ein: Die steigende Produktivität trieb die Nachfrage nach Gütern immer weiter in die Höhe, so dass die erweiterte Kapazität auf eine gestiegene Nachfrage traf. Bis 1975 hatte der Welthandel als Anteil an der globalen Wirtschaftstätigkeit wieder seinen Höchststand von 1914 von 25 Prozent erreicht – etwa ein Achtel dessen, was eine typische Region für Waren und Dienstleistungen ausgab, entfiel auf importierte Waren und Dienstleistungen, und etwa ein Achtel der Einnahmen einer typischen Region stammte aus dem Export von Waren und Dienstleistungen.

Dieser positive Kreislauf war im globalen Norden mit Abstand am stärksten. Die Tatsache, dass sich Industrie und Wissen über die Industrie von 1800 bis 1914 in den Industriegebieten des globalen Nordens konzentriert hatten, hatte Folgen, da die Schaffung von Ideen auf dem Ideenbestand aufbaut. Die frühere Industrialisierung des globalen Nordens beschleunigte das Wachstum des globalen Nordens, während die frühere Deindustrialisierung des globalen Südens das Wachstum des globalen Südens bremste. Die Generierung neuer Ideen hängt schließlich von der Dichte und dem Umfang des bereits eingesetzten Ideenbestands in der Region ab. Die Industriegebiete des globalen Nordens trieben das Wachstum also voran. Dieser positive Kreislauf war im globalen Süden, der durch die Auswirkungen der früheren Globalisierungswelle relativ deindustrialisiert worden war, viel weniger offensichtlich.

Wie konnte der globale Süden ohne pulsierende Produktionsstandorte und tiefe und dichte Communities von Ingenieuren von dieser Reglobalisierung profitieren? Die einzige Möglichkeit bestand darin, sich noch weiter in seinen Platz in der globalen Arbeitsteilung zu verbeißen. Das bedeutete, die wertvollen Ressourcen zu nutzen, die er besaß, wie z. B. Mineralien und tropische landwirtschaftliche Produkte, deren relative Preise weiter sanken. Und so wurde der globale Süden zwar während des Jahrzehnts der Reglobalisierung nach dem Zweiten Weltkrieg reicher, aber er wurde langsamer reicher, und die relative Einkommenslücke wuchs bis mindestens 1990 weiter an.

Vereinfacht gesagt konnte man in der ersten Nachkriegsgeneration verstehen, wer von der Reglobalisierung profitierte, indem man von der "Frown Curve" sprach. Am Anfang, auf der linken Seite, ist die Frown Curve niedrig: Es gibt relativ wenig Reichtum zu gewinnen, indem man Rohstoffe liefert, da das elastische Angebot und die unelastische Nachfrage bedeuten, dass die Rohstoffproduzenten, die als Gruppe hart daran arbeiten, ihre Produktivität zu steigern, kaum mehr tun können, als die Preise zu senken, zu denen sie verkaufen können, wenn die Produktivität steigt; und so gibt es relativ wenig Reichtum im Design zu gewinnen, da Konkurrenten etwas, das bereits existiert und sichtbar ist, schnell nachbauen können. Es gibt jedoch eine Menge Reichtum in der Mitte zu gewinnen, wo die Frown Curve hoch ist. Dort brachten das Know-how und das Know-what der Industriegebiete des globalen Nordens die enormen Effizienzgewinne der Massenproduktion des mittleren und späten 20. Jahrhunderts hervor. Und am Ende gibt es relativ wenig Reichtum zu gewinnen, auf der rechten Seite, wo die Frown Curve wieder niedrig ist: Marketing und Vertrieb – die Anpassung von Waren an die besonderen Bedürfnisse des Einzelnen oder zumindest die Überzeugung des Einzelnen, dass es sich lohnt, dafür zu bezahlen – ist auch nicht der Schwerpunkt.

Aber die Geschichte der Reglobalisierung durch politische Ökonomie und Containerisierung ist nur das erste Drittel der Geschichte dieses Kapitels. In den 80er Jahren gewann eine weitere große technologische Veränderung an Bedeutung, die einen starken Einfluss auf den Welthandel und weit darüber hinaus haben sollte: die Informationstechnologie. Es kam zu einer wahren Revolution bei den Kosten für den Transport von Bits, nicht von Waren, nicht von materiellen Objekten, sondern von Informationen. Das globale Kommunikations- und Dateninternet – und die massiven Glasfaserkabel, die unter dem Meer und unter der Erde verlaufen, sowie die Schmalband- und Rundfunksender, -empfänger und -satelliten, auf denen es basiert – haben die Welt ab den 90er Jahren erneut verändert.

ICH HABE in diesem Buch noch nicht viel darüber geschrieben, wie genau neue Technologien die kollektiven Kräfte des Menschen über die Natur erweitert haben, wie sie es uns ermöglicht haben, uns auf neue Weise zu organisieren, und was sie waren und was sie getan haben. Ich habe lediglich über ihre Wachstumsrate geschrieben: zum Beispiel die 2 Prozent pro Jahr beim Ideenwachstum nach 1870. Sich darauf zu konzentrieren, was sie waren und was sie getan haben, wäre ein ganz anderes Buch gewesen, eines, das eher einen Ingenieur als einen Politökonomen benötigt. Ich möchte hinzufügen, dass dieses andere Buch, kompetent ausgeführt, ein großartiges Buch über Dinge von großer, vielleicht überwältigender Bedeutung wäre. Das Buch "Der entfesselte Prometheus" meines verstorbenen Lehrers David Landes hat diese Aufgabe für Europa von 1750 bis 1965 erfüllt und ist bis heute ein Klassiker. Und Robert Gordon hat einen neuen Klassiker verfasst, der die Vereinigten Staaten seit 1870 in der gleichen Art und Weise behandelt.

Aber genau hier und jetzt halte ich es für angebracht, einige Merkmale dieser Technologien in den Mittelpunkt zu rücken. Betrachten wir die Idee der General Purpose Technologies (GPTs): Technologien, deren Fortschritte, wenn nicht alles, fast alles verändern, da sie sich über Sektor für Sektor verzweigen. Die Dampfkraft im frühen 19. Jahrhundert war die erste. Frühe Werkzeugmaschinen – die in ihrem Design und ihrer Konstruktion so viel technologisches Wissen darüber verkörpern, wie man Materialien formt – waren Mitte des 19. Jahrhunderts die zweite. Nach 1870 folgten dann Telekommunikation, Materialwissenschaft, organische Chemie, Verbrennungsmotoren, das Fließband, nachfolgende Werkzeugmaschinengenerationen und Elektrizität – die Technologien, deren Blütezeit Robert Gordons "eine große Welle" des technologischen Fortschritts ausmacht und die seiner Ansicht nach den globalen Norden im Zeitraum von 1870 bis 1980 veränderten und dann abebbten. Ab den 50er Jahren und mit dem Erreichen einer kritischen Masse in den 90er Jahren kam eine weitere GPT hinzu: die Mikroelektronik. Elektronen wurden nun nicht mehr zur Energieversorgung eingesetzt, sondern zur Unterstützung und Verstärkung von Berechnungen – und der Kommunikation. Und es stellte sich heraus, dass Mikroelektronik als Mikrocontroller die Konstruktion von Materialien ermöglichen könnte, die viel besser funktionieren und billiger und leichter sind, als wenn man sich auf dumme Materie verlässt, die mechanisch miteinander verbunden ist.

Nehmen wir die Quarzkomponenten des normalen Sandes. Reinigen und verflüssigen Sie sie, indem Sie sie auf mehr als 1.700 °C (3.100 °F) erhitzen. Fügen Sie Kohlenstoff hinzu, um die Sauerstoffatome aus dem Quarz zu entfernen und reines, geschmolzenes, flüssiges Silizium zurückzulassen. Kühlen Sie das Silizium ab und tauchen Sie kurz vor dem Erstarren einen kleinen Impfkristall hinein. Ziehen Sie dann den Impfkristall und das umliegende Silizium, das sich daran festsetzt, nach oben.

Wenn Sie das richtig gemacht haben, haben Sie dann einen monokristallinen Siliziumzylinder. Schneiden Sie ihn fein und dünn in "Wafer". Diese Wafer aus reinem Siliziumkristall leiten keinen Strom. Warum nicht? Aufgrund der vierzehn Elektronen eines Siliziumatoms können zehn nicht zu Strömen werden, weil sie an den Kern in dem gebunden sind, was Chemiker als ihre 1s- und 2sp-"Orbitale" bezeichnen. ("Orbital" ist eine Fehlbezeichnung: sie "umkreisen" nicht wirklich. Niels Bohr dachte vor über einem Jahrhundert, dass sie das tun, aber er hatte nicht Recht. Erwin Schrödinger hat ihn korrigiert.) Nur die vier äußersten Elektronen in den 3sp-Orbitalen könnten jemals mit Energie versorgt werden und sich dann bewegen, um zu elektrischen Strömen zu werden. Aber in reinem Silizium können sie das nie tun, weil sie zwischen dem Kern ihres Atoms und den Kernen ihrer vier Nachbarn im Kristall eingeschlossen sind. Genug Energie, um sie aus den 3sp-Orbitalen in die "Leitungsband"-Orbitale zu stoßen, würde den Kristall zerbrechen.

Aber nehmen wir an, Sie würden ein paar der Siliziumatome im Kristall ersetzen – 1 von 10.000 Atomen ist mehr als genug – durch Phosphoratome, die nicht vierzehn, sondern fünfzehn Elektronen haben. Vierzehn der Elektronen jedes Phosphoratoms verhalten sich wie die Elektronen des Siliziumatoms: Sie sind an ihrem Platz fixiert, fest an ihren Heimatkern in ihren 1s- und 2sp-Orbitalen gebunden, und die äußeren vier sind in ihrem 3sp-Orbital sowohl an ihren Heimatkern als auch an die vier benachbarten Kerne gebunden. Aber das fünfzehnte Elektron passt nicht hinein. Es findet einen energetisch höheren Orbitalzustand, in dem es nur lose an einen Kern gebunden ist. Es kann sich in Reaktion auf kleine Gradienten im lokalen elektrischen Feld bewegen und tut dies auch. Und so wird der Bereich Ihres Siliziumkristalls, den Sie mit Phosphor "dotiert" haben, zu einem Leiter von Elektrizität. Aber wenn Sie etwas tun würden, das diese fünfzehnten Elektronen wegnimmt und woanders hinbringt, würde dieser Bereich auch zu einem nichtleitenden Isolator wie der Rest des Kristalls werden. Ein dotierter Bereich eines Siliziumkristalls ist also wie der Ein-Aus-Schalter an Ihrer Wand, der Ihre Deckenleuchte steuert. Indem wir kleine Spannungen von elektrischem Strom und elektromagnetischem Druck anlegen oder entfernen, können wir diesen Schalter nach Belieben ein- und ausschalten und so den Strom nach Belieben fließen lassen oder nicht.

Gerade jetzt schnitzen die Maschinen, die die Halbleiterhersteller der Taiwan Semiconductor Manufacturing Company (TSMC) gekauft (von ASML Holding in den Niederlanden und Applied Materials im Silicon Valley) und installiert und programmiert haben, dreizehn Milliarden solcher Halbleiter-Festkörperschalter mit angeschlossenen Strom- und Kontrollpfaden auf ein Stück eines Wafers, der zu einem Kristallsilizium-"Chip" von etwa zwei Fünftel Zoll Breite und zwei Fünftel Zoll Höhe wird. Die Marketingmaterialien von TSMC deuten darauf hin, dass das kleinste der geschnitzten Merkmale nur fünfundzwanzig Siliziumatome breit ist. (Tatsächlich sind die Merkmale eher zehnmal so groß.) Wenn die dreizehn Milliarden Komponentenschalter dieses kleinen Chips aus Kristallgestein aus Sand korrekt geschnitzt sind und er seine Tests besteht, die erfordern, dass sich seine Strompfade 3,2 Milliarden Mal pro Sekunde genau und synchron ein- und ausschalten, landet der Chip im Herzen einer Maschine wie der, die mit der Tastatur verbunden ist, auf der diese Worte getippt wurden. Es wird ein Apple M1-Mikroprozessor sein, ein hochintegrierter Schaltkreis (VLSI), der aus diesen winzigen Schaltern aus dotiertem Siliziumkristall besteht, die wir Transistoren nennen.

William Shockley, John Bardeen und Walter Brattain werden die drei zugeschrieben, die 1947 im Bell Telephone Laboratories den ersten Transistor bauten. Dawon Kahng und Mohamed Atalla werden die zugeschrieben, die den ersten Metalloxid-Halbleiter-Feldeffekttransistor bauten. Jay Lasts Gruppe baute auf den Ideen von Robert Noyce und Jean Hoerni von Fairchild Semiconductor auf und baute den ersten betriebsbereiten Festkörper-Integralschaltkreis, der aus mehr als einem Transistor besteht. Bis 1964 stellte General Microelectronics einen 120-Transistor-Integralschaltkreis her und verkaufte ihn. Die vorherigen elektronischen Schaltkomponenten mit Vakuumröhren waren vier Zoll lang – einhundert Millimeter. Transistoren im Jahr 1964 waren ein Fünfundzwanzigstel Zoll, einen Millimeter voneinander entfernt: Sie waren hundertmal kleiner, so dass die zehntausendfache Rechenleistung in den gleichen Raum gepackt werden konnte, mit um Größenordnungen geringerem Stromverbrauch.

Gordon Moore, der damals ebenfalls bei Fairchild Semiconductor arbeitete, beobachtete 1965, dass die Anzahl der Festkörper-Mikroelektroniktransistoren in Frontier-Integralschaltkreisen in den sieben Jahren seit 1958 von eins auf hundert gestiegen war. Er machte eine kühne und hochspekulative Vorhersage, dass wir uns auf eine Zukunft mit "mit Komponenten vollgestopften Geräten" freuen könnten, und prognostizierte, dass 1975, also in nur zehn Jahren, ein einhundert Quadratmillimeter großer Siliziumchip fünfundsechzigtausend Komponenten aufnehmen würde. Das würde "elektronische Techniken im Allgemeinen in der gesamten Gesellschaft verfügbar machen, die viele Funktionen ausführen, die derzeit unzureichend durch andere Techniken oder gar nicht ausgeführt werden", sagte er. Er sagte "Heimcomputer – oder zumindest Terminals, die mit einem zentralen Computer verbunden sind, automatische Steuerungen für Automobile und persönliche tragbare Kommunikationsmittel" voraus. Er sagte, es würde "integrierte Schaltkreise in digitalen Filtern [geben], um Kanäle in Multiplexgeräten zu trennen", und prognostizierte Fortschritte bei Telefonschaltungen und der Datenverarbeitung. "Computer werden leistungsfähiger sein und auf völlig andere Weise organisiert werden", schloss er.

Bis 1971 hatten die Hersteller von integrierten Schaltkreisen vier Schritte abwärts zu einem feineren Verfahren für das Einschreiben von Mustern auf den Kristall unternommen. Der erste Mikroprozessor, der Intel 4004, packte zwanzigtausend Transistoren in einen Quadratmillimeter – die Merkmale waren zweihundert Mikrometer, zweihundert Millionstel Meter voneinander entfernt. Bis 2016 war der Abstand zwischen Merkmal und Trennung auf zweihundert Nanometer, zweihundert Milliardstel Meter gesunken. (Und bis 2021 würde es eine weitere Schrumpfung um mehr als die Hälfte geben, und die Abstände zwischen Merkmal und Trennung würden nur noch neunzig Nanometer – 450 Siliziumatome – betragen). Im Jahr 1979 benötigte man ein Watt Leistung, um eine MIPS – eine Million Anweisungen pro Sekunde – auszuführen. Bis 2015 konnte ein Watt mehr als eine Million MIPS antreiben. Als die Komponenten kleiner wurden, wurden sie schneller. Halbiert man die Größe des Merkmals, kann man es doppelt so schnell laufen lassen – bis zu einem gewissen Punkt. Vor 1986 vervierfachte sich die Geschwindigkeit von Mikroprozessoren alle sieben Jahre. Dann, mit dem Aufkommen der Einfachheit reduzierter Befehlssätze, kamen siebzehn Jahre, in denen jede Vervierfachung der Geschwindigkeit drei statt sieben Jahre dauerte. Nach 2003 kehrte die Vervierfachungszeit zu sieben Jahren zurück, bis weitere Geschwindigkeitsverbesserungen um das Jahr 2013 auf eine Mauer stießen.

Aber die Packung von immer mehr kleineren und kleineren Transistoren in VLSI-Chips wurde durch das fortgesetzt, was ich nur als tiefe Magie bezeichnen kann, wenn auch in einem langsameren Tempo als mit dem ursprünglichen "Moore'schen Gesetz". Ich kann lesen, dass die ASML TWINSCAN NXE:3400C-Maschine extrem ultraviolettes Licht mit einer Wellenlänge von 13,5 Nanometern verwendet, und denken: Diese Maschine hält sich selbst ausgerichtet und schnitzt zwanzig Millionen Linien mit ihren Lasern in den Siliziumkristall eines dreihundert Millimeter (zwölf Zoll) großen Wafers, ohne sich bei der Positionierung einer dieser Linien auch nur um ein Dreißigtausendstel eines menschlichen Haares zu irren. Und ich kann nicht begreifen, wie das regelmäßig und zuverlässig für variable Kosten von nur 50 US-Dollar pro Mikroprozessor möglich sein soll.

Während ihrer schnellsten Phase während der Informationstechnologierevolution hat das Unternehmen im Herzen der Innovationswirtschaft, der Mikroprozessor-Designer und -Hersteller Intel, geticktockt – tick, Verbesserung der mikroarchitektonischen Details seiner Mikroprozessoren, damit Programme schneller laufen können; tock, Verbesserung der feinen Auflösung seiner Fertigung, damit es die Merkmale und damit den gesamten Mikroprozessor kleiner machen kann – und einen vollen Zyklus in weniger als drei Jahren abgeschlossen. Da sich die Geschwindigkeit von Mikroprozessoren alle zwei Jahre verdoppelte und der Informationstechnologiesektor dies voll ausnutzte, stieg das gemessene, wirtschaftsweite Produktivitätswachstum nach 1995 wieder an – und kam dem goldenen Zeitalter unmittelbar nach dem Zweiten Weltkrieg nahe –, bis die Große Rezession Ende 2007 eintrat. Der geschaffene Reichtum wurde breit gestreut und unter den Nutzern verteilt, die bemerkenswerte Fähigkeiten erlangten, zu lernen, zu kommunizieren und sich zu erstaunlich niedrigen Preisen unterhalten zu lassen, sowie den Technoprinzen des Silicon Valley und denen, die ihnen halfen. Es gab wirtschaftliche Umbrüche: Verlierer. Es gab eine halbe Million Frauen in den Vereinigten Staaten, die 1960 Telefonzentralen in Telefongesellschaften und an Empfangstischen besetzten. Heute sind es weniger als zweitausend. Aber größtenteils und auf nationaler Ebene hat das Aufkommen der Informationstechnologie bis zu einer kritischen Masse eher die Aufgaben verändert, die erledigt werden mussten, um den Beruf auszumachen, als die Berufe selbst zu zerstören.

Als sich die Informationstechnologie in der Wirtschaft verbreitete, veränderte sich die Art der Arbeit. Wir ostafrikanischen Ebenenaffen haben seit langem starke Rücken und Oberschenkel, mit denen wir schwere Gegenstände bewegen können, flinke Finger, um feine Arbeiten zu verrichten, Münder und Ohren, mit denen wir kommunizieren können, und Gehirne, mit denen wir denken und Symbole manipulieren können. Beginnend mit der Domestizierung des Pferdes und fortgesetzt mit der Dampfmaschine war der Platz von Rücken und Oberschenkeln in der menschlichen Arbeit bis 1870 stark reduziert worden, aber es gab noch viel Feinarbeit zu erledigen. Mit dem Aufkommen der Elektrizität und ihrer Maschinen begannen auch menschliche Finger durch Maschinen ersetzt zu werden, aber es gab immer noch eine riesige Menge an komplexen Designs zu erledigen, zusammen mit Brainstorming und routinemäßiger Buchhaltung und Information, alles Arbeiten, die von Gehirnen, Mündern und Ohren erledigt werden mussten. Jede Maschine benötigte einen Mikrocontroller, und das menschliche Gehirn war bei weitem der beste, der verfügbar war. Die Technologie hatte also bisher die Arbeit eher ergänzt als ersetzt: Mehr Maschinen und mehr Informationstechnologie machten die Menschen wertvoller und produktiver, anstatt weniger. Aber für viele schien die neue Arbeit weniger wie die Art von Dingen zu sein, die ein hoch angesehener Handwerksmeister tun würde, sondern eher wie die Aufgaben, die von einem Diener verlangt werden – entweder des Kunden oder der zunehmend autonom aussehenden Maschine selbst.

Auf internationaler Ebene verwandelten sich Informationstechnologie und die anhaltende Reglobalisierung in den 90er Jahren, als die Informationstechnologie eine kritische Masse erreichte, in Hyperglobalisierung.

Der internationale Ökonom Richard Baldwin hat den Puls dessen gefühlt, was er die "zweite Entflechtung" nennt: die der innerbetrieblichen Kommunikation. Mit dem Aufkommen des Internets war es nicht mehr notwendig, dass die hochentwickelte industrielle Arbeitsteilung eines Unternehmens geografisch konzentriert war. Man musste nicht mehr zu den Büros und Fabriken seines Zulieferers laufen oder fahren, um ihm zu zeigen, dass das, was er hatte, nicht ganz das war, was man brauchte. Man konnte, erstens, in den 80er Jahren, ein Bild zeichnen und ein Fax schicken. Dann, in den 90er Jahren, konnte man eine E-Mail schicken. Ende der 2000er Jahre konnte man Dateien mit mehreren Megabyte um die ganze Welt schicken.

Und für diejenigen – viele – Fälle, in denen Worte auf Papier oder Worte und Bilder auf dem Bildschirm nicht ausreichten? Nach 1990 konnte man immer häufiger in einen transozeanischen Nonstop-Jet über Nacht springen. Es heißt, Apple Computer habe in den Monaten vor dem Aufkommen der COVID-19-Plage täglich fünfzig Plätze in der ersten Klasse zwischen San Francisco und China hin und her gehabt. Und für diejenigen Fälle, in denen die Grenzen der Arbeitsteilung nicht so sehr die Vermittlung von Wissen waren, sondern die persönliche, ins-Auge-schauende Herstellung von Vertrauen und dessen Grenzen? Auch da funktionierte der transozeanische Flug.

So begann sich nach 1990 die Fertigung, die sich seit 1800 zunehmend im globalen Norden konzentriert hatte, mit enormer Geschwindigkeit vom globalen Norden wegzubewegen. Nicht nur eine bessere – sondern revolutionär und superlativ bessere – Kommunikation machte es möglich, das, was regionale Konzentrationen von Unternehmen gewesen war, in weltumspannende Wertschöpfungsketten zu verwandeln. Die außergewöhnlichen Lohnunterschiede, die ein Jahrhundert wirtschaftlicher Divergenz zwischen dem globalen Norden und dem globalen Süden geschaffen hatte, machten all dies immens profitabel. Im Laufe einer Generation wurde mit der Ausbreitung der Produktion in weltumspannende Wertschöpfungsketten ein Großteil der globalen Fertigung sowohl High-Tech als auch Niedriglohn.

Wie Baldwin es formulierte, wurde die Logik der globalen Produktion nach 1990 zunehmend von der "Smile Curve" bestimmt: niedrig in der Mitte, hoch am Anfang und am Ende. Am Anfang wurde ein großer Wert dadurch verdient, dass Rohstoffe und Ressourcen und, was noch wichtiger ist, Industriedesign bereitgestellt wurden. In der Mitte wurde wenig Wert durch zunehmend routinierte Fertigung und Montage hinzugefügt. Und am Ende wurde ein großer Wert durch Marketing, Branding und Vertrieb hinzugefügt – die Bereitstellung von Informationen (und Fehlinformationen) für die Verbraucher darüber, was sie von der enormen Vielfalt an Warenarten und -qualitäten erwarten könnten, die aus der wachsenden Kapazität der Fabriken hervorgebracht werden könnten. Und es war wieder einmal ein Flickenteppich. An ausgewählten Orten geschahen sehr gute Dinge. Andere Orte, die kulturell, politisch und einstellungsmäßig nahe beieinander lagen, wurden zurückgelassen – entweder ihre Industrien, auf die sie sich für relativ hochwertige und einkommensstarke Nischen in der globalen Verteilung der guten Dinge stützten, packten ihre Sachen und zogen weg, oder sie kamen nie an.

Obwohl ich gesagt habe, dass dieser "zweite Entflechtungsprozess" die Fertigung in den globalen Süden verlagerte, ist das nicht ganz richtig. Die globale High-Tech-Fertigung ging nach Korea, so sehr, dass Korea jetzt ein vollwertiges Mitglied des globalen Nordens ist, neben Japan und Taiwan. Sie ging vor allem in Teile Chinas – aber speziell in die Wachstumszentren der Megastädte des Perlflussdeltas, Shanghai und Peking und in zweiter Linie an die Küsten, aber nicht ins Landesinnere. Sie ging auch nach Indien – aber überwiegend nach Maharashtra und Karnataka, nicht nach Uttar Pradesh. Sie ging nach Indonesien, Thailand und Malaysia und geht jetzt nach Vietnam. Sie ging nach Polen, direkt neben dem Produktionskraftwerk Deutschland, dessen Unternehmen enorme Vorteile darin sahen, ihre Wertschöpfungsketten auszuweiten, um die billigen Arbeitskräfte in der Nachbarschaft zu nutzen. Sie ging nach Mexiko, aber viel weniger als diejenigen von uns, die sich in den frühen 90er Jahren große Hoffnungen auf das Nordamerikanische Freihandelsabkommen (NAFTA) gemacht hatten. Anderswo? Im Großen und Ganzen nicht. Es ist ein Flickenteppich. Die Möglichkeit,

Go Back Print Chapter