Chapter Content

Calculating...

Bon, alors... comment dire... On va parler un petit peu de, enfin, de ce qui s'est passé, quoi, avec la reglobalisation, les technologies de l'information, et, euh, ce qu'on appelle l'hyperglobalisation, hein ? C'est un peu touffu, comme sujet, mais bon, on va essayer de débroussailler ça ensemble.

Euh, faut savoir que le monde, il a commencé à prendre un virage néolibéral dans les années 70, hein. Et puis, en gros, vers l'an 2000, ce virage, il était, euh, quasi complet, quoi. Le néolibéralisme, sous différentes formes, il avait le vent en poupe, et il fournissait en quelque sorte les hypothèses et les pratiques par défaut pour la gouvernance de l'économie politique mondiale.

Bon, euh, cette ascension, c'est un peu un mystère, hein. Parce que, en fait, le virage néolibéral, il avait pas vraiment réussi à apporter plus d'investissements, plus d'entrepreneuriat, une croissance de la productivité plus rapide, ni même à rétablir la croissance des salaires et des revenus de la classe moyenne. Non, en fait, les nouvelles politiques, elles avaient surtout généré une inégalité massive des revenus et des richesses. Alors, on se demande, hein, quel était l'intérêt ? Eh bien, l'ordre néolibéral, il tenait bon parce qu'il s'attribuait le mérite de la victoire dans la Guerre froide, il se vantait d'avoir fait en sorte que les "indignes" ne reçoivent rien qu'ils ne méritaient pas, et puis, surtout, parce que les puissants utilisaient leurs porte-voix pour répéter haut et fort qu'ils méritaient le crédit pour tout ce que, selon eux, les politiques néolibérales avaient accompli. Et, euh, voilà, quoi, on a joué la main qui avait été distribuée, si on peut dire.

Euh, en gros, quatre forces, en particulier, ont fait que les choses se sont déroulées comme ça, hein. La première, c'est la reglobalisation post-Seconde Guerre mondiale, quoi, le renversement du recul par rapport à la mondialisation de 1870-1914 qui avait eu lieu entre 1914 et 1950. La deuxième, c'est un grand changement technologique : à partir du milieu des années 50, le conteneur maritime en acier a conquis le monde. La troisième, c'est un autre grand changement technologique : les zéros et les uns, quasiment immatériels, des technologies de l'information, ont aussi conquis le monde. Et puis la quatrième, c'est les politiques néolibérales elles-mêmes, et leur interaction avec les trois autres. Ensemble, ces quatre forces ont transformé la reglobalisation en hyperglobalisation.

Voilà, il devrait être clair que l'histoire que je vous raconte, elle est pas simple, hein. Et pour la rendre encore plus complexe, l'histoire de la reglobalisation, des technologies de l'information, et de l'hyperglobalisation à l'époque où le monde a pris le virage néolibéral, elle a deux volets, quoi. Un volet, il suit les conséquences de la reglobalisation, de l'essor des technologies de l'information, et puis de l'hyperglobalisation, pour ce qu'on appelle le Sud global. Et puis le deuxième, il se concentre sur les conséquences pour le Nord global. Et, bon, le bilan qu'on tire au final – est-ce que c'était génial, bien, ou autre chose ? – ça dépend vraiment de si votre saint patron, c'est Hayek ou Polanyi.

Les pays du Sud global qui ont réussi à utiliser les idées néolibérales pour rendre leurs propres sociétés moins corrompues (et qui ont échappé aux conséquences négatives des politiques néolibérales dans le Nord global) se sont retrouvés capables d'utiliser le marché mondial, au lieu d'être utilisés par lui. Pour la première fois depuis 1870, ces économies, elles étaient plus forcées de diverger de la trajectoire du Nord global, en devenant relativement plus pauvres même si elles s'enrichissaient en termes absolus. À partir de 1990, en gros, le Sud global a commencé à connaître une croissance réelle des revenus plus rapide que le Nord global, hein. Et donc, euh, il semblait que le fonctionnement du marché pourrait en fait être bénéfique à l'humanité.

Pour les pays du Nord global, il y a eu des gains grâce à l'augmentation du commerce mondial et à la diffusion des technologies de l'information. Mais ces gains, ils se sont retrouvés concentrés entre les mains de ceux qui étaient au sommet des sociétés du Nord global, ce qui a encore enrichi les riches. Avoir un emploi syndiqué dans une usine dans la même région que le siège social, ça voulait plus dire qu'on obtenait une part correcte de cette richesse qui se concentrait. La reglobalisation et l'hyperglobalisation, plus les technologies de l'information, dans le contexte du virage néolibéral, ça voulait dire que les patrons et les ingénieurs, ils se sont rendu compte qu'ils pouvaient délocaliser leurs usines ailleurs dans le monde. Et puis, la circulation de l'information qui s'est accélérée à fond, ça voulait dire qu'ils avaient plus besoin d'aller à l'usine pour voir ce qui se passait, la gérer et l'améliorer. On a entendu des élégies pour les droits polanyiens dans des régions du Nord global qui ont connu pour la première fois la désindustrialisation que le Sud global connaissait depuis avant 1870.

Mais bon, euh, les "hillbillies" élégiaques, c'était juste une pièce du puzzle du Nord global, hein : un thème parmi d'autres dans un arrangement plus compliqué. La réalisation d'une masse critique par les technologies de l'information au début des années 90, ça voulait dire que le Nord global a atteint une croissance de la productivité équivalente à celle des Trente Glorieuses pendant une quinzaine d'années. Et, même si le fonctionnement du Second Âge d'or a empêché cette croissance de la productivité de se répercuter pleinement sur les salaires, ça voulait aussi dire que la violation des attentes des gens et des droits polanyiens était, euh, elle aussi, "en mosaïque" : ici, mais pas là, et pas dans la même mesure. Un des résultats, c'est des changements profonds dans les fondements de la façon dont les décisions politico-économiques étaient prises.

Encore en 2007, les néolibéraux au sommet pouvaient se féliciter, en croyant que les choses allaient pas trop mal, et qu'elles continueraient à aller pas trop mal, hein. La croissance de la productivité semblait être de retour, et, ils se disaient, quand la répartition des revenus se stabiliserait, des vagues de croissance généralisées reprendraient et les poches de mécontentement populiste s'atténueraient. Au sommet, il semblait, encore une fois, que le fonctionnement du marché pourrait en fait être bénéfique à l'humanité.

Mais bon, cette croyance, elle passait à côté de beaucoup de ce qui se passait réellement en dessous, hein. Après 2007, la crise financière et la Grande Récession, qui feront l'objet d'un autre chapitre, ont été toutes les deux des catastrophes à part entière, hein. Mais ce qui est utile à savoir pour ce chapitre, c'est que ces désastres, ils allaient lever le voile et révéler que l'hubris néolibérale avait vraiment engendré la némésis.

La REGLOBALISATION POST-SECONDE GUERRE MONDIALE, c'était une rime de l'histoire avec le schéma d'après 1870, hein : la mise en place d'un ordre économique international sous un hégémon, plus une révolution dans les technologies de transport, qui faisaient progresser la mondialisation à un rythme rapide, une fois de plus. Mais après 1870, la Grande-Bretagne en tant qu'hégémon, elle avait agi seule, en établissant un schéma dans un isolement splendide auquel les autres devaient s'adapter. Les États-Unis après la Seconde Guerre mondiale, ils ont construit des institutions, et donc l'ère post-Seconde Guerre mondiale est devenue une grande époque pour les nouvelles organisations de coopération mondiale. Sur le plan politique, bien sûr, il y avait l'ONU – les Nations Unies – avec son Conseil de sécurité, son Assemblée générale, et toutes ses branches.

Sur le plan économique, il y aurait trois autres organisations. Ou du moins, c'était le plan – seulement deux et demie ont réellement vu le jour. Les États-Unis, nouvellement dominants, ont parié que le commerce international deviendrait bientôt un catalyseur à la fois de la paix internationale et de la prospérité intérieure. L'Europe de l'Ouest s'est jointe à ce pari, notamment avec la création au milieu des années 50 de la Communauté européenne du charbon et de l'acier pour le libre-échange de ces matières premières, une initiative qui s'est transformée en l'Union européenne d'aujourd'hui. Et, à la Conférence de Bretton Woods en 1944, Harry Dexter White, des États-Unis, et John Maynard Keynes, de Grande-Bretagne, ont conçu un système pour essayer de faire en sorte que la mondialisation accrue fonctionne pour le bien.

Les trois organisations prévues pour promouvoir la coopération économique mondiale étaient la Banque mondiale, le Fonds monétaire international (FMI), et – celle qui n'a pas pleinement vu le jour – l'Organisation internationale du commerce (OIC). La Banque mondiale a commencé comme ce qu'on appelait la Banque internationale pour la reconstruction et le développement, et elle a été créée dans le double but de financer la reconstruction à la suite des destructions de la guerre, et de développer les parties du monde qui n'avaient pas encore saisi les opportunités productives de la technologie industrielle. Le FMI a été créé pour gérer les valeurs des monnaies et les flux nets de ressources financières à travers les frontières, pour permettre aux pays qui avaient besoin de réajuster les conditions de leurs échanges, et pour contraindre certains pays à honorer leurs obligations économiques. Et l'OIC qui était prévue, elle allait négocier des réductions de tarifs douaniers mutuellement bénéfiques et arbitrer les différends commerciaux.

Mais, tandis que l'administration Truman a fait adopter à travers le Congrès américain l'ONU, la Banque mondiale, et le FMI, elle a décidé à la fin de 1950 que la ratification de l'OIC serait une organisation internationale de trop. C'était, selon l'administration, trop demander au Congrès. À ce moment-là, les vents avaient tourné contre l'éthos de coopération internationale ouverte qui avait dominé dans les années d'après-guerre immédiates ; la longue lutte crépusculaire entre le monde libre et le communisme mondial, connue sous le nom de Guerre froide, commençait. La disparition de l'OIC en a été une conséquence. Et donc, au lieu d'une organisation avec des dents destinée à faire appliquer les résolutions aux différends commerciaux, il devait y avoir un accord – un Accord général sur les tarifs douaniers et le commerce (GATT), sous l'égide duquel de multiples cycles de réductions tarifaires multilatérales seraient négociés au fil des décennies. Ainsi, même au début de cette relance de la reglobalisation, il y avait des contre-courants, dont celui-ci était le principal : tandis que l'OIC aurait exigé des pays, des secteurs, et des classes qu'ils acceptent tout ce que le marché leur mettait devant en réponse à des réductions tarifaires automatiques, le GATT exigeait qu'une coalition politique intérieure soit constituée dans chaque pays signataire avant qu'un cycle de réduction tarifaire du GATT puisse être achevé et entrer en vigueur.

De telles coalitions ont été constituées. Huit cycles de réductions tarifaires ont été négociés et mis en œuvre entre 1947 et 1994 : Genève (achevé en 1947), Annecy (1949), Torquay (1950–1951), Genève II (1956), Genève III (1962, plus communément appelé le Dillon Round, car il a été proposé par C. Douglas Dillon quand il était sous-secrétaire d'État pour le président républicain Eisenhower et conclu par C. Douglas Dillon quand il était secrétaire au Trésor pour le président démocrate Kennedy), le Kennedy (Memorial) Round (1967), le Tokyo Round (1979), et l'Uruguay Round (1994). Dans les années 90, chaque cycle prenait près d'une décennie à négocier, avec près d'une décennie d'épuisement entre les cycles.

Mais bon, c'était qu'une partie de l'histoire, hein. Les améliorations de la production intérieure, elles avaient progressé plus vite que les améliorations de la productivité dans le transport longue distance de 1914 à 1950. Puis les rythmes se sont inversés, avec des révolutions dans le transport maritime, dont la plus impressionnante a été l'avènement de la conteneurisation.

Le conteneur de fret : il fait 20 ou 40 pieds de long, 8,5 ou 9,5 pieds de haut, et 8 pieds de large. Il transporte jusqu'à 29 tonnes dans ses 2 000 pieds cubes d'espace disponible recommandé – des marchandises d'une valeur d'environ 500 000 dollars (ou plus) lorsqu'elles sont vendues au détail. Il peut être transporté en un mois n'importe où dans le monde où il y a des ports appropriés, des chemins de fer, des locomotives, des wagons plats, des tracteurs routiers, et des routes. Il peut être déplacé, transportant des marchandises non fragiles et non périssables, de n'importe quelle usine moderne avec un quai de chargement à n'importe quel entrepôt moderne n'importe où dans le monde pour peut-être 1 % de la valeur au détail des marchandises. Avant 1960, les coûts d'expédition transocéanique internationale pour la plupart des marchandises pouvaient facilement représenter 15 % de la valeur au détail. Dans les années 50, la ville de San Francisco comptait huit cent mille habitants, et cinquante mille d'entre eux étaient des débardeurs, au moins à temps partiel. En 1980, il y en avait moins d'un cinquième.

Quand ma famille a acheté une machine à laver de fabrication allemande dans un magasin-entrepôt à San Leandro, en Californie, juste au sud de la ville d'Oakland, comme nous ici à Berkeley sommes au nord, ça nous a coûté huit fois plus cher d'amener la machine de l'entrepôt à notre sous-sol que ça n'avait coûté de l'amener de l'usine où elle avait été fabriquée, à Schorndorf, à l'entrepôt.

Et donc, la reglobalisation a progressé pendant les Trente Glorieuses après la Seconde Guerre mondiale, hein. Une grande partie de la force d'expansion venait du côté politico-économique, surtout que les États-Unis ont fini par considérer l'accès à leurs marchés comme un outil important dans la lutte contre la Guerre froide. Et puis le cercle vertueux du commerce s'est mis en place : la hausse de la productivité a entraîné une demande de biens toujours plus forte, et donc la capacité d'expansion a été satisfaite par l'expansion de la demande. En 1975, le commerce mondial en tant que part de l'activité économique mondiale était revenu à son pic de 1914 de 25 % – environ un huitième de ce qu'une région typique dépensait en biens et services était pour les biens et services importés, et environ un huitième des revenus d'une région typique provenait de l'exportation de biens et services.

Ce cercle vertueux était de loin le plus fort dans le Nord global. Le fait que la période 1800-1914 avait concentré l'industrie et la connaissance de l'industrie dans les districts industriels du Nord global, ça avait des conséquences, hein, puisque la création d'idées s'appuie sur le stock d'idées. L'industrialisation antérieure du Nord global a accéléré la croissance du Nord global, tandis que la désindustrialisation antérieure du Sud global a freiné la croissance du Sud global. La génération de nouvelles idées, après tout, elle dépend de la densité et de l'ampleur du stock d'idées déjà déployées et utilisées dans la région. Les districts industriels du Nord global ont donc entraîné la croissance vers l'avant. Ce cercle vertueux était beaucoup moins évident dans le Sud global, qui, souvenez-vous, avait été relativement désindustrialisé par le fonctionnement de la vague de mondialisation antérieure.

Sans des districts manufacturiers dynamiques et des communautés profondes et denses de pratiques d'ingénierie qui lui soient propres, comment le Sud global pouvait-il bénéficier de cette reglobalisation ? La seule façon, c'était de s'ancrer davantage dans sa place dans la division du travail mondiale. Ça voulait dire profiter des ressources précieuses qu'il possédait, comme les minéraux et les produits agricoles tropicaux, dont les prix relatifs continuaient de baisser. Et donc, même si le Sud global s'est enrichi pendant la décennie de reglobalisation après la Seconde Guerre mondiale, il s'est enrichi plus lentement, et l'écart de revenus relatif a continué de se creuser au moins jusqu'en 1990.

Dans la première génération d'après la Seconde Guerre mondiale, en résumé, on pouvait comprendre qui bénéficiait de la reglobalisation en parlant de la "courbe de froncement de sourcils" (frown curve). Au début, le côté gauche, la courbe de froncement de sourcils est bas : il y a relativement peu de richesse à gagner en fournissant des matières premières, car l'offre élastique et la demande inélastique signifient que les producteurs de produits primaires, qui en tant que groupe travaillent dur pour augmenter leur productivité, ne peuvent guère faire plus que réduire les prix auxquels ils peuvent vendre à mesure que la productivité augmente ; et donc il y a relativement peu de richesse à gagner dans la conception, car les concurrents peuvent rapidement faire de la rétro-ingénierie sur quelque chose qui existe déjà et qui est visible. Il y a, cependant, beaucoup de richesse à gagner au milieu, là où la courbe de froncement de sourcils est haute. Là, le savoir-faire et le savoir-quoi des districts industriels du Nord global ont apporté les énormes gains d'efficacité de la production de masse du milieu et de la fin du XXe siècle. Et il y a relativement peu de richesse à gagner à la fin, le côté droit, là où la courbe de froncement de sourcils est à nouveau basse : le marketing et la distribution – faire correspondre les marchandises aux besoins particuliers des individus, ou au moins convaincre les individus qu'il vaut la peine de vous payer pour le faire – ce n'est pas non plus là où se trouve l'essentiel de l'action.

Mais l'histoire de la reglobalisation via la politique économique et la conteneurisation, c'est que le premier tiers de l'histoire de ce chapitre. Dans les années 80, il y a eu un autre énorme changement technologique qui prenait de l'ampleur et qui allait avoir de puissantes influences sur le commerce mondial et bien au-delà : les technologies de l'information. Il y a eu une véritable révolution dans le coût du transport non pas des biens, mais des bits, non pas des objets matériels, mais de l'information. L'internet mondial de communication et de données – et les câbles sous-marins et souterrains massifs en fibre optique, plus les émetteurs, les récepteurs, et les satellites à diffusion sélective et à large diffusion, sur lesquels il repose – a transformé le monde à nouveau à partir des années 90.

J'AI PAS ÉCRIT beaucoup dans ce livre sur la façon précise dont les nouvelles technologies ont fait progresser les pouvoirs collectifs humains sur la nature, sur la façon dont elles nous ont permis de nous organiser de nouvelles façons, et sur ce qu'elles étaient et ce qu'elles ont fait. J'ai simplement écrit sur leur taux de croissance : par exemple, les 2 % par an de croissance des idées après 1870. Se concentrer sur ce qu'elles étaient et ce qu'elles ont fait aurait été un livre très différent, un livre qui a besoin de plus d'un ingénieur et de moins d'un économiste politique. Permettez-moi d'ajouter que ce livre différent, réalisé avec compétence, serait un grand livre sur des choses d'une importance vitale, peut-être écrasante. Le livre de mon regretté professeur David Landes, The Unbound Prometheus, a accompli cette tâche pour l'Europe de 1750 à 1965, et il reste un classique. Et Robert Gordon a écrit un nouveau classique couvrant les États-Unis depuis 1870 dans la même veine.

Mais là, tout de suite, je pense qu'il est approprié d'amener certaines caractéristiques de ces technologies au centre de la scène. Considérez l'idée des Technologies à Usage Général (GPT) : ces technologies dont les avancées changent, si ce n'est tout, presque tout, car elles se ramifient à travers secteur après secteur. La machine à vapeur au début des années 1800 a été la première. Les premières machines-outils – incarnant dans leur conception et leur construction tant de connaissances technologiques sur la façon de façonner les matériaux – au milieu des années 1800 ont été la deuxième. Puis, après 1870, sont venues les télécommunications, la science des matériaux, la chimie organique, les moteurs à combustion interne, la chaîne de montage, les générations ultérieures de machines-outils, et l'électricité – les technologies dont la floraison constitue la "grande vague" d'avancée technologique de Robert Gordon, et qu'il considère comme transformant le Nord global sur la période 1870-1980 puis s'estompant. À partir des années 50 et atteignant une masse critique dans les années 90, il y a eu une autre GPT : la microélectronique. Les électrons ont maintenant été amenés à danser non pas au service de la fourniture d'énergie, mais plutôt pour aider et amplifier le calcul – et la communication. Et il s'est avéré que la microélectronique en tant que microcontrôleurs pouvait permettre la construction de matériaux qui pouvaient fonctionner beaucoup mieux et qui étaient moins chers et plus légers que de compter sur de la matière inerte agencée de manière mécaniquement liée.

Prenez les composants en quartz du sable commun. Purifiez-les et liquéfiez-les en les chauffant à plus de 1 700 °C (3 100 °F). Ajoutez du carbone pour extraire les atomes d'oxygène du quartz, laissant derrière du silicium liquide pur fondu. Refroidissez le silicium, et, juste avant qu'il ne se solidifie, laissez tomber un petit cristal germe dedans. Puis remontez le cristal germe et le silicium environnant s'y attachant.

Si vous avez fait cela correctement, vous aurez alors un cylindre de silicium monocristallin. Tranchez-le finement et finement en "plaquettes". Ces plaquettes de cristal de silicium pur ne conduisent pas l'électricité. Pourquoi pas ? À cause des quatorze électrons d'un atome de silicium, dix ne peuvent pas bouger pour devenir des courants car ils sont verrouillés au noyau dans ce que les chimistes appellent leurs "orbitales" 1s et 2sp. ("Orbitale" est un terme impropre : ils ne sont pas vraiment en "orbite". Niels Bohr il y a un siècle et plus pensait qu'ils l'étaient, mais il n'avait pas raison. Erwin Schrödinger l'a corrigé.) Seuls les quatre électrons les plus externes, dans les orbitales 3sp, pourraient un jour être excités puis se déplacer pour devenir des courants électriques. Mais dans le silicium pur, ils ne peuvent jamais le faire car ils sont verrouillés entre le noyau de leur atome et les noyaux de ses quatre voisins dans le cristal. Assez d'énergie pour les faire sortir des orbitales 3sp et les faire entrer dans les orbitales de la "bande de conduction" briserait le cristal.

Mais supposez que vous remplaciez quelques-uns des atomes de silicium dans le cristal – 1 atome sur 10 000 est plus que suffisant – par des atomes de phosphore, qui n'ont pas quatorze, mais quinze électrons chacun. Quatorze des électrons de chaque atome de phosphore agiront comme les électrons de l'atome de silicium : verrouillés en place, étroitement liés dans leurs orbitales 1s et 2sp à leur noyau d'origine, et les quatre externes liés dans leur orbitale 3sp à la fois à leur noyau d'origine et aux quatre noyaux voisins. Mais le quinzième électron ne peut pas s'insérer. Il trouve un état d'orbitale à plus haute énergie, dans lequel il n'est que faiblement lié à un seul noyau. Il peut se déplacer et se déplace en réponse à de petits gradients dans le champ électrique local. Et donc la région de votre cristal de silicium que vous avez "dopée" avec du phosphore devient un conducteur d'électricité. Mais si vous faisiez quelque chose qui éloignait ces quinzièmes électrons vers un autre endroit, cette région deviendrait alors également un isolant non conducteur comme le reste du cristal. Une région dopée d'un cristal de silicium est donc comme l'interrupteur marche-arrêt sur votre mur qui contrôle votre plafonnier. En appliquant ou en supprimant de petites tensions de courant électrique et de pression électromagnétique, nous pouvons allumer et éteindre cet interrupteur comme nous le choisissons, et ainsi laisser le courant passer ou non comme nous le choisissons.

À l'heure actuelle, dans les fabricants de semi-conducteurs de la Taiwan Semiconductor Manufacturing Company (TSMC), les machines qu'elle a achetées (à ASML Holding aux Pays-Bas et à Applied Materials dans la Silicon Valley) et installées et programmées gravent treize milliards de tels interrupteurs semi-conducteurs à semi-conducteurs avec des chemins de courant et de contrôle attachés sur un morceau de plaquette qui deviendra une "puce" en silicium cristallin d'environ deux cinquièmes de pouce de large et deux cinquièmes de pouce de haut. Les documents de marketing de TSMC impliquent que la plus petite des caractéristiques gravées ne fait que vingt-cinq atomes de silicium de large. (En réalité, les caractéristiques sont plutôt dix fois plus grandes.) Si les treize milliards d'interrupteurs composants de cette petite puce de roche cristalline faite de sable étaient gravés correctement, et qu'elle passe ses tests, qui exigent que ses chemins de courant s'allument et s'éteignent avec précision et synchronisation 3,2 milliards de fois par seconde, la puce finira par se retrouver au cœur d'une machine comme celle connectée au clavier sur lequel ont été tapés ces mots. Ce sera un microprocesseur Apple M1, un circuit d'intégration à très grande échelle (VLSI) composé de ces minuscules interrupteurs de cristal de silicium dopé, que nous appelons transistors.

William Shockley, John Bardeen, et Walter Brattain sont les trois à qui l'on attribue la construction du premier transistor aux Bell Telephone Laboratories en 1947. Dawon Kahng et Mohamed Atalla sont à qui l'on attribue la construction du premier transistor à effet de champ métal-oxyde-semi-conducteur. Le groupe de Jay Last, s'appuyant sur les idées de Robert Noyce et Jean Hoerni de Fairchild Semiconductor, a construit le premier circuit intégré à semi-conducteurs opérationnel composé de plus d'un transistor. En 1964, General Microelectronics fabriquait et vendait un circuit intégré à 120 transistors. Les éléments de commutation électroniques à tube à vide précédents mesuraient quatre pouces de long – cent millimètres. Les transistors en 1964 étaient emballés à un vingt-cinquième de pouce, un millimètre d'écart : ils étaient cent fois plus petits, permettant d'emballer dix mille fois plus de puissance de calcul dans le même espace, avec des ordres de grandeur de consommation d'énergie en moins.

Gordon Moore, qui travaillait alors également chez Fairchild Semiconductor, a observé en 1965 que le nombre de transistors microélectroniques à semi-conducteurs dans les circuits intégrés de pointe était passé de un à cent au cours des sept années écoulées depuis 1958. Il a fait une prédiction audacieuse et très spéculative que nous pouvions nous attendre à un avenir d'"équipements bourrés de composants", projetant qu'en 1975, qui n'était qu'à dix ans, une puce de silicium de cent millimètres carrés contiendrait soixante-cinq mille composants. Cela permettrait des "techniques électroniques plus généralement disponibles dans toute la société, réalisant de nombreuses fonctions qui sont actuellement réalisées de manière inadéquate par d'autres techniques ou pas du tout", a-t-il dit. Il a prédit des "ordinateurs domestiques – ou au moins des terminaux connectés à un ordinateur central, des commandes automatiques pour les automobiles, et des communications personnelles portables". Il a dit qu'il y aurait des "circuits intégrés dans des filtres numériques [pour] séparer les canaux sur un équipement multiplex", et a prévu des avancées dans les circuits téléphoniques et le traitement des données. "Les ordinateurs seront plus puissants, et seront organisés de manières complètement différentes", a-t-il conclu.

En 1971, les fabricants de semi-conducteurs de circuits intégrés avaient fait quatre pas vers le bas vers un processus plus fin pour inscrire des motifs sur le cristal. Le premier microprocesseur, l'Intel 4004, emballait vingt mille transistors dans un millimètre carré – les caractéristiques étaient distantes de deux cents microns, deux cents millionièmes de mètre. En 2016, la distance caractéristique plus séparation était réduite à deux cents nanomètres, deux cents milliardièmes de mètre. (Et en 2021, il y aurait une autre réduction, de plus de la moitié, et les distances caractéristique plus séparation ne seraient que de quatre-vingt-dix nanomètres – 450 atomes de silicium – de large.) En 1979, pour exécuter un MIPS – un million d'instructions par seconde – il fallait un watt de puissance. En 2015, un watt pouvait piloter plus d'un million de MIPS. À mesure que les composants devenaient plus petits, ils devenaient plus rapides. Réduisez de moitié la taille de la caractéristique, et vous pouvez la faire fonctionner deux fois plus vite – jusqu'à un certain point. Avant 1986, la vitesse des microprocesseurs quadruplait tous les sept ans. Puis, avec l'avènement de la simplicité des ensembles d'instructions réduits, sont venues dix-sept années où chaque quadruplement de la vitesse prenait trois ans plutôt que sept. Puis, après 2003, le temps de quadruplement est revenu à sept ans, jusqu'à ce que d'autres améliorations de la vitesse atteignent un mur vers 2013.

Mais l'emballage de transistors de plus en plus nombreux et de plus en plus petits dans des puces VLSI a continué grâce à ce que je ne peux qu'appeler de la Magie Profonde, bien qu'à un rythme plus lent qu'avec la "Loi de Moore" originale. Je peux lire que la machine ASML TWINSCAN NXE :3400C utilise de la lumière ultraviolette extrême avec une longueur d'onde de 13,5 nanomètres et penser : cette machine se maintient alignée et grave vingt millions de lignes avec ses lasers dans le cristal de silicium d'une plaquette de trois cents millimètres (douze pouces) sans se tromper dans le positionnement d'aucune de ces lignes de plus d'un trente millième d'un cheveu humain. Et je ne peux pas saisir comment cela pourrait être fait, régulièrement et de manière fiable, pour un coût variable de seulement 50 dollars par microprocesseur.

À son rythme le plus rapide pendant la révolution des technologies de l'information, l'entreprise au cœur de l'économie de l'innovation, le concepteur et fabricant de microprocesseurs Intel, faisait du "tick-tock" – tick, améliorant les détails microarchitecturaux de ses microprocesseurs afin que les programmes puissent s'exécuter plus rapidement ; tock, améliorant la fine résolution de sa fabrication afin de pouvoir rendre les caractéristiques, et donc l'ensemble du microprocesseur, plus petits – et achevant un cycle complet en moins de trois ans. Avec les microprocesseurs doublant de vitesse tous les deux ans, et avec le secteur des technologies de l'information en tirant pleinement parti, la croissance mesurée de la productivité à l'échelle de l'économie après 1995 a de nouveau augmenté – se rapprochant de son rythme de l'âge d'or immédiatement après la Seconde Guerre mondiale – jusqu'à ce que la perturbation de la Grande Récession arrive à la fin de 2007. La richesse créée a été largement diffusée et répartie parmi les utilisateurs, qui ont acquis des capacités remarquables d'apprendre, de communiquer, et de se divertir à un prix étonnamment bas, et les technoprinces de la Silicon Valley et ceux qui les ont aidés. Il y a eu des perturbations économiques : des perdants. Il y avait un demi-million de femmes aux États-Unis qui occupaient des centraux téléphoniques dans les compagnies de téléphone et aux bureaux d'accueil en 1960. Il y en a moins de deux mille aujourd'hui. Mais, pour la plupart, et au niveau national, l'arrivée des technologies de l'information à une masse critique a changé les tâches qui devaient être accomplies pour constituer l'occupation, plutôt que de détruire les occupations elles-mêmes.

À mesure que les technologies de l'information se sont répandues dans l'économie, la nature du travail a changé. Nous, les grands singes des plaines d'Afrique de l'Est, avons longtemps eu des dos et des cuisses forts pour déplacer des objets lourds, des doigts agiles pour faire du travail fin, des bouches et des oreilles pour communiquer, et des cerveaux pour penser et manipuler des symboles. En commençant par la domestication du cheval et en continuant avec la machine à vapeur, la place des dos et des cuisses dans le travail humain avait été considérablement réduite en 1870, mais il restait encore beaucoup de manipulation fine à faire. Avec l'arrivée de l'électricité et de ses machines, les doigts humains ont commencé à être remplacés par des machines également, mais il restait encore une énorme quantité de conception complexe à faire, ainsi que du brainstorming et de la comptabilité et de l'information de routine, tout travail à faire par les cerveaux, les bouches, et les oreilles. Chaque machine nécessitait un microcontrôleur, et le cerveau humain était de loin le meilleur disponible. Ainsi, la technologie avait jusqu'à présent complété le travail plutôt que de s'y substituer : plus de machines et plus de technologies de l'information rendaient les êtres humains plus précieux et plus productifs, plutôt que moins. Mais pour beaucoup, le nouveau travail semblait moins être le type de chose qu'un maître artisan de haut rang pourrait faire et plus les tâches requises d'un serviteur – soit du client, soit de la machine elle-même, de plus en plus autonome en apparence.

À l'échelle internationale, les technologies de l'information plus la reglobalisation en cours se sont transformées, dans les années 90, lorsque les technologies de l'information ont atteint une masse critique, en hyperglobalisation.

L'économiste international Richard Baldwin a mis le doigt sur le pouls de ce qu'il appelle le "deuxième dégroupage" : celui de la communication intra-entreprise. Avec l'avènement d'internet, il n'était plus nécessaire que la division sophistiquée du travail industriel d'une entreprise soit géographiquement concentrée. Vous n'aviez plus besoin de pouvoir marcher ou conduire jusqu'

Go Back Print Chapter