Chapter Content
Euh... Bonjour à tous! Alors, euh, aujourd'hui, on va parler d'émergence, d'abstraction, un peu, euh... Vous savez, ce truc un peu mystérieux qui fait que, bah, d'un coup, des petites choses se mettent ensemble et ça fait un truc plus grand, plus... intelligent, on va dire.
Alors, pour comprendre ça, faut connecter le physique et l'informationnel, hein. La nature, c'est des choses physiques, et ces choses, elles résolvent des problèmes en traitant de l'information. Et c'est seulement en connectant ces deux aspects qu'on peut comprendre ce que font tous ces petits éléments quand ils se manifestent en quelque chose de plus grand, quoi.
Bon, la science actuelle, elle se plante un peu sur la complexité, mais elle a quand même quelques trucs intéressants, des concepts qui valent le coup, quoi. Je pense à la théorie de l'information, la théorie du calcul, l'évolution... J'en ai déjà un peu parlé, hein, pour expliquer l'abstraction physique, comment la nature construit, et ce que ça veut dire de résoudre des problèmes difficiles naturellement. Mais là, on va creuser un peu plus pour essayer de comprendre comment l'émergence se produit.
Alors, attention, hein, ce que je vais dire, c'est pas un consensus, y'en a pas. La communauté scientifique est encore trop dans le réductionnisme pour vraiment définir comment l'émergence se passe. Donc, là, je vous donne ce que je pense être l'explication la plus logique, basée sur l'information, le calcul et l'évolution. Bon, ça aura sûrement des points communs avec d'autres théories, mais voilà, je vous la présente comme ça, à part entière.
Commençons par la théorie de l'information. C'est une branche des maths appliquées et de l'informatique qui quantifie l'information, surtout pour la communication. Les bases, on les doit à Claude Shannon, dans les années 40. Le concept clé, c'est l'entropie, qui vient de la thermodynamique, grâce à Clausius et Boltzmann.
L'entropie thermodynamique, c'est le comportement microscopique des molécules et la tendance des systèmes à aller vers l'équilibre. L'entropie de Shannon, c'est la quantité d'information qu'il faut pour décrire ou prédire les résultats d'un processus aléatoire. On les voit souvent comme deux choses différentes, mais, en fait, elles sont fondamentalement liées. Moi, je dirais même que c'est la même chose, vue sous un autre angle. L'information, ça vient toujours d'un substrat physique. Et les deux versions de l'entropie, physique et informationnelle, elles sont essentielles pour la créativité de la nature. C'était inévitable, quoi, que Shannon et Boltzmann tombent sur le même concept.
La théorie de l'information, elle s'éloigne du côté physique du système, ce qui permet de se concentrer sur les motifs de plus haut niveau qui émergent du comportement statistique. Du coup, on peut parler de systèmes complexes sans se perdre dans les détails inutiles, et souvent faux, quoi. La théorie de l'information, elle s'applique à plein de domaines différents, comme les systèmes de communication, les réseaux biologiques, les interactions sociales... Ce qui est normal, en fait, parce que les aspects fondamentaux de la nature sont liés à plein de choses.
L'entropie, ça permet de quantifier l'incertitude, parce que ça mesure le désordre dans un système. Bon, beaucoup de scientifiques n'aiment pas le mot "désordre" pour décrire l'entropie, parce qu'il y a des cas où les systèmes ont l'air plus ordonnés alors qu'ils ont une entropie plus grande. Mais c'est une question de sémantique, hein. Ce qui compte, c'est que plus il y a d'entropie, plus il y a d'incertitude. C'est comme une pièce en désordre, elle est moins prévisible qu'une pièce rangée.
Dans le monde physique, l'entropie, ça nous dit le nombre de configurations microscopiques, ou arrangements de particules, qui correspondent à un état macroscopique donné. C'est une façon de compter le nombre de configurations microscopiques possibles qui sont compatibles avec les propriétés macroscopiques qu'on observe. Par exemple, la température, la pression, le volume, c'est des propriétés macroscopiques, qu'on peut mesurer. Les particules individuelles, les atomes, les molécules, c'est le niveau microscopique.
Si un système a plus de configurations possibles, il est moins prévisible, parce qu'il y a moins de certitude sur ce qu'il est ou ce qu'il pourrait devenir. Un gaz qui remplit tout un récipient uniformément a une entropie plus élevée que si ce gaz était confiné d'un seul côté.
On peut voir l'entropie comme la quantité moyenne d'information qu'il faut pour décrire ou prédire les résultats d'un processus. Si on lance une pièce équilibrée, on a un processus avec une entropie maximale, parce qu'il y a une incertitude maximale sur le côté qui va sortir. Mais si on tord la pièce avec une pince, on aura beaucoup plus de certitude sur le résultat, donc une entropie plus faible.
L'entropie de Shannon, elle capture cette incertitude en mesurant la distribution des probabilités associées aux différents résultats. C'est comme si on lançait des milliers de pièces et qu'on notait la fréquence des piles et des faces, puis qu'on faisait un graphique avec des barres pour chaque résultat.
Bon, deux barres sur un graphique, c'est pas vraiment une distribution. La réalité, c'est pas comme les lancers de pièce. Les vrais systèmes ont un nombre incalculable de configurations possibles, c'est comme une pièce avec un million de faces, et du coup, si on essayait de représenter la fréquence de ces configurations, ça donnerait une courbe lisse. C'est comme ça qu'on a les belles distributions qu'on voit dans les manuels, la plus connue étant la courbe en cloche. Les lancers de pièce ne peuvent pas donner une courbe en cloche, parce qu'il n'y a que deux résultats possibles, mais la taille des gens, par exemple, peut en donner une. Le résultat le plus probable, c'est le sommet de la courbe, parce que la plupart des gens ont une taille qui se situe dans une certaine fourchette.
Mais la courbe en cloche, elle ne peut pas capturer la complexité, parce qu'elle ne tient pas compte des interactions. Les tailles individuelles sont indépendantes. Les tailles ne "parlent" pas entre elles. La taille de votre meilleur ami ne peut pas influencer la vôtre. Donc, il y a une taille moyenne bien définie pour les humains. C'est pas du tout comme la complexité, parce que la complexité, c'est défini par plein d'éléments avec plein d'interactions. Ce sont les innombrables interactions à l'intérieur des systèmes complexes qui mènent aux propriétés qui dictent leurs structures et leurs comportements, et qui rendent l'idée même de distributions beaucoup trop simpliste. La "distribution" qui existe dans la nature, elle ne ressemble probablement à rien de ce qu'on voit dans les manuels.
Le concept clé que nous donne l'entropie, et que je vais utiliser comme base pour parler de l'émergence, c'est l'idée de plein de configurations différentes qui se rapportent à une seule observable macroscopique. C'est ça, je vais le démontrer, le mécanisme clé qui décrit le mieux le processus réel par lequel l'émergence se produit. Pas une suite d'étapes discrètes qui s'additionnent pour produire le résultat, mais quelque chose qui découle de la configuration la plus statistiquement probable.
La complexité, c'est utiliser la matière physique pour faire des choses informationnellement. C'est pour ça que les processus existent dans les systèmes naturels; pour organiser la matière de façon à convertir les entrées en sorties afin de résoudre des problèmes. L'entropie, c'est une mesure du contenu informationnel, donc ça joue un rôle crucial dans la façon dont l'information est traitée. Comme tous les processus physiques transforment l'information, on peut s'attendre à ce que la résolution de problèmes par la nature entraîne des changements d'entropie.
L'entropie augmente quand la chaleur passe d'objets chauds à des objets plus froids, parce que l'énergie thermique se répartit plus uniformément entre les particules. L'entropie augmente quand les réactifs se transforment en produits pendant les réactions chimiques. Les transitions de phase, comme la fonte de la glace en eau, voient l'entropie augmenter parce que les molécules d'eau deviennent plus désordonnées dans la phase liquide. Chaque fois que les gaz se dilatent dans de plus grands volumes, l'entropie augmente.
On voit aussi l'entropie diminuer (localement) quand la nature façonne ses objets. Les organismes vivants sont des constructions à faible entropie par rapport au désordre qui les a créés. La vie peut organiser et maintenir des structures à faible entropie grâce à l'énergie entrante continue de leur environnement. L'arrangement des atomes ou des molécules devient souvent plus ordonné quand les substances se solidifient à partir d'une solution. L'ordre peut émerger spontanément dans les vols d'oiseaux ou les bancs de poissons.
On sait que les entités ont une entropie plus élevée s'il existe plus de configurations microscopiques (micro-états) qui sont cohérentes avec la propriété macroscopique qu'on observe, comme la pression ou le volume d'un système. Imaginez que vous vous approchez d'un système et que vous mesurez sa pression. Cette pression sera celle qui a le plus de configurations microscopiques (arrangement d'atomes) qui produiraient cette pression. Toutes les autres pressions possibles qu'on aurait pu observer peuvent avoir moins de configurations microscopiques associées à leurs valeurs. Autrement dit, ce qu'on observe, c'est l'état le plus probable du système, qui, par définition, est l'état avec le plus grand nombre de micro-états sous-jacents qui produisent la chose qu'on regarde.
Les systèmes évoluent naturellement vers des états avec le plus grand nombre de micro-états accessibles. Et ça, c'est pas juste pour les pressions et les températures. Les structures physiques et les comportements qu'on observe devraient surgir parce qu'ils ont le plus grand nombre de micro-états compatibles avec leur apparence. C'est une propriété générale du fonctionnement des systèmes complexes, et donc ça ne se limite pas aux configurations atomiques. C'est un mécanisme qui se déroule à toutes les échelles.
Pensez aux structures émergentes qu'on voit dans la nature. Ce sont des motifs qui proviennent des interactions de nombreux éléments. Ces éléments, ce sont les micro-états de niveau inférieur qui correspondent à une structure émergente macroscopique. Encore une fois, microscopique n'a pas besoin de faire référence à des choses qui sont réellement microscopiques en taille, juste un niveau en dessous de celui qu'on observe.
Le rôle de l'entropie dans la vie a longtemps été débattu. D'un côté, la deuxième loi de la thermodynamique nous dit que l'entropie augmente toujours dans les systèmes isolés, ce qui implique que les structures devraient évoluer vers des états de plus grand désordre. Et pourtant, les organismes vivants sont en quelque sorte des structures très ordonnées, caractérisées par une faible entropie. La solution à ce paradoxe, c'est que les systèmes vivants ne diminuent leur entropie que localement, au détriment de l'augmentation de l'entropie dans leur environnement. Ça veut dire que les organismes vivants ne sont pas des systèmes isolés, puisqu'ils échangent de l'énergie et de la matière avec leur environnement.
Mais caractériser les organismes vivants comme hautement ordonnés et ouverts ne peut pas être toute l'histoire. À l'intérieur d'une seule entité, on voit que plus de désordre dans les niveaux inférieurs (entropie plus élevée) devrait produire plus d'ordre aux niveaux supérieurs. C'est pourquoi les structures émergentes surgissent de l'entropie la plus élevée qu'un système stable peut avoir. Ça veut dire que l'entropie n'est ni abaissée ni augmentée dans un sens précis, mais plutôt qu'elle est toujours en mouvement, avec l'augmentation de l'entropie de bas niveau alimentant la diminution de l'entropie aux échelles supérieures.
Dans tous les cas, le point le plus important ici, c'est qu'une explication de l'émergence ne nécessite pas une chaîne de causalité entre les niveaux. L'émergence n'a pas besoin d'une approximation basée sur le réductionnisme ou le raisonnement déterministe. Quand on la voit en termes d'entropie, l'émergence, c'est simplement la conséquence physique du fait que le plus grand nombre d'éléments de matière de niveau inférieur correspondent aux structures et aux comportements qu'on observe, qu'on mesure et qu'on expérimente.
Les rayures du poisson-zèbre, c'est ce qu'on voit. Se demander comment elles se forment, c'est la mauvaise question. Aucune quantité d'imagerie cellulaire ou d'outils génétiques qui tentent de reconstituer une histoire causale ne répondra correctement à cette question. Mais ce qu'on sait, c'est que les rayures existent au plus haut niveau (n) alors qu'elles doivent provenir des cellules en dessous (n-1). Ça veut dire que les cellules en dessous doivent exister avec le plus grand nombre de configurations possibles qui sont cohérentes avec les rayures qu'on voit. De toutes les configurations cellulaires possibles, celles qui fonctionnent pour produire des rayures sont les plus nombreuses.
La colonie de fourmis présente une auto-organisation sophistiquée, une division du travail, une robustesse, une adaptabilité et une grande efficacité. Ces caractéristiques surgissent comme des motifs émergents. Il n'y a pas de chaîne causale qui peut nous dire d'où viennent ces motifs, mais on sait que ces motifs (n) doivent provenir des configurations microscopiques les plus compatibles avec les motifs macroscopiques qu'on observe. C'est ça, je le soutiens, l'émergence.
Comme on l'a déjà mentionné, une autre conséquence importante de tout ça, c'est que l'entropie ne peut pas être discutée adéquatement à une seule échelle. On devrait s'attendre à ce que l'augmentation et la diminution de l'entropie coïncident à l'intérieur d'une seule entité. Une solution naturelle aura les niveaux inférieurs de son système avec plus d'entropie que ses niveaux supérieurs. Les rayures d'un poisson-zèbre doivent avoir une entropie plus faible que les structures de niveau inférieur, comme les cellules. C'est pourquoi on considère que les détails intérieurs sont plus désordonnés que l'ordre de niveau supérieur qu'on observe.
C'est aussi vrai pour la philosophie que pour les systèmes physiques dans la nature. Cette dernière phrase ferait grincer des dents la plupart des scientifiques, mais la source de leur mécontentement, c'est pas un manque de vérité objective, c'est leur dépendance à un paradigme réductionniste mourant. La réalité est en fin de compte informationnelle et computationnelle, et dans ce contexte, il y a des degrés de tractabilité. Les vérités invariantes qui existent (qui ont résisté à l'épreuve du temps) sont celles qui existent aux plus hauts niveaux d'abstraction, tandis que les détails spécifiques sont toujours en mouvement.
Ce n'est pas un jugement de valeur concernant la philosophie, ou une tentative de l'intégrer dans la discipline de la science, c'est simplement la logique indéniable de la façon dont les systèmes se comportent en fonction de l'information et du calcul. C'est comme ça (en utilisant une définition appropriée de la façon) que la nature fonctionne, qu'on le veuille ou non.
Tout comme le sommet d'une courbe en cloche nous indique la taille la plus probable qu'on observera dans un groupe de personnes, le sommet de toute distribution est l'endroit où la probabilité est la plus concentrée. C'est ce point le plus élevé de la densité de probabilité qui nous dit ce qu'on peut s'attendre à voir. C'est là que les micro-états les plus nombreux d'un système correspondent à ce qu'on observe. Bien sûr, la nature n'utilise rien d'aussi élémentaire qu'une courbe en cloche, mais le point est valable. Les pics dans les distributions sont ce qu'on observe probabilistiquement parce que c'est statistiquement là où résident le plus de configurations produisant une structure/un comportement.
On peut donc considérer les structures émergentes comme les versions physiques des pics des distributions de probabilité. En fusionnant les interprétations thermodynamique et informationnelle de l'entropie en une seule interprétation, on commence à voir ce qu'est réellement l'émergence.
L'entropie nous montre la connexion entre les configurations sous-jacentes et les attributs macroscopiques qu'on observe. Quelle que soit l'échelle qu'on observe dans la nature, on devrait s'attendre à ce que la structure observée soit le sommet d'une distribution de possibilités. Ce sommet représente les configurations les plus possibles qui produisent le même résultat. Ça veut dire que quelle que soit la caractéristique qu'on observe dans la nature, c'est celle qui peut être atteinte de la plus de façons possibles.
Par conséquent, il y aura toujours de nombreuses façons de calculer la bonne réponse à un problème difficile. C'est parce que les structures émergentes de la nature sont ses constructions de calcul, et qu'elles sont atteintes en mappant de nombreux micro-états possibles à son existence. Ça veut dire qu'il n'est pas physiquement possible qu'un seul chemin produise un résultat dans un objet complexe.
Ce seul fait exclut complètement la notion de réductionnisme et la prémisse que les systèmes de la nature pourraient être intérieurement déterministes. Les éléments individuels dont est composée quoi que ce soit dans la nature ne sont pas, par définition, connectés de manière déterministe aux résultats. Il ne peut pas y avoir de causes profondes dans les systèmes complexes, parce que quelque chose qui a le plus de façons possibles d'être atteint ne peut pas avoir de cause profonde. L'entropie nous dit que plutôt qu'un chemin existant de l'entrée à la sortie, ce qu'on a, c'est un système qui s'arrange lui-même d'innombrables façons pour produire la même sortie. C'est comme ça que la nature se structure, et ce sont ces structures qui traitent l'information pour produire ce qu'on voit.
Les solutions de la nature sont réalisables de multiples façons. Ce qu'on mesure, qu'on observe et qu'on expérimente dans les environnements naturels, c'est ce qui peut être atteint de la plus de façons possibles.
À ce stade, je vais faire une affirmation forte: l'émergence n'est pas un phénomène de niche qu'on rencontre parfois dans la nature, c'est plutôt la nature. Quand on regarde un système à n'importe quelle échelle, on n'observe pas quelque chose de déterminé de manière déterministe. Les éléments qui composent ce qu'on voit n'ont pas de rôles individuels spécifiques, autant qu'ils contribuent à une nouvelle entité synergique; quelque chose avec une existence distincte et indépendante. L'émergence est généralement considérée comme des éléments individuels produisant un effet combiné supérieur à la somme de leurs effets séparés. C'est vrai, mais le mot supérieur est problématique. Il suggère que le tout est toujours causalement lié aux éléments individuels. Je soutiens que l'émergence est une transition abrupte d'une collection d'éléments individuels à un tout nouvel objet avec une fonctionnalité distincte. Cette émergence efface toute notion de causalité entre les niveaux inférieurs et supérieurs.
Les fonctionnalités distinctes qui surgissent à chaque échelle sont une conséquence naturelle de la réalisation informationnelle et computationnelle de configurations qui calculent des sorties uniques. La nature crée ce qui est nécessaire pour résoudre un problème donné, et la seule façon dont ça se produit, c'est par le mécanisme de réalisation multiple de l'entropie. Il doit exister un mappage de nombreuses entrées possibles à quelques sorties spécifiques. Ça ne peut pas se produire en utilisant des chemins causaux déterministes, seulement par une compression d'information entraînée par l'entropie.
La structure atomique n'est pas le résultat de neutrons, de protons et d'électrons qui travaillent ensemble de manière simpliste. On sait déjà que c'est le cas, car tous les atomes au-dessus de l'hydrogène dans le tableau périodique ne peuvent pas être résolus exactement. Une fois qu'on entre dans le problème à 3 corps, les interactions entre les composantes d'un système empêchent de faire des prédictions déterministes exactes. Ces calculs sont traités "approximativement", mais comme je l'ai soutenu au chapitre 5, la nature n'est pas une approximation. Les calculs utilisés aujourd'hui supposent un déterminisme sous-jacent et tentent de créer une version plus douce de ce déterminisme. Mais si la nature fait brusquement passer ses différentes échelles comme des entités entièrement nouvelles, ces calculs ne sont pas des approximations, ils ressemblent davantage à des quasi-accidents. Les approximations sont des réponses qui ne sont pas aussi bonnes ou exactes qu'elles le seraient si on abordait le problème directement. Quand on utilise des approches comme les méthodes numériques, les heuristiques, l'optimisation mathématique ou l'apprentissage automatique, on ne trouve pas en fait des "solutions approximatives", parce qu'il n'y a rien à approximer. Ces techniques ne sont pas assises au-dessus d'une réalité causale plus profonde.
Je soutiens qu'il n'existe pas, même conceptuellement, quelque chose comme être plus direct dans nos calculs. Observer des choses à différentes échelles (par exemple, molécule par rapport à atomes, cellule par rapport à organites), c'est observer des choses entièrement nouvelles. Les calculs qu'on utilise pour modéliser la complexité sont en fait plus proches de la réalité, pas quelque chose de proximal à une réalité sous-jacente. En d'autres termes, les bons modèles qui semblent définir logiquement ou même prédire un phénomène complexe deviennent quelque chose de semblable au phénomène lui-même.
C'est plus près de ce que certains appellent l'émergence forte. L'émergence faible suggère que les propriétés et les comportements qui résultent des interactions de composantes plus simples sont entièrement explicables en termes de règles et d'interactions sous-jacentes de ces composantes. Au contraire, l'émergence forte affirme que les structures et les comportements qu'on observe dans les phénomènes complexes ne peuvent pas être réduits ou expliqués par les règles et les interactions sous-jacentes des composantes du système. Je suis d'accord, mais je ne relègue pas la complexité à un coin de niche de la science. L'émergence, c'est la nature. Tout. Et ce n'est pas une simple croyance, mais ça repose plutôt sur les mécanismes proposés alignés sur les propriétés connues de l'information, du calcul et de l'évolution.
L'émergence que je soutiens ici signifie que la nature est entièrement déconnectée des hypothèses réductionnistes de notre paradigme scientifique et d'ingénierie actuel. Bien que la vision réductionniste fonctionne dans certaines situations, elle est fondamentalement incorrecte. Tout comme la mécanique classique est très utile, mais fondamentalement fausse. Mais alors que la mécanique classique est toujours utile, les choses qu'on doit construire à l'ère de la complexité rendent le réductionnisme et la conception complètement vains. Atteindre les entrailles des systèmes complexes et arranger ses pièces délibérément ne peut produire que des résultats inutiles ou dangereux.
Plutôt que de penser à la complexité et à l'émergence comme à ce qui se rapporte seulement à certains phénomènes, il est beaucoup plus honnête intellectuellement d'admettre que l'émergence, c'est la nature. Voir la nature en termes de ses propriétés universelles rend ce compte-rendu vraiment rigoureux. Il ne fait pas appel à des contes indémontrables sur la causalité intérieure. Il est basé sur ce qu'on sait qui arrive.
Le déterminisme flexible fait que les solutions de la nature ne ressemblent en rien à l'ingénierie basée sur des règles utilisée tout au long de l'histoire de l'humanité. Et pourtant, les solutions de la nature partagent quelque chose en commun avec les règles, en ce sens qu'elles convertissent les entrées en sorties. Ce qui rend cette conversion si différente de l'ingénierie basée sur des règles, c'est que le calcul de la nature n'est pas une chaîne causale d'événements individuels. La nature ne produit pas la même sortie pour la même entrée. La nature écrase de nombreuses entrées différentes en un petit ensemble de sorties familières qui résolvent un problème donné. Cet écrasement se produit à l'extrême, en ce sens qu'il existe d'innombrables entrées qui sont converties en moins de sorties. De tous les différents défis environnementaux auxquels un castor est confronté, il produit toujours les mêmes quelques sorties de castor. C'est le déterminisme flexible qu'on voit dans la nature.
Les solutions dans la nature ne peuvent pas être un ensemble de règles qui font la conversion. Elles doivent être autre chose. On a déjà vu que cet autre chose, ce sont les abstractions physiques créées par la nature. Mais que font les abstractions physiques qui permettent aux solutions de la nature d'abriter leur déterminisme flexible? La réponse doit être la compression d'information.
La compression d'information est un autre concept central de la théorie de l'information, qui fait référence au processus de réduction de la taille des données sans perdre d'informations significatives. En communication, on peut considérer qu'il s'agit de trouver des moyens de représenter les données d'une manière plus efficace, afin qu'elles puissent être stockées ou transmises en utilisant moins de bits. On y parvient généralement en exploitant les redondances dans les données, car la répétition ou la prévisibilité peuvent être reconstruites après la réception d'un message.
Imaginez qu'on a une chaîne de lettres comme "AAAABBBCCDAA". On pourrait l'envoyer par le réseau d'une manière plus efficace en réduisant sa taille, en représentant plus efficacement ses motifs répétés. On pourrait représenter les séquences de caractères répétés par le caractère lui-même suivi du nombre de fois qu'il se répète, en encodant notre chaîne de lettres originale comme "4A3B2C1D2A". Notre message a été "écrasé" de 12 caractères à 10. Ça n'a pas l'air de grand-chose, mais quand il y a beaucoup de données, ça peut faire une énorme différence. À l'extrémité de la réception (décompression), on peut simplement élargir chaque caractère suivi du nombre de fois qu'il doit être répété, ce qui nous ramène au message original. Les algorithmes de compression modernes utilisés dans les ordinateurs d'aujourd'hui utilisent cette approche pour stocker efficacement les fichiers, les photos et autres éléments.
La compression d'information, c'est ce que la nature accomplit via ses structures émergentes. Ça doit être le cas, parce que ce sont les structures émergentes dans les solutions de la nature qui convertissent d'innombrables possibilités en les quelques sorties qui résolvent leur foule de défis.
C'est pourquoi la nature est si flexible et adaptable. Quand on pense à la capacité d'un guépard à manœuvrer sur un sou près, et à exécuter sa vitesse dans tant de situations, on est étonné de sa sophistication, par rapport à quelque chose comme l'automobile. Mais la raison pour laquelle ça nous étonne, c'est qu'on pense en termes de systèmes simples. Les gens vont visualiser des composantes discrètes qui se cognent les unes contre les autres et se demander comment l'animal tient compte de tant de facteurs.
Mais quand on voit les choses correctement, à travers le prisme de la compression d'information, on peut comprendre comment le guépard est capable d'atteindre ce niveau de sophistication. Les innombrables entrées, représentées au guépard comme des différences de terrain, d'obstacles, de conditions météorologiques, de concurrence d'autres proies, etc. sont réduites aux quelques sorties qui permettent au guépard de courir efficacement. Les objets fabriqués par l'homme (autres que les choses comme l'IA) ne peuvent pas faire ça. Ces objets nécessitent que les pièces individuelles tiennent compte du traitement de l'information de manière explicite. Il y a beaucoup trop d'entrées à convertir en sorties pour que ces machines déterministes fonctionnent en dehors d'environnements hautement artificiels et étroits. Seule la compression d'information réalisée par la matière physique peut permettre à la nature de faire ce qu'elle fait.
Les abstractions physiques créées par la nature font ce que toutes les abstractions font. Elles compriment l'information en moins de sorties. Mais les abstractions physiques de la nature ont beaucoup plus en commun avec le processus d'abstraction mentale qu'avec les abstractions physiques conçues de l'ingénierie traditionnelle. Alors que l'ingénierie traditionnelle réduit le nombre de leviers qu'on doit tirer en établissant des liens causaux explicites entre les niveaux, les abstractions physiques de la nature réduisent les ressources nécessaires au calcul.
Les structures et les comportements émergents qu'on voit dans la nature sont mieux compris en termes de la façon dont ils traitent l'information. Et la façon dont ils traitent l'information, c'est en comprimant d'innombrables entrées en moins de sorties. Tout comme nos esprits forment des concepts qui agissent comme des noms communs pour tous les concepts subordonnés, la nature produit des structures auxquelles les détails physiques subordonnés adhèrent. Tout comme chien est une catégorie pour toutes les races de chiens, de même les rayures d'un poisson-zèbre sont une "catégorie" physique pour tous les tissus ou cellules subordonnés qui rendent ces rayures possibles.
Mentalement, créer des abstractions, c'est ce qui réduit la charge cognitive dans la manœuvre dans des environnements complexes et la résolution de problèmes difficiles. En regroupant des choses superficiellement différentes dans des catégories uniques, en fonction de structures partagées plus profondes, on limite la quantité de puissance de traitement requise pour calculer les réponses. Mais ce n'est pas seulement un phénomène informationnel. Comme on l'a déjà dit, on ne peut pas séparer complètement le physique de l'informationnel. Les structures physiques dans la nature existent pour résoudre des problèmes, et la résolution de problèmes est une chose informationnelle. Il y a toujours la transformation de l'information des entrées aux sorties qui se produit dans la nature.
Voir les solutions de la nature à différentes échelles, comme comparer l'arbre entier à ses branches et feuilles individuelles, c'est voir les différentes interfaces d'un système. Ces interfaces, ses abstractions physiques, ont été créées par la nature selon le progrès par l'abstraction. L'arbre ne s'arrête pas à la résolution du problème que ses branches résolvent, il résout des problèmes plus difficiles en façonnant l'arbre entier.
Les branches d'un arbre et l'arbre entier abordent différents problèmes, remplissant différents rôles dans le contexte plus large de la survie de l'arbre et de sa fonction écologique globale. Les branches sont utilisées pour maximiser la photosynthèse et fournir un support structurel. L'arbre entier résout le problème plus difficile de s'ancrer au sol grâce à son système racinaire, et d'extraire l'eau et les nutriments du sol.
L'arbre est un système d'interfaces qui existent à différents niveaux d'abstraction, pas seulement mentalement, mais physiquement. Les démarcations qu'on définit dans la nature, comme "arbre" et "branches", sont les abstractions physiques qui ont été créées par la nature pour calculer les réponses à ses défis de survie. Ces niveaux descendent jusqu'en bas. De l'arbre, on descend aux branches et aux feuilles, puis plus bas au niveau cellulaire microscopique, encore plus bas aux atomes et aux molécules qui font les cellules. Peu importe comment on choisit de démarquer les différents niveaux, chaque niveau résout un problème, ce qui signifie qu'il traite l'information d'un type spécifique.
On pourrait soutenir à ce stade que je ne fais que réifier les abstractions mentales. Que les différentes échelles de l'arbre ne sont que des démarcations pratiques que les humains font mentalement. De plus, en définissant des rôles et des niveaux, il pourrait sembler que je me fie au réductionnisme même contre lequel je me bats. Ce n'est pas le cas, car les rôles que j'identifie perdent leur sens une fois que le groupe cesse d'exister. En vertu du réductionnisme, les organites dans une cellule ont des définitions autonomes. La mitochondrie est responsable de la production d'énergie par la respiration cellulaire. C'est vrai, mais ce rôle n'a pas de sens en dehors de la cellule. S'il n'y avait pas tous les autres organites et la matrice dans laquelle ils se trouvent, il ne servirait à rien de produire de l'énergie par la respiration cellulaire. Cela rend en fait l'identification du rôle d'un individu beaucoup moins significative que le réductionnisme ne le suggérerait. Plus précisément, si on tentait de concevoir une meilleure solution à la respiration cellulaire, en ciblant la mitochondrie, on peut s'attendre à ce que ces conceptions mènent à de mauvais résultats.
Les abstractions mentales ne sont pas des produits de notre imagination, ce sont des unités de traitement. Définir différents niveaux dans un objet naturel, c'est observer la structure imbriquée des défis que cet objet résout. On en apprendra plus sur la structure imbriquée des problèmes au chapitre 7. L'important ici, c'est qu'on ne réifie pas la nature en des constructions artificielles mais pratiques. Il s'agit d'un calcul indéniable, pas d'une réification. C'est robuste même à la possibilité qu'on démarque incorrectement. Peu importe où on choisit de placer les limites, tout niveau observé de la nature (n) résout un problème qui est différent du groupe de pièces en dessous (n - 1) et du groupe de pièces au-dessus (n + 1).
J'ai discuté de la façon dont les abstractions physiques qui ont été créées tout au long de l'histoire de l'humanité ont toutes été conçues, en utilisant une connaissance intérieure de la causalité pour connecter le niveau (n - 1) au niveau (n). Mais dans la nature, il n'existe aucune connexion causale de ce genre. Chaque niveau est sa propre entité avec une fonctionnalité distincte résolvant un problème distinct. Et pourtant, l'abstraction physique est la façon dont le progrès de toute nature doit se produire, comme on l'a soutenu au chapitre 1. Ça signifie que la nature produit ses propres abstractions physiques dans les solutions qu'elle crée. En fait, les abstractions physiques sont ce que sont les structures émergentes. Les structures émergentes sont les interfaces créées par la nature qui réduisent le nombre de "leviers" que la prochaine étape du progrès doit tirer pour coordonner les détails sous-jacents.
Alors que les humains conçoivent ces interfaces par la conception, la nature n'utilise pas la cognition pour faire des choix quant à ce qu'il faut subsumer dans quoi. Encore une fois, la recette de la nature est un processus magnifiquement inconscient. Mais ça soulève une question évidente. Si aucune décision n'est prise, comment la nature peut-elle former des abstractions physiques? Comment la nature choisit-elle quelles pièces combiner en un faisceau à un niveau (n), pour servir le niveau suivant (n + 1)?
Les humains font des abstractions en opérant de l'extérieur du système. On ne peut remarquer que toutes les races de chiens appartiennent à la même catégorie abstraite chien qu'en sortant du système des chiens et en remarquant ce qu'ils ont tous en commun. Tous les chiens ont 4 pattes, des dents, une queue, etc. La description précise de ce qui fait qu'un chien est un chien ne suffira jamais, parce que la précision ne peut pas capturer ce qui se passe sous la complexité. Mais le cerveau humain peut reconnaître quand une espèce est effectivement un chien, et la placer dans une catégorie mentale. C'est également le cas pour les abstractions physiques qui ont été conçues tout au long de l'histoire. Les humains utilisent leur conscience et leur cognition pour repérer comment différentes pièces d'un système peuvent être regroupées en une seule unité. Mais comment la nature "observe"-t-elle comment différentes pièces ont quelque chose en commun?