Chapter Content

Calculating...

Ja, hallo erstmal. Also, Kapitel fünf… geht um ‘ne andere Art von Lösung, sozusagen. Und zwar, “Wenn du’s siehst, ist es falsch.” Klingt erstmal komisch, ne?

Es geht darum, dass Handschuhe, ein Schneemann und so ein Rubik's Cube, also so ein Zauberwürfel, Probleme mit steigendem Schwierigkeitsgrad sind, ne? Wie wir ja schon im vierten Kapitel besprochen haben. Aber obwohl die unterschiedlich sind, brauchen sie alle denselben Ansatz, um die Lösung zu finden. So ein bisschen wie ein höherer Prozess gepaart mit so Heuristiken, um sich durch diesen ganzen Möglichkeitsraum effektiver zu bewegen. Je schwieriger das Problem, desto mehr muss man suchen, um diese ganzen Komplexitäten in diesem Möglichkeitsraum zu bewältigen.

Erinnern wir uns mal, ne? Eine Lösung ist das Ding, das diesen internen Prozess umsetzt, mit dem wir ein Problem lösen. Handschuhe sind zum Beispiel 'ne Lösung, weil sie halt physische Objekte sind, die aus Teilen bestehen, die kausal verbunden sind und das gewünschte Ergebnis liefern, also warme Hände. Lösungen für den Rubik's Cube – die, die von Menschen gefunden werden – sind halt so Regeln, die man sich aufschreibt.

Aber die Deep-Learning-Lösung für den Rubik's Cube ist halt total anders. Die kann man nicht aufschreiben, verstehst du? Während die menschliche Lösung interpretierbar ist, ist die Deep-Learning-Lösung im Grunde 'ne Black Box. Egal, wie sehr wir versuchen, die Schichten aufzudecken und dieses Modell zu untersuchen, wir können nicht wirklich entschlüsseln, was Deep Learning da genau macht, so ganz genau.

Das ist irgendwie seltsam, oder? Das menschliche Gehirn ist das komplexeste Objekt, das wir kennen, aber es hat 'ne Lösung hervorgebracht, die komplett entschlüsselbar ist. Deep Learning nähert sich aber erst dieser Komplexität an, aber seine Lösungen sind undurchsichtig und unentschlüsselbar. Man würde eigentlich erwarten, dass Menschen und Deep Learning ähnliche Lösungen hervorbringen, oder?

Tatsächlich produziert Deep Learning Lösungen, die den menschlichen Lösungen ähnlicher sind, aber nur, wenn das Problem echt schwer ist. Der Rubik's Cube ist aber kein super schweres Problem. Das ist eher so ein Puzzle mit einer festen, überschaubaren Anzahl an Zuständen und Übergängen dazwischen. Der Möglichkeitsraum des Rubik's Cube ist nur im Vergleich zu einfacheren Problemen groß.

Da der Rubik's Cube kein extrem schweres Problem ist, könnte er entweder 'ne einfache oder 'ne komplexe Lösung haben. 'Ne einfache Lösung wäre diese entschlüsselbare Regelversion, während 'ne komplexe Lösung diese unentschlüsselbare Version wäre, die Deep Learning produziert. Also, warum sollte Deep Learning die komplexe Lösung gegenüber der einfachen bevorzugen?

Das liegt daran, dass Deep Learning einen externen Prozess aus Variation, Iteration und Selektion verwendet, um seine Modelle zu erstellen, und wie wir schon gesagt haben, ist das das Rezept, das Komplexität erzeugt. Man erwartet, dass dieser Prozess 'ne Lösung liefert, die in etwa so komplex ist wie das Problem, das es lösen will. Da der Möglichkeitsraum des Rubik's Cube 'ne gewisse inhärente Komplexität hat, wird 'ne Deep-Learning-Lösung diese Komplexität natürlich nutzen.

Deshalb ist die Deep-Learning-Lösung, obwohl sie undurchsichtig ist, die bestmögliche Lösung in Bezug auf die Performance. Deep-Learning-Lösungen können den Rubik's Cube in weniger als 'ner Sekunde lösen, schneller als der schnellste menschliche Speedcuber. Das hat nichts mit roboterhafter Geschicklichkeit oder ungestörten Maschinen zu tun. Die Geschwindigkeit kommt dadurch zustande, dass Systeme, die auf Versuch und Irrtum statt auf bewusster Analyse setzen, Rechenvorteile haben. Das sehen wir auch bei menschlichen Lösern. Die schnelleren Algorithmen, die von Menschen gefunden werden, basieren mehr auf Heuristiken und Mustererkennung als die langsameren Anfängeralgorithmen. Fortgeschrittene Cubers verwenden viel mehr Intuition, um sich durch den Cube zu bewegen, und nutzen subtile Hinweise und wiederkehrende Muster, um nächste Züge zu antizipieren, während sie die aktuellen ausführen.

Menschen suchen halt nach 'nem schönen Satz von Regeln. So wie wenn du zufällig deinen besten Apfelkuchen backst und dich erinnern willst, wie du das gemacht hast. Aber Menschen machen das nur, weil das heutige Paradigma von uns erwartet, dass wir Erklärungen liefern und anderen beibringen, wie man 'ne Aufgabe deterministisch erledigt. Es gibt keinen Grund anzunehmen, dass 'ne erklärbare Lösung die leistungsfähigste wäre. Eigentlich sollten wir das Gegenteil erwarten, besonders wenn wir uns von Spielen entfernen und uns dem echten Leben zuwenden.

Deep Learning nutzt die inhärente Komplexität, die im Rubik's Cube-Problem steckt. Es erfasst komplexe Muster und Beziehungen in den Daten, die zur Darstellung von Cube-Positionen verwendet werden, einschließlich nichtlinearer Beziehungen, die nicht als einfache Regeln ausgedrückt werden können. Deep Learning entdeckt Strategien, die Komplexität auf Weisen ausnutzen, die im Nachhinein unmöglich zu entschlüsseln sind. Das ist das, was das menschliche Gehirn tut, wenn es mit realen Herausforderungen konfrontiert ist. Wir könnten 'nen Speer auf 'nen Gegner auf dem Schlachtfeld werfen und ihn perfekt treffen, aber nicht erklären, wie wir das gemacht haben. Wenn wir versuchen würden, das Speerwerfen in 'ne Technik zu zerlegen, mit isolierten Bewegungen, die sich addieren, sollten wir 'nen brutal unterlegenen Ansatz erwarten.

Deep Learning kodiert so eine Art implizites Wissen in seinen gelernten Parametern. Implizites Wissen ist in komplexen Umgebungen immer überlegen, weil es latent ist. Latente Dinge materialisieren sich, sie werden nicht bewusst zusammengesetzt. Diese Wahrheit ist so grundlegend, dass Erklärbarkeit selbst als Kennzeichen einer übermäßig vereinfachten Darstellung der realen Welt angesehen werden sollte.

Die Lösung wirklich schwieriger Probleme erfordert echt komplexe Lösungen. Was wir im Zeitalter der Komplexität bauen, kann keine einfache (also komplizierte) Zusammenstellung von gut durchdachten Teilen und Interaktionen sein. Welchen internen Prozess unsere Erfindungen auch immer verwenden, wir sollten voll und ganz erwarten, dass er unentschlüsselbar ist. Erklärungen, die definieren wollen, wie komplexe Dinge intern funktionieren, sind Märchen und können unsere Innovationen nur einschränken.

Die Natur ist keine Annäherung. Die Art von Ansätzen, die zur Lösung schwieriger Probleme verwendet werden, galten schon immer als Annäherungen. 'Ne Annäherung liegt vor, wenn der Prozess, mit dem man zu 'ner Antwort gelangt, nicht so gut oder exakt ist, wie er wäre, wenn man das Problem direkt angegangen wäre. Deep Learning verlässt sich auf Heuristiken und mathematische Optimierung, um zu seinen Lösungen zu gelangen. Wie bereits erwähnt, sind solche Methoden weichere Versionen der direkteren, regelbasierten Ansätze, die in der traditionellen Informatik verwendet werden. Uns wird gesagt, dass weichere Formen des Rechnens und Denkens eher annähernd sind. Dass das, was durch Annäherung gefunden wird, als suboptimal betrachtet werden sollte.

Das gilt sowohl für Menschen als auch für Maschinen. Auf der menschlichen Seite basieren Heuristiken auf unseren persönlichen Urteilen und Intuitionen, die Verzerrungen, "Fehler" und Variabilität in den Entscheidungsprozess einbringen. Verschiedene Personen wenden Heuristiken möglicherweise unterschiedlich an, und das kann zu unterschiedlichen Ergebnissen in derselben Situation führen. Heuristiken priorisieren Geschwindigkeit vor Genauigkeit. Sie zielen darauf ab, schnell 'ne Lösung zu finden, die gut genug ist, anstatt Zeit und Ressourcen darauf zu verwenden, das Beste zu finden. Die Maschinenversion davon ist im Grunde dieselbe. Die Verwendung von Heuristiken erscheint als eine Art Überspringen des Wesentlichen, das uns schneller zu 'ner Lösung bringt.

Weichere Ansätze als Annäherungen zu betrachten, spiegelt das wider, was ich für einen der Kernfehler im aktuellen wissenschaftlichen und technischen Paradigma halte. Nur wenn man glaubt, dass der beste Weg zur Lösung eines Problems deterministisch ist, würde man die Verwendung von Heuristiken als 'ne Annäherung betrachten. Dass wir nur dann in unserem Ansatz rigoros sind, wenn wir in die Details des Systems eindringen und genau sehen, wie einzelne Teile zusammenarbeiten, um das Ergebnis zu erzielen.

Das gilt sowohl für die Entdeckung als auch für die Anwendung 'ner Lösung. 'Ne Lösung mithilfe deduktiven, regelbasierten Denkens zu finden, gilt als sorgfältiger und exakter, als in 'nem Raum von Möglichkeiten herumzuspringen und Entscheidungen auf hochrangige Muster zu stützen. Und die Bereitstellung eines sauberen, regelbasierten Systems erscheint rationaler und umsichtiger als irgendein undurchsichtiges Modell, dessen interne Methoden nicht entschlüsselbar sind.

Aber so funktioniert Komplexität nicht. Komplexität ist keine aufgeladene Version dessen, was wir in einfachen Systemen sehen. Komplexität ist unentschlüsselbar, nicht weil es zu viele Details und Regeln gibt, um klar zu sehen, sondern weil der Mechanismus, mit dem komplexe Systeme Materie und Informationen verarbeiten, völlig anders ist. Die statistische Verschmierung, die in komplexen Systemen zu sehen ist, ist keine verschwommene Version des Diskreten, sondern das, was sich manifestiert, um das Problem zu lösen. Der Versuch, hineinzuschauen und kleine Teile zu finden, die deterministisch funktionieren, bedeutet, nach etwas zu suchen, das nicht da ist. Ja, es gibt kleine Teile. Und ja, sie interagieren. Aber nicht als 'ne lineare Kette von Ursache und Wirkung. Die Interaktionen innerhalb komplexer Systeme manifestieren Konstrukte, die auf kleineren Skalen nicht existieren.

Die Lösungen der Natur sind keine approximativen Lösungen für schwierige Probleme, sie sind genau das, was die benötigte Antwort berechnet. Die Natur ist nicht die Menge von reduzierten und isolierten Bausteinen, die wir nutzen, um aktuelles Wissen zu definieren. Nur weil wir ein Molekül inspizieren und seine Bestandteile definieren können, heißt das noch lange nicht, dass wir die Struktur und das Verhalten des Moleküls mit Hilfe von Atomen erklären können. Nur weil Zellen Organellen haben, die scheinbar spezielle Aufgaben übernehmen, heißt das noch lange nicht, dass wir die Zellfunktion (korrekt) erklären können, indem wir uns auf Organellen beziehen.

Die Rechenkonstrukte der Natur entstehen als ihre eigenen Entitäten, und zwar auf allen Skalen, auf denen eine Lösung existiert. Es ist für Menschen schwer vorstellbar, dass Verarbeitung etwas anderes sein kann als 'ne Reihe mechanischer Operationen, die ausgeführt werden, um Eingaben in Ausgaben umzuwandeln. Aber Verarbeitung bedeutet einfach, dass Materie und/oder Informationen transformiert werden, nicht, dass es über mechanische oder kausale Mittel geschehen muss.

Flexible Determination. Im ersten Kapitel haben wir uns den Unterschied zwischen deterministischen und nichtdeterministischen Prozessen angesehen. Deterministische Prozesse sind solche, bei denen das Ergebnis vorhersagbar ist, sodass dieselben Eingaben immer dieselben Ausgaben erzeugen. Nichtdeterministische Prozesse sind solche, bei denen das Ergebnis nicht vollständig vorhersagbar ist, sodass dieselben Eingaben jedes Mal unterschiedliche Ergebnisse erzeugen können. Deterministische Prozesse lassen keine Zufälligkeit in ihrem normalen Betrieb zu, während nichtdeterministische Prozesse sie nutzen.

Aber die Dinge sind nicht so einfach, wenn es um die Lösungen der Natur geht. Die Lösungen der Natur haben sowohl Determination als auch Nichtdetermination. Die Lösungen der Natur haben das, was ich flexible Determination nenne. Die Dinge sind flexibel deterministisch, wenn sie sowohl reproduzierbares als auch nicht reproduzierbares Verhalten haben. Nehmen wir mal den Biber. Es gibt offensichtlich viel Reproduzierbarkeit bei diesem Organismus, da wir immer wissen, wann wir 'nen Biber sehen. Ein Biber hat 'n klar definiertes Aussehen und 'n bestimmtes Verhaltensmuster. Der Biber erzeugt für seine Eingaben keine völlig unterschiedlichen Ausgaben.

Aber der Biber ist auch sehr nichtdeterministisch. Das muss er auch sein, da seine Vielzahl von Herausforderungen niemals durch strikte Determination gelöst werden könnte. Stell dir vor, du versuchst, die Eingaben von Raubtieren, Nahrung, Territorium, Temperaturschwankungen, Dürren und Parasiten mithilfe irgendeiner Regelmaschine zu konvertieren, die immer dasselbe tut. Raubtiere können sich aus unzähligen Winkeln nähern, Temperaturschwankungen sind unvorhersehbar und Parasiten können jederzeit infizieren. Ein deterministisches System könnte niemals die Vielzahl von Faktoren in 'ner fast unendlichen Anzahl möglicher Szenarien berücksichtigen.

Und doch überlebt der Biber. Trotz der Verwicklung von willkürlichen, zufälligen, unregelmäßigen und ungeplanten Eingaben konvertiert der Biber zuverlässig jedes Mal dieselben wenigen Ausgaben. Diese Art von Viele-zu-Wenige-Transformationen sind nur durch Abstraktion möglich. Die Strukturen im Berg, im Flussbett und im Biber funktionieren, weil sie physische Abstraktionen sind, die Materie, Energie und Informationen in wenige zuverlässige Ausgaben abkürzen, wie es Abstraktionen tun. Physische Abstraktionen sind das Kernkonstrukt der Berechnung der Natur, weil dies der einzige Weg ist, ihre charakteristische flexible Determination zu erreichen.

Gesichtserkennung wird von Menschen nicht durch 'ne detaillierte Analyse und auswendig gelernte Verfahren erreicht, sondern durch die Erkennung hochrangiger invarianter Muster, die robust gegenüber sich ändernden Winkeln und Beleuchtung sind. Wenn die Person, die wir betrachten, ihren Kopf bewegt, Schatten auf ihr Gesicht wirft oder im Regen steht, können wir sie trotzdem erkennen. Das ist Abstraktion in Aktion. Das Wesen eines Gesichts kann nicht durch Analyse oder wortreiche Beschreibungen artikuliert werden, weil es keine exakten deterministischen Mechanismen gibt, die Gesichter identifizieren können. Nur wenn sich der Geist auf etwas viel Abstrakteres verankert, kann das Problem der Gesichtserkennung gelöst werden.

Um hochrangige Muster, wie zum Beispiel ein Gesicht, erkennen zu können, muss ein enormes Maß an Informationskomprimierung vorhanden sein. Details wie der Abstand zwischen den Augen, die Breite der Nase usw. müssen alle in sehr wenige hochrangige Signale komprimiert werden, die der Geist verwenden kann, um jemandem die Identität zuzuweisen. Genau das ist Abstraktion. Die Komprimierung von Informationen in wenige Anker, auf die reagiert werden kann.

Alle Probleme in der Natur sind schwierig. Es sind keine Situationen, die durch langsame Analyse gelöst werden. Schwierige Probleme werden schnell gelöst, weil sie auf hochrangigen Abstraktionen in Form von Heuristiken und Mustererkennung beruhen. Ein Problem, dessen Lösung lange dauert, ist in der Tat einfach. Das klingt konträr zu der Art und Weise, wie wir den Begriff "schwierig" im täglichen Sprachgebrauch verwenden, aber in rechnerischer Hinsicht ist das wahr. Nur einfache Probleme können im reduktionistischen Sinne auseinandergenommen und analysiert werden. Wirklich schwierige Probleme sind auf diese Weise nicht lösbar. Schwierige Probleme erfordern hochrangige Konstrukte zur Lösung. Nur durch das Abstrahieren der inneren Details in höherwertige Dinge können schwierige Probleme bewältigt werden. Um es klar auszudrücken, wir sprechen hier nicht davon, zum ersten Mal 'ne Lösung zu finden. Hier sprechen wir über die Implementierung der bereits gefundenen Lösung (z. B. ein bereitgestelltes Modell oder menschliches Gehirn, das Gesichter identifiziert). Die Lösung für ein schwieriges Problem zu finden, dauert lange, aber die Implementierung der gefundenen Lösung nicht.

Wir haben menschengemachte Beispiele für flexible Determination. Die von Deep-Learning-Modellen produzierten Lösungen sind zuverlässig genug, um als effektiv deterministisch angesehen zu werden, aber flexibel genug, um bei der Implementierung schwierige Probleme zu lösen. Hier geht es nicht um den Unterschied zwischen der Trainingsphase und den bereitgestellten Phasen von Deep Learning, hier geht es nur um die bereitgestellte Lösung. Die Art von Determination, die in operationalisierten Deep-Learning-Modellen zu sehen ist, hat nichts mit der Determination des traditionellen Ingenieurwesens gemeinsam. Das traditionelle Ingenieurwesen produziert Lösungen, deren Ausgaben vollständig vorhersagbar sind. Während Fehler und unkontrollierbare Umweltfaktoren die reine Vorhersagbarkeit abschwächen können, sind die interne Funktionsweise einfacher Systeme so konstruiert, dass sie vollständig deterministische Maschinen sind.

Aber Deep Learning ist in seiner statischen Form flexibel. Die Konfiguration von Parametern, die Eingaben in Ausgaben konvertieren, ist festgelegt, aber sie bringen extreme Flexibilität, indem sie viele Informationen auf viel weniger Informationen abbilden. Das ist die Art von Determination, die in der Natur zu finden ist, die Art, die nicht durch das Verhalten von Regeln erreicht wird.

Regeln können immer noch auf niedrigerer Ebene beteiligt sein. Ameisen und Termiten haben lokale Interaktionsregeln, die diktieren, wie sie interagieren. Aber entscheidend ist, dass es keine direkte Verbindung von diesen Interaktionen zu dem Verhalten gibt, das entsteht. Die lokalen Interaktionsregeln legen lediglich die Interdependenz fest, die von komplexen Systemen genutzt wird. Sie führen nicht zu den Ausgaben, die das höherrangige Problem lösen. Es sind nicht die Regeln, die Eingaben in Ausgaben konvertieren; diese Transformation geschieht auf der höheren Ebene der physischen Abstraktion.

Deshalb ist jeder Versuch, die inneren Abläufe von Deep-Learning-Modellen explizit zu erklären, völlig irrational. Der Mechanismus, mit dem Deep Learning rechnet, kann nicht im internen, kausalen Sinne erklärt werden. Doch diese Wahrheit geht vielen Wissenschaftlern und Ingenieuren verloren. Es gibt keinen Mangel an Forschern, die versuchen, 'ne "wissenschaftlichere" Erklärung dafür zu geben, was Deep-Learning-Modelle tun. Ihre unangebrachte Konkretheit rührt von unserem reduktionistischen wissenschaftlichen und technischen Paradigma her. Wenn jemals 'ne Beschreibung darüber gegeben wird, wie Deep Learning intern funktioniert, könnte das nur daran liegen, dass 1) sie falsch ist oder 2) Deep Learning in der Tat nicht komplex ist. Alle Anzeichen deuten darauf hin, dass #1 der Fall ist.

Deep-Learning-Systeme werden niemals im deterministischen Sinne entworfen werden, weil jedes Maß an Determination, das sie beherbergen, nicht explizit dort platziert wurde. Es gibt keinen Pfad von der Eingabe zur Ausgabe im Deep Learning, weil das, was ein Deep-Learning-Modell manifestiert, 'n aufkommender Mechanismus ist, der Informationen auf Weisen transformiert, die Regeln nicht können.

Das ist natürlich nicht nur Deep Learning. Deep Learning ist die menschengemachte Version dessen, was wir in der Natur sehen. Das soll nicht heißen, dass Deep Learning so fähig ist wie die Natur, sondern nur, dass es uns Hinweise auf die Art von Komplexität gibt, die erforderlich ist, um die flexible Determination zu erreichen, die in den Lösungen der Natur zu sehen ist. Das menschliche Gehirn ist natürlich das beste Beispiel von allen. Das menschliche Gehirn ist das komplexeste Objekt, das wir kennen, angesichts seiner Anzahl von Neuronen, Verbindungen und emergenten Eigenschaften. Das menschliche Gehirn ist ein Objekt mit extremer flexibler Determination, das uns ermöglicht, uns mit großer Allgemeinheit durch unsere Umweltkomplexität zu bewegen.

Viele Wissenschaftler und Ingenieure sprechen so, als ob die Unsicherheit, die in komplexen Systemen entsteht, auf Dinge wie externe Störungen, Rauschen oder inhärente Zufälligkeit in der Systemdynamik zurückzuführen ist. Das gilt für deterministische Systeme, aber nicht für komplexe. Auch hier gilt: Komplexität ist keine unordentliche Version von Determination, sondern funktioniert auf 'ne grundlegend andere Weise. Es gibt 'nen abrupten Übergang, wenn sich ein System von einfach zu komplex bewegt. Wir werden sehen, was während dieses Übergangs in Teil 2 passiert.

Wir müssen Emergenz konstruieren. Wir können Lösungen nicht mehr auf die gleiche Weise konstruieren, wie wir es im Laufe unserer Geschichte getan haben. Die benötigten Ausgaben müssen durch Emergenz erreicht werden, und nur komplexe Objekte können Emergenz erreichen. Wir können keine spezifischen Entscheidungen über Teile und Verbindungen treffen, die bekannte Ergebnisse erzeugen, sondern wir müssen ausserhalb der Interna der Systeme treten, die wir erschaffen, so wie es die Natur tut.

Das Bauen im Zeitalter der Komplexität erfordert, dass unsere Prozesse tiefe Ähnlichkeiten mit der natürlichen Selektion aufweisen, wobei Variation, Iteration und Selektion die Hauptanliegen sind, während die internen Konfigurationen unserer Lösungen von selbst entstehen.

Technologie zu bauen bedeutet, Probleme mit greifbaren Dingen zu lösen. Das hing schon immer vom Design ab, um die nächste Ebene der physischen Abstraktion zu schaffen. Aber die Anzahl der Teile und Interaktionen, die sich jetzt in den Dingen befinden müssen, die wir bauen, macht den Begriff des Designs überhaupt zunichte. Die Parameter im Inneren unserer Kreationen können nicht explizit festgelegt werden. Es gibt keinen Zugriff auf die Art von internen Informationen, die erforderlich sind, um diese Besonderheiten festzulegen, und selbst wenn es sie gäbe, ist das nicht die Art und Weise, wie die Natur funktioniert. Ansätze, die auf Design basieren, wurzeln im Reduktionismus, und es kann keine reduktionistische Philosophie geben, die zu tragfähigen Kreationen führt, die unter Komplexität funktionieren.

Aber das Bauen von Dingen erfordert immer noch Kenntnisse über die Prinzipien, Materialien und Prozesse, die an der Konstruktion beteiligt sind. Verschiedene Dinge verhalten sich unter verschiedenen Bedingungen unterschiedlich, und diese Art von Wissen ist erforderlich, um rationale Entscheidungen darüber zu treffen, wie man vorgehen soll. Wie beim traditionellen Ingenieurwesen erfordert auch das Bauen komplexer Dinge, die funktionieren, immer noch 'ne Wertschätzung dafür, wie sich strukturelle Integrität, Sicherheit, Funktionalität und Effizienz in den Umgebungen auswirken, in denen wir die Dinge platzieren, die wir erschaffen.

Der Unterschied besteht nun darin, dass dieses Wissen nicht auf den internen Details unserer Kreationen basieren kann. Das steht im Widerspruch zu der Art und Weise, wie Wissenschaft und Technik heute funktionieren. Ein Bürogebäude mit struktureller Integrität zu bauen, bedeutet, Kenntnisse darüber zu verwenden, wie Lasten innerhalb des Gebäudes verteilt werden. Die kausalen Interaktionen zwischen bestimmten Bauteilen wie Trägern, Säulen und Fundamenten werden verwendet, um 'ne tragfähige Struktur zu entwerfen und zu bauen.

Objekte zu schaffen, die Sicherheitsstandards erfüllen, bedeutet zu verstehen, wie verschiedene Elemente innerhalb von Strukturen interagieren und wie sie in verschiedenen Situationen versagen könnten. Um potenzielle Gefahren vorherzusehen und Risiken zu mindern, muss man bewusste Entscheidungen darüber treffen, welche Teile verwendet und wie sie verbunden werden sollen. Nehmen wir mal feuerhemmende Wände, Sprinkleranlagen und Fluchtwege in heutigen Gebäuden. Unsere Kreationen sind effizient gemacht worden, indem wir die internen Abläufe der Strukturen optimiert haben, die wir gestalten. Um Bereiche für Verbesserungen zu identifizieren, mussten wir über die kausalen Verbindungen zwischen den Teilen nachdenken und dieses Wissen nutzen, um Prozesse zu rationalisieren, Abfall zu minimieren und Kosten zu senken. Wenn es darum geht, dass unsere Kreationen wie beabsichtigt funktionieren, war diese Funktionalität immer möglich, indem wir die internen Mechanismen und Prozesse verstanden haben, durch die Ausgaben erzeugt werden.

All diese Beispiele basieren auf internem Wissen darüber, wie die Dinge funktionieren. Wenn wir uns in das Zeitalter der Komplexität begeben, können wir Kenntnisse über die Prinzipien, Materialien und Prozesse nicht einfach wegwerfen. Der Unterschied besteht darin, dass wir dieses Wissen nun im Hinblick auf externe Eigenschaften in Bezug auf die Materialien und Prozesse, die Dinge funktionieren lassen, neu gestalten müssen. So wie die natürliche Selektion ohne jegliche Abhängigkeit von internem Wissen zu echter Raffinesse gelangt, so müssen auch wir ausserhalb der Systeme treten, die wir erschaffen, und unsere Standards dort platzieren.

Dazu müssen wir sicherstellen, dass wir verstehen, was Emergenz ist. Nicht mithilfe irgendeiner reduktionistischen Stückwerk-Geschichte, die versucht, kleine und große Skalen über kausale Verbindungen zu verbinden, sondern indem wir Kenntnisse über die universellen Eigenschaften von Information, Berechnung und Evolution verwenden.

Nur indem wir 'nen Schritt zurücktreten und uns ansehen, was die Natur tut, um ihre emergenten Strukturen und Verhaltensweisen zu erreichen, können wir verstehen, wie die Natur rechnet. Das ist nichts, was in den Annalen der Wissenschaft zu finden ist. Nicht, weil andere es nicht versucht hätten, sondern weil ihre Versuche immer noch nach dem alten Reduktionismus riechen, der intellektuell ehrliche Versuche, Komplexität zu verstehen, vereitelt. Was benötigt wird, ist 'n objektiver Blick darauf, was die Natur mit Information, Rechnen und Evolution tut, um ihre Lösungen zu erschaffen. Nur indem wir ausserhalb des aktuellen Paradigmas treten und die Natur so sehen, wie sie ist, können wir unsere veraltete reduktionistische Linse abwerfen und unbestreitbare Wahrheiten darüber hervorbringen, wie die Natur funktioniert.

Go Back Print Chapter