Chapter Content

Calculating...

えー、チャプター2、ですかね。はい。

「壁にぶつかる」っていう、まあ、そういう話なんですね。

あのー、デザインなき進歩、っていうのかな?うん。

ここまでの話で、人間がどうやって進歩してきたか、ってのを見てきましたよね。別に、頭が良くなったとか、めっちゃ頑張ったとか、天才のおかげとか、そういうのじゃないんですよね。抽象度をどんどん上げていくデザイン、その積み重ねによって進歩してきた、と。ある世代は、前の世代と同じ問題を解けるんだけど、スタート地点が進んでいるから、より速く解ける、みたいなね。

でも、デザインっていうのは、決定論に基づいているんですよね。で、決定論じゃ、本当に難しい問題は解けない、と。今、僕らが解決したい、あるいは、解決しなきゃいけない、そういう問題って、めちゃくちゃ難しいじゃないですか。要素とか、相互作用とか、考えなきゃいけないことが、もう、ルールに基づいたやり方じゃ、手に負えないくらい多い。

そこで、深刻な疑問が出てくるわけですよ。もはやデザインで解決できないなら、人類はどうやって技術的な進歩を続けられるんだ?原因とか結果とか、明確なステップとか、システムの内側の知識とか、そういうのがないなら、どうやって考えるんだ?どうやって次の世代に、新しいスタート地点を与えられるんだ?抽象度を上げていくためのインターフェースを、どうやって作っていくんだ?

抽象化による進歩、っていうのが、もう、限界に達しちゃったんですね。前のチャプターでも言ったけど、抽象化による進歩っていうのは、普遍的な真理なんですよ。どんなシステムも、進歩するためには、それが必要なんです。だから、抽象化の限界を突破するには、新しいやり方を見つけるしかない。デザインに頼らない、別のやり方。自然界には、きっとそういうやり方があるはず。だって、自然は、そうやって進歩してきたんだから。

自然っていうのは、何よりもまず、複雑さ、ですよね。つまり、複雑さっていうのは、これからの時代に必要不可欠なものなんです。というか、僕らが作らなきゃいけないのは、複雑さ、なんですよ。ただ単に、部品を増やすだけじゃ、進歩にならない。本当に複雑なものを、作り上げなきゃいけない。

デザインの限界にぶつかるっていうのは、今のやり方じゃ、創造性の限界に達した、っていうことなんです。単純な機械を、単純な理屈で作る、っていうやり方じゃ、もう、進めない。多くの人にとっては、直感に反するかもしれないけど、僕らが求めている新しいものっていうのは、実は、一番古いものなんです。それは、自然が使っている、無意識のプロセス。そこに、複雑な世界への鍵がある。

でも、このアプローチを受け入れるには、大きな代償を払わなきゃいけないかもしれない。過去の還元主義的な考え方を捨てるっていうのは、唯一の道のように思えるけど、多くの人にとっては、受け入れがたいことですよね。それでも、自然の、無意識で、理屈のないメカニズムが、バラバラなものを結びつけて、共通の機能を生み出す。それが、難しい問題の答えを計算する、抽象化なんです。これこそが、僕らが学んで、作っていくべきものなんです。

でもね、この自然な作り方っていうのは、手当たり次第に、モノを混ぜ合わせる、みたいな、そういう無計画なものではいけないんです。僕らの努力は、問題解決の可能性、そして、問題の解決策が存在する空間の中で、うまく機能しなきゃいけない。複雑さが必要だっていうのは、人間が問題を解くときの考え方と、真っ向から対立するように思えるかもしれません。

でも、人間が作ったものの中には、還元主義的とか、決定論的とか、そういう枠に当てはまらないものもあるんですよね。意図されたデザインだけで、結果が生まれるわけじゃないもの。社会とか、市場とか、特定のテクノロジーとか、デザインによって意図的に置かれたものではないもののおかげで機能しているもの、そういうものがある。つまり、人間には、自然のように物を作る能力がある、ということなんです。それこそが、デザインなしで、抽象化による進歩を続けるためのヒントになるんです。

複雑さを構築するためのヒント、ですかね。

人間は、自然界にあるものと比べられるくらい、洗練されたものを、いくつか作ってきましたよね。もちろん、「作った」っていう言葉は、ちょっと注意が必要ですよ。デザインされたシステムの話をしているわけじゃないんです。そうじゃなくて、意図せずに、そうなってしまったシステム。最初に置かれたもの以上のものを使って、エンジニアリングされたというより、たどり着いた、そういうオブジェクトの話をしているんです。これらのオブジェクトは、真の複雑さに近い。なぜなら、部品とか相互作用が多いだけじゃなくて、重要なアウトプットの多くが、僕らが作ったわけじゃないメカニズムによって生み出されているから。

僕らが、真の複雑さ、自然界にあるものに、一番近いものを作ったと言えるのは、都市とか、金融システムとか、電力網とか、インターネットとか、人工知能システム、ですかね。これらのオブジェクトが、真の複雑さの領域に入るのは、アウトプットが、意図的なエンジニアリングだけで生まれるわけじゃないから。これらのオブジェクトはすべて、創発(emergence)の初期兆候を示している。つまり、それらを構成する要素には存在しない構造とか、振る舞いが現れる、ということ。

例えば、電力網。電圧の変動とか、電力の振動とか、周波数のずれとか、そういうものが現れるけど、それは、システムに組み込まれたものではないんですよね。これらの振る舞いは、機械の中のいたずらっ子、とか、複雑さの副産物、とか、そういうものではない。電力網は、その創発的な特性のおかげで、大きく機能している。グリッドの安定性っていうのは、自己組織化のおかげで可能になっている。電力網は、機器の故障とか、自然災害とか、サイバー攻撃に対して、組み込みの回復力を持っていることを示してきた。それは、混乱に動的に適応して、電力の流れを再ルーティングすることによって実現されている。電力伝送のための複数の冗長パスウェイを作るのは、確かに意図的な努力だけど、影響を受けたエリアの自己修復とか、自然な隔離っていうのは、これらのエンジニアリングされたコンポーネントの相互作用から生まれるものであって、明示的な人間の制御から生まれるものではない。

都市も、計画とか、意図的な意思決定だけで存在しているわけじゃない。どんな大都市も、その形とか機能は、自己組織化された振る舞いのおかげなんですよね。例えば、企業が、どこに拠点を置くか、っていうのは、アクセスのしやすさとか、顧客の人口統計とか、競争状況とか、無数の変数を考慮して決めるじゃないですか。商業地区の形成っていうのは、予測できない形で起こりうる。街のパターンとか、建物の密度っていうのは、地理的な制約とか、個人の意思決定とか、そういうものが積み重なって生まれてくるものであって、中央の計画だけで生まれるものではない。都市は、経済活動のハブであり、モノとか、サービスとか、労働力とか、不動産とかが、相互に依存して機能していて、それが、都市の見た目とか、雰囲気を作り出している。市民が有機的に交流する中で、コミュニティの結束が生まれたり、計画されていない交通パターンとか、予想外の移動需要から、公共交通機関が生まれたりする。

金融システムっていうのは、エンティティとか、金融商品とか、市場参加者の混合の結果なんです。投資家とか、トレーダーとか、機関投資家の集団的な行動が、市場価格とか、取引量とか、ボラティリティをもたらすけど、それらは、ほとんど予測できない。需要と供給のパターンとか、投資家のセンチメントとか、情報の拡散とか、そういうものが混ざり合って、市場っていうものが生まれる。価格の決定っていうのは、決して決定されているわけじゃなくて、多様な意見とか、信念とか、取引戦略の集約から生まれてくるものなんです。絶えず進化する規制の枠組みっていうのは、ニーズとか、優先順位のブレンドから生まれてきて、システムに組み込みの安定性とか、誠実さをもたらす。金融システムは、ショックとか、混乱とか、ストレスに耐えることができる。その回復力は、システムに組み込まれたものではない。

インターネットは、多様な意見とか、信念とか、知識の電子的な集約と拡散のおかげで、意見の形成とか、集団的意思決定をもたらす。相互接続されたデバイスの分散型ネットワークとして、インターネットは、ネットワークのスケーラビリティとか、回復力とか、適応性のような、複雑さの兆候を示している。オンラインコミュニティとか、ソーシャルネットワークは、ユーザーが議論したり、協力したり、集団行動したりする中で、自然発生的に生まれてくる。コンテンツの作成と配信の民主化は、バイラルコンテンツとか、ミームとか、トレンドとか、文化的な動きの出現につながった。

もちろん、このような創発的な振る舞いは、僕らにとって不利に働くこともある。電力網は、わずかな電圧の変動とか、周波数のずれを、大規模な停電に変えることがある。市場を不安定にするバブルとか、クラッシュとか、フィードバックの増幅とかもある。これが、複雑さの代償なんです。複雑なものが機能する仕組みは、洗練されたユースケースにとって、不利な結果をもたらすこともある。重要なのは、これらの振る舞いは、意図的にシステムに組み込まれたものではないということ。そして、これらのシステムは、その創発的な特性なしには、機能しないということ。

おそらく、人間が作り出した最も複雑なものは、現在のAIシステム、より具体的には、AIを動かすモデルでしょう。これらは、機械学習技術、特に、ディープラーニングに基づいている。ディープラーニングは、生データを、自然言語での会話とか、顔認識のような、インテリジェントなアウトプットに変換する。でも、この変換がどのように行われるかは、分かっていない。少なくとも、科学者とかエンジニアが説明するような方法では。AIシステムに与えられたインプットが、どのようにアウトプットに変換されるのか、それを理解している研究者とかエンジニアはいない。なぜなら、AIは、従来のソフトウェアのようにプログラミングされていないから。AIシステムの足場は、確かにルールに基づいているけど、インテリジェントなアウトプットを生み出す内部の詳細は、電力網とか、都市とか、金融市場が、最も重要なアウトプットを生み出す方法に、非常によく似ている。

ディープラーニングの仕組みを理解するためには、まず、「仕組み」っていう言葉の意味を、再定義する必要がある。僕らの説明における「仕組み」は、情報が特定の形で変換されることを示す、決定論的なステップの集合体ではありえない。そうじゃなくて、エンジニアは、必要なものに最終的に収束するプロセスを、設定する外側の足場しかプログラムできない。

AIが何をしているかを説明するための、最も簡単な、そして、ゆるいアナロジーは、データに線を当てはめるっていう概念に基づいている。これは、科学において、データだけでは分からない、より深い何かを見つけるために使われる、一般的なアプローチなんです。データに線を当てはめるとき、僕らは、システムに関する予測能力を与えてくれるかもしれない、一般的な傾向を見つけようとしている。例えば、気温とアイスクリームの売上をプロットする。これらの値をプロットして、傾向を探すと、気温が高いほど、アイスクリームの売上が増えることを示す線が引けるでしょう。

この線を手に入れたら、アイスクリームの売上を予測できるものが手に入ったことになる。明日の気温を見て、その気温で売れるであろうアイスクリームの量を読み取ることができる。実際、プロットは必要ない。データに線を当てはめたので、線は数式で表すことができる。関数っていうのは、入力と出力をマッピングするもの。入力から値を出力することができる。アイスクリームの例では、特定の日の気温を入力すると、売れるであろうアイスクリームの量が出力される。

データに線を当てはめて関数にたどり着くっていう概念は、僕らの心が、世界について学んでいるときにしていることと、それほど変わらないはず。もちろん、心は、値の低次元プロットに単純な線を引いているわけではないけど、大まかな概念は同じなんです。僕らは、感覚を通して世界を認識する。それは、データを収集することに似ている。これらのデータは、物事がどのように機能するか、それが何を意味するのかについて、メンタルモデルを作るために使う、生の入力なんです。子供たちが初めて言葉を学ぶとき、文法とか、語彙とか、文章構造に関する内部の潜在的なモデルを開発している。彼らが学ぶ「関数」は、インプット(聞こえてくる音)を、アウトプット(言葉の意味)に変換する。

人生のすべては、関数を学ぶことに似ている。たとえ、それらの関数が、純粋に抽象的な意味でしかなくても。他人と交流するとき、社会的な力学を理解して、複雑な状況を乗り切るために、行動とか、規範とか、社会的合図に対する期待を使う。僕らが、何を言ったり、したりするかに対する他人の反応を予測できるのは、これらの状況に関するメンタルモデルのおかげ。車を運転するとき、道路のレイアウトとか、交通パターンとか、他のドライバーの行動に関するモデルを実装している。潜在的な危険を予測して、速度とか、方向とか、タイミングに関する意思決定をする。インプットを出力にマッピングする一連の内部関数なしには、これらのどれも不可能でしょう。何かを学ぶっていうのは、感覚データに「線を当てはめて」、周囲の世界のモデルを作成することなんです。

線のようなモデルを構築するには、パラメータを見つける必要がある。なぜなら、モデルに形を与えるのはパラメータだから。パラメータは、データに合うように線を調整するために回すノブのようなもの。線形回帰を使って、観測されたデータに線形方程式を当てはめるのは、一般的な方法。プロット上のデータの集まりを貫く線を見るたびに、線形回帰が使われている可能性が高い。この場合、1つのノブを回すと、線の傾きが調整されて、線が急になったり、緩やかになったりする。別のノブを回すと、線が垂直方向に移動する。適切な傾きと切片を得るっていうのは、データに最適な適合を得ることを意味する。言い換えれば、ノブの最適な位置を見つけるっていうのは、データを使って、入力(独立変数)と出力(従属変数)の関係をモデル化しようとする方法なんです。

線形回帰は、本質的に、「プラグアンドプレイ」のアプローチ。実験で収集されたデータを、クローズドフォーム(きれいで分かりやすい)の式にプラグインして、線を当てはめるために必要な傾きと切片を生成する。つまり、パラメータは、見つけるというよりは、直接計算されるんです。

線形回帰は、その言葉の本来の意味で、学習しているわけじゃない。線形回帰は、事前に定義された数学的な構造に従って、パラメータ値を計算する。もし、関数がインプットを出力に変換する方法を定義するノブを、本当に学びたいなら、関数がどのように見えるべきかについて、そのような極端な仮定をしないでしょう。そうじゃなくて、真の学習に必要なこと、つまり、試行錯誤に乗り出す。これには、まず、パラメータ値をランダムに推測して、自分がどれだけ間違っているか(何らかの基準に従って)を確認して、値を調整して、もう一度試すことが含まれる。良い適合の定義に収束するまで、推測、評価、調整を続ける。

これこそが、今日のAIシステムを支える、コンピューティングアプローチである、機械学習が目指していること。データに、適切に定義された構造を強制して、パラメータを直接計算するのではなく、大量のデータと反復を使用して、収束するまで推測し続ける。ディープラーニングでは、モデルがデータに適合されている。ただし、直線ではなく、僕らの3次元の心では視覚化できない、高次元のもの。AIが学習する関数は、インプットからアウトプットへの単純な決定論的なマッピングではなく、数十億ものパラメータを含む、巨大で、複雑で、信じられないほど複雑な式なんです。

AIには、解釈可能な、きれいなクローズドフォームの式はない。そのレイヤーを剥がして、インプットからアウトプットに情報を変換する、因果関係の連鎖を明らかにすることはできない。ここは、プラグアンドプレイの数学の領域ではなく、反復最適化とソフトな意思決定の世界。人が学習する方法と似た方法で学習するために使われるんです。

したがって、ディープラーニングは、ソフトウェアの構築方法に関する、非常に異なる哲学を表している。AIには、明示的または可視的な関数がないため、アウトプットを生成する内部構造を知ることはできない。必要なアウトプットを生成するために、AIマシンの内部を設計することはできない。僕らにできるのは、数十億のノブを反復的に回して、僕らが(通常)期待する答えを生成する、高レベルのプロセスを設定することだけ。

今日のAIの作成方法は、個々の人工ニューロンをプログラミングすることによって行われる。人工ニューロンっていうのは、人間の脳にある生物学的ニューロンの振る舞いを模倣するために作成された、相互接続されたコードの単位。生物学的ニューロンは、神経系が電気信号とか化学信号を介して情報を処理して伝達する方法。脳内の各ニューロンは、樹状突起と呼ばれる構造を介して、他のニューロンからの信号を受信する。ニューロンは、これらの入ってくる信号を細胞体(ソマ)に統合して、結合された入力が閾値を超えると、活動電位(電気ポテンシャルの短時間の変化)を生成する。活動電位は、軸索に沿って伝播する。軸索は、ニューロンの長い突起であり、電気インパルスを細胞体から離れて伝導する。軸索は、神経系の主要な伝送線であり、他のニューロンとか、筋肉などに信号を伝達する役割を担う。

専門用語を使わずに言うと、人間の脳は、情報を処理し、その認識を実現するために、隣接するユニットとの相互作用に依存して、電気信号を伝達する、相互接続された機能ユニットの大規模なネットワークを使用しているように見える。これが、ディープラーニングを触発するアーキテクチャ。機能ユニットは人工ニューロンであり、電気信号の伝送は、ニューロン間で数値の形で送信される情報。その数値は、接続のアクティベーションレベルとか、強度を表している。

ディープラーニングのパラメータは、線形回帰の例のように、傾きとか切片のようなものではない。ディープラーニングで使用されるパラメータは、重みとかバイアスと呼ばれ、数十億の数に達し、ニューロン間の接続の強度とか、各ニューロン内で許可される柔軟性のレベルに関連している。線形回帰のパラメータは、その整然とした数学的な形式のおかげで、具体的な意味を持っているけど、ディープラーニングモデルのパラメータは、ネットワーク全体を考慮した場合にのみ意味を持つ。

明示的な数式がない場合、パラメータはどのように設定できるのか?その値が数十億に及ぶ場合、どのように見つけることができるのか?ディープラーニングは、大量のデータをシステムに通して、必要な出力を生成するまで、パラメータ値(最初はランダムな値に設定)を調整することによって、それを行う。これは、モデルが予測する出力と、実際に必要な出力の差を最小限に抑えようとする、最適化アルゴリズムを使用して行われる。顔認識では、実際に必要な出力は、顔の身元(例えば、ボブ)であり、予測される出力は、いつでも最良の推測(例えば、ビル?スーザン?)である。これは、ディープラーニングが問題にアプローチする方法は、意図的な計算によるものではなく、モデルが最初に考えていることと、実際にあることのギャップを、ほとんど同意するまで埋めることによってアプローチするっていうことなんです。すべての形式のディープラーニングがラベルを使用するわけではないけど、基本的なアプローチは同じ。モデルが最初に考えていることと、実際にあることのギャップを埋めることなんです。

これは、推測と反復のゲームであり、理由付けされた計算ではない。機械を構築する、より全体的なアプローチは、歴史を通じて、ソフトウェアとか、統計が機能してきた方法とは根本的に異なる。ディープラーニングでは、関心のあるシステムの外部に足を踏み入れて、それ自体で収束する高レベルのプロセスのみを使用することによって、認識論的な不確実性を認める。これは、重要な区別であり、複雑なシステムがどのように作成されるかについて、重要な真実を示している。個々のものを組み合わせて、内燃機関のように接続することによって、複雑さを構築することはできない。ニューラルネットワークアーキテクチャは、人工ニューロンの数と配置に関して設計されているけど、ネットワーク内のパラメータを見つけて設定するプロセスは、僕らの手から離れている。

ディープラーニングは、内部パラメータと外部パラメータを区別する。重みとバイアスは、モデルの情報を使用したり、変換したりすることに直接影響する、内部パラメータ。ハイパーパラメータっていうのもあって、それは、モデルアーキテクチャ自体にとっては外部のもの。これらは、学習プロセスを制御する設定とか、構成と考えることができる。学習率とか、バッチサイズとか、エポック数とか、レイヤー数とか、レイヤーあたりのニューロン数のような、さまざまなネットワークアーキテクチャの選択肢が含まれる。

エンジニアが構成するのは、ハイパーパラメータであり、内部モデルパラメータではない。それでも、モデルが機能するためには、内部モデルパラメータを特定の構成に設定する必要がある。これは、AIエンジニアリングが、これまで人間が構築してきたものとは、どれほど異なっているかを示している。ほとんどの場合、人間は、システムの内部に手を伸ばして、システム内でエネルギーとか情報がどのように移動するかについて、意図的な選択をしようとする。

人々は、決定論的なプロセスと非決定論的なプロセスの違いを理解するのが難しい。個々の人工ニューロンは、決定論的なコードの断片。同じ入力と重みは、常に同じ出力を生成するから。これは、従来のルールベースのコンピュータープログラミングと一致している。ただし、これらのニューロンが集まって機能すると、ニューラルネットワークの動作は、特に学習フェーズ中には、ほとんど決定論的ではない。これこそが、真に複雑なオブジェクトで起こる、重要な移行なんです。何かが作られている部品と、その構造とか振る舞いを定義する特性との間には、大きな断絶がある。

情報が、人工ニューロンの複数のレイヤーを通過するとき、それぞれが、独自の非線形性を適用して、ネットワークは、インプットからアウトプットへの非常に複雑で、非線形の写像を学習する。小規模で使用される決定論的(ルールベース)コードは、大規模では、非常に異なるものをもたらす。そのような複雑さは、人間が独自に設計できるものよりもはるかに深く、現実的な方法で、自然界を反映する、複雑なオブジェクトの独特の能力を解き放つ。

これが、AIシステムが、真の複雑さの兆候を示す理由であり、AIを構築するために使用されるアプローチが、自然が構築する方法と一致している理由。多くの小さな決定論的な非線形性が、集約された非決定論に積み重なるのは、自然の湿った、粘り気のある、ダイナミックなオブジェクトに見られること。これは、今日のAIが、自然のソリューションと同等であるという意味ではなく、自然の複雑さの構造と振る舞いを反映していて、外部からのアプローチを採用した場合に何が起こるかを物語っているだけ。これは、カテゴリー的に難しい問題を解決できる唯一の方法。システムの内部の動作から一歩離れて、それが自然に落ち着くように、収束させなければならない。

だからこそ、ディープラーニングは、一種の錬金術だと考えられている。これは、多くの人、特に、より伝統的な考え方を持っているエンジニアを、不安にさせる。AIを数学的に説明しようとする継続的な努力がある。それは、複雑さに真っ向から対立する、還元主義とか、決定論の匂いがする。この問題については、後で詳しく説明する。

ディープラーニングモデルは、真の複雑さに近いオブジェクト。その機能は、僕らがシステムに組み込んだことのない特性に依存しているから。ある意味では、都市とか、金融市場とか、AIのようなものは、まったく作られたわけではなくて、それらにつながった、より大きなものとは似ても似つかない、小さなものの無数の相互作用から、析出されたんです。

AIシステムが、本当に複雑かどうかよりも重要なのは、AIエンジニアリングが、人間が完全に異なるパラダイムの下で構築している、最良の例であるっていうこと。ディープラーニングは、人間がこれまでしてきた方法で構築しないようにする、人間による最初の意図的な試みを表している。電力網とか、都市とか、市場とか、インターネットの出現は、後になって実現されたけど、ディープラーニングは、最初から根本的に異なるパラダイムを採用した。ディープラーニングは、コンピューターにタスクの実行方法を指示しようとしないからこそ、可能なんです。

今日のAIへのアプローチが、真の汎用人工知能(AGI)を実現するかどうかは、重要ではない。ディープラーニングは、これから起こることの兆候。ディープラーニングは、人間がモノを構築する方法を再定義する、エンジニアリングの一種を表している。僕らは、先祖の決定論的なエンジニアリングを使って、最も優れた課題を解決することはできないことを知っている。

これは、モノを構築する方法のシフトだけではない。それは、僕らの世界が現在定義している知識とか、スキルとか、個人が経済に貢献する能力の核心に触れる。僕らの世界は、デザインの概念に基づいて機能している。なぜなら、デザインっていうのは、システムの内部に手を伸ばして、そこで見ているものを使って、次のステップに進むことだから。デザインは、ビルダーの努力を、既存の構造にマッピングする。これは、自然が構築する方法ではない。

リセット

今日の経済、そして、人々の経済への貢献能力を支えている、デザインベースの構築物の全体は、大規模な見直しが必要なんです。複雑さの時代に創造するために必要な非決定論を受け入れるには、まったく異なるアプローチが必要。この新しいアプローチは、僕らが現在、物事を構築することを期待する方法とは正反対の立場に根ざしていなければならない。

複雑さがどのように機能するかには、根本的な方向性があり、それは、学術的な物語で語られるものとは反対なんです。良いことにつながるのは、基礎ではなくて、混ざり合いとか、混沌とか、不確実性。それこそが、僕らが最終的に教科書に成文化する構造をもたらすんです。簡単に言うと、プロジェクトの開始時から配置するように言われている、基礎工事とか、構造化とか、設計は、適切な構造が出現するために必要なものとは正反対に機能するんです。

モノの構築方法をリセットしたり、メリットの適切な概念を定義したり、必要なシフトに沿った経済を構築したりするには、創発の謎を解き明かす必要がある。そのためには、創発とは何か、情報を科学的に知られている特性とか、計算とか、進化と一致する、概念的に簡潔な説明を提示する必要がある。

僕は、そのような説明を見つけることができていない。今日の科学者による、創発を説明しようとする継続的な試みにもかかわらず、すべてが同じ理由で失敗している(多くの「複雑性科学者」によるものも含む)。彼らはすべて、現在の科学的パラダイムの中で、創発を説明しようとしている。一方では、これは驚くべきことではないはず。結局のところ、他にどうやって論文を発表するのか?でも、それは必然的に、複雑さに反する還元主義につながる。

複雑さには、科学とかエンジニアリングの記録に見られるものとは異なる、別の種類の説明が必要。因果関係の説明ではなくて、特性の説明。システムの内部に手を伸ばしたり、平均とか、繰り込みの古い概念をその部品に押し付けたりしない説明。そのような説明は、ハイレベルで観察するものは、ローレベルで見ているものの、ぼやけた曖昧なバージョンにすぎないことを誤って示唆している。そのような試みは、根本原因とか、経路の時代遅れの概念に染み込んでいて、複雑さを単純なシステムの線形性とか、決定論に無理やり適合させようとしている。

そうじゃなくて、複雑さっていうのは、困難な問題を解決する物理システムが、自力で組織化された構成に落ち着くことで必然的に成長したものとして捉えることができる。厳格な原因と結果によって物質を呼び集める理論に訴える必要はない。また、知識のギャップを、意味のない抽象的な説明で埋めようとする、曖昧な議論を捏造する必要もない。何かの因果関係の説明がないからといって、説明できないわけではない。部品が部品にぶつかるというおとぎ話を作り上げなくても、自然システムの特性と制約に準拠するメカニズムを明らかにすることができる。

複雑さに直面した抽象化による進歩が提起するハードルに対する解決策への第一歩は明らか。人間は常に、インスピレーションを自然に求めてきた。僕らが構築するもののほとんどは、周囲の自然システムに見られる対応するものを持っている。何が可能かを教えてくれるのは、自然。でも、自然をミューズとして使うだけでは、もう十分ではない。自然は、何が可能かだけでなく、はるかに多くのことを教えてくれる。もし、一歩引いて、還元主義とか、決定論への依存を捨てて、複雑さをあるがままに受け入れるなら、自然がどのように複雑な解決策を生み出しているかを学ぶこともできる。自然が構築するように、僕らも構築することを学ぶことができる。

Go Back Print Chapter