Chapter Content
えーと、今回はですね、えー、リアリティの断片、みたいな、そんな話から入っていきたいと思います。なんか、手順と本質、みたいなテーマですね。
まあ、簡単なシステムって、手順がそのまま本質なんですよね。例えば、ライフル銃って、決まった手順で弾を発射しますよね。で、その手順こそが、まさにライフル銃の本質、というか定義そのもの、みたいな。
でも、複雑なシステムだと、手順は結果を生み出すけど、本質そのものではないんです。例えば、AI。AIって、試行錯誤とかヒューリスティックスを使う手順を組み込んでますよね。その手順がないとAIはAIにならないんだけど、AIの本質って、エンジニアが作った手順とは、まあ、ほとんど関係ないんです。
AIって、何十億ものパラメータを持つ内部構造を、なんか勝手に作り出すんですよね。で、それが、いろんな入力を、少ない出力にマップする、みたいな。AIが達成してることの本質は、意図的に設計されたものじゃないんですよ。この場合、実装された手順と、求められている本質は、全然違うものなんです。
この手順と本質の分離が、単純なものを作るのと、複雑なものを作るのが、いかに違うかっていうのを、教えてくれますよね。都市とか、電力網とか、AIシステムみたいな、ちゃんと機能するものを、結果を設計することでは作れないんですよ。システムの中に入り込んで、内部構造を組み立てることはできない。できるのは、システムの外部から、必要なものを生み出しそうな手順を置くことだけ、みたいな。
で、次は、順番にやらない、みたいな話ですね。子供が遊ぶゲームには、順番があるものとないものがありますよね。例えば、博物館が環境に優しい活動を教えるために作った展示とかは、順番が決まってて、各ステーションで簡単な課題をこなして、全部終わったらゲームクリア、みたいな。
でも、公園の遊具とかって、順番もルールもなくて、自由ですよね。でも、子供たちは勝手にルールを作って、遊び始める。で、順番がある展示だと、子供たちはすぐに飽きちゃう。ルールを変えたがったり、無視したりする。でも、公園の遊具だと、子供たちが自然に順番を作って、それに従うんですよね。
どちらの場合も順番は観察できるんだけど、順番が自然に生まれてくるのは、公園の遊具だけ。博物館の展示は、子供にとっての教育、大人にとっての仕事みたいなもの。順番が決まってて、デザインされてる。でも、その順番は、本来起こるはずの自然な流れを邪魔する介入になっちゃってるんです。必要なものを作るために、重要だと思う部分だけを取り出そうとしてる、みたいな。
これって、教育システムの根本的な問題に通じるんですよね。学校の教科書とかって、学ぶ順番が決まってて、順番通りに進まないと、次のステップに進めない、みたいな。でも、それって、最悪の学び方なんです。なぜかっていうと、与えられた順番には、意味を理解するために必要な、現実世界とのつながりがないから。文脈って、ラベルがない状況を体験することでしか、得られないんです。ごちゃごちゃしてて、わかりにくいものを見て、そこからラベルが生まれるのを見る方が、最初から完成されたものを見るよりも、ずっと良いんです。
順番に学ぼうとすると、誰かが試行錯誤して、順番をバラバラにして発見した結果だけを見ることになる。重要なことの最終的なまとめだけを取り出して、それを学ぼうとしてる人たちに与えてる、みたいな。でも、大切なのは、そこに至るまでの過程なんですよ。その過程に、大切なことを理解するために必要な情報が、たくさん詰まってるから。
教科書に書かれてるラベルとか、ルールに縛られたゲームって、情報がほとんどないんですよ。たとえそれが、その分野の最も深い真実を表していても。最終的な結果には、自分がたどり着くまでの、ユニークでめちゃくちゃな道のりにしか、価値がないんです。
順番に学ぶべきじゃないんです。順番がバラバラになってるからこそ、現実世界にある深い文脈が、利用可能になる。教育とか産業で使われる順番は、整理されてて分かりやすいけど、そのルールが作られる過程で、重要だったものが、ほとんど取り除かれてるんです。過程がないと、ラベルは意味を持たない、みたいな。
次は、P≠NP、みたいな話ですね。コンピューター科学の未解決問題で、P対NP問題っていうのがあります。簡単に言うと、コンピューターで素早く検証できる問題は、素早く解けるかっていう問題。例えば、数独っていうゲームで、プログラムが素早く検証できる(ゲームが終わったことを確認できる)だけでなく、素早く解ける(解くために必要な手順を実行できる)なら、P=NPになる。でも、数独が素早く検証できるだけで、素早く解けないなら、P≠NPになる、みたいな。
Pは、polynomial time(多項式時間)の略で、Pに分類される問題は、多項式時間で解けるアルゴリズムがある(つまり、素早く解ける)っていう意味。P問題は、入力サイズに対して、難易度が穏やかに増加する。つまり、問題を大きくしても、比較的早く解けるなら、P問題。NPは、nondeterministic polynomial time(非決定性多項式時間)の略で、NPに分類される問題は、素早く検証できるけど、素早く解けるアルゴリズムが知られていないっていう意味。問題を大きくすると、解くのにかかる時間が爆発的に増えるなら、NP問題の可能性が高い。あくまで可能性が高いって言うのは、厳密には、NP問題は素早く検証できることしか言えないから。素早く解けるかどうかは、まだわかってない、みたいな。
コンピューター科学者がこの問題に興味を持つのは、もしP=NPなら、多くの分野に革命が起こる可能性があるから。現代社会の重要な問題、例えば、資源配分とか、スケジュール管理とか、物流とか、暗号化とか、AIとかは、素早く解ける問題じゃない。難しい計算が必要で、解決策を見つけるのに時間がかかる。でも、素早く検証できる。可能性空間の大きさと、難しい問題の定義の話を思い出してほしいんですけど、可能性空間を探索して、解決策を見つけるには、最新のコンピューターでも時間がかかる。でも、解決策が見つかったら、それが正しい答えかどうかを検証するのは簡単(手があったかいとか、雪だるまが作れるとか、ルービックキューブが完成してるとか)。もし、難しい問題も素早く解けるなら、これらの技術は飛躍的に効率化されて、産業や経済が大きく変わる、みたいな。
P対NP問題の解決は、計算の根本的な性質とか、問題の複雑さに対する洞察を与えてくれるはず、みたいな。P対NPを解決すると、計算の限界に対する理解が深まるはず、みたいな。自然はすべて、計算として考えられるって話を思い出してほしいんですけど、入力と出力があって、その間に情報を変換するプロセスがある。P対NP問題を解決すると、自然そのものについて、何か重要なことがわかるかもしれない、みたいな。
ただ、僕がP対NP問題に疑問を感じるのは、この問題の前提自体に欠陥があるから。この問題は、自然界で使われてる「解く」とは違う意味で「解く」を使ってる。問題を解くには、決定論的な手順を踏んで、解決策にたどり着く必要がある、って仮定してるんです。なぜなら、P対NP問題は、決定論的アルゴリズムの概念を中心に展開されてるから。コンピューター科学では、アルゴリズムは、入力データを、出力データに変換する、明確に定義された手順の有限シーケンス。すでに説明したように、決定論的アルゴリズムは、同じ入力に対して、常に同じ出力を生成する。同じ手順を踏んで、最後にたどり着く、みたいな。つまり、もしP=NPだと証明されたら、素早く検証できる問題には、効率的な決定論的アルゴリズムで解決策を見つけられることになる、みたいな。
この本で説明してきたことを考えると、ほとんどの読者は、ここに問題があることに気づくと思うんですけど、複雑なシステム(現実世界)には、私たちが観察する出力につながる決定論的アルゴリズムがあるとは考えられない。なぜなら、創発の章で説明したように、部分から創発的な構造や行動への道はないから。自然界で観察されるのは、同じ情報を圧縮する構造に対応する、複数の実現可能な物質の構成によって到達したもの。自然はアルゴリズムを使わない。可能性の分布全体を使って、生き残るために必要なものを計算する、物理的な抽象概念を生成するプロセスを使うんです。
P対NP問題は、数学的な意味での「解く」を使ってる。でも、論理とか数学の世界以外では、「証明」って言葉が使えないのと同じように(現実世界では何も証明できない)、同じことが「解く」にも当てはまる。現実世界の問題を、決定論的な手順で解決する、みたいなことはありえないんです。
Pは決してNPとイコールにはならない、と言えると思う。なぜなら、決定論的な手順で解決できる難しい問題(現実世界の問題)は存在しないから。十分な時間とか空間があるとか、より効率的にするとかの問題じゃない。不可能なんだ、みたいな。P≠NPっていうのが現在のコンセンサスだけど、それは、問題が難しいっていうことの誤った理解に基づいた、不十分な理由によるもの。コンピューター科学者は、間違った、時代遅れの議論を使って、正しい結論にたどり着いてる、みたいな。第8章で議論したように、自然がどのように機能するかを正しく理解した前提に基づいて議論する必要がある。人生をゲーム化したようなものではなく、みたいな。
次は、科学は投影である、みたいな話。シカゴの彫刻家、ジョン・V・ムンティーンの作品を、オンラインで見たことがあるんです。それは、ねじれた形をしてて、認識できる形をしてない、みたいな。で、真上から光を当てて、下に平らな面を置いてる。そうすると、光が遮られて、影ができる。面白いのは、平らな面に投影された影が、認識できる形になること。オブジェクトを回転させると、人が歩いてる形に見える。また回転させると、赤ちゃんがハイハイしてるように見える。また回転させると、杖をついた老人のように見える。歪んだ塊みたいなオブジェクト自体と、識別可能な影の対比が、この作品を魅力的にしてるんです。
この作品は、科学の機能を考えるのに役立つ。科学は、自然の実際の形を捉えてるわけじゃなくて、情報を低次元空間に投影して、現実の限定的なバージョンを見せてるんです。歪んだ塊に特徴がないように、自然現象の複雑さにも、特徴がないんです。自然に手を伸ばして、直接見ることができたら、優雅な構造を見ることはできなくて、認識できない、めちゃくちゃに歪んだ高次元な何かを見ると思う。自然がどのように機能するかを明らかにしようとする科学は、自然の中にある解決策の、低次元バージョンしか掴めない。科学は、自然の本質を、私たちが理解できるものに投影してるんです。
でも、この投影には大きな代償が伴う。自然の元の設定から、私たちが世界を調べて説明するために使う平面に移動するときに、情報量が大幅に低下する。それなのに、人々は科学と自然を混同して、これらの用語を同じ意味で使うことが多い、みたいな。
だからこそ、人間は感情を使って問題を解決するように進化したんです。感情は、自然の高次元空間に存在する何かに、最も近いもの。科学的な武器では、自然の真の核心を掴むことはできない。なぜなら、科学は低次元ツールを使って、コストのかかる精度で、見ているものを説明する必要があるから。もし人間が、ゆっくりとした分析的な思考を使って問題を解決するように設計されていたら、そのように進化していたはず。そうじゃない。ゆっくりとした思考は、ゲームには有効だけど、現実には通用しない。複雑性の時代が、人生とか、私たちが作るものを、ゲーム化解除していくにつれて、遅い分析的な思考の価値は、はるかに低くなる、みたいな。
科学が経験を低次元の解釈面に再構築する方法は、私たちのデザインに影響を与えてる。結局、デザインは、どのピースを含めるか、それらをどのように接続するかについての、私たちの決定を表してる。ピース間の因果構造がないと、デザインを形成できない。そして、単純な物語だけが、それらの原因が何であるかを教えてくれる。科学を使ってデザインに情報を与えるなら、私たちが選ぶピースは、低次元投影から来てることになる。
だからこそ、私たちが今やらなければならない複雑なものを構築することは、現在の科学とかエンジニアリングのパラダイムの恩恵を受けることはできない。科学は、世界を還元主義的に捉えることで、見かけの厳密さと精度を優先するために、何かが機能する上で重要なものを、あまりにも多く犠牲にしてる。今日のエンジニアリングのほとんどは、科学によって発見されたピースを掴んで、デザインに無理やり組み込み、構築の努力を導いている。今日の科学の動作方法と、私たちが今作らなければならない複雑さとの間の深刻な断絶が、このアプローチを持続不可能にしてるんです。
デザインは、複雑なシステムの本質を捉えることはできない。還元主義的な科学が、自然がどのように機能するかの真の本質を捉えることができないのと同じ。私たちは、現実の空想的なバージョンを、理解できる物語に投影できるけど、それらをデザインに組み込むと、難しい問題に対する優れた解決策を作る能力に反する、みたいな。
複雑性の時代に移行するにつれて、自然が構築するように構築する必要がある。そして、それは、創発をソリューションに組み込むことを意味する。創発的に生まれるものは、意図的に作り出すことができないレベルの複雑さから生まれる。変動とか、反復とか、選択に外部的に焦点を当てることによってのみ、自然システムが機能する方法の本質にたどり着くことができる。複雑なものを構築する際に正しいということは、物語に固執するものではなく、問題を解決するものを持つことを意味する。影とか光のトリックを使って自分たちに語りかける物語に固執するものではなく、みたいな。
次は、AIの必然性、みたいな話。人工知能が実現しないわけがなかった。AIは、私たちがハードルを超えてしまうまで、創造物にさらに多くのピースを追加した必然的な副産物なんです。従来のエンジニアリングでは問題を解決できず、必要なものを達成するために、システムの外に出なければならないポイント、みたいな。
今日のAIが、人間の知能にどれだけ近いかは関係ないんです。重要なのは、AIが自然が構築する方法の、現在の最良の例であるということ。AI研究者とかエンジニアの意図に関係なく、AIは真の複雑さの創造を表している。AIは、数学とか、確率とか、デザイン原則とか、ベストプラクティスによって動作するんじゃない。計画外の抽象概念が、それ自体が発生するように許可されたオブジェクトの内部で、顕在化するから動作するんです。
脳を機械と見なすことができるかどうかについては、長い間議論されてきた。人間の脳、そしてそれに伴う心は、ほとんどの人が機械と呼ぶものとは全く違う。しかし、AIによって、人間の創造物が実際に人間の認知に見られるのと同じ特性を多く帯びる可能性があるという事実に、私たちは直面している。つまり、変化しなければならないのは、機械の定義の方。人間の脳は機械。ただし、還元主義的な科学とかエンジニアリングが定義したり、ましてや直接構築したりできるものとは違う、みたいな。
機械であるためには、プロセスを実行して、出力を生成する必要がある。もちろん、これは人間の脳が行うこと。違いは、プロセスが決定論とか因果関係のものではないということ。自然の機械は、創発によって出力を生成するものなんです。
人間の脳は、複雑なシステムのすべての特徴を持ってる。人間の脳は非線形性を示す。つまり、小さな入力が、不均衡に大きな出力につながる。シナプスの可塑性のように、ニューロン間の結合の強度が、刺激に応じて急速に変化することを保証する。これは、大きな入力セットが、少数の出力に圧縮されるという逆方向にも働く。私が柔軟な決定論と呼んだもの、みたいな。
人間の脳は、学習に応じたニューロン接続の変化による自己組織化も示す。自己組織化の現象によってのみ、脳は適応可能になり、それによって回復力を得ることができる。特定の種類の損傷に耐えることができ、一部の脳損傷患者に見られるように、再編成して損失を補償し、機能を回復することもできる。脳は、秩序と混沌の中間のどこかで機能することを意味する、臨界性の近くに存在する。構造と無秩序の中間にあるこの状態は、効率的な情報処理を可能にする。階層構造の存在も見られる。脳は、さまざまな空間スケールとか時間スケールで発生する、異なるレベルの処理に編成されてる。この階層的な編成は、感覚情報を統合し、運動行動を効果的に調整し、高次の認知機能を実装することを可能にしてる。脳内では、振動とか、同期とか、自発的な活動パターンなど、さまざまな複雑なダイナミクスが働いてて、すべてが認知に必要な情報処理に貢献してるんです。
これらすべてが、私たちが意識と呼ぶもの、および人間の思考を定義する記憶形成とか意思決定につながる。これが、人間の脳を厳密に定義するために必要なすべて。第8章と第9章で議論したように、因果関係の還元主義的な概念を使って、複雑さの下で論理的な議論をすることはできない。脳内の場所を、私たちが現実世界で認識するものの源(例えば、行動)として定義しようとすることは、認識論的に支持できない。
AIが必然的なのは、それが自然の一部だから。AIを人間の知能と比較して、いわゆるシンギュラリティをマークする必要はない。AIが人間と同じくらい賢くなるか、それ以上に賢くなるポイント、みたいな。必要なのは、私たちが作成するシステムに現れる複雑さの特性を認識することだけ。これらの特性の多くは、今日のAIシステムに存在してる。複雑なものを複雑なものたらしめているのは、ユニークな特性の存在なんです。
今日の科学とエンジニアリングのパラダイムは、時代遅れの議論を、現在の議論で蔓延させてしまってる。例えば、アメリカの哲学者、ジョン・サールの議論のように、プログラムを実行するコンピューターが、真に言語を理解できるという概念を、信用しないように試みてるもの。サールは、コンピューターが行うように記号を操作するだけでは、真の理解を構成する意味の理解を欠いているため、計算プロセスだけでは、真の意識を生み出すことはできないと主張した。
でも、このような議論は、誤った計算の理解に基づいているため、無効なんです。サールの思考実験は、記号間の決定論的で因果的なつながりに基づいており、この形式の処理が、コンピューターができることのすべてであると仮定している。これは明らかに誤り。サールが育った時代を考えると、この間違いは許されるかもしれない。しかし、自然がどのように機能するかを適切に見れば、機械が複雑さの特性を生み出すことができることを認めざるを得ない。自然は小さなピースを使って、それらのピースとは全く異なるものを生成するんです。
AIを信用しないようにするための一般的な試みは、そのよりひどい間違いを指摘すること。例えば、誤った結論に達したり、基本的な推論を断続的に欠いたりすること。この試みの致命的な欠陥は、知性が単一のオブジェクトの内部にあるものだと考えてること。人間が知的