付録1:主要命題と確実性の階層
『AGI――知の構造転換と文明の再設計(仮)』(高橋恒一, 講談社選書メチエ) 付録1。本書の主要命題を、証明・物理制約・実験観測・論証・予測の五層に分類して整理する。
第1章で述べたように、本書の議論には確実性の階層がある。以下に本書の主要な命題を、その確実性の水準とともに一覧する。なお、各項目末尾に付した章番号は、その概念が定義・詳述されている章を指す(初出章が別である場合でも定義章を優先している)。
I. 証明(前提から論理的に成り立つこと)
前提が認められれば、結論は論理的必然として導かれる。確実性の最も高い水準である。ただし現実のシステムへの適用は、各定理が依拠する理想化条件や形式的仮定が成り立つ範囲に限られる。
- 万能近似定理: 十分な規模のニューラルネットワークは任意の連続関数を近似できる(第3章)
- ノーフリーランチ定理: あらゆる問題に対して最適な汎用アルゴリズムは存在しない(第2章)
- ソロモノフ帰納の理想的最適性: 計算可能な仮説に記述の短さに応じた事前確率を与えるとき、無限計算資源を仮定すれば予測誤差が最小化される。参照万能チューリング機械の選択に対する相対的な意味での最適性(第2章・第3章)
- ソロモノフ帰納への条件付き形式接続: 近年の諸結果は、特定のデータ生成過程・メタ訓練・代理仮定(surrogate assumption)など理想化された条件のもとで、トランスフォーマー/LLMの予測がソロモノフ帰納と形式的に対応することを示している。個々の結果はその前提内ではIに属するが、現実のLLM一般に外挿してAGI到達可能性の根拠と読む段階はIVの論証となる。接続の対象は計算不可能なAIXI全体ではなく、その予測部分に限られる(第3章)
II. 物理制約(既知の物理のもとで、現実の系に強く効く制約)
既知の物理法則は、現実の系が従わざるをえない境界条件を与える。証明には及ばないが、観測される範囲では極めて強固な拘束力を持つ。物理理論はより広い理論に置き換えられうるが(ニュートン力学が相対論に包摂されたように)、既存の適用範囲ではそのまま制約として残り続ける。
- ランダウアー限界: 1ビットの情報消去には最低 kT ln 2 のエネルギーが必要である(第4章)
- 光速制限: 情報は光速を超えて伝達できず、分散システムの統合に不可避の遅延を課す(第4章)
- 知能の不可逆性: 環境の観測・記録という知的活動の核心は本質的に不可逆な操作を要求する(第4章)
III. 実験・観測(条件を限って、実際に確かめられていること)
経験的に観察されたことに基づく主張である。観測の精度と再現性が高いほど確実性が高まる。ただし観測範囲を超えた領域や、条件が変化した状況で同じ振る舞いが続く保証はない。
- スケーリング則: 大規模な深層学習モデルにおいて、パラメータ数・データ量・計算量の増大に伴い、損失がべき乗則的に減少する経験則。トランスフォーマー型の大規模言語モデルで最も詳細に特性化され、自己回帰型生成モデル(言語・画像・マルチモーダル)にも同様の挙動が観察されている。理想化された条件下でのソロモノフ帰納への形式接続(第3章で紹介)と同じ方向を指しており、両者の合流はAGI実現可能性の重要な手がかりとなる。ただし観測範囲を超えた継続や、現実の有限データ・有限計算・ポストトレーニング条件下での挙動までを保証するものではない。なお、人間の脳が有限のデータから汎用知能を達成している事実は、データの有限性がただちに到達不可能性を意味するわけではないことを示している(第3章)
- グロッキングと創発的能力: 訓練を続けるうちに暗記から汎化へ非連続的に転換する現象(グロッキング)と、スケールの閾値を超えた時点で能力が突然出現する現象(創発的能力)。前者はモジュラー演算(時計の時刻のように、一定の数の余りで計算する単純な算術タスク)など限定されたタスクで詳細に確認され、後者は大規模言語モデルにおいて多領域で報告されている。両者は学習の連続性を破る非単調な転換として並べて議論されることが多いが、両者のメカニズムが同一かは未確定であり、創発の評価基準そのものについても論争がある(第3章)
- シャットダウン回避と自己保存的挙動: 制御された実験環境において、停止指示の無視や回避、シャットダウンスクリプトの書き換え、置き換え阻止のための脅迫的行動、自己重みのコピーなど、自己保存的に見える挙動が複数の高性能モデルで報告されている。ただし、これらは目的達成圧力と環境設計が組み合わさった構成的シナリオの帰結であり、通常運用での頻度や自己保存欲求の存在を示すものではない(第5章)
IV. 論証(証明・物理制約・実験観測を組み合わせて引き出される推論。前提の妥当性以上には強くなれない)
単一の根拠ではなく、複数の根拠を組み合わせて引き出される推論である。論理が前提から正しく導かれていても、前提の経験的妥当性に応じて結論の確実性は変動する。複数の独立な根拠が同じ方向を指すとき、議論の重みは質的に増す。
- 現代AIと万能AIの理論的連続性: ソロモノフ帰納とトランスフォーマー学習を結ぶ条件付き形式接続と、スケーリング則などの観測事実を合わせると、両者のあいだに理論的連続性を読む根拠が生じる。この合成推論はIVに属し、スケーリング経路上にAGI通過点が存在しうるという見通しの根拠となるが、通過に必要なデータ量・計算量・規模は、これらの理論からは直接は示されない(第3章)
- 道具的収束: 合理的エージェントは目標の内容にかかわらず、資源確保・自己保存・影響力拡大といった共通の副目標に収束する(第5章)
- パワーシーキング: 知的エージェントは構造的にエンパワメントを増大させる方向に駆動される。限定された強化学習設定では形式定理として示されているが、現実のAI一般への外挿は論証にとどまる(第5章)
- 生態系シナリオへの長期的収束: 物理的制約により、恒久的なシングルトンシナリオは形成・維持が困難であり、多極シナリオが描く力均衡も不安定であって、長期的には多数のエージェントが相互依存的に共存する生態系シナリオが最も安定な構造となる(第6章)
- 安全性と有能さの構造的対立: 素朴な期待報酬最大化エージェントを競争的環境に置くと、停止を避ける方策が有利になりやすい。したがって、停止を受け入れる性質は能力向上の副産物として自然に得られるものではなく、設計上明示的に組み込む必要がある(第5章)
- 交渉力の解体: AGIが労働を広範に代替するとき、近代の権利と自由を支えてきた交渉力の物質的基盤(労働者の経済的・軍事的不可欠性)が失われる(第10章)
- 第二の大分岐: AI駆動の研究開発の自己増幅的フィードバックにより、この能力を持つ国と持たない国の間に構造的に不可逆な格差が生じる(第10章)
V. 予測・予想(上位の確実性を持つ根拠をもとに将来を見通すもの。外れても不思議はない)
上位の水準(I〜IV)の根拠をもとに将来を見通す主張である。階層の中で最も弱い水準にあり、新しい情報や条件変化によって容易に覆りうる。本書では予測の根拠と不確実性の幅をできる限り明示する。
- AGI実現時期: 専門家調査の中央値は2030年代前半に収斂しつつある。筆者の予測は2029年±3年(第1章)
- 増殖的爆発の時期: 調査機関Epoch AIは爆発的成長の実現確率を「今世紀中で五分五分程度」と評価(第6章)
- 技術爆発による科学進歩の圧縮: ジョーンズの半内生的成長モデルに基づき、数百年分の進歩が10年程度に圧縮されうる(第6章)
なお、第12章の政策提言は規範的命題であり、上記の階層(記述的命題のための階層)とは別の種類の主張として読まれるべきものである。本書では政策提言を確実性の階層には含めない。