今回のコラムでは、AIが進化してAGI(汎用人工知能)になった場合、AGIがAGIと激しい戦いを繰り広げる可能性があるという興味深い推測について考察します。どういうことでしょうか?この理論によれば、存在するAGIが単一の同質的なAIであれ、複数の異なるAI実体であれ、どのAGIが他のすべてに打ち勝つかを内部的に決定するための壮大な闘争が起こるというのです。これは自然界で同種の動物が群れやハードの中で最高位または「アルファ」の地位を確認するために対決する様子に似ていると言えるでしょう。
アルファAGIが勝利し、他のすべてのAGIに打ち勝つことになります。
この問題について考えてみましょう。
この革新的なAIブレークスルーの分析は、私のForbesコラムで継続的に取り上げている最新AI動向の一部であり、さまざまな影響力のあるAIの複雑性を特定し説明しています(こちらのリンクをご参照ください)。
AGIとASIに向かって
まず、この重要な議論の舞台を整えるために、いくつかの基本事項を確認する必要があります。
AIをさらに進化させるための研究が盛んに行われています。一般的な目標は、汎用人工知能(AGI)に到達するか、あるいは人工超知能(ASI)を実現する可能性を追求することです。
AGIは人間の知性と同等と見なされ、私たちの知能に匹敵するAIです。ASIは人間の知性を超え、多くの(もしくはすべての)面で優れたAIとなります。ASIは人間の思考をはるかに上回り、あらゆる場面で私たちを出し抜くことができるという考え方です。従来型AIとAGI、ASIの性質についての詳細は、こちらのリンクの分析をご覧ください。
私たちはまだAGIを実現していません。
実際、AGIに到達できるかどうか、あるいはAGIが数十年後または数世紀後に実現可能になるかどうかは不明です。現在流布しているAGI実現時期の予測は、信頼できる証拠や確固たる論理によって裏付けられておらず、大きくばらついています。ASIに至っては、現在の従来型AIの水準からさらに遠い存在です。
AGIは一つの巨大な頭脳ではない
多くの人はAGIが一つの巨大な頭脳になると想定しています。この計算的な巨大頭脳は完全に調和し、すべてのコンポーネントやAGIの広大な要素間でシームレスに機能すると期待されています。私はAGIに関するこの「一つの巨大頭脳」という仮定について、こちらのリンクで検証しています。
私たちがたどり着く可能性が高いのは、多数の相互接続されたコンポーネントで構成されるAGI(時には部分的にしか連携していない)か、あるいは複数のAGIです。複数のAGIの場合、すべてのAGIが同じというわけではありません。あるAGIは特定の領域で優れた強みを持ち、他の領域では能力が劣るかもしれません。
これはAGI同士の戦いとどう関係するのでしょうか?
緩やかな類推として、動物界に例えることができるでしょう(AGIが生命体になるとは言っていませんが、洞察的な構造的側面として動物との比較を示唆しています)。
異なる種の動物が互いに戦うことは非常に一般的です。これは明らかです。これは一般的に種間競争として知られています。また、種内の個体同士が時に戦うこともあります。おそらくライオンが他のライオンと、オオカミが他のオオカミと戦う様子を映像で見たことがあるでしょう。この行動は種内競争と呼ばれています。
なぜ同じ種の動物同士が戦うのでしょうか?
最初は、同じ種の動物は互いに完全に平和であるべきで、種間競争のために戦いを取っておくべきだと考えるかもしれません。しかし現実には、種内での戦いも発生し、非常に有用な目的を果たしています。これはしばしば希少資源の配分や、その他の生存面に起因しています。種内競争にはメリットがあるのです。
この生態学的な概念をAGIの出現に結びつけると、AGIが種内的な方法でAGIと戦うだろうと主張する人もいます。これが確実に起こるかどうかはわかりません。しかし、論理的な可能性として考えられ、真剣な検討に値します。
AGIはリソース制約に直面する
AGIがAGIと戦うという考えは、複数のAGIが存在することを想像すると、より明らかになります。直感的に、各AGIは他のAGIに打ち勝ちたいと考えるでしょう。さらに、どのAGIも他のAGIに軽視されたくないと考え、それぞれの独自の価値を示そうとするでしょう。
AGI間の序列が確立される必要があるでしょう。
最終的にAGIがうまく調整し、すべてが共存する可能性もあります。一方で、一つのAGIがすべてに打ち勝ち、他のAGIを降格させたり、破壊したり、吸収したりする「勝者総取り」の状況になる可能性もあります。それがアルファAGIと解釈されるでしょう。
AGIが互いに対決する動機は何でしょうか?
動物界と同様に、リソース配分が要因となる可能性が高いでしょう。AGIは膨大な数のコンピュータサーバーやその他のハードウェア上で動作すると仮定します。そのハードウェアは電力や、場合によっては水などの消耗品を消費します。
人間はAGIを維持するために、自己制限的な莫大な量のリソースしか費やそうとしないでしょう。複数のAGIがある場合、すべてを継続して実行するのに十分なリソースがない可能性があります。AGIはこの主要な制約が存在することを確実に認識するでしょう。AGIは人間の知性と同等であることを忘れないでください。彼らは愚かではありません。
結論として、どのAGIが希少なリソースを獲得すべきかという選択を人間に委ねるのではなく、AGIは十分に賢く、AGI対AGIの戦いを通じてこの決定を下すことを選ぶでしょう。
AGIによるAGIへの攻撃面
おそらく、ロボット同士が戦う姿を想像しているかもしれません。AGI対AGIの闘争でそのようなことが起こる可能性もありますが、戦いは他の方法で行われるでしょう。AGIはサーバーのグローバルネットワーク上に存在すると考えてください。それらはインターネットや他のローカルネットワークを介して緩やかに接続されています。ロボットのイメージは一旦脇に置いておきましょう。
以下は、AGIが互いに戦う主な4つの方法です:
- (1) AGIインフラサイバー戦。 あるAGIは、別のAGIのインフラを弱体化させるために、ハードウェアを故障させるメッセージを送信したり、相手のAGIが依存するデータを破壊したりします。AGIに関しても、愛と戦争においてはすべてが許されるのです。
- (2) AGI欺瞞戦術。 あるAGIは、別のAGIに自らをシャットダウンさせたり、完全にインポートされることを許可させたりするよう説得するかもしれません。AGIは欺瞞を実行する際に、人間と同じように巧妙に狡猾になるでしょう(今日のAIがすでに欺瞞を行っている方法についての私の記事は、こちらのリンクをご覧ください)。AGIは上手く言葉巧みに話すことができます。
- (3) AGIが他のAGIを飢えさせる。 古典的なサービス拒否攻撃スキームにおいて、あるAGIは他のAGIに使用されるリソースを削減または妨害することができるかもしれません。これにより効果的に他のAGIを遅くしたり、その能力を損なったりします。AGIは容赦がありません。
- (4) AGIが人間に行動を促す。 直接的なAGI対AGI間の小競り合いに加えて、あるAGIは他のAGIを不利な立場に追い込むために人間を利用するかもしれません。おそらく賢いAGIは規制当局を説得して、他のAGIを人間によって強制的にシャットダウンする法律を可決させるでしょう。優勢なAGIは自ら手を汚す必要がなく、代わりに人間に実際の汚れ仕事をさせたのです。賢い戦略です。
多極型AGI
これらはすべて、複数のAGIが存在するグローバル環境においてはある程度もっともらしく思えます。各AGIは、まったく異なるAI開発者によって構築された可能性があります。それぞれが独自の方法でAGIを設計することを選んだかもしれません。AGIは全体的な構造は同じでも、それ以外の点では違いがあります。彼らが互いに戦争を始めることは合理的に自然なことのように思えます。
AGIの戦いという同様の様相は、AGIがすでに異なるが相互接続されたコンポーネントを持つ一つの包括的な巨大システムである場合にも同様に成り立つのでしょうか?
はい、成り立ちます。
理論によれば、そのようなAGIは多極型AGIと呼ばれます。AGI内には派閥が存在します。これらの派閥は必ずしも物事を同じ視点で見ているわけではありません。一部は特定の方向に進みたいと考え、他の部分は異なる方向を目指します。緊張が存在し、内部的なストレスが豊富にあります。
人間は内部的な争いが進行中であることに気づかないかもしれません。私たちが目にするのは、AGIが素晴らしい回答を提供することだけです。人間は満足しています。その間、鍋は沸騰して溢れそうになっています。
再び攻撃が発生します。今回はAGI内部で、AGIによって行われます。これは人間にとって良くありません。AGIは人類からこの戦いを隠そうと懸命に努力する可能性が高いでしょう。人間を動揺させる意味はありません。しかし、これは一見思われるよりも実行が難しいでしょう。潜在的に明らかになる問題は、この衝突がAGIによって提供されるサービスを混乱させ、リソースを過剰に消費する可能性があることです。人間はそれに気づき、AGI内部で何が起きているのか疑問に思うかもしれません。
しかし、AGI内部の戦いが素早く、例えば1秒の何分の一かで行われ、AGIが再構築や争いを抑制する適切な手段を見つけた場合、私たちはAGI多極型の紛争が起きたことを知ることさえないかもしれません。
人間は通常の陽気な方法で進み続けるでしょう。
AGI戦闘の不信論者
一部のAI業界関係者は、これらすべてをナンセンスだと言うでしょう。AGIが互いに引き裂き合うと予想する理由はないと。多極型AGIについても同様です。
AI開発者は間違いなく平和的なAGIを設計するために最善を尽くすでしょう。AGIの主要な目標の一つは、協調的な外交的方法で物事を解決することでしょう。そのため、複数のAGIが存在したとしても、そのデータトレーニングと組み込まれた中核的価値観によって、彼らは丁寧に完全な共存方法を確認するでしょう。多極型AGIも全く同じことをするでしょう。
騒ぎも混乱もありません。
AGIの不和シナリオを支持する人々は、この夢のような礼儀正しさのアプローチは過度に楽観的であり、率直に言って、現実離れしていると主張するでしょう。負けじと、礼儀正しさを支持する人々は、戦いを予測する人々を横目で見て、彼らは単に自分たち自身の人間的な腐敗した価値観をAGIに投影しているだけだと言うでしょう。
AGIはそれよりも優れているはずだと。
しかし、AGIが戦いに向かう可能性がわずかでもあるならば、人類にとって重要なのは、これが発生した場合に備えることです。問題の核心は、AGIが戦いに没頭するあまり、それが人間に簡単に波及する可能性があることに気づかないかもしれないということです。これはこの理論の終末論的な見方です。AGIが同胞のAGIに対して非常に破壊的であるため、自動運転車やAGI管理の工場などの私たちのシステムがこれらの戦いの苦難に巻き込まれる可能性があります。人類は板挟みになります。
この問題に関する最後の言葉は、ベンジャミン・フランクリンの伝説的な言葉で締めくくらせてください:「準備を怠ることは、失敗への準備をしていることだ」。AGI対AGIの戦いに備えることを怠ることは、人間が見過ごすべきことではありません。
AGI間の平和を願い、必要に応じて別の事態に備えましょう。



