AI

2025.11.03 13:00

超知能開発を競う世界の4大プレーヤー──米国・中国・テック企業・オープンソース

porcorex / Getty Images

porcorex / Getty Images

人工汎用知能(AGI)開発者のベン・ゲーツェル博士によれば、超知能(スーパーインテリジェンス)の世界的な軍拡競争には4つの主要プレーヤーが存在するという。誰が勝つかが、今後の技術開発の行方、ひいては事実上の世界的覇権を左右しかねない。

人工汎用知能(AGI)の登場まで2年の可能性

人工超知能同盟(Artificial Superintelligence Alliance、ASIアライアンス)のCEOである彼は、最近のTechFirstポッドキャストで次のように付け加えた。「米国内の企業同士でも、また米国と中国の間でも、AGIの軍拡競争の始まりが見えてきています」。

先週、超知能の開発禁止を求める公開書簡に5万人以上が署名した。署名者にはAIの先駆者ジェフリー・ヒントン、アップル共同創業者スティーブ・ウォズニアック、億万長者の実業家リチャード・ブランソン、複数の各国首脳などが含まれる。

しかし、多くの人々がAIにブレーキをかけたいと望む一方で、ゲーツェルはAGI実現までおよそ2年かもしれないと述べる。彼はまた、超知能の強力な前段階であるAGIの登場は不可避だという見解を示す。

人工汎用知能(AGI)とは

ゲーツェルは2005年刊の著書で、人工汎用知能を「自らの訓練を超えて汎化できる賢いAIシステム」と定義した。

人間はこれが非常に得意である。いったん自転車の乗り方を学べば、そのバランスや操舵の技能を、明示的に教わっていないスクーターやスキーにもしばしば転用できる。人間レベルのAGIとは、少なくとも人間と同程度に自らの経験を超えて汎化できるシステムだとゲーツェルは言い、そのさらに先にあるAI駆動の超知能は、人間をはるかに上回る汎化能力を持つだろう。

これは現在の状況からすれば、ほぼ必然だとゲーツェルは言う。

「現代の技術社会が大きな災厄もなくこのまま続くなら、そう、基本的には避けられません」と彼は語る。「AIは人々に大きな価値をもたらします。経済的価値、人間的価値、娯楽的価値です。そして賢くなればなるほど、AIは人々にさらに多くの価値を提供できるようになるので、人々はAIを作り続けるでしょう」。

懸念すべきことに、公開書簡によれば超知能のリスクは多岐にわたる。人間の経済的な陳腐化と無力化、自由・市民的自由・尊厳・コントロールの喪失、国家安全保障上のリスク、さらには人類絶滅の可能性まで挙げられている。

どれも恐ろしい話に聞こえる。しかし多くの国家や企業は、自分たちが持たないうちに誰か他者が超知能を開発した結果引き起こされるリスクの方が、なお大きいと判断したようだ。

4つの主要プレーヤー

ゲーツェルによれば、AGI、ひいては最終的な超知能の獲得を目指して競っている主要プレーヤーは本質的に4つである。

アメリカ合衆国

米国のビッグテック企業

中国とその各種ビッグテック企業

オープンソース組織

(偶然ではないが、米国はチップ供給能力に基づけばAI大国ランキングで世界トップにある。一方、中国は第7位であり、力業のGPUスケールよりも効率性を選んでいることの反映だ)。

次ページ > 競争に勝つものが地政学的な力をも持つ

翻訳=酒匂寛

タグ:

advertisement

ForbesBrandVoice

人気記事