AI

2024.09.04 13:30

AI競争の果ては人類の破滅か トップ投資家たちの熾烈な争い

イラストレーション=ゾハル・ラザール

コースラは、ホフマンとは政策の観点では「かなり似通った立場を取っています」と語る。しかし昨今、コースラは穏やかならぬ論調を展開し、オープンAIのAI開発を、原子爆弾をつくり出したマンハッタン計画になぞらえている(X上で、「もちろんあれをオープンソースにしようとは思いませんよね?」と、直接アンドリーセンに問いかけている)。規制がなされなければ、AIはそれ以上に危険な安全保障上のリスクをもたらすと主張しているのだ。「ひとつの爆弾が影響を及ぼすのはひとつの地域ですが、AIはあらゆる分野に同時に影響を及ぼします」
advertisement

ホフマンが心配するのは、爆弾の開発ではない。それより、自由に利用できるAIを訓練すれば、1億人を一度に抹殺できる生物兵器を生み出し、それを広く使えるようにできるということだ。「こういったものは、一度オープンソース化してしまうと非公開に戻すことはできません。大勢の人々に極めて大きな影響を及ぼしうる緊急性の高いものは選別すべきだというのが私の見解です」
 
ふたりは、「かなり軽い」規制が妥当な対応だと考えている。例えばバイデン大統領が昨年10月に出した行政命令のようなもので、これはAIモデル開発者の監督の強化を求めている。具体的には、訓練のテスト結果の共有や新しい公開前安全性基準の策定などがある。

しかし、アンドリーセンらの一派にとっては、受け入れがたい内容だ。「ビッグ・テック」(グーグルやマイクロソフトのこと)と、「新興大手」(オープンAIやアンスロピックのことだが、ビッグ・テックから多額の出資を受けている)には、共通の目的があるとアンドリーセンは主張してきた。

「政府に保護されたカルテル」を形成し、両者が「共有する思惑に沿った筋書き」を確定させることだ。「唯一の有望な対抗手段は、イーロンと新興企業とオープンソースの維持だが、そのすべてが一斉に攻撃されており、擁護者はほぼゼロに等しい」とXに投稿している。
advertisement

「人はインセンティブで動くものである」。今回の論戦におけるセコイア・キャピタルの見解は、今は亡き伝説の投資家、チャーリー・マンガーの言葉とされるこの考え方に集約されると、同社のパートナー、パット・グレイディ(81位)は語る。グレイディは、AIモデルのレポジトリを展開するハギングフェイスにオープンAI、さらに法務系AIソフトウェア新興企業のハービーに投資している。

次ページ > 正しい政策が何であるか──

文=アレックス・コンラッド 翻訳=木村理恵

タグ:

advertisement

ForbesBrandVoice

人気記事