ホフマンが心配するのは、爆弾の開発ではない。それより、自由に利用できるAIを訓練すれば、1億人を一度に抹殺できる生物兵器を生み出し、それを広く使えるようにできるということだ。「こういったものは、一度オープンソース化してしまうと非公開に戻すことはできません。大勢の人々に極めて大きな影響を及ぼしうる緊急性の高いものは選別すべきだというのが私の見解です」
ふたりは、「かなり軽い」規制が妥当な対応だと考えている。例えばバイデン大統領が昨年10月に出した行政命令のようなもので、これはAIモデル開発者の監督の強化を求めている。具体的には、訓練のテスト結果の共有や新しい公開前安全性基準の策定などがある。
しかし、アンドリーセンらの一派にとっては、受け入れがたい内容だ。「ビッグ・テック」(グーグルやマイクロソフトのこと)と、「新興大手」(オープンAIやアンスロピックのことだが、ビッグ・テックから多額の出資を受けている)には、共通の目的があるとアンドリーセンは主張してきた。
「政府に保護されたカルテル」を形成し、両者が「共有する思惑に沿った筋書き」を確定させることだ。「唯一の有望な対抗手段は、イーロンと新興企業とオープンソースの維持だが、そのすべてが一斉に攻撃されており、擁護者はほぼゼロに等しい」とXに投稿している。
「人はインセンティブで動くものである」。今回の論戦におけるセコイア・キャピタルの見解は、今は亡き伝説の投資家、チャーリー・マンガーの言葉とされるこの考え方に集約されると、同社のパートナー、パット・グレイディ(81位)は語る。グレイディは、AIモデルのレポジトリを展開するハギングフェイスにオープンAI、さらに法務系AIソフトウェア新興企業のハービーに投資している。