サービス

2026.03.20 11:39

AI業界の真価が問われる──Anthropic、国防総省との法廷闘争へ

AdobeStock

AdobeStock

2026年におけるAI業界の決定的なリーダーシップの試練は、取締役会でも決算説明会でもなく、連邦裁判所で展開されるのかもしれない。3月9日、Anthropicは提訴し、同社を「国家安全保障に対するサプライチェーン上のリスク」に指定した国防総省の判断に異議を唱えた。この指定が維持されれば、防衛関連の請負企業はいずれも実質的にAnthropicとの取引を禁じられることになる。訴訟は、契約紛争として始まったものを憲法上の対立へと転化させ、さらに注目すべき事態を招いた。GoogleとOpenAIの従業員が、競合相手であるAnthropicに有利な判断を求める法廷助言書(アミカス・ブリーフ)を裁判所に提出したのだ。この足並みのそろい方は、AI業界が連邦政府権力とどう向き合うかが変わり始めていることを示すとともに、短期的な政治的好意ではなく、持続的な企業を築くAIリーダーシップとは何かという問いを突きつけている。

AIのリーダーシップが「線引き」を意味するとき

経緯はすでに詳しく報じられているが、改めて確認しておく必要がある。2025年7月、Anthropicは国防総省と2年・2億ドルの契約を結んだ。この取り決めは、トランプ政権に対してビッグテックが融和姿勢を強める、より大きな潮流とも整合していた。ところが2026年2月、国防総省はAnthropicに対し、同社のClaudeモデルの利用規約にある制限を撤廃するよう求めた。具体的には、国内での大規模監視と、完全自律型兵器の配備を禁じる条項である。

AnthropicのCEO、ダリオ・アモデイは、2月26日の公開声明で明確に回答した。「いずれにせよ、こうした脅しが我々の立場を変えることはない」と彼は記した。「良心に照らして、彼らの要求に応じることはできない」。国防総省の反応は迅速だった。全ての連邦政府機関にAnthropicの技術利用停止を命じる大統領指令が出され、さらにサプライチェーン・リスク指定が裏付けとして付された。並行して、OpenAIのCEOであるサム・アルトマンは、Anthropicとの対立が頂点に達した2月27日の夜、戦争省と独自の合意に署名し、数日後には従業員の抗議と、ChatGPTのサブスクリプション解約を呼びかける公開キャンペーン(数百万人が参加)を受けて、Anthropicの「越えてはならない一線」に沿う文言を追加する形で修正した。その後アルトマンは、判断が早すぎたことをソーシャルメディア上で認めた。「私が間違えたと思うことの1つは、金曜日にこれを急いで出すべきではなかったという点だ」と彼は書いた。「日和見的で、雑に見えたと思う」

一線を引いて守り抜いたCEOと、一線を越えた後に引き直そうとしたCEO。この対比は、政治的圧力下におけるリーダーシップのケーススタディである。

AIのリーダーシップと市場の評決

従来のリスク計算では、失うものが大きいのはAnthropicだと見られていた。2億ドルの契約を手放すのは、まだ資金を消費し続けている非上場企業にとって痛手だ。サプライチェーン・リスク指定は、Anthropicの法人顧客との関係、投資家基盤、クラウドインフラの提携先へのアクセスにまで波及しかねない。発動されたことはないものの国防生産法への言及も、明確に脅しとして示された。長らく期待されてきたIPO(新規株式公開)も、突如としてより複雑に見え始めた。

しかし市場は、脅威のマトリクスが示唆したほどにはAnthropicを罰していない。対立直後の数日で、ClaudeはApp Storeのランキングで首位に躍り出て、採用は加速し続けた。Anthropicの売上成長率は、比率ベースではすでにOpenAIを上回っており、その勢いに変調は見られない。サプライチェーン指定は、国防総省が意図したであろう連鎖的影響をいまだ生んでいない。理由の1つは、指定そのものが現在法的争いの対象となっているためである。

この商業的なレジリエンス(回復力)が重要なのは、過去1年にわたりビッグテックの対ワシントン姿勢を支配してきた物語を覆すからだ。すなわち「協調にはコストがかからず、反抗には代償が伴う」という物語である。アモデイの選択は、金では容易に作れないものを生んだ。責任あるAI開発を最も重視するユーザー層からの信頼である。トランプ政権でAIアクションプランの起草に中心的役割を果たしたディーン・ボールは、政府のサプライチェーン指定が、企業に対して「外国の敵対勢力よりもひどい扱い」を事実上突きつけていると指摘し、その理由は「取引条件への屈服を拒否した」ことにすぎないと述べた。この枠組みはAI界隈を超えて共鳴した。

OpenAIの立場はより複雑である。同社には真摯な安全へのコミットメントがあり、連邦政府との契約に対する商業的エクスポージャー(関与)もある。アルトマンは一貫して、自身のアプローチをイデオロギーではなく現実主義として位置づけてきた。だが、先に署名し、圧力を受けて修正し、タイミングが誤っていたと認めるという一連の流れは、擁護しづらいリーダーシップの物語を生んだ。

両者にとっての個人的な利害は大きく、かつ性質が異なる。アモデイは安全性の優先順位をめぐる対立から2021年にOpenAIを離れ、Anthropicを共同創業した。彼の公の姿勢は、会社の創業理念と彼自身の職業的アイデンティティに不可分である。ここで引き下がることは、戦術的譲歩にとどまらず、Anthropicのブランドを築き、才能を採用してきた唯一の前提を損なう。アルトマンの計算は逆方向に働く。彼のOpenAIにおける権威は、2023年の取締役会危機の後、商業的ビジョンと投資家・政府との関係性を梃子に回復した。ワシントンとの対決姿勢は、その委任とも、AI開発には国家権力との緊密な協調が必要だという彼自身の信念とも、しっくりこない。2人のCEOは単に異なる賭けをしているのではない。自分が何者であるかに即して行動しており、市場はその差を織り込み始めている。

両CEOが乗り越えるべき規制の空白

国防総省との争いの背後には、より深い問題がある。それはアモデイもアルトマンも生み出したわけではなく、どちらも単独では解決できないものだ。政府機関がこれらのモデルをどのように利用できるかを包括的に規定する連邦AI法が存在しないのである。Anthropicの「越えてはならない一線」(国内での大規模監視と自律型兵器の禁止)は、法律ではなく利用規約に書かれている。OpenAIの修正後の契約文言が参照するのも、合衆国憲法修正第4条と1947年国家安全保障法であり、新たなAI特化規制ではなく既存法である。両社は事実上、自らが展開した技術に見合う立法枠組みがない状況下で、法的主張を組み立てている。

この空白こそが、訴訟を目先の商業的利害を超えて重要なものにしている。Anthropicは、行政府が調達上の脅しを通じて、民間企業のAI倫理上のコミットメントを強制できるのかどうかについて、連邦裁判所の判断を求めている。GoogleとOpenAIの従業員は、法廷助言書の中で、この指定が前例となれば最終的に業界全体が安全基準を維持する能力を損なうと主張した。安全を、競争上の差別化要因ではなく業界共有の利益として捉えるこの枠組みは新しい。ワシントンがこれまでAI政策で遭遇してこなかった形で、競合組織の間に見解の収斂が起きつつあることを示唆している。

Anthropicの訴訟が進む裁判所は、議会が動いたからではなく、あるCEOが「良心に照らして」倫理的な一線を越えないと決めたからこそ、政府による商用AI利用に関する最初の具体的な法的境界を生み出す場になるかもしれない。その姿勢には、商業的・政治的・評判上のコストが伴う。アモデイはすでにその一部を支払った。いま訴訟が試すのは、原則に立脚したAIのリーダーシップが、1社のため、そして潜在的には業界全体のために、持続的な法的保護も生み出し得るのかどうかである。2つの政権が未解決のまま残してきた問いは、議会ではなく連邦判事によって、ついに答えが与えられるのかもしれない。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事