経済・社会

2026.03.23 13:00

戦争とAIの「利用禁止ライン」──国防総省、Anthropicを「容認できないリスク」と断じる

Shutterstock.com

Anthropicが3月9日に提訴、今回の指定は憲法修正第1条(言論の自由)に違反と訴え

今回の訴訟は、AI企業とワシントンによる完全な運用管理の主張との間で起きた、最も厄介な公の衝突の1つである。

advertisement

Anthropicが提訴に踏み切ったのは3月9日のことだ。ピート・ヘグセス国防長官が同社をサプライチェーンリスクとして指定し、特定の国家安全保障調達から排除したことへの対抗措置である。

「即時発効だ。米軍とビジネスを行うあらゆる契約企業、供給企業、またはパートナーは、Anthropicといかなる商業活動も行ってはならない」とヘグセスはX上で述べた

Anthropicは、米国民の大規模監視や自律型殺傷兵器などの利用に異議を唱えたことに対して、政府が同社に報復していると主張している。またこの指定は、憲法修正第1条(言論の自由)、行政手続法、デュープロセス保護に違反すると訴えている。つまり、自律型兵器や大規模監視への反対意見を表明したことへの報復措置であり、政府が企業の発言内容を理由に制裁を加えることは“言論の自由の侵害”にあたるという論理だ。

advertisement

「我々は、Anthropicや民間企業が運用上の意思決定に関与すべきとは信じていないし、これまで信じたこともない。それは軍の役割だ」とアモデイは述べた。「我々の唯一の懸念は、完全自律型兵器と国内大規模監視に関する例外規定のみだ。これらは高レベルの利用領域に関連するものであって、運用上・作戦上の意思決定に関連するものではない」。

政府は言論ではなく調達の問題と位置づけ、合法的利用条項への署名拒否を問題視

政府の回答は次のようなものだ。これはAnthropicが主張する“言論の自由”の問題ではなく、調達の問題だとしている。政府には、誰とどのような条件でビジネスを行うかを決定できるという長年の確立された判例がある。それを引用しながら、司法省の弁護士は、Anthropicが「すべての合法的利用」条項の受け入れを拒否したことは、憲法上の保護対象である表現行為に該当せず、商業的行為にあたると主張した。Anthropicがその契約条件を受け入れていれば、提出文書によれば、異議申し立ての対象となった措置は「発生しなかった」という。

「例えば政府は、2025年にアモデイ博士が『60ミニッツ』でAIの潜在的危険性に関して発言したことに異議を唱えなかった。したがって、大統領指令および長官による第3252条権限の行使は、『Anthropicの見解を罰したいという欲求』から生まれたのではなく、民間の提供企業が国家安全保障領域における軍のAI利用を指図しようとしているという懸念から生じたものである」。

今回の衝突の背景には、トランプ政権が1月に打ち出した、軍をより積極的な「AIファースト」へと転換させようとする動きがある。

政府の文書によると、国防長官は1月6日、AIサービス契約に標準的な「あらゆる合法的利用も可能」という文言を組み込むよう国防総省に指示した。これは、軍が「合法的な軍事用途を制限し得る利用ポリシー上の制約から開放された」AIモデルを利用できるようにするための、より広範な戦略の一環だ。この文書はまた、ドナルド・トランプ大統領が2025年1月23日に署名した、国家安全保障に向けた米国のAI優位性維持に関する大統領令も引用している。

Anthropicはすでに国防総省のワークフローに深く組み込まれていた。政府によれば、Palantirの契約とAnthropicとの別個の合意を通じて、Claudeは国防総省で利用可能である。国防総省の「最も広く展開されているAIモデル」であり、機密システムに組み込まれている唯一のモデルだった。

この運用上の広がりが、今回の対立をより興味深いものにしている理由の一部だ。文書によれば、Anthropicの置き換えは即座には実現できないため、政権は各機関が代替手段に移行する間、180日間の移行期間を認めている。

大規模言語モデルは確率的なシステムであり、ベンダーへの依存が現実の運用上のリスクと主張

政権の中核的な主張は、Anthropicが特定の利用に異議を唱えたというだけでない。同社が、軍が戦闘で依存する可能性のあるシステムに対して過度の実質的な影響力を保持していたという点だ。政府の文書に添付された国防総省当局者の覚書では、大規模言語モデル(LLM)は従来のソフトウェアとは異なるとしている。それは確率的で継続的に更新されるシステムであり、その完全性は提供企業の信頼性に大きく依存する。ここでいう確率的とは、戦闘中・運用中にAIの挙動が予測不能になるリスクがある旨を指す(編注:例えば、同じ質問を繰り返しても、毎回微妙に異なる回答を示すことが該当する)。

そのため国防総省の見解では、Anthropicが継続的なアクセスを行えることは、単なる政策上の意見の相違ではなく、(戦闘中にAnthropicがモデルを変更・停止できるという)現実の運用上のリスクとなっている。

文書はさらに踏み込んで、最近の交渉と戦時状況の中で国防総省の懸念が強まったことを示唆している。政府弁護士によれば、活動中の作戦における戦闘システムへの自社技術の利用に対し、Anthropicが異議を唱えたことに当局者が「警戒」したという。当局者は、いかなる中断や変更も軍事任務と人命を危険にさらす可能性があると恐れていたと主張している。

一方Anthropicは、同社が運用管理を求めたという示唆を公に否定している。アモデイは2月下旬、軍事的決定を下すのは軍当局であって民間企業ではなく、同社は「場当たり的な方法で」利用を制限しようとしたことはないと述べている

次ページ > 第3252条の米国企業への適用は前例がなく、数十億ドルの収益と100社以上の顧客関係が危ぶまれる

タグ:

advertisement

ForbesBrandVoice

人気記事