経済・社会

2026.03.23 13:00

戦争とAIの「利用禁止ライン」──国防総省、Anthropicを「容認できないリスク」と断じる

Shutterstock.com

第3252条の米国企業への適用は前例がなく、数十億ドルの収益と100社以上の顧客関係が危ぶまれる

Anthropicは、サプライチェーンリスクというレッテルが100社以上の顧客との関係を危うくし、数十億ドルの収益を失う可能性があると警告している。この指定が持つ評判上の影響は、ワシントンの調達サークルをはるかに超えて及ぶからだ。市民団体と一部テック業界はAnthropic支持を示しており、マイクロソフト、OpenAI、Googleに所属する研究者による法廷助言者としての支援が報じられている

advertisement

この訴訟を複雑にしているのは、政府がサプライチェーンリスク規定を利用していることだ。外部の法律専門家によれば、この規定は歴史的に外国の敵対者に関する懸念を念頭に置いたものであり、米国のAIラボとモデルのガバナンス条件をめぐって争うために使われたことはなかったという。法律事務所Willkie Farrによる法的分析は、この動きは米国企業にとって「前例がないように見える」とし、第3252条はこれまでロシアのKaspersky Labsや中国のHuawei(ファーウェイ)といった企業が関与する文脈で利用されてきたと指摘した

「例外的かつ前例のないものではあるが、第3252条の適用自体は、国防生産法を発動するという米国政府の脅しからの後退だったようだ。国防生産法を発動した場合、大統領は国家安全保障の名目のもとに、政府自身の条件でClaudeの利用を強制する権限を理論上持つことになっていた」。

政府は当初、より強力な国防生産法の発動をちらつかせていた。しかし実際には第3252条という、それより一段弱い手段を選んだ。Willkie Farrの分析は、その点について“第3252条の適用は、より強硬な手段からの後退”と指摘している。

advertisement

AIの安全ポリシーと国家権力が衝突したとき、企業と政府のどちらが最後の決定権を握るのか

サンフランシスコの連邦地方裁判所を担当するリタ・F・リン判事の前にある直近の課題は、こうだ。Anthropicは、訴訟の進行中、大統領指令と長官の決定の実施を阻止する仮差止命令を勝ち取れるかどうかである。

裁判所は申し立てに関する迅速な書面提出を命じている。この問題が、調達紛争から、フロンティアモデル企業のツールが軍の機密システムに組み込まれた後も安全制約を維持できるかどうかについての審判へと、いかに急速に移行したかを示している。

突き詰めれば、政府と Anthropic の主張はそれぞれシンプルだ。

政府はこう言う。戦時において軍は、製造者が「合法的利用かどうか」を判断する権限を手放さないAIシステムには依存できない。

Anthropicは、こう問い返す。国防総省がアクセスを望んでいるという理由だけで、AI企業が憲法上の権利を失い、倫理的な一線を引く能力まで手放さなければならないのか。

仮差止命令の行方がどうなるにせよ、この訴訟は注視すべきものだ。AIの安全に関するポリシーと国家権力が正面衝突したとき、最後の決定権を誰が握るのか。その問いに初めて司法が答えようとしている。予測不可能な時代に、これほど本質的な問いはそうはない。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事