AI

2026.02.23 12:00

AIは戦場で活用されるべきか アンソロピックと米国防総省の対立、倫理的境界線はどこへ?

Getty Images

Getty Images

防衛分野でAI(人工知能)をどのように活用すべきかをめぐる米AI企業Anthropic(アンソロピック)と米国防総省の対立は、「国家安全保障」と「安全性」に関して異なるビジョンを持つテクノロジー企業と米政府間の緊張関係を露呈した。商業上の意見の相違を超えてあらわになってきた争点は、戦争遂行や調査監視、軍事力を背景に国際的な影響力拡大を競うパワーポリティクス(権力政治)において、AIが担う役割を規定する条件だ。

大規模言語モデル(LLM)「Claude」シリーズの開発元であるAnthropicは、2025年夏に米国防総省と最大2億ドル(約300億円)相当の契約を締結。すでに同社のツールはデータ解析の米Palantir(パランティア・テクノロジーズ)など第三者パートナーを通じて米軍の機密軍事ネットワーク上で使用されている。

だが、Anthropicは最近の契約延長協議で、国防総省が要求したClaude利用時の主要な制限事項の撤廃、特に完全自律型兵器と大規模な国内監視に関する制限の撤廃に難色を示した。国防総省はAnthropicとの契約を解消すると脅し、敵対外国勢力の干渉に対して通常用いる「サプライチェーンリスク」に同社を指定する可能性をちらつかせている。

Anthropic側は、国防総省におけるClaudeの具体的な運用用途については日常的な技術的問題のほかは議論の俎上に上がっていないと表明。一方の国防総省は、請負業者は自社技術をあらゆる合法的な目的に使用できるようにしなければならないと主張している。当初は契約紛争だった両者の亀裂は、今や「軍事AIの倫理的境界線を誰が引くのか」というより広範な衝突へと発展した。

「AI倫理」論争が戦場に到達

Anthropicと国防総省の対立は、民間AI企業と国防上の優先事項が交差する際に、倫理的枠組みの違いがどのような衝突を生むかという好例だ。

Anthropicのアプローチは、AIの安全性と倫理上の制約を企業ミッションの中核に据えるリスク回避型の経営理念を反映している。これに対し、国防総省のスタンスは異なる打算を具象化したものだ。それは、企業の利用ポリシーがどうあれ、既存の法的・軍事的枠組みにおいて合法とされる限りは、場所や方法を問わず強力なツールを活用したい、という考えである。

次ページ > 軍事AIガバナンスに国際的な合意は存在しない

翻訳・編集=荻原藤緒

タグ:

advertisement

ForbesBrandVoice

人気記事