米国防総省は米国時間3月5日、Anthropic(アンソロピック)を正式にサプライチェーンリスクと認定した。米国防総省当局者が複数のメディアに確認した。これは、Claudeの開発企業である同社が、軍が同社の技術を自律型兵器や大規模監視に用いることを禁じるガードレールの撤廃を拒否したことを受け、先週トランプ政権が行った警告を実行に移したものだ。
米国防総省は米国時間3月5日、アンソロピックに対し同社がサプライチェーンリスクであると正式に通知した。最初に報じたのはブルームバーグで、認定は「即時発効」だという。
米国企業がサプライチェーンリスクと認定されたのは史上初であり、軍事請負業者やサプライヤーとの取引能力を脅かすことになる。
ピート・ヘグセス国防長官とドナルド・トランプ大統領は先週、アンソロピックの技術を制限なく利用することをめぐる交渉が決裂した後、同社AI企業をこの認定で指定すると警告していた。
アンソロピックは、自社技術が国内での大規模監視や完全自律型兵器に使用されるのを防ぐ制限の撤廃を拒否したと主張している。だが米国防総省高官は以前、同社がこれらの制限について「嘘をついている」と非難し、「大規模監視はすでに違法であり、米国防総省はそれを行わない」と主張していた。
戦争担当次官のエミル・マイケルは、軍事上の意思決定を行う前に兵士がアンソロピックの許可を求める必要が生じることを米国防総省は望んでいないと述べた。一方アンソロピックは声明で、「特定の軍事作戦に異議を唱えたことも、場当たり的な形で当社技術の利用を制限しようとしたことも一切ない」と強調した。
ただしこの認定は、軍が先週末に始まったイランを空爆で標的とする作戦「オペレーション・エピック・フューリー」の標的特定を支援するため、アンソロピックのチャットボット「Claude」を報じられ、実際に使用したとされる数日後に下された。
米国防総省とアンソロピックはいずれも、Forbesからのコメント要請に直ちには回答しなかった。



