人工知能(AI)開発企業Anthropic(アンソロピック)は、米国防総省が同社の技術をどのように利用できるかを定める「レッドライン」を設定した。そこには、同社のAIモデル「Claude」を米国内での大規模な監視に用いないこと、完全自律型兵器に用いないことが含まれていた。
先週、国防総省は同社に対し、こうした制約を撤廃し、防衛システムにおけるAIの「すべての合法的な用途」を認めるよう要求した。さらに国防生産法を持ち出し、アンソロピックを「サプライチェーン上のリスク」としてブラックリストに載せると警告した。
同社が従うことを拒否したため、アンソロピックの技術は情報コミュニティを含む米連邦政府機関全体で、段階的に排除されつつある。
「正しいことのために立ち上がるという原則の問題だ」。アンソロピックのダリオ・アモデイCEOはそう語った。この決定により、同社は連邦政府全体で利用禁止となったにもかかわらずである。
国家安全保障上のリスク
米国時間3月27日、ドナルド・トランプ大統領は、すべての政府機関に対しClaudeまたはアンソロピックのいかなる技術の使用も「直ちに停止」するよう命じた。大統領はソーシャルメディアへの投稿で、アンソロピックが課す利用規約が何らかの形で米国人の生命を危険にさらし、「兵士を危険にさらし」、さらには国家安全保障上の脅威にさえなると主張した。
しかし、大統領の後押しがあったにもかかわらず、米軍は週末にかけて実施された対イラン攻撃「オペレーション・エピック・フューリー」を支援するため、アンソロピックのClaudeに依存し続けていた。ウォール・ストリート・ジャーナルの報道によれば、Claudeは情報評価、標的の特定、戦闘シナリオのシミュレーションに用いられたという。
政権側は今回の攻撃が完璧に実行されたと主張している。それにもかかわらずClaudeが脅威だというのなら、直近のイスラム共和国(イラン)への攻撃で使用された事実と整合させるのは難しいように見える。
「この政権は、各機関が協調して働けないという理由で、自前のドローンすら撃墜している。見栄えのいい話ではない」とメリーランド大学のコンピューターサイエンス准教授、ジム・パーティロはそう指摘した。
「自分たちのやりたいことに合わせて法律を平然と歪める政権が、アンソロピックの製品を『合法な用途なら何にでも』使えるべきだと主張している。一方で、国防総省との協働について最もオープンな企業の1つである同社が、技術が国内の広範な監視や自律的でエージェント的な兵器システムに使われることを懸念している」。パーティロはそう述べ、同社は自社技術と安全性の限界を理解しているのだと付け加えた。「アンソロピックのほうが、こうしたものの意図された用途についてより理解しており、正当に線を引いたように見える」



