米国防総省は米国時間3月17日付の裁判所提出書類において、Anthropic(アンソロピック)の安全・利用制限および利用規約が国家安全保障にとって「受け入れがたいリスク」であると主張した。契約交渉として始まった紛争を大きくエスカレートさせた形だ。この対立は現在、米軍によるモデルの利用方法に対して、AI提供企業が強制力のある制限を設けられるかどうかを問う試金石となっている。
米国防総省がAnthropicを「サプライチェーンリスク」に指定、軍との契約から排除
サンフランシスコの連邦裁判所でAnthropicが申し立てた仮差止命令に対し、政府は40ページに及ぶ反対意見書を提出した。その中で政府は、軍事AIに関する契約交渉中のAnthropicの行動が、戦闘環境における「信頼できるパートナー」となり得るかについて疑念を抱かせたと主張している。
「交渉全般を通じて、Anthropicの行動は、極めて機密性の高い分野において国防総省が契約を結びたいと考える信頼できるパートナーであるかどうかを疑問視させるものだった」。
文書はさらに続く。「AIシステムは操作に対して極めて脆弱であり、Anthropicは、同社の企業としての『レッドライン』が越えられていると同社の裁量で判断した場合、進行中の戦闘作戦の前または最中に、自社技術を無効化したり、モデルの動作を先制的に変更したりする可能性がある。国防総省はこれを国家安全保障に対する受け入れがたいリスクと判断した」。
つまり、“AIシステムは継続的な調整が必要であり、提供企業によって変更される可能性がある。Anthropicが自社方針上の「レッドライン」を維持すると主張したことで、国防総省がそれを越えたと同社が判断した場合、活動中の作戦において同社がモデルの動作を無効化・変更する可能性があるというリスクが生じた”と述べている。
政府によると、それは国防総省のサプライチェーンに「受け入れがたいリスク」をもたらすことになる。
この法的根拠は、合衆国法典第10編第3252条に基づいている。この法令は、ある供給源が特定の国家安全保障システムに「サプライチェーンリスク」をもたらす場合、国防総省が調達措置を取ることを認めている。同法は、システムの完全性や運用が破壊、劣化、またはその他の方法で損なわれる可能性を含め、そのようなリスクを広く定義している。
3月5日の声明で、Anthropicのダリオ・アモデイCEOは、この法令を「限定的なもの」だと述べた。
「この法律は、供給企業を罰するためではなく、政府を保護するために存在する。実際、この法律は国防長官に対し、サプライチェーン保護という目標を達成するために『必要最小限の制限的な手段』を利用することを求めている。国防総省の契約企業であったとしても、特定の国防総省契約に関連しない場合、サプライチェーンリスクの指定はClaudeの利用やAnthropicとのビジネス関係を制限しない(そして制限できない)」。



