この論争は、公共ポリシーと国際規範の欠如をも浮かび上がらせた。国防総省は独自のAI倫理原則を掲げ、責任ある利用、人間による監視、信頼性と説明責任を強調する。これらの原則は、既存の法律と倫理規範を尊重するかたちで軍事分野におけるAI統合を実現することを意図したものだった。しかし、広範な原則と、現場での強制力のある運用基準との間には、隔たりがある。
地域によって異なるアプローチが、このガバナンス上の課題の複雑さを浮き彫りにしている。欧州では人間中心・リスクベースのガバナンスに重点を置いた「欧州連合(EU)AI法」に代表される強固な規制枠組みが、軍事AI利用を明確に除外している。インドのAI戦略も同様に、イノベーションと信頼性や社会的影響のバランスをとる試みを反映したものだ。
一方、中国のアプローチはもっと国家主導型で、より広範な軍民融合戦略の下でAIを防衛技術革新に統合しており、倫理的議論が公に交わされることは少ない。こうした異なる軌道は、軍事分野におけるAIガバナンスの在りかたに関する国際的なコンセンサス(合意)が存在しないことを明示している。
この分断は現実的なリスクを高める。Anthropicと国防総省の対立は、米軍がベネズエラのニコラス・マドゥロ大統領の拘束に関連した諜報活動にClaudeを使用したことに同社が懸念を示したため激化したと報じられている。この作戦では、AIツールがいかに迅速に分析段階から作戦上の影響を及ぼす段階まで移行できるかがありありと示された。
軍事AIシステムはすでに、標的の特定、ドローン監視のデータ分析、戦闘任務のリアルタイム調整の支援に用いられている。もしも自律的・半自律的なシステムが民間車両を敵性と誤分類したり、攻撃決定を加速させるような欠陥のある軍事情報を生成したりした場合、人間が正誤をチェックする時間の猶予はせいぜい数秒しか残されておらず、人の目で常に監視・修正できるとは限らない。そのような状況下では、思わぬ過誤が民間人の犠牲や国家間の意図せぬ緊張拡大につながる恐れがある。
軍事AIには強制力のある安全措置が必要だ
米ハーバード大学ベルファー科学・国際問題センターが昨年末にまとめた軍事AIガバナンスに関する報告書では、リスクの高い決定において人間の判断を意味あるものとし、外交の余地を確保するためには、広範な原則だけでなく、強制力のあるセーフガード(安全措置)を講じることが不可欠だと論じている。


