OpenAIでハードウェアおよびロボット工学チームを率いるケイトリン・カリノウスキーは米国時間3月7日、同社を離れることをと明らかにした。OpenAIのサム・アルトマンCEOが米国防総省と、同社技術を軍事作戦に活用するための合意を結んだことを受け、自身の選択は「原則の問題だった」とソーシャルメディア投稿で述べた。
2024年にMetaから採用されたカリノウスキーはXで、決断は容易ではなかったとした上で、次のように述べた。
「AIは国家安全保障において重要な役割を果たす。しかし、司法の監督なしに米国人を監視すること、そして人間の許可なしの致死的な自律性(lethal autonomy)は、実際に行われた以上に慎重な議論を要する一線だった」。
この決断は、OpenAIが今週、同社の技術がサイバーセキュリティ、情報分析、兵站(ロジスティクス)など、防衛関連の業務を支援し得ると述べた中に起きた。これらはいずれも軍がAIの重要な適用領域とみなす分野だ。
この合意に対しては、一部のOpenAI従業員やAI研究者から批判の声が上がっている。人工知能を軍事作戦へ拡大すれば、監視や自律型兵器をめぐるリスクが高まると警告している。
OpenAIと米国防総省の提携は、トランプ政権がAnthropic(アンソロピック)との協業から距離を置いた後に実現した。米国防総省はアンソロピックを正式にサプライチェーン上のリスクと位置づけている。
カリノウスキーはXで、OpenAIの発表が拙速だったことが問題だとし、「定義されたガードレール(安全策)なしに」行われたと記した。
「我々は、米国防総省との合意が、AIの責任ある国家安全保障用途に向けた実行可能な道筋をつくると同時に、我々のレッドライン(越えてはならない一線)を明確にするものだと考えている。すなわち、国内監視は行わず、自律型兵器も認めない」
OpenAIは、カリノウスキーの辞任を認めるTech Crunchへの声明で「我々は、この問題について強い見解があることを認識しており、従業員、政府、市民社会、そして世界中のコミュニティと、引き続き議論を続けていく」と述べている。



