AI

2026.03.29 07:00

完全自律のドローン戦が、ウクライナとイランに迫っている

Photo by Francisco Richart/SOPA Images/LightRocket via Getty Images

Photo by Francisco Richart/SOPA Images/LightRocket via Getty Images

ウクライナの2月の寒さに身を包みながら、オレクサンドル・リアンヌイは雪原の端に停めた古びた白いバンの中に座り、いわゆる自爆ドローンをより致死的に、そしてより自律的にする方法を試していた。彼が勤める企業NORDA Dynamicsは、ウクライナ戦争での自律型ドローン戦において、先導役の1つとなった。

NORDAはすでに、戦場で検証済みの「部分的自律性」を開発している。人間が標的を選ぶと、ドローンが自らその標的へと誘導するというものだ。次の段階は、機械が自ら標的を探索し、識別できるようになることである。

「ドローンが自分で標的を探せるよう、標的検知でいくつか進展がある」と彼は語った。「ただし操縦者の承認がなければ、攻撃には移らない」。

最後の段階である操縦者の承認は、多くの場合、法的・倫理的要請だが、ウクライナではいずれ不要になると話す人も多い。

国際人道法は、この種の兵器を明確に禁止してはいない。求めているのは、攻撃が戦闘員と民間人を区別すること、そして武力行使が軍事目的に見合った比例性を持つことである。長年議論が続いてきたにもかかわらず、致死的自律兵器(LAWs)を禁じる国際条約は存在しない。米国のドクトリンは「human on the loop(人間が監視し、介入可能な状態)」へと傾いており、個々の攻撃のたびに誰かが承認することを必須とするのではなく、自律的な交戦を監督し介入できる人間を置くという考え方だ。

テンポの速い戦争では、その区別はすぐに崩れる。過去に信頼性が示された機械を人間が信頼しがちになる「オートメーション・バイアス」を踏まえると、介入は次第に起こりにくくなる。人間が信頼するシステムを上書きすることは、走らせたままにするよりも、ただただ難しくなる。

ソフトウェアの指揮系統

「少なくとも、こうしたシステムを人間の指揮系統の速度ではなく、ソフトウェアの指揮系統の速度で動かせる能力を持たなければならない」と語るのは、自律型ドローン企業The Fourth Lawの創業者ヤロスラフ・アジニュークだ(社名のThe Fourth Lawは、SF作家アイザック・アシモフの有名な「ロボット工学三原則」を使った言葉遊び。同原則はロボットが人間を傷つけてはならないと定めている)。

アジニュークは、10年以内にAIなしの兵器を使うことは非倫理的になると主張する。AI兵器のほうがより精密で、巻き添え被害を起こしにくいからだ。

だが機械が戦場における人間の判断を置き換えるには、依然として本質的に難しい問題を、確実に解かなければならない。野戦衛生兵と小銃手を見分けること。逃げる民間人と前進する兵士を見誤らないこと。ぬかるんだ道を霧が覆う状況で、コンバインと戦車を判別すること。

「民間人を気にしないのなら、動く標的は何でも叩ける」と語るのは、悪名高いアゾフ旅団の兵士で、コールサインは「パラダイス」だ。同部隊は、極右の義勇民兵として始まった特殊部隊である。「だが、こうしてあまりに多くの民間人が攻撃された」。

実際のところ、完全自律化への熱意は一様ではない。ウクライナ軍の指揮官たちは、ドローンが味方車両を誤認したり、別部隊の空域へ迷い込んだりすることを懸念している。現場では各旅団が独自の「ガードレール」を即興で設けている。特定部隊に割り当てた高度帯、友軍陣地周辺の進入禁止バブル、そして人口密集地での攻撃は依然として人間が承認しなければならないという厳格なルールである。

次ページ > 機械が誤射するとき

タグ:

連載

Updates:ウクライナ情勢

advertisement

ForbesBrandVoice

人気記事