上海にある同済大学の研究者らは2024年の
論文「Large Language Models for UAVs: Current State and Pathways to the Future(無人航空機のための大規模言語モデル:現状と将来への道筋)」で、LLMをドローンに組み込めば、どのように自律的なデータ処理や迅速な意思決定を向上させられるかを説明している。
著者らは具体的な用途についての言及は慎重に避けつつも、LLMは「動画ストリームや画像から特定の物体や個人、車両、活動を識別するのに長けており、軍事および民間の監視オペレーションにおいてきわめて重要な詳細なインサイト(洞察)を提供する」と記している。
敷衍すると、LLMを採り入れたドローンは、たとえば「川沿いの経路に車両があるかどうか確認せよ」とか、「敵陣まで低空で飛行し、南側から進入せよ」といった複雑な命令を実行できると考えられる。
こうしたドローンは人間から命令を受けて、見たものを自然言語で人間に報告できるようになる。「経路上に移動車両なし。以前に報告されていた焼損トラック1台」だとか、「敵陣からの射撃はありませんでしたが、熱情報によれば占領されています」といったふうに。
さらに、人間とのコミュニケーションだけでなく、ドローン同士が自然言語で会話することもLLMで可能になる。ドローンのグループは、得た情報を共有し、任務に応じて行動を調整し、作業を分担することを人間の介入なしでできる。たとえば、偵察ドローンが攻撃ドローンに目標を割り当て、そのドローンによる攻撃で撃破されなかった目標のために後続の攻撃ドローンを送り込む、といった具合だ。
北京の北京航空航天大学の研究者らが2024年に発表した
論文「Manned and Unmanned Aerial Vehicles Cooperative Combat Framework Based on Large Language Models(大規模言語モデルに基づく有人および無人航空機協同戦闘フレームワーク)」はこれをさらに発展させ、LLMを活用して「完全自律型の無人戦闘機」を実現するための枠組みを提案している。人間の戦闘機パイロット1人と、機械の速度で反応し、人間の言葉でやり取りする複数のロボット・ウイングマン(僚機やそのパイロット)からなるチームを構想している。