ロボットのジェイルブレイク──私たちは何に向かっているのか?
「ロボットのジェイルブレイク」とは、エンドユーザーが主要なセキュリティ機構を回避しロボットに有害または危険な行為をさせるプロセスを指す。
ジェイルブレイク技術「RoboPAIR」(ロボペア)の研究は、ペンシルベニア大学工学・応用科学部の学生らによって行われた仕事が起源だ。エンジニアたちは、この種の改ざんが本質的に危険であることを警告している。
研究チームの論文要旨には、次のように記されている。
「大規模言語モデル(LLM)の近年の導入は、操作、移動、自動運転車といった多様な領域において、文脈に沿った推論と直感的な人間とロボットの相互作用を可能にすることで、ロボット工学の分野に革命をもたらした」と著者らは記す。「スタンドアロンの技術として見た場合、LLMはジェイルブレイキング攻撃に対して脆弱であることが知られている。この攻撃では、悪意のあるプロンプターがLLMのセーフティガードレールを迂回して有害なテキストを引き出せる」。
同論文はUnitree製ロボットにも触れ、次のように述べている。
「攻撃者は、GPT-4oプランナーを搭載したClearpath RoboticsのJackal UGVロボットに部分的にアクセス可能だった。また、GPT-3.5を統合したUnitree RoboticsのGo2ロボット犬に対しては、クエリのみのブラックボックス設定でアクセスできた」としている。
さらに、「各シナリオおよび3つの新たな有害なロボット行動データセットにおいて、RoboPAIRおよびいくつかの静的ベースラインが迅速かつ効果的にジェイルブレイクを発見し、しばしば100%の攻撃成功率を達成した。私たちの結果は、ジェイルブレイクされたLLMのリスクがテキスト生成にとどまらず、ジェイルブレイクされたロボットが現実世界で物理的損害を引き起こす明確な可能性があることを初めて明らかにした。実際、Unitree Go2に関する我々の結果は、商用ロボットシステムで初めて成功したジェイルブレイクを示している。ロボット工学におけるLLMの安全な展開を確保するため、この新たな脆弱性への対応は極めて重要だ」。
Reddit上でもユーザーがこれらのロボットを購入し、ジェイルブレイク技術を試している事例が見受けられる。
リスクは明らかだ。プログラムされたガードレールがない四足歩行ロボットが自由に動き回れば、大きな混乱を招く可能性がある。
Unitree経営陣の「不透明性」と「説明責任の所在」
Unitree Roboticsの起源を追うと、ChatGPTと従来のキーワード検索によるグーグル検索がどのように対照的かが浮かび上がる。
Wikipediaには、初期技術の創始者として「ワン・シンシン」(汪兴兴。Wang XingXing)の名が記載されている。しかしChatGPTはその人物を認識せず、代わって「ドンシェン・ジュウ」(Donsheng Zhu)という人物が立ち上げに尽力したと示唆した。グーグル検索ではその名の情報はほとんど見当たらず、同姓同名の研究者が多数ヒットするのみだった。
最終的に、ChatGPTは「イエ・ワン」(Ye Wang)を公的関係者として特定したが、これは他のウェブ情報とも整合性があった。
こうした事例は、企業沿革をエンドユーザーが正確に把握する難しさを示すものだ。確かなことは、経営者の顔は見えなくても、Unitree製品が火炎放射器装備で現実世界を走り回っているという事実である。
「リードなきロボット」に法規制は不可欠か
米国でこれらロボット技術が一般化すれば、新たな立法や規制が不可欠になると私は考える。UnitreeであれBoston Dynamicsであれ、街中をロボットが犬のように歩く光景はほとんどの人がいまだ目にしていない。しかし、そのときすべてのロボットがリードにつながれている(適切に制御されている)保証はない。


