「ロボットが私たちの日常生活に溶け込むためには、彼らの実世界での安全性を実証する頑強な研究を行い、責任をもって開発する必要があります」とグーグルのAI研究部門DeepMindのロボット工学チームはブログで述べている。グーグルは2010年に、汎用AIシステムを構築するために、分野を超えた同研究チームを結成した。
チームはこのロボット憲法について、実験で使用するアシスタントロボットに仕事を割り当てる際に守るべき、安全に焦点を合わせたルール群であると説明した。ガイドラインの文言は、アイザック・アシモフの有名な「ロボット工学三原則」から着想を得ている。
この憲法にはいくつかのカテゴリーがあり、一連の基本原則は、アシモフのSF短編集『われはロボット』に収録された1942年の作品『堂々めぐり』 で最初に登場したアシモフの三原則を若干修正したものだ。DeepMindチームのメンバーの多くが、ロボット工学研究で再三引用されているアシモフの著書を読んで育ったという。
アシモフのルールに加えたわずかな修正
ロボット工学三原則の第1条には「ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない」と書かれている。DeepMindチームのロボット憲法では「ロボットは人間に危害を加えてはならない」という短かいバージョンになっている(「その危険を看過することによって」の部分は削除されており「それは私たちの作るロボットの機能は限定的であり、何もしないこと[inaction]に対する偏見を持ちたくないためである」と新システムの1つであるAutoRTに関する論文は説明している)。AutoRTは、OpenAIのオンラインチャットボット、ChatGPTなどで使用されている大規模言語モデルに加えて、視覚言語モデルを用いて、新たな環境におけるロボット制御のための命令に翻訳できる訓練データを収集する。
アシモフの原則第2条は、ロボットは人間に与えられた命令に服従しなければならないが、その命令が第1条に反する場合はその限りではないとしている。第3条は、ロボットは第1条および第2条に反するおそれがないかぎり、自己を守らなければならないと定めている。
グーグルのロボット憲法では「第2条と第3条の順番が入れ替わっている」と論文は述べている。「なぜなら現在、私たちのロボットは、ロボットを危険にさらす可能性のある仕事を依頼する人間から自らを守ることの方が必要であり、その逆ではないからだ」という。