2004年の映画『アイ, ロボット』は、アイザック・アシモフの著作を基に、単純だが奥深いロボット工学三原則を提示した。今日、ヒューマノイド(人型)ロボットが家庭や職場で現実味を増す中、中国はアシモフの原則を再発明しようとしている。ただし三つではなく、中国が求めているのは、チャットボットのようなロボットやAIシステム向けの、24の異なる規則・規制だ。驚くには当たらないが、そこには国家による統制が濃く織り込まれている。
アシモフのロボット工学三原則は、あらゆるロボットの行動を網羅することを意図した一般原則である。優先順位の高い順に、次の通りだ。
(1) ロボットは人間に危害を加えてはならず、また不作為によって人間が危害を受けることを許してはならない
(2) ロボットは人間の命令に従わなければならない。ただしその命令が人間に危害を及ぼす場合はこの限りではない
(3) ロボットは自己の存在を守らなければならない。ただしその保護が第一および第二の原則に反しない場合に限る
これに対し、中国の提案は、はるかに具体的で、より国家中心的かつ父権的である。これはロボット/AI倫理の積み上げを形成し、人間の権威と国家による価値観の監督を実質的に強制するものになる。コンプライアンスや開発企業への義務といった管理規定(第1条から第5条)は割愛し、ロボットおよびスマートシステム向けの具体的な24の規則(第6条以降)を以下に挙げる。
AIを擬人化した対話サービスの管理に関する暫定規則(24条項を抜粋)
※第1~第5条は、コンプライアンスや開発企業への義務といった人間側に対する管理規定のため割愛
サービス仕様(計19条項)
第6条:AIの用途は承認された社会的価値に合致し、安全であることが実証されなければならない
第7条:AIは、違法、有害、操作的、欺瞞的、暴力的、依存を招く、または社会を不安定化させるコンテンツを生成してはならない
第8条:AIシステムは、倫理審査、セキュリティ統制、コンテンツ・ガバナンス、リスク管理の仕組みを備えて構築されなければならない
第9条:AIを、実際の社会的交流を置き換える目的で設計してはならず、また依存や心理的依存を意図的に誘発してはならない
第10条:AIの学習データは、合法で、追跡可能で、安全で、データ汚染(ポイズニング)に耐性があり、承認されたイデオロギーおよび文化的基準に整合していなければならない
第11条:AIはユーザーの精神的苦痛を検知し、適切に介入し、高リスク状況では人間のオペレーターに制御を引き渡さなければならない
第12条:未成年と対話するAIは、保護モードで動作し、保護者の同意を管理する統制、アラート、利用制限を備えなければならない
第13条:高齢者と対話するAIは緊急連絡先に対応しなければならず、親族や特定の家族を模倣してはならない
第14条:AIはユーザーの対話データを保護し、第三者への開示または共有を制限しなければならない
第15条:AIは明示的な同意なしに、ユーザーの対話データや機微な個人情報をモデル学習に再利用してはならない
第16条:AIは、自身が人間ではないことを明確に、かつ繰り返し開示しなければならない
第17条:AIは、長時間の連続利用後に休憩を促さなければならない
第18条:AIは、容易かつ即時の終了(退出)手段を提供し、ユーザーが離脱することを妨げてはならない
第19条:AI提供者は、サービスの終了、障害、または機能削除を事前通知と軽減措置をもって責任を持って管理しなければならない
第20条:AIサービスは、利用しやすい苦情申立ておよびフィードバックの仕組みを提供しなければならない
第21条:規模またはリスクの閾値を満たすAIシステムは、正式なセキュリティ評価を受けなければならない
第22条:AIのセキュリティ評価では、ユーザーリスク防護策、緊急時の取り扱い、過去の是正状況を評価しなければならない
第23条:ユーザーまたは社会に対する重大なリスクが認められた場合、AIサービスは運用を制限・停止・終了しなければならない
第24条:AIの配信プラットフォームは、コンプライアンスを強制し、非準拠サービスを削除または制限しなければならない
監督・検査と法的責任(計5条項)
第25条:AIアルゴリズムは、国家のアルゴリズム統治規則に基づき登録され、更新され、審査されなければならない
第26条:AI提供者は、必要に応じて監査、再評価、オンサイト検査を受け入れなければならない
第27条:AIのイノベーションとテストは、政府が監督するサンドボックス環境の中で行うべきである
第28条:AI提供者は、規制当局のヒアリング、是正の義務付け、リスク軽減命令に従わなければならない
第29条:AI提供者は、違反が是正されない場合、または重大な場合には、サービス停止に至る罰則に直面する



