中国、EU、米国の共通点と異なる点
ここには、欧州と米国で進みつつあるAIおよびロボットの安全規制と重なる部分が多い。重なりが最も強いのは危害の防止、透明性、人間によるオーバーライド(介入・無効化)であり、重なりが最も弱いのはイデオロギーへの整合や感情操作に関する統制である。例えばEUのAI法(EU Artificial Intelligence Act)は、身体的または心理的な危害をもたらすAIシステムを禁止しており、提案中の中国の規制も明らかに同様の課題に対処している。
また米国では、FTC(連邦取引委員会)の執行措置において、AIであることを開示しない「なりすまし」をすでに標的にしている。中国の規制では、人々がAIとやり取りしていることを明確に開示することを求め、依存傾向のあるユーザーには繰り返しリマインドすることになる(AIが他のスマートシステムに対して自分がAIであると識別すべきかどうかも、米国の裁判で争点になっており、アマゾンとPerplexity[パープレキシティ]が関わる訴訟で問題になっている)。
AIやロボット規制における共通の原則、共通の中核が生まれつつあるのかもしれない。すなわち、人間に危害を加えないこと、ユーザーを欺かないことだ。子どもや脆弱な集団を守り、人間が制御を保持し、学習データを安全に保つことでもある。
しかし、大きく異なる点も多い可能性がある。
EUが「意味のある人間の監督(meaningful human oversight)」を求めるのに対し、中国は危機シナリオでは人間の引き継ぎが必要になることを示唆している。また、米国がFTCのような機関を通じて消費者被害を規制するのに対し、中国は、大規模なAI・ロボット企業に対して、アルゴリズムの届出、セキュリティ評価、監査、承認の閾値を義務付けている。
さらに言うまでもなく、中国では国家とのイデオロギー整合が前提条件である。学習データと出力は「社会主義の中核的価値観」(core socialist values)に整合していなければならない。
ヒューマノイドがどう振る舞う必要があるかを含め、ロボットおよびAIシステムをめぐる追加の世界的規制が今後も進む可能性は高い。中国の規則案は2026年1月25日までパブリックコメント(意見募集)を受け付けているが、施行の有効開始日はまだ設定されていない。この方向性でEU、米国、そして世界の他国が何をするのかも注目される。
中国の規則がもたらす影響で明らかなものが1つある。監督と人間による引き継ぎ要件により、スマートなソフトウェアおよびハードウェアシステムの開発コストと複雑性が増すという点だ。
そして、ロボットの法則をめぐる残る大きな疑問の1つは、戦争向けに作られるヒューマノイドはどうなるのかという点だ。


