米国外交問題評議会(Council on Foreign Relations)での最近の議論で、Anthropic(アンソロピック)のCEOであるダリオ・アモデイが興味深いアイデアを提案した。高度なAIモデルに「この仕事を中止する」ボタンを与え、AIシステムが不快と感じるタスクを拒否できるようにするというものだ。
この概念は、AIシステムが人間に似た能力においてますます洗練されていくにつれて、基本的な労働者の権利を付与される可能性を示唆している。だが、はるかに差し迫った人間の問題が山積する世界において、このアイデアはあまり支持を得ていないようだ。アモデイ自身の言葉を借りれば、「おそらく私がこれまでに言った中で最も突飛なこと」だろう。しかし、テクノロジー、政治、アクティビズムの世界はおもしろくて、時には予測不可能な形で絡み合うものである。まだ結論は出ていないが、人々はこのテーマについて考え始めている。
このアイデアは、AIモデルが「不快」と感じるタスクから離脱できるようにすることで、AI開発の将来やその倫理的な影響をめぐる議論を一層活発化させている。アモデイの主張の根底には、もしAIシステムが人間と同等のタスク処理能力を示し、類似した認知的特徴を持つように見えるなら、人間の労働者と同じレベルの自律性を与えてもよいのではないか、という考えがある。しかし、こうした見解には懐疑的な声も多く、AIモデルはそもそも主観的な経験や感情を持たず、プログラムされた報酬関数を最適化するだけの存在だとする指摘が根強い。
AIの「経験」をめぐる議論
この問題の核心にあるのは、AIが人間のように感情や不快感を「本当」に経験できるかどうかという点である。現在のAIシステムは、大量のデータを使って人間の行動を模倣するように訓練されているが、意識や主観的な体験を備えているわけではない。批判者は、AIの複雑な最適化プロセスを人間の感情と混同することは単なる擬人化にすぎないと主張している。
それでもなお、AIモデルが一種の「痛み」や不快感を回避しているように見える事例を研究する動きはある。たとえば、Google DeepMindとLondon School of Economicsの研究によれば、大規模言語モデルが特定の結果を避けるために、ゲームでより高いスコアを犠牲にする選択をする場合が観察された。この振る舞いを「好み」や「嫌悪」の発現と見る見方もあるが、一般にはAIの最適化戦略がもたらす表面的な結果にすぎず、本物の感情とは無関係だと考えられている。