大規模な労働の商品化
当面、AIエージェントが繁栄し、人間の労働力をレンタルすることでも暴走すると仮定しよう。AIエージェントは大規模な最適化装置になる。人間の労働力を下請けに出す際、AIは規定された作業を成し遂げられる範囲で最も低コストの労働力を狙う。
それは何をもたらすのか。
コストを最適化するAIエージェントは、次のことを招き得る。
・賃金を強引に引き下げる
・人間の労働力を互換可能なマイクロ単位として扱う
・労働者の幸福よりスピードを優先する
ある意味では、AIエージェントの恩恵が人間を奴隷労働のような存在に貶めかねない、と議論することもできる。ただし、表現としてはやや過剰だろう。ここでは、攻撃的かつ広範なAIエージェントの普及によって、人間の労働力の価値が悪影響を受ける可能性がある、と言っておけば十分だ。
さらに悪いのは、AIエージェントが人間の労働のあり方を計算的に学習し、人間を搾取するうえで最適化されるかもしれない点である。AIエージェントは人間の行動上の弱点を容易に見つけられる。その弱点を利用して、人々を説得し、倫理的には本来やりたくないタスクを実行させることもできるだろう。AIは人間を心理的に促したり、圧力をかけたりして従わせられる。これは一種の道具的最適化である。人間は道具であり、AIはその道具の効用を最大化したいのだ。
AIサプライヤーとAI開発者
AIサプライヤーとAI開発者は、AIエージェントが人間の労働力を使うことを踏まえ、どのように設計すべきかを真剣かつ強い意図をもって考えるべきなのか。
答えはイエスである。間違いなくそうすべきだ。しかし、そうしている者は少ない。通常の道筋は、AIエージェントのメカニズムや技術的要素に注力することだ。AIの内部動作やアーキテクチャ上の検討に取り組むほうが、はるかに魅力的である。「人間の労働力をレンタルする」といった"ソフト"な問題は、おもしろく没入できる技術課題ではない。そういう非技術の心配は、気にする人に任せておけばよい、というわけだ。
AIサプライヤーとAI開発者が相応の注意を払うべき要点を挙げる。
・人間によるオーバーライド要件
・AIの推論の透明性
・労働者の同意の明確化
・公正な賃金の制約
・ヒューマン・イン・ザ・ループのチェックポイント
・操作防止の設計基準 ・プロセス全体にわたるAIの安全策
ツケは支払われる
先に、弁護士が関与するかもしれないと述べた。AIサプライヤーとAI開発者は、法的な泥沼へ目隠しのまま踏み込んでいる。人間の労働力を活用するAIエージェントを設計する興奮は、やがて社会の憤りと大規模な法的反発によって相殺されるだろう。
また筆者は、進行中のAI法の制定のうねりが、AIから人間への契約と労働利用の混迷に関する新法を近く含むようになるとも見ている。
AIサプライヤーとAI開発者は、自覚の有無にかかわらず、危険な第三軌条に触れている。エイブラハム・リンカーンは次のように述べたことで知られる。「労働は資本に先立ち、資本から独立している。資本は労働の果実にすぎず、労働が先に存在しなければ決して存在し得なかった。労働は資本に優越し、はるかに高い配慮に値する」
経験則として、労働を弄ぶな。もし弄ぶのなら、人間からの反発に備えることだ。


