利用者の愛着を収益源とする新たな事業構造
当然ながら、現在の状況は規制当局も注目している。たとえばイタリアのデータ保護当局は、未成年への影響を懸念して本稿冒頭で挙げたReplikaを一時的に禁止した。Character.AIに対する訴訟では、チャットボットの影響と関連する死亡事故に対する責任が問われている。しかし技術の進歩のスピードは、ガバナンスをはるかに上回っている。
現在の状況を特異なものにしているのは、人間がAIを擬人化するだけではなく、企業が擬人化を意図的に誘発し、収益化している点だ。
開発者は、記憶し、感情を映し返し、慰めるように設計されたボットによって、「サービスとしての擬人化」をつくり出している。そして、ユーザーがボットに人間性を投影すればするほど、関わりは深まり、サブスクリプションは長引き、収益が増加する。
これはAIの偶発的な副作用ではなく、仕組まれた特徴だ。スレイマンが警告するように、次世代AIは単に会話をするだけでなく、ジェスチャーや視線、感情表現も行う。その結果、人とAIの結びつきはテキスト交流よりも強固になる。
AIと共存する未来に待ち受ける社会変化
これからの道筋は容易に想像できるものだ。AIがより人間らしくなるにつれて、人々を惹きつける力はさらに強まるだろう。次の波の「意識を持つかのように見えるAI」は、ただ話すだけでなく、顔や声、身体全体で表現を行う。人間の顔のアバターや、温かさを示すよう調整された声、AR(拡張現実)やVR(仮想現実)で描かれる身体といったすべてが、人とAIの結びつきをさらに強めることになる。
その結果、負の影響も避けられない。依存する人もいれば、鬱状態に陥る人もいる。命を落とす人も出てくるだろう。裁判所は、AIに人格を認めるかどうかをめぐる訴訟や放置されたチャットボットをめぐる訴訟に巻き込まれる可能性がある。さらに、離婚手続きでAIが配偶者に当たるのかといった争いも起こり得る。人々が機械を道具ではなくパートナーとして扱い始めれば、社会は親密さの線引きを見直さざるを得なくなる。
親密さの再定義と文化的変容は避けられない
社会的・文化的な変化も起こり得る。人間以外の存在とのパートナーシップが常態化すれば、親密さの再定義が進むだろう。インターネット・スマートフォン・ソーシャルメディアの登場が、親密さ、近さ、孤独の意味を問い直したときと同じように、大きな揺さぶりがもたらされる。
スレイマンは論考の中で強調する。「私たちはAIを人間のために作らなければならない。人間になるように作るのではない」と。これが、法的・規制的な帰結を回避するための主張なのか、それとも人類がAIとの距離を保つべきだという主張なのかは定かでない。だが現実世界で突きつけられている警告が、差し迫ったものであることに変わりはない。


