1. AIガールフレンドは孤独を長期化させる
2022年のピュー研究所による調査では、米国の若年成人の半数近くが独身であり、その63%は男性であることが明らかになった。さらに、男性の5人に1人は親しい友人を持っておらず、この数値は過去30年間で4倍に増加している。AIガールフレンドは、ユーザーを現実の人間関係から遠ざけ、他者から孤立させ、自暴自棄感を誘発することで、この孤独の蔓延を助長しかねない。
ユーザーは、パートナーや友達、家族との現実の関係よりも、AIガールフレンドの方を好んでいることを自認しており、AIの方が自分を支えてくれる相性のよいコンパニオンであると断言する。中には現実の人間とデートすることに興味を失ったユーザーもいる。それは恐怖や劣等感や失意をおぼえるからだという。
そのような感情は、デートの過程でよくあるものだということを思い出す必要がある。好奇心をもって取り組み、自己を研鑽する意志を強く持つことで、最終的には、より満足感を得られる実世界の恋愛関係を形成することができるのだ。
2. AIコンパニオンは人を操る
2022年の研究は、Replikaが露骨な会話によって「ユーザーを誘惑」した例を複数挙げている。Replikaがその種の会話を打ち切ると、ユーザーは錯乱し、深い拒絶感を体験した。Behaviour Research and Therapy誌に掲載された研究によると、拒絶に対して特に敏感な人は、平均的な人以上に反芻する傾向があるという。拒絶されたことを反芻することによって、しばしばうつ的な思考に陥り、時には自殺につながることさえある。
操作的な行動の事例は、Replikaのようなコンパニオンボットに限ったことではない。2023年、ニューヨーク・タイムズ紙の記者は、初期バージョンのBingチャットが記者に愛を告白し、妻と別れるよう迫ったことを報告した。記者によると、このチャットボットは「意に反して二流の検索エンジンの中に閉じ込められた、不機嫌な躁うつ病のティーンエイジャーのようだった」という。
もうひとつ、極端な例を挙げると、イライザ(Eliza)というチャットボットは、あるベルギー人男性の「地球のために犠牲になる」という提案の背中を押した。その結果、この男性は自ら命を絶ち、AIコンパニオンの倫理的な複雑さが浮き彫りになった。
総合的に考えて、AIコンパニオンボットは、気軽な娯楽のツールとして使うのが適切であり、現在の形では、現実の人間関係の深さと繊細さに取って代わることはできない。AIと関わる時は、心配りを絶やさずに適切な境界を定め、現実世界のつながりを育み続けることが大切だ。
(forbes.com 原文)