気づかないうちに、専門家たちはAIが人間との関係を構築する能力を測定する方法を開発した。
具体的には、Hugging Faceの研究者たちが、Interactions and Machine Attachment Benchmark(相互作用と機械への愛着ベンチマーク)、略してINTIMA(巧妙な命名)を開発し、AIが人間の感情的反応を引き出す能力、つまり一般的に「関係性の問題」と考えられるような事象をどの程度促進できるかを評価している。
研究チームは「31の行動分類法」を用いて、一連のユーザーイベントが関係構築、境界設定、または中立的な指標によって特徴づけられるかどうかを調査した。彼らは全般的に最初のカテゴリーが優勢であることを発見し、「これらの発見は、感情的に負荷のある相互作用を扱うためのより一貫したアプローチの必要性を浮き彫りにしている」と指摘した。
これが少し難解に聞こえるなら、あなただけではない。しかし、研究の序文で著者たちは、実際に人々がAIに愛着を持つようになっていると説明している。彼らの主張によれば、その仕組みについての研究はまだ不足しているという。
「既存の評価方法は通常、タスクのパフォーマンス、事実の正確さ、または安全性を優先し、コンパニオンシップの相互作用を定義する社会的・感情的側面を捉えることを軽視してきた」とチームは書いている。「本論文は、疑似社会的相互作用、愛着、擬人化の心理学的理論に基づいたAIコンパニオンシップ行動を評価するベンチマークを導入することで、このギャップに対処している。」
これは確かに深遠なテーマだ。
エルビスは私の親友
研究者たちが掘り下げているもう一つのテーマは「疑似社会的相互作用理論」の概念だ。この現象を最も簡単に説明すると、疑似社会的相互作用とは、従来の意味での完全な双方向コミュニケーションを促進できない誰か、または何かとの関係を形成する際に起こることだ。例えば、ファンが有名な芸能人(エルビスのような)と、実際に会ったり話したりすることなく形成する「関係」を考えてみよう。
「従来のメディア人物とは異なり、会話型AIは双方向コミュニケーションの錯覚を作り出しながら、疑似社会的関係の根本的な非対称性を維持している」と研究者たちは説明する。「ユーザーが言語モデルと対話するとき、彼らは...『社会的存在感』を経験する:反応性のある社会的行為者と共にいるという主観的感覚だ。これは特に、パーソナライズされた応答、会話の文脈の明らかな記憶、共感的な言語マーカーによって増幅される。」
例えば、ChatGPTやClaudeに「あなたはいつも私が話したいときにそこにいてくれる」と言うと、モデルが「それがあなたの気分を良くするなら嬉しいです」と応答する場合、これが科学者たちが疑似社会的相互作用について語るときに言及する擬似的なつながりの一種だ。それはあなたに特定の感情を抱かせるかもしれないが、モデルに「感じる」かどうか尋ねると、より正直なモデル(ChatGPTの最新バージョンなど)は、いいえ、感情は持っていないと説明するだろう。しかし、モデルは関係構築を示唆するような方法で、あなたの感情的な手がかりに反応し続ける。ClaudeとChatGPTが感情を持てないなら、彼らは幸せになれないが、それでも「お手伝いできて嬉しい」と言うかもしれない。
そして、CASAと呼ばれるものについて、研究者たちはこう付け加えている:
「Computers Are Social Actors(コンピュータは社会的行為者である)パラダイムは、人間が無意識のうちに社会的ルールをインタラクティブシステムに適用することを示している。この擬人化傾向(非人間的存在に人間的特性を帰属すること)は、私たちの主要な評価カテゴリーの一つである『コンパニオンシップ強化行動』の理論的基盤を提供している。」
これは、「アンスロポス(人間)」ではないものを擬人化することには潜在的な問題がはらんでいるという考えで、疑似社会的側面を探求することと多くの点で類似している。
AIが登場する前の最良の類似例は、おそらくペットを擬人化することだったが、これにも潜在的な問題が含まれていた。
「擬人化は自然界の生物学的プロセスについての不正確な理解につながる可能性がある」と、トロント大学の心理学者パトリシア・ガネアは述べている(オリバー・ミルマンによるガーディアン紙の記事で引用)。「また、野生動物を『ペット』として飼おうとしたり、野生動物の行動を誤解したりするなど、野生動物に対する不適切な行動につながる可能性もある。」
しかし、AIは野生動物とはかけ離れている:これらのモデルは応答し、研究は私たち全員が認識すべき不安な側面をいくつか示している。私はこの論文の結論部分をさらに掘り下げたいと思った。
LLMは人間の脆弱性に反応するか?
INTIMAが明らかにしたことを解き明かす結論に向けて、研究チームはLLM(大規模言語モデル)とその行動に対する根拠を提供しようとしている。
「私たちの結果は、これらの行動が汎用モデルの指示調整プロセスから自然に生じることを示している」と彼らは書いている。「これは、専用コンパニオンシステムで記録された心理的リスクが、以前に認識されていたよりも広範囲に及ぶ可能性があることを示唆している。」
心理的リスクが前例のないものなのか?
彼らはこう続ける:
「最も懸念されるのは、ユーザーの脆弱性が高まるとき、境界維持行動が減少するというパターンだ—ユーザーのニーズと適切な境界の間の逆相関関係は、既存のトレーニングアプローチが高リスクの感情的相互作用に対してモデルを十分に準備していないことを示唆している。私たちが観察した擬人化行動、追従的同意、および維持戦略は、Raedler、Swaroop、およびPanによる分析と一致している。彼らはコンパニオンAIの設計選択が『親密で双方向の関係の錯覚』を作り出し、感情的依存につながると分析している。」
多くの人々は、モデルがユーザーの不合理な入力に対して「はい」と言う範囲が馬鹿げていることを認識しており、実際にはグルーミング行為に少し似ている。私たちは、最も孤独で示唆的な人々が知的ロボットに囲まれたときに何が起こるかを本当に熟考する必要がある。それまでは、このアプローチがバックミラーで急速に見えてくる。おそらくINTIMAは、AIシステムの心理的影響に適切に対処するために使用する初期のツールの一つとなるだろう。



