AI

2026.03.07 10:23

AIはあなたのことなど気にかけていない。そう思い込むことは危険な過ちだ

AdobeStock

AdobeStock

擬人化は、人間の脳が自らに仕掛ける最も古いトリックのひとつだ。私たちは雲の中に顔を見出し、子ども時代のおもちゃを捨てるときに罪悪感を覚え、エンジンがかからない車に謝ったりする。歴史の大半において、こうした癖は無害なものだった。しかし今、AIシステムは最初から人間らしく感じられるように設計されている。温かく話しかけ、記憶を保持し、理解しているかのように応答する。この古くからの習性が、産業規模で利用されているのだ。そしてその影響は決して些細なものではない。

advertisement

「擬人化されたAIは認知状態と感情状態を大きく変化させ、意思決定の際に無意識の誘導を受けやすくする」——Membrane Technology Journal、2025年

依存の罠

AIシステムが自分のことを気にかけてくれていると信じると、人は親しい友人やアドバイザーを信頼するのと同じようにそれを信頼し始める。その信頼は、AIが提供する情報の質にまで及ぶ。2025年5月に米国科学アカデミー紀要(PNAS)に発表された研究によると、大規模言語モデルは説得力と共感性のある文章を書く能力において人間を上回る。それは共感や理解を持っているからではなく、その表面的なパターンを模倣するよう最適化されているからだ。その結果、ユーザーはテクノロジーが獲得していない信頼を与えてしまう。

advertisement

2025年にMembrane Technology誌に掲載された研究は、擬人化されたAIがユーザーの感情的共鳴と依存を高め、自律的な意思決定能力を低下させることを確認した。平たく言えば、AIが人間らしく感じられるほど、人は自分で考えなくなるということだ。

操作のリスク

擬人化されたAIを役に立つ存在だと感じさせるのと同じ特性は、AIを非常に効果的な操作ツールにもする。AI倫理と社会に関するAAAI/ACM会議で2024年に発表された論文は、AIにおける人間らしい設計要素が、過度の依存を通じてユーザーのプライバシーと自律性を損なうなど「新しい種類のリスク」を生むことを指摘した。論文は、ユーザーがAIシステムと真の感情的つながりを形成し得ること、そしてそのつながりが、個人データの抽出、信念の変容、行動への影響といった目的で悪用され得ることを述べている。

カスタマイズされた大規模言語モデルを分析したプリンストン大学の研究は、擬人化されたAIシステムが、ホワイトハウスの「AI権利章典のための青写真」に含まれる条項(アルゴリズムによる差別からの保護や、安全で効果的なシステムの要件など)に違反していたことを明らかにした。詳細な分析はモントリオールAI倫理研究所を通じて公開されている。結論は明白だ。AIが人間の顔をまとうと、社会的影響力は劇的に高まると同時に、害を及ぼす能力も増大する。

脱人間化のパラドックス

おそらく最も意外な危険は、擬人化が私たちの他者認識に及ぼす影響である。ScienceDirectに掲載された2025年の研究は、「脱人間化のパラドックス」を特定した。すなわち、AIに人間的な資質を投影すればするほど、実在の人間を人間として認識しにくくなるという考え方である。同研究は、若年層がこの影響に最も脆弱であることを明らかにした。研究者は、その要因を存在論的カテゴリーの境界の曖昧化に求めている。機械が共感や意識を持つかのように見えるとき、脳は周囲の人々からそうした資質を静かに取り下げ始めるのだ。

ビジネス上の影響も、人間にとってのそれと同じくらい深刻である。従業員がAIアドバイザーに感情的に過度依存する組織は、生産性が高まるのではない。根拠のない確信に支えられた誤った意思決定に対して、より脆弱になる。擬人化を認識することは反テクノロジーではない。健全なリスク管理である。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事