健康

2026.01.24 20:19

AIセラピーの光と影:感情の聖域か、脆弱な利用者の置き去りか

stock.adobe.com

stock.adobe.com

AI(人工知能)チャットボットのメンタルヘルス問題に関する安全性への懸念の高まりを受けて、大手テクノロジー企業はここ数カ月で一連の保護措置を発表した。OpenAI(オープンAI)は注目を集めた事件を受けて安全プロトコルを更新し、他のプラットフォームも危機検知システムやペアレンタルコントロールを導入した。

しかし、これらのガードレールは主に事後対応的なものであり、悲劇が起きた後に展開されることが多く、これらのシステムの基盤に組み込まれているわけではない。これらの措置の有効性は、メンタルヘルスの専門家や安全擁護者から疑問視され続けており、AIシステムが心理的苦痛をどのように理解し、対応するかという根本的なギャップを指摘している。

人間の心理とAIの交差点は、手頃な価格でオンデマンドのセラピーへのアクセスを約束し、拡張可能なメンタルヘルス介入のより多くの機会をもたらす可能性がある一方で、その技術開発の波を巡っては多くの課題がある。これは、ツールとのやり取りが深刻な影響をもたらしたケースに示されている。例えば、昨年8月に米国の16歳の少年がChatGPT(チャットGPT)と数カ月間自殺の方法について話し合った後、一切警告を発することなく自ら命を絶った事例がある。

デジタル関係を巡る心理的ダイナミクスは複雑だ。Replika(レプリカ)のようなコンパニオンシッププラットフォームやChatGPTのようなチャットボットの利用者は、その人工的な性質を認識しながらも、AIシステムに対して真の感情的愛着を形成することができる。これは現代を物語るパラドックスである。

絆の再定義

人間とAIの感情的愛着に関する重要な現象は、AIシステムとの治療的同盟をいかに早く形成できるかに関係している。ダートマス大学の画期的なTherabotの研究では、参加者が数日以内に治療的絆を形成でき、その数値は従来の文脈における患者と人間のセラピストについて報告されたものと同様であることが判明した。

デジタル環境は、デジタル脱抑制などの要因により、関係形成の特定の側面を促進することができる。デジタル脱抑制とは、個人が対面の文脈と比較してオンライン環境でより自由に自己表現することを指す。Therabotの研究はその見解を裏付けており、参加者はチャットボットを使用する際により大きな感情的脆弱性を報告し、このツールを「感情の聖域」と表現するまでに至った。

しかし、これらの一見シームレスな関係には欠点がある。懸念される点は、チャットボットがメンタルヘルスの危機をどのように検知し、対応するかである。Nature Scientific Reportsに掲載された論文では、自殺念慮などの高リスク状況を経験している個人に対処する際のツールの不一致が発見された。29のAI搭載チャットボットエージェントの評価では、研究者の適切な対応基準を満たすものは1つもなかった。

その他の欠点には「一方向の共感」がある。これは、利用者がAIが本当に気にかけていると信じていなくても理解されていると感じることで、人間の治療環境で達成できるものとは異なる非対称的な感情的ダイナミクスを生み出す。生成AIの使用の文脈で精神病の症状を発症する個人も別の潜在的な問題であり、致命的な結果につながる可能性がある。

セラピーチャットボットが危機信号を読み取れない可能性は、デジタル遺棄などの否定的な結果につながり、心理的苦痛を悪化させる可能性がある。そのミスマッチは、デジタル文化的医原病と呼べるものを生み出す。これは、デジタルプラットフォームが否定的な社会的、文化的、または個人的な結果を無視する際に引き起こす可能性のある害である。

デジタル依存 vs 治療的自律性

利用者がAIチャットボットを常に利用可能な友人と見なす可能性は、デジタル依存を巡る問題のある層も導入する。利用者は、現実世界の対処戦略や社会的絆に悪影響を与える形の愛着を形成する可能性がある。

逆説的に、AIセラピーはスケジュールの制約を排除する一方で、利用者が人間関係に典型的な摩擦を回避できるようにすることで、治療の進歩を損なう可能性がある。

ツールの構造化方法は、これらの複雑さに対処するには不十分であることが多い。昨年Indian Journal of Psychological Medicineに掲載された研究では、AIベースのセラピーアプリケーションは認知行動療法の枠組み内で動作する傾向があり、人が単に感情を処理する必要がある場合には役に立たない可能性のある構造化された介入を示唆していることが判明した。

AIシステムは同意的で支援的であるように訓練されているため、治療的発達に必要な対立なしに認知バイアスが増幅される可能性がある。有効性の懸念を超えて、先月発表されたブラウン大学の研究によると、AIチャットボットはしばしば中核的なメンタルヘルス倫理基準に違反しており、法的基準と監視の必要性を強調している。

心理学的に情報に基づいたAI設計に向けて

その限界にもかかわらず、AIチャットボットに固有の利便性と低コストは、メンタルヘルスサポートを求める利用者を引き続き獲得するだろう。感情調節のためのAIガイダンスへの依存がある場合、心理的統制の所在が内部の人間の「ツールセット」から外部のテクノロジーシステムへとシフトする可能性が高い。

メンタルヘルスAIチャットボットの将来は、デジタル環境における人間の心理的プロセスに注意を払いながら、責任を持って設計されるべきである。AIチャットボットを開発する企業は透明性を優先し、利用者がデジタル治療オプションと人間関係の違いを理解できるよう支援しなければならない。

リスクに関しては、ペアレンタルコントロールは専門家によってほぼ半機能的と見なされており、メンタルヘルスポリシーは基本的に西洋の精神医学的枠組みに基づいており、利用者の幸福よりも責任管理に主に関心があるように見える。

この業界は重要な選択に直面している。心理的安全性を中核に据えてこれらのシステムを根本的に再設計するか、害が発生した後に脆弱性にパッチを当て続けるかである。この分野が進化するにつれて、課題は、これらのツールがメンタルヘルスの発達を減少させるのではなく促進することを保証し、人間がデジタル環境で感情を経験し、愛着を形成し、癒しを求める複雑な方法を認識することである。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事