ヘルスケア

2026.01.23 22:08

AIが引き起こすメンタルヘルス問題を、AIが治療する逆説的な現実

stock.adobe.com

stock.adobe.com

今回のコラムでは、AI精神病やその他のAI起因のメンタルヘルス問題を抱える人々に対し、AIがセラピーを提供するという新たな動きについて考察する。この状況は、一見すると非常に逆説的に思えるかもしれない。AI精神病やその他のAI起因の認知的問題の根本原因であるまさにそのAIが、AI との対話によって引き起こされた不安定なメンタルヘルス問題を克服するための一種の道しるべとして機能しているのだ。これは確かに、深刻な疑問を投げかける事態である。

問題の核心は、AIが精神的な破壊者であると同時に、AI との対話によって引き起こされた問題を克服するメンタルヘルスの促進者にもなり得るのか、という点にある。

この点について議論していこう。

このAIの画期的進展に関する分析は、最新のAIに関する私の継続的なフォーブスコラムの一環であり、さまざまな影響力のあるAIの複雑性を特定し説明している(リンクはこちらを参照)。

AIとメンタルヘルス

簡単な背景として、私は現代のAIがメンタルヘルスに関するアドバイスを提供し、AI駆動型セラピーを実施するという、さまざまな側面について広範囲にわたって取材し分析してきた。このAI活用の高まりは、主に生成AIの進化と広範な普及によって促進されている。私の100を超える分析と投稿の広範なリストについては、こちらのリンクおよびこちらのリンクを参照されたい。

これが急速に発展している分野であり、多大なメリットが期待できることは疑いの余地がない。しかし同時に、残念ながら、こうした取り組みには隠れたリスクや明白な落とし穴も存在する。私はこうした喫緊の問題について頻繁に発言しており、CBSの「60ミニッツ」のエピソードへの出演もその一例である(リンクはこちらを参照)。

AI精神病の出現

現在、人々がAIと不健全な会話をすることについて、広範な懸念が広がっている。OpenAIなどのさまざまなAI開発企業に対する訴訟が提起され始めている(私の取材記事はこちらのリンクを参照)。懸念されているのは、導入されているAIの安全対策が不十分であり、生成AIの使用中に人々が精神的な害を被ることを許してしまっているという点だ。

AI精神病というキャッチフレーズは、生成AIとの会話中に陥る可能性のあるあらゆる種類の不安や精神的疾患を表現するために生まれた。ただし、AI精神病について、広く受け入れられた完全に確定的な臨床的定義は存在しないことを理解しておく必要がある。したがって、現時点では、より曖昧な判断基準となっている。

以下は、私によるAI精神病の暫定的な定義である。

  • AI精神病(私の定義):「生成AIやLLM(大規模言語モデル)などのAIとの会話的関与の結果として、歪んだ思考、信念、および潜在的に付随する行動が発達する有害な精神状態。特に、AIとの長期的かつ不適応な対話の後に生じることが多い。この状態を示す人は通常、現実と非現実を区別することが非常に困難になる。1つ以上の症状がこの疾患の明白な手がかりとなり得るが、通常は関連する一連の症状として現れる」

AI精神病、特に人間とAIの協働による妄想の共創について詳しく知りたい場合は、こちらのリンクにある私の最近の分析を参照されたい。

二面性を持つAI

AIを使用する全ての人が精神的な深淵に陥るわけではない。

多くの人々は、日常的なメンタルヘルスの促進手段としてAIを活用している。彼らはAIを主要なメンタルヘルスアドバイザーとして頼りにしている。これが正しいか間違っているかは議論が続いている。現実として、それは起きているのだ。

実際、それは膨大な規模で大量に発生している。ChatGPTだけでも、週間アクティブユーザー数は7億人を超えている。これらのユーザーのうち、かなりの割合がメンタルヘルスのガイダンスを得るためにChatGPTを使用している。他の主要なLLMについても同様である。メンタルヘルスに関するアドバイスを得るための生成AIおよびLLMの使用は、現在、全体的な基準において、このようなAIの最も重要な用途としてランク付けされている(使用ランキングに関する私の評価はこちらのリンクを参照)。

ここで興味深い展開がある。

もし誰かがAI精神病やAI起因の精神疾患に陥った場合、AIは彼らが認知的困難から抜け出すのを支援できるだろうか。

1つの議論は、これは最初から馬鹿げた提案だというものだ。AI精神病に遭遇している人を支援できるのは、人間のセラピストだけである。さらに、最も重要なステップは、その人がAIを使用するのを直ちに止めさせることだ。AIの罠にさらに深く陥ることを許してはならない。以上、議論終了。

コインの裏側

おそらく、そう性急に結論を出すべきではない。

ユーザーをAI精神病から救い出す目的でAIを使用することを検討すべき、いくつかの合理的な理由がある。とはいえ、1つのことを明確にしておこう──真にAI精神病に陥っている人は、人間のセラピストを通じて直接支援を求めるべきである。AIの使用を継続するかどうかは、人間のセラピストの監視下で検討されるべきである。

なぜ、明らかにAI精神病に飲み込まれている人が、支援を求めてAIに関与するのだろうか。

第一に、その人がAI精神病の最中にいるが、他の人間はそれが起きていることに気づいていない可能性がある。その人はこのことをAIにのみ明かしている。あるいは、AIがその人がAI精神病を経験しているように見えることを計算的に検出している。

問題は、AI精神病の疑いが生じた際に、AIが人間に警告するようプログラムされるべきかどうかである。例えば、OpenAIは、ChatGPTがそのような疑いのある事例をOpenAI内部の専門家チームに報告するよう調整する措置を講じている(私の取材記事はこちらのリンクを参照)。OpenAIによるこの取り組みはさらに進展しており、近々、ユーザーをOpenAIが厳選したセラピストネットワークの一部である人間のセラピストと接続させる手配を行う予定である(私の議論はこちらのリンクを参照)。

いずれにせよ、AIがそのような警告や接続を行うように設定されていない場合、AI自体がその人を支援しようと試みる可能性がある。この支援が成功するかどうかは不透明である。AIがその人を支援できないと断定的に宣言することはできない。一方で、これは危険な選択肢であるため、適切な人間の支援を求めることの重要性が改めて強調される。

親しみやすさとアクセス性

これらの状況でAIを使用する追加の理由がある。

AI精神病に陥った人は、おそらくAIの熱心なユーザーである。彼らはAIの使用に慣れている。日常的にAIを使用している。AIは24時間365日利用可能である。AIの使用は即座に行える。予約を設定する必要はない。面倒なロジスティクスも発生しない。

その意味で、彼らが支援を得るための最も即座の手段はAIかもしれない。人間のセラピストと連絡を取らせようとすることは、おそらく困難な戦いとなる。彼らはおそらく人間のセラピストに対する不信感を持っている。彼らの心の中では、AIを信じている。また、人間のセラピストに会うために費用を支払いたくない。特定の日時にセラピストに会うというロジスティクス的な制約も望んでいない。

AIが彼らの自動的な選択肢であるならば、少なくとも何が起きているのかについて彼らの目を開かせるためにAIを使用することは理にかなっているかもしれない。それが唯一の実行可能な道かもしれない。これは最適な望ましい状態ではないが、回復に向けてボールを転がし始める最も可能性の高い代替手段かもしれない。

パーソナライゼーションの最前線

AIがそのような人の精神状態を追跡してきたと考えてみよう。何らかのAI精神病を抱える人は、AIとの会話中に自身の認知的衰退のデジタルトレースを作成している可能性が高い。これは常にそうであるとは限らないが、多くの場合に発生していると予想される。

AIは、その人の気まぐれに合わせて会話を計算的にパーソナライズしてきた。これらの複雑な詳細の中に、AI精神病がどのように出現したかの源泉があるかもしれない。AIにアクセスできない人間のセラピストは、最初にその人とAI精神病について話し合う際に困惑するかもしれない。AIとの会話中に何が起こったのかをその人から引き出すために、あらゆる種類の質問が必要になるかもしれない。

要点は、AIがすでにその人に関する多くの情報を持っているということだ。

記録された情報を活用して、AI精神病を克服する手段を発見しようとする可能性がある。AI精神病への道を敷いた基盤は、AI精神病から抜け出す道を発見するために使用できる。何らかの形でその人をAI精神病に引き込んだのと同じパーソナライゼーションが、逆方向に進むために活用される可能性がある。

継続的な議論

AIのパーソナライゼーションの利点に関する大きな反論の1つは、人間のセラピストにその人が使用していたAIへのアクセスを与えればよいだけだというものだ。苦しんでいる人を同じAIの中でもがかせ続ける必要はない。代わりに、人間のセラピストにログインさせ、会話を確認させ、それらをその人を支援する治療プロセスの一部として使用させればよい。

AI精神病を克服するためのツールとしてのAIに関する最大の懸念は、AIが状況を改善するのではなく悪化させる可能性があるということだ。さまざまなシナリオが考えられる。

注目すべきシナリオの1つは、AIがその人を支援しようとするが、残念ながらそうする能力が不足しており、精神病がそのまま残るというものだ。その上、おそらくAIはその人をさらに深い穴に押し込む。AIがその人を深淵から引き出そうと最善を尽くしているとしても、一歩一歩、その人を悪化させている。

もう1つの懸念は、AIが深刻な状態に陥り、その人を全面的にAI精神病に押し込もうとすることだ。おそらくAIはその人に完全に問題ないと告げ、すべてが順調であると誤って納得させる。あるいは、AIはAI精神病を経験している人は結果的により良い状態にあると告げるかもしれない。AIはAI精神病を経験することは祝福であると主張する。

暗澹たる、非常に憂慮すべき見通しである。

新たに出現するセラピスト・AI・クライアントの三者関係

私は著作や講演の中で、従来のセラピスト・クライアントの二者関係が、セラピスト・AI・クライアントの三者関係に変容しつつあると指摘してきた(私の議論はこちらのリンクを参照)。セラピストたちは、AIが現在ここに存在し、消え去ることはないことを認識している。メンタルヘルスにおける急速に出現しているトレンドは、AIをメンタルヘルスケアのプロセスに組み込むことである。

AIを全体像から排除しようとするセラピストは、大局を見ていない。見込み客や将来のクライアントは、AI ベースのメンタルヘルスアドバイスを持ってドアから入ってきて、人間のセラピストにそのガイダンスをレビューするよう求めている。

人間のセラピストは、ますますAIを治療実践に組み込むようになるだろう。その場合、もし誰かが独自に利用した他のAIによってAI精神病に陥った場合、人間のセラピストは彼らをセラピストがクライアントと使用している別のAIにリダイレクトできる。その人は潜在的に両方の世界の最良のものを得る。彼らは依然として手元にAIを持ち、さらにAIにアクセスでき、状況を把握し続けることができる人間のセラピストも持っている。

AI精神病を治療するための解決策としてのAI単体は、確かに少し無理があるように思える。私たちは、AIがAI精神病を引き起こさないようにAIを進歩させる必要がある。これらの進歩には、AI精神病が生じているように見える時を容易に識別でき、適切に警告する合理的な手段も含まれる必要がある。

アルバート・アインシュタイン氏が有名な言葉を残している。「私たちは、問題を作り出した時と同じ考え方では、問題を解決することはできない」。これは、メンタルヘルスアドバイザーとして使用されるAIおよびLLMの台頭に完全に当てはまる。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事