今回のコラムでは、人間のセラピストはいずれ消えゆく存在である一方、AIベースのメンタルヘルスアドバイザーは永遠に続くように見える(少なくとも、そう考える人もいる)という、暗黙の認識について慎重に検証する。人間側の現実として、人間のセラピストはいずれこの世を去ることになる。一部のセラピストは、そのような事態が生じた際にクライアントが確実に対応できるよう、事前に手配を行う。しかし、そうしないセラピストもいる。クライアントや患者は、かなり困難な状況に置かれる可能性がある。
AIベースのメンタルヘルスアドバイスを提供する生成AIや大規模言語モデル(LLM)は、おそらく決して死ぬことはない。したがって、AIは、そうした目的でAIを使用する人々に常に利用可能であると考えられる。それは本当に妥当な主張なのだろうか。
この点について議論しよう。
このAIの飛躍的進歩に関する分析は、最新のAIに関する私の継続的なフォーブスコラムの一環であり、影響力のあるAIの複雑性を特定し説明することを含んでいる(リンクはこちらを参照)。
AIとメンタルヘルスセラピー
簡単な背景として、私はメンタルヘルスアドバイスを生成し、AIによるセラピーを実施する現代のAIの出現に関する無数の側面について、広範囲にわたって取材し分析してきた。このAIの利用拡大は、主に生成AIの進化と広範な普及によって促進されてきた。この進化するトピックに関する私の投稿コラムの簡単な要約については、こちらのリンクを参照されたい。このリンクでは、私がこのテーマについて投稿した100本以上のコラムのうち、約40本を簡単に振り返っている。
この分野が急速に発展しており、得られる利点が非常に大きいことは疑いの余地がないが、同時に、残念ながら、隠れたリスクや明白な落とし穴もこれらの取り組みに伴う。私は、昨年のCBSの「60ミニッツ」のエピソードへの出演を含め、これらの差し迫った問題について頻繁に発言している。リンクはこちらを参照されたい。
メンタルヘルスのためのAIというトピックに初めて触れる方は、この分野に関する私の最近の分析を読むことを検討されたい。この分析では、スタンフォード大学精神医学・行動科学部門のAI4MHと呼ばれる非常に革新的な取り組みについても紹介している。リンクはこちらを参照されたい。
人間のセラピストは人間である
ニューヨーク・タイムズの最近の記事は、メンタルヘルスセラピストのクライアントが、認知アドバイザーが存在しなくなったときに途方に暮れる可能性があることを指摘した。エレン・バリー氏による「セラピールームの幽霊」と題された記事(ニューヨーク・タイムズ、2025年7月24日)は、以下の重要なポイントを示している(抜粋)。
- 「倫理ガイドラインは、心理学者が無能力状態になったり死亡したりした場合に備えて準備を行い、患者にその知らせを伝え、新しいケアを見つけるための執行者を任命することを求めている」
- 「しかし、多くの心理学者がこの作業を先送りにしており、主要な専門団体のいずれもコンプライアンスを監視していない」
- 「セラピストは個人情報の共有に慎重である。彼らが予期せず病気になったり死亡したりすると、その衝撃は打ち砕くようなものになり得る」
- 「メンタルヘルス従事者の高齢化が進む中、専門職内の一握りの活動家たちは、同僚に自らの脆弱性に向き合い、患者を来るべき事態に備えさせるよう促している」
この厳粛な問題について、重要なポイントを考えてみよう。
アリストテレスが厳しく教えたように、すべての人間は死すべき存在である。セラピストがいずれ存在しなくなるというのは、単なる基本的な事実である。早期の兆候がないかもしれない。現実の生活では、予期せぬことが起こる。
一部のセラピストは、その悲惨な可能性を積極的に予測する。彼らはいわゆる専門的遺言を作成する。より正式には、これはPRID(心理学者の反復、無能力化、および死亡)文書と呼ばれることもある。この作成の目的の一部は、クライアントを、亡くなったセラピストの仕事を継続できる他のセラピストに移行させることである。
この事態に備えて計画を立てるセラピストの努力は称賛に値する。自分自身の死と向き合い、患者やクライアントが後にどうなるかを明確に意識することは、確かに困難な作業である。称賛に値する。
現実は厳しい
問題は、そのような計画を立てないセラピストが、クライアントや患者を不適切な困難に陥れることになるということだ。
第一に、クライアントや患者は、セラピストがもはやここにいないことをすぐには知らない可能性がある。より適切で計画的な方法でメッセージが伝えられるのではなく、何らかの回りくどい手段でその知らせを受け取ることは、衝撃となり得る。その人が直面していたメンタルヘルスの問題は、驚くべき知らせによってさらに悪化する可能性がある。彼らは絶望的に見捨てられたと感じるかもしれない。
第二に、クライアントや患者は、次に何をすべきかについて何の見当もつかないかもしれない。別のセラピストを見つけるべきだろうか。それは、信頼していた認知アドバイザーの記憶に対する侮辱の一形態のように思えるだろうか。おそらく、何らかの事前に決められた適切な期間待つべきだろう。誰が同様のセラピーを実施できるのか。他のセラピストは彼らについて何か知っているのか、それとも完全にゼロから始めることになるのか。
第三に、セラピストは、さまざまなクライアントや患者をカバーする手書きのメモや、おそらくデジタルメモや文書を持っている可能性が高い。これらの資料はどうなるのか。資料が世間一般に公開されるとしたらどうなるか。また、影響を受けたクライアントや患者は資料を入手できるのか。別のセラピストが診療を引き継ぐ場合、彼らは資料に無制限にアクセスできるのか。など。
全体として、混乱と混沌は、セラピストを信頼していた人々にかなり厳しい打撃を与える可能性がある。ケアの継続性が失われる可能性がある。感情的な不安定化とメンタルヘルスの混乱が生じる可能性がある。これは、本来避けられたはずの混乱である。
計画が妨げられる可能性
悲しいことに、思慮深いセラピストでさえ、彼らがもはやこの世にいなくなった後に妨げられる可能性がある。
彼らの計画は法的に争われ、長期にわたる法廷闘争につながる可能性がある。その間、クライアントや患者の状況がどうなるかは不明である。要点は、状況が最初から何の準備も残していない場合とほぼ同等になる可能性があるということだ。
別の角度として、セラピストが診療を仲間のセラピストに引き継いだ場合、これがクライアントや患者を移行させる確実な手段であるという保証はない。一部のクライアントや患者は、新たに指定されたセラピストを好まないかもしれない。それは、あるセラピストから別のセラピストに簡単に移せるような人間対人間のつながりではない。
考慮すべき追加の落とし穴がある。
前任のセラピストが残したメモや資料は、引き継ぐセラピストにとってあまり役に立たないかもしれない。おそらく資料は散在しており、一般的に理解不能である。資料が不可解かもしれない。資料が膨大で、新しいセラピストはそれらを精査する時間を無駄にしないことを選択するかもしれない。彼らは、新たに始めるのが最善だと考える。
また、セラピストは世界について独自の哲学を持つ傾向があることも考慮されたい。クライアントや患者を引き受けるセラピストは、前任のセラピストが言ったり結論づけたりしたことを即座に拒否するかもしれない。同様に潜在的に不安なのは、セラピストが前任者の言ったことに固執する可能性があることだ。本質的に、彼らは資料を単に状況を把握する手段として使用するのではなく、メモによって専門的判断が過度に形成されることを許すだろう。
結論として、最初から正直に正しいことをしたにもかかわらず、すべての準備が問題や障害に終わる可能性がある。
メンタルヘルスのためのAI
少し話題を変えよう。
生成AIとLLMの最も顕著で支配的な用途の1つが、AIからメンタルヘルスアドバイスを求めることであることは、おそらくご存じだろう。この傾向を示す調査の分析については、こちらのリンクを参照されたい。ChatGPTだけでも週間アクティブユーザーが約4億人おり、間違いなく、その一部は非常に人気のあるAIをメンタルヘルスガイダンスに熱心に使用している。私の推定については、こちらのリンクを参照されたい。
これは非常に理にかなっている。
AIはいつでもどこでも利用可能である。タイムスロットを予約したり、何らかの物流的な手配をしたりすることなく、ログインして質問を始めることができる。AIは、あなたが望む限り、喜んであなたと会話する。通常、AIの使用は無料であるか、非常に低コストでアクセスできる。
さらに、AIは本質的にあなたを覚えている。ログインするたびに同じ会話を続けるだけであれば、AIが対話の以前の部分を思い出す可能性が高い。これは、コンピュータメモリの制限とAIメーカーがAIをどのように設計したかに左右される。私の議論については、こちらのリンクを参照されたい。
予測では、AIはまもなくほぼ無限のメモリを持つようになる。私の分析については、こちらのリンクを参照されたい。
全体的な要点は、数日後、数週間後、数か月後、そしてほぼ数年後にAIに戻ってきても、以前に行っていた会話のまさにその段階で即座に再開できるということだ。
人間は、たとえまだ生きていても、それを行うことはできない。
永遠のセラピストとしてのAI
考慮すべき啓示は、AIは人間のセラピストのように消滅することはないということだ。AIが突然この地球上で最後の息を引き取ることを心配する必要はない。理論的には、コンピューティングが利用可能である限り、AIは存続する。
それは、人間のセラピストを利用することと比較して、非常に安心できる。
AIベースのセラピーを簡単に脇に置いて、何年も後に戻ってくることができる。心配無用。AIはそこにいる。AIは、あなたが最後に議論していたことの真っ只中にすぐに戻る。まるで時間が止まり、あなたの特定の帰還を待っていたかのようだ。
人間のセラピストがあなたのために手配したかもしれない代替セラピストに対処する必要はない。そのような状況は試練となり得る。あなたは、あなたが誰であり、あなたの状況がどうであるかについて、新しいセラピストに説明しなければならない。おそらく彼らは以前のメモにアクセスできるかもしれないし、できないかもしれない。
AIはより良い選択肢のように思え、セラピストの突然の喪失に対処する必要がないという安心感を提供する。以上、話は終わり。
現実にはもっと多くのことがある
ちょっと待って、話がそこで終わると思い込まないでほしい。
AIは、人々が想定するほど素晴らしい永遠の選択肢ではない。AIメーカーが破産したとしよう。彼らが提供していたAIは閉鎖される可能性がある。ある意味で、AIはスイッチを切られ、二度とオンにされないという一種の「死」を持っていると言えるかもしれない。
発生する可能性のある困難はさらに多くある。
AIメーカーがAIを変更することを決定したと想像してほしい。彼らはメンタルヘルスアドバイスを行う機能を削除する。なぜか。おそらく彼らは訴訟を恐れており、AIがそのようなアドバイスを提供することを排除する方が安全だと判断する。バン、あなたのAIはもはやあなたとメンタルヘルスの側面について議論することを望まない。
別の可能性は、AIメーカーがアップグレードを行い、AIの「記憶」を含むデータベースの一部を誤って消去することだ。あなたがAIと行ったすべてのチャットはもはや保持されていない。あなたはゼロから始める必要がある。
発生する可能性のある1つのシナリオは、AIメーカーが会社またはAIを別の企業に売却することだ。AIを引き継ぐ会社は、サービスを変更し、あらゆる種類の以前の機能とデータを削除することを決定するかもしれない。あなたはAIにログインし、以前の場所に戻ることを期待しているが、以前の対話の断片しか存在しないことに驚く。
そして、あなたのデータに何が起こるかについての苦境がある。あなたのすべてのプロンプトやその他の入力データは、他の会社に引き渡される可能性がある。おそらくそれは、それを収益化することを決定する第三者に販売される。私は、AIをセラピストとして使用する際にプライバシー侵害の大きなリスクを冒していることを繰り返し警告してきた。こちらのリンクを参照されたい。
包括的な悲惨な話は、AIが永遠に続くという信念は、はるかに現実離れした考えであり、より慎重に検討する必要があるということだ。あなたが依存しているAIが1年後、1か月後、1週間後、あるいは1日後にそこにあると無邪気に想定することはできない。
AIの永続性にあなたのマインドフルネスを賭けてはいけない。
リンゴ対オレンジ
人間のセラピストとAIベースのメンタルヘルスセラピーの寿命のこの比較は、他の重要な要素が互いを区別しているため、やや曖昧である。厳密に言えば、リンゴ対リンゴの比較ではない。それはむしろリンゴ対オレンジの対比である。AIをセラピストとして使用することの欠点のリストとともに、私の詳細な比較については、こちらのリンクを参照されたい。
とにかく、重要なポイントは、人生には保証がないということであり、あなたの人間のセラピストが存在するかどうか、またあなたのAIベースのメンタルヘルスアドバイザーが存在するかどうかも含まれる。両方とも制限と制約の対象である。
それが現実世界でのボールの跳ね方だ。
マハトマ・ガンジーは、この賢明なアドバイスを賢く提供した。「明日死ぬかのように生きなさい。永遠に生きるかのように学びなさい」。それを心に留めて、それに応じて準備してほしい。



