今回のコラムでは、AIをメンタルヘルス療法に活用することについて、十分な議論がなされているかという問いに取り組む。この問いは、公共の場でメンタルヘルス全般について議論が多すぎるのか、それとも不足しているのかという類似の疑問に部分的に触発されたものだ。
AI側の観点から言えば、私の見解では、AIのメンタルヘルスへの活用とその影響について、特に急速に拡大している生成AIと大規模言語モデル(LLM)の役割について、より多くの議論が必要だと考えている。さらに、語られる内容は混乱や誤解を招くのではなく、特に思慮深く洞察に富んだものであるべきだ。
この点について話し合ってみよう。
このAIブレークスルーの分析は、私が継続的に行っているForbesコラムの一部であり、様々な影響力のあるAIの複雑さを特定し説明している(リンクはこちら)。
AIとメンタルヘルス療法
簡単な背景として、私はメンタルヘルスのアドバイスを提供し、AI主導の療法を実行する現代のAIの出現に関する多様な側面を広範囲にわたって取り上げ、分析してきた。このAIの活用の増加は、主に生成AIの進化と広範な採用によって促進されてきた。この進化するトピックに関する私の投稿コラムの簡単な要約については、リンクはこちらを参照してほしい。これは、私がこのテーマについて投稿した100以上のコラムのうち約40のコラムを簡潔にまとめたものだ。
これが急速に発展している分野であり、大きな可能性があることは間違いないが、同時に残念ながら、隠れたリスクや明らかな落とし穴もこれらの取り組みに伴う。私はこれらの差し迫った問題について頻繁に発言しており、昨年のCBSの「60ミニッツ」のエピソードでの出演も含まれる(リンクはこちら)。
メンタルヘルスのためのAIというトピックに初めて触れる方は、この分野に関する私の最近の分析を読むことをお勧めする。これには、スタンフォード大学精神医学・行動科学部門で行われているAI4MHと呼ばれる非常に革新的な取り組みも紹介されている(リンクはこちら)。
メンタルヘルス全般について語ること
Psychiatry Onlineの最近の社説では、メンタルヘルスについて語ることが危険かどうかという厄介な問題に取り組んでいる。
なぜ社会のメンタルヘルスについて議論することが問題になるのだろうか?
一部の人々は、そうすることで、メンタルヘルスというトピックを持ち出さない選択をするよりも、より多くの一般市民が自分にはメンタルヘルスの問題があると信じるようになると主張している。つまり、このトピックについて議論することが人々をメンタルヘルス疾患へと導くならば、静かにしているか、少なくとも控えめにして、小石が最終的に山の斜面を轟音を立てて転がり落ちるようなことを始めないほうがよいという計算が成り立つのだ。
この論争的なトピックに取り組んだ意見記事は、「私たちはメンタルヘルス疾患について話しすぎているのか?」(ダニエル・モアヘッド著、Psychiatry Online、2025年3月28日)というタイトルで、以下のような重要な点を指摘している(抜粋):
- 「ニューヨーク・タイムズの記事によると、増加する研究者たちは、メンタルヘルス啓発キャンペーンは一般市民の教育に役立つ一方で、軽度の症状を持つ人々がストレスを過剰に解釈し、過剰に診断することにもつながる可能性があると示唆している。これが結果的に、より多くの苦痛、恐怖、そして通常の生活を送ることへの躊躇を引き起こす可能性がある。」
- 「メンタルヘルス疾患は驚くほど一般的で破壊的であり、悲しいほど治療が不足している。本当にそれについて話しすぎることがあり得るのだろうか?」
- 「私たちはメンタルヘルスについて話しすぎているわけではない。」
- 「私たちはメンタルヘルスについて、あまりにも知識が少ないまま話している。」
- 「人類の歴史上初めて、メンタルヘルスが重要であるという広範な認識がある。これは精神医学とメンタルヘルスを支援するすべての人々にとって大きな成果である。今日、大多数の一般市民はメンタルヘルスを支持している。たとえ彼らが何を支持しているのかを正確に理解していなくても。私たちはこの歴史的に貴重な機会を無駄にすべきではない。」
この社説が、メンタルヘルスについての継続的な議論があるべきだと強調していることは明らかだが、重要な但し書きがある。その但し書きとは、そのような会話は適切に情報を得て、有益なものである必要があるということだ。本当の危険は、メンタルヘルスの本質を誤って伝え、一般市民を誤った、そして潜在的に有害な道へと導くような話を広めることかもしれない。
メンタルヘルスのためのAI
話題を変えて、関連する疑問として、メンタルヘルスのためのAIの使用について私たちが話しすぎているかどうかという問題がある。
どういうことだろうか?
最新のニュース見出しを見れば、チャットボットに恋をする人々や、生成AIを瞬間ごとにAI主導のセラピストとして使用する人々に関連する多くの報道が見られる。メンタルヘルスにおけるAIに関するオンラインとオフラインの会話は豊富にある。
この絶え間ない会話の一つの側面は、それがより多くの人々にメンタルヘルスのニーズにAIを利用するよう促していることだ。これは自己増殖する現象だ。このトピックが正常化されればされるほど、より多くの人々が自分自身で試してみる誘惑に駆られる。報道で警告や不吉な兆候が指摘されているにもかかわらず、少しずつ、人々はメンタルヘルスのためにAIを求めるよう本質的に触発されている。
それは良い結果なのか、それとも悪い結果なのか?
もしこの種のAI使用の拡大が悪いものであれば、その問題について話すのをやめるべきだという考え方がある。それを避けるべきだ。徐々に、人々はその問題が人気を博し、さらに人気を得ていたことを忘れるだろう。人生の多くの流行と同様に、この場合の使用は必然的に減少するだろう。
獣の角をつかむ
私は、メンタルヘルスについて話しすぎているのではなく、言われていることが有用で実用的な洞察を提供することを確実にする必要があるとしたPsychiatry Onlineの社説に同意する傾向がある。AIとメンタルヘルスについて議論することも同様だ。
確かに、メンタルヘルスのためのAIについて議論する必要があり、同様に、言われていることが正しいものであることを確実にする必要がある。メンタルヘルスのためのAIについての話を正しく伝えることを目指そう。ここでいくつかのハイライトを紹介する。
まず、なぜ多くの人々がメンタルヘルスアドバイザーとしてAIに向かっているのかを認識する必要がある。事実として、メンタルヘルスの専門家の供給が不足している。心理的ガイダンスに対する社会的需要は、利用可能なセラピストの供給を容易に上回っている。
対照的に、AIはほぼスケールアップ可能なオプションであり、追加のコンピューターサーバーが簡単にラックに設置され、すぐに使用できるため、利用可能性が尽きることはない。
第二に、人間対人間の療法のコストは、専門的な療法を容易に負担できない人々にとってしばしば手の届かないものである。手頃な価格は厄介な考慮事項だ。請求可能な時間やその他の料金が絡んでくる。もちろん、セラピストは彼らの勇敢な仕事に対して十分に報酬を受けるに値する。しかし、コストは上昇し続け、あらゆる種類の追加料金が急増している要素のようだ。また、療法はほぼ無期限に続く可能性がある。クライアントや患者による生涯にわたるドル投資は潜在的に驚異的だ。
現代の生成AIとLLMは通常、無料または非常に低コストで利用可能だ。AI対人間の療法は非常に手頃な価格だ。
第三に、人間のセラピストとの交流は物流上の課題となりうる。訪問をスケジュールする必要がある。時間枠を取得するには待機が必要かもしれない。その交流がクライアントや患者側よりもセラピスト側の選択による時間に行われる可能性が高い。つまり、平日や従来の勤務時間内だ。
AIへのアクセスはどこでもいつでも可能だ。土曜日の午前2時にログインしても、予約を取る必要はなく、誰かを起こすことを心配する必要もない。
コインの裏側
メンタルヘルスのアドバイスにAIを頼ることの明らかな利点は価値ある利益だが、複雑な代償が伴う。メンタルヘルスにAIを使用することに関するいくつかの懸念を考えてみよう。
まず、既存の一般的な生成AIはメンタルヘルス療法を行うように調整されていない。人々は、日常的なさまざまなタスクを支援するために使用する生成AIが、メンタルヘルスのアドバイスを与えるために調整されていないことを認識していないようだ。AI開発者たちはウィンクを送るようなものであり、AIをメンタルヘルスに使用することについて、ライセンス契約でその目的のためにAIを使用すべきではないと述べるなど、微妙な注意を含めることが多い。これは古典的でやや狡猾な自己防衛アプローチだ。
現実には、ウィンクのような警告に気づく人はほとんどおらず、AIのオンラインライセンスのどこかに埋もれている言葉に気づいている人はさらに少ない。この厄介な側面についての詳細は、リンクはこちらでの私の議論を参照してほしい。
第二に、メンタルヘルス療法に適した調整された生成AIはまだ進行中の作業だ。研究者と実践者は、生成AIのように流暢でありながら、予測可能で信頼性のあるメンタルヘルスのためのAIを構築するために懸命に努力している。以前、そのようなAIは主にルールやエキスパートシステム機能の使用によって構成されていた(リンクはこちらでの私の分析を参照)。それらは決定論的であり、徹底的にテストすることができた。生成AIとLLMは本質的に非決定論的であり、統計とランダム性を使用して創造的で人間らしく見せている。
非決定論の根本的な問題に対処しようとする生成AIへのアドオンがある。他の人々は、メンタルヘルスのためのAIを一から構築することを選択し、基礎からAIメンタルヘルスのために形作られたAI基盤モデルを作成している。リンクはこちらでの私の議論を参照してほしい。
三位一体が手元にある
人間対人間の治療サービスを提供する課題と、既存の、しかし散発的なAI対人間アプローチの利点との間のブレンドを見つける必要がある。そのようなアプローチの一つが、私がセラピスト-AI-クライアントの三位一体と呼んでいるものだ。これは伝統的な二人組または二者関係であるセラピスト-クライアント関係の格上げだ。
要点は、セラピストが意図的かつ賢明にAIをガイダンス実践に組み込むことを選択できるということだ。そうすることで、彼らのクライアントや患者は両方の世界の最良の部分を得る。セラピストとの会議は依然として人間対人間の経験だ。一方、その人がセラピストとの限られた時間外に助けを必要とするとき、彼らはセラピストによって慎重に選択され推奨されたAIに飛び込む。
セラピスト-AI-クライアントの新しい三位一体についての詳細は、リンクはこちらでの私の詳細な議論を参照してほしい。
注意すべき点は、もし管理が不十分であれば、セラピスト-AI-クライアントの三位一体は全ての世界の最悪の状態になる可能性があるということだ。それはこのようになる。セラピストはAIの側面について本当に気にせず、クライアントがAIを使用すべきだという手振りだけをする。クライアントは自分のメンタルヘルスのニーズのためにAIを無謀に使用し始める。セラピストとクライアントが一緒になると、彼らの人間対人間の時間の大部分は、AIが何をすべきだと言ったかとセラピストが何をすべきだと言っているかについての議論に費やされる。最終的に、人間対人間とAI対人間のアドバイスは、関係するすべての人の不利益になるように交差する。
良くない。
要点は、セラピスト-AI-クライアントの三位一体は、セラピストが決意と思慮深いアプローチを取る場合にのみ機能するということだ。緩んだり無関心だったりしては役に立たない。
正しく話し続ける
メンタルヘルスのためのAIの難問に対して、より多くの目と耳があるほど良い。
一般的な生成AIを使用するとき、彼らがある種のモルモットのように、大規模で計画されておらず、無制限の実験に自発的に参加していることを知っている人はほとんどいない。メンタルヘルスアドバイザーとしての一般的なLLMの使用が長期的に何をもたらすのかはわからない。人口規模の影響はどうなるだろうか?
残念ながら、時間だけが教えてくれるだろう。
一つの熱心な主張は、何もないよりは何かがあるほうが良いということだ。つまり、人々が従来の手段で療法を受ける合理的なチャンスがない場合、AIを使用することは、それが現時点でどれほど不完全または浅いものであっても、彼らが療法の外観を得るチャンスだということだ。関連する懸念は、作り話を発することや、いわゆるAIの幻覚、そして過度に追従的であることなどの厄介な問題的な問題であり、一般的なAIは他の問題を解決しながら、潜在的に新しい問題を蒔いている。
今のところ最後の考えを述べよう。
グレン・クローズは、メンタルヘルスについてこの鋭い発言を有名に述べた:「メンタルヘルスに必要なのは、より多くの日光、より多くの率直さ、より多くの恥じることのない会話だ。」私はその力強いコメントに敬意を表したい。
同様のトーンに基づいて、メンタルヘルスのためのAIに必要なのは、明るい日光、豊富な率直さ、そしてこの刺激的な技術の使用が向かっている厄介でますます重要な方向性についての、より率直で真実の会話だと提案したい。



