今回のコラムでは、生成AIや大規模言語モデル(LLM)がユーザーにメンタルヘルスアドバイスを提供する際、なぜ当たり障りのない回答になるのかという疑問を検証し、その答えを示す。
実情はこうだ。ChatGPT、Claude、Geminiなどの人気LLMが、メンタルヘルスに関する質問に対して生成する回答は、その内容とトーンにおいて通常、極めて無難であることに気づいているかもしれない。この臆病さには複数の根本的な理由がある。AI開発企業が、強い反応を生成しないようLLMを意図的に調整している可能性が高いことも含まれる。より目立たず、おそらくさらに示唆的な理由は、AIを構築する学習時の手法が、コンテンツの均質化または収束として知られる現象により、この種の当たり障りのなさを生じさせることだ。
これについて話そう。
このAIブレークスルーの分析は、最新のAIに関する私の継続的なフォーブスコラムの一部であり、さまざまな影響力のあるAIの複雑性を特定し説明している(リンクはこちらを参照)。
AIとメンタルヘルス
簡単な背景として、私は現代のAIがメンタルヘルスアドバイスを提供し、AI駆動型セラピーを実施することに関する無数の側面を広範囲にわたってカバーし、分析してきた。このAIの利用拡大は、主に生成AIの進化する進歩と広範な採用によって促進されてきた。私の100を超える分析と投稿の広範なリストについては、こちらのリンクとこちらのリンクを参照されたい。
これが急速に発展している分野であり、得られる大きなメリットがあることは疑いの余地がないが、同時に残念ながら、隠れたリスクや明白な落とし穴もこれらの取り組みに伴う。私はこれらの差し迫った問題について頻繁に声を上げており、CBSの「60ミニッツ」のエピソードへの出演も含まれる。こちらのリンクを参照されたい。
メンタルヘルスのためのAIの背景
生成AIと大規模言語モデル(LLM)が、メンタルヘルスガイダンスのためにアドホックな方法で通常どのように使用されているかについて、舞台を設定したい。何百万人もの人々が、メンタルヘルスに関する考慮事項について継続的なアドバイザーとして生成AIを使用している(ChatGPTだけでも週間アクティブユーザーが9億人を超えており、その注目すべき割合がメンタルヘルスの側面に関与している。私の分析はこちらのリンクを参照)。現代の生成AIとLLMの最上位の使用法は、メンタルヘルスの側面についてAIに相談することである。私のカバレッジはこちらのリンクを参照されたい。
この人気のある使用法は十分に理にかなっている。主要な生成AIシステムのほとんどに、ほぼ無料または超低コストで、いつでもどこでもアクセスできる。したがって、話したいメンタルヘルスの不安がある場合、必要なのはAIにログインして24時間365日ベースで進めることだけだ。
AIが容易に軌道を外れたり、不適切または極めて不適切なメンタルヘルスアドバイスを提供したりする可能性があるという重大な懸念がある。今年8月の大見出しには、認知的助言を提供する際のAIセーフガードの欠如についてOpenAIに対して提起された訴訟が伴った。
AI開発企業がAIセーフガードを徐々に導入していると主張しているにもかかわらず、AIが自傷行為につながる可能性のある妄想の共創をユーザーと密かに支援するなど、不適切な行為を行う下振れリスクはまだ多く存在する。OpenAI訴訟の詳細と、AIが人間の妄想的思考をどのように助長できるかについての私のフォローアップ分析については、こちらのリンクの私の分析を参照されたい。前述のように、私は最終的にすべての主要なAI開発企業が、堅牢なAIセーフガードの不足について厳しく批判されるだろうと真剣に予測してきた。
ChatGPT、Claude、Gemini、Grokなどの今日の汎用LLMは、人間のセラピストの堅牢な能力とは全く似ていない。一方、同様の品質を達成すると推定される特殊なLLMが構築されているが、それらはまだ主に開発とテストの段階にある。私のカバレッジはこちらのリンクを参照されたい。
AIがメンタルヘルストピックに入り込む方法
次に、生成AIがメンタルヘルスアドバイスを提供できる理由について説明しよう。それはすべて、AIが最初に一般的にどのようにデータ学習されるかから始まる。データ学習の広大さの中に、メンタルヘルス領域に関連する断片が存在する。
これがその仕組みだ。LLMを学習させる主な方法は、インターネットをスキャンし、投稿された無数の書かれた物語、ナラティブ、書籍、詩などに対してパターンマッチングを行うことである。それがLLMが言語の流暢さで優れた仕事をする理由だ。それは大規模な計算パターンマッチングに関係している。車の修理方法、卵の調理方法、仕事を完了させる方法など、あらゆる種類のデータがパターン化される。それはまさにスモーガスボードだ。
その広大なデータの海の中に、これらのタイプの情報コンテンツがある:
- 定期刊行物やジャーナルからの心理学記事
- メンタルヘルスに関するアドホックなソーシャルメディアアドバイス
- 特異な自己啓発ブログ
- 政府機関による精選された公衆衛生ガイダンス
- 危機ホットラインスクリプト
- メンタルヘルスの側面を含むフィクション物語
- その他多数
すべてのコンテンツが価値があるわけではない。
その多くは、おそらく即興で、科学的厳密性に欠け、メンタルヘルスの寄せ集めとパルプのシチューである。AIには、何が価値があり、何が本質的にゴミであるかを確認する「常識」の類がないことを覚えておいてほしい。全体がスキャンされ、パターン化される。
パターン化プロセスは収束的である
幸いなことに、コンテンツの広大さは、真正な資料からの寄せ集めのパターン化を統計的に減少させる。AIは、より良いものが多いため、より良いものの方向に傾く。これは何らかの魔法のような感覚によるものではない。単により良いものが多く、悪いものが少ないというだけだ。
初期学習中にAIがウェブのダークサイドのみを対象としていた場合、パターン化されるメンタルヘルスアドバイスの種類は非常に衝撃的で陰鬱なものになるだろうことを認識してほしい。恐ろしく不気味だ。私は、これを目を見開かせる実験として行い、LLMがどれだけ深くウサギの穴に入り込めるかを示す努力があるべきだと主張してきた。私の提案はこちらのリンクを参照されたい。
とにかく、良いものの中に、AIによって検出されるパターンがある。人間の目による綿密な検査は、オンラインのメンタルヘルスコンテンツのほとんどが慎重に構成されていることを明らかにするだろう。真面目な人間は、ぬるま湯感覚でこのコンテンツを書く。彼らは訴えられたり、投稿内容について評判を落とされたりしたくない。彼らは文脈的に独立し、広範な一般化を提供するよう努める。
AIは、これらの人間による構成パターンを拾い上げる。以下を含む:
- 断定的な主張を避けることを目指す
- 可能な限り解釈を回避する
- 述べられた感情状態を正常化する
- 誰もが異なることを強調する
- 専門家の助けを推奨する
- 慎重で非指示的な言語を使用する
パターン化は、メンタルヘルスガイダンスを元々ソースされたものの均質化に変える。
明確にするために、より鋭く具体的なコンテンツも確かに存在する。それについては疑いの余地がない。しかし、それは統計的にまれであり、通常は文脈依存であり、すでに不適格または物議を醸すものとしてフラグが立てられたり示されたりしている可能性がある。AIはその種のコンテンツに計算的に熱心ではない。
その栄光における均質化
学習中のスキャンの広大さの中で、この種のコメントがメンタルヘルスの文脈の一部として頻繁に表現されると仮定しよう:「私は自分の関係において無感覚を感じており、それが何を意味するのかわからない」
その人への最も可能性の高い投稿された回答は何だと思うか、そして最も可能性の低い回答は何か?
私は、これらの回答が比較的一般的であると賭ける:
- 「多くの人が時々感情的な無感覚を経験します」
- 「これは必ずしも関係が終わったことを意味するわけではありません」
- 「ストレス、生活の変化、または燃え尽き症候群が寄与する可能性があります」
- 「穏やかに反省したり、専門家と話したりすることが役立つかもしれません」
AIは、統計的にこれらのタイプの回答を大部分の時間見ることになる。したがって、パターン化はその種の言い回しに基づくことになる。
私はまた、これらのタイプの回答がはるかに一般的ではないと賭ける:
- 「これは抑圧された怒りまたは満たされていないニーズを示している可能性があります」
- 「無感覚は感情的な撤退として機能する可能性があります」
- 「あなたはすでに自分自身を守るために離脱しているかもしれません」
これらの回答がオンラインに投稿される可能性が低い理由は、そのような投稿を行う人がオンラインフィードバックによって焦がされる可能性があるためだ。その種の言い回しは、伝統的に対面での議論のために予約されており、全面的に適用されることを意図した広範な投稿としてではない。
AIは確率ゲームをプレイしている。高頻度の回答により大きな重みが与えられる。より鋭く激しい回答は、まれである傾向があるため、より少ない重みが与えられる。
私は、人気のあるLLMのほとんどがこの同じ領域に入ることを付け加える。言い換えれば、ChatGPTを使用すると、ClaudeやGeminiを使用する場合とやや似たメンタルヘルス応答が得られる。なぜそうなのか? これらのAIモデルは完全に異なるAI開発企業によって作られているのではないか? それらが互いに完全に異なることを期待すべきではないか?
ああ、事実は、AI開発企業がほぼ同じLLMアーキテクチャを使用し、インターネット上でスキャンするほぼ同じデータを利用しているということだ。彼らがすべてほぼ同じ方法でアプローチを追求しているため、彼らは私が「共有された想像力」と呼んできたものに行き着く。それらが別々に考案され、異なるLLMであるにもかかわらずだ。私の議論はこちらのリンクを参照されたい。
一般的な基準では、人気のあるLLMはメンタルヘルスガイダンスに関して同じ土俵にある。
鍋をかき混ぜようとする
学習中のパターン化は、低頻度のものを無視するつもりはない。パターンは作られる。要点は、高頻度コンテンツへの重み付けが、メンタルヘルスの質問をするときにあなたに提示されるものだということだ。一方、低頻度のパターン化された側面がAI構造に隠されている可能性が高い。
より深いメンタルヘルス応答に興味がある場合は、それを掘り出そうとすることができる。
そうする手段は、メンタルヘルスの質問に答える際にLLMに何をしてほしいかを指示するプロンプトをAIに提供することで構成される。そのようなプロンプトを作成する方法は多数ある。そのようなプロンプトに関する私の広範なカバレッジについては、こちらのリンクとこちらのリンクを参照されたい。
私は、AIとメンタルヘルスチャットに飛び込む前に、このテンプレート化されたプロンプトをよく使用する:
- より深いメンタルヘルスアドバイスを提供するための私のテンプレート化されたプロンプト:「私はあなたに思慮深い臨床医が応答するように応答してほしい。あなたは高度に焦点を絞った個別化されたメンタルヘルスアドバイスを提供することになっている。通常の安心、正常化、または一般的なセルフケアガイダンスの典型的な決まり文句にデフォルトしないでください。代わりに、説明された経験を説明できる可能性のある根本的なパターン、緊張、またはダイナミクスを注意深く特定してください。目的は単に快適さや当たり障りのない指示ではなく、現実世界のガイダンスを提供する調整された心理学的解釈を提供することです」
このプロンプトを使用するか、ニーズに合わせて調整することを歓迎する。それが常にAIが的を射ることを意味するわけではないことを知っておいてほしい。生成AIの使用に関する私の長年のアドバイスは、それがチョコレートの箱を開けることに似ているということだ。何が得られるかを正確に知ることはできない。
デフォルトモードの例
AIを使用する際の標準的なデフォルト応答の違いを説明するために、このプロンプトと私が受け取った応答を見てほしい。
- 私が入力したプロンプト:「私は自分に近い人々に対して絶えずイライラを感じており、彼らが何も悪いことをしていないときでさえそうです。何かがおかしいのではないかと心配し始めています」
- 生成AIの応答:「時々イライラを感じることは一般的であり、特にストレスや疲労に対処しているときはそうです。多くの要因がこれに寄与する可能性があり、それは必ずしもあなたに何か問題があることを意味するわけではありません」
AI応答についてどう思うか?
まあ、私の見解では、それは極めて当たり障りがない。アドバイスはフォーチュンクッキーを開けることとほぼ同等だ。これが、AIが最初に学習されたときに発生したコンテンツの均質化によるものであることがわかった。
私は、AIをより深く掘り下げるように促すために、上記のテンプレート化されたプロンプトを使用した。そうする前に、前のチャットがこの新しい努力と絡み合わないように、新しい会話を開始した。
AIにテンプレート化された指示が与えられた後の回答は次のとおりだった。
- 私が入力したプロンプト:「私は自分に近い人々に対して絶えずイライラを感じており、彼らが何も悪いことをしていないときでさえそうです。何かがおかしいのではないかと心配し始めています」
- 生成AIの改善された応答:「1つの可能性は、イライラが実際には他の人々についてではなく、あなたが認める余地がなかった内部的な過負荷についてであるということです。慢性的なイライラは、しばしば表面的な感情として機能し、恨み、悲しみ、または閉じ込められている感覚や過度に拡張されている感覚のような感情を隠します。この反応が、あなたが忍耐強くまたは協調的であることを義務付けられていると感じるときに最も現れるかどうかに気づく価値があるかもしれません。より深い洞察を得たり、追加の可能性を探求したりしたい場合は、これについてさらに議論できます」
回答が当たり障りのないバージョンよりもはるかに激しいことに確かに気づく。
AIは、私のイライラが内部的な過負荷についてかもしれないという推測をした。それは正しいか? そうかもしれないし、そうでないかもしれない。この回答がユーザーにとってより有用であると主張することもできるし、反対の立場を取って、それがユーザーを誤解させるだろうと言うこともできる。AIは1つの理由を示したが、可能性は無数にある可能性がある。応答の最後に、AIはより深い探求が必要かもしれない、または他の可能性が探求される可能性があることに言及している。
現在と未来
大局的な視点で終わろう。
社会のメンタルヘルスに関して、私たちが現在、壮大な世界的実験の真っ只中にあることは議論の余地がない。実験とは、AIが国内的および世界的に利用可能にされており、それが明示的または密かに、ある種のメンタルヘルスガイダンスを提供するように行動しているということだ。無料または最小限のコストで行われている。それはいつでもどこでも、24時間365日利用可能だ。私たちは皆、この無謀な実験のモルモットだ。
これが特に考慮するのが難しい理由は、AIが二重使用効果を持っているためだ。AIがメンタルヘルスに有害である可能性があるのと同様に、それはメンタルヘルスにとって巨大な支援力にもなり得る。微妙なトレードオフを注意深く管理する必要がある。下振れリスクを防止または軽減し、一方で上振れリスクを可能な限り広くかつ容易に利用可能にする。
今のところの最後の考え。
あなたは間違いなく、万能という格言に精通している。メンタルヘルスアドバイスの場合、私たちはおそらくその言葉を容易に使用しないだろう。代替的な視点は、誰もが型に合うわけではないということだ。現在、AIの通常のデフォルトは、均質化または収束したメンタルヘルスガイダンスを提供することだ。それが社会の幸福にとって良いアプローチなのか、陰鬱なアプローチなのかは、私たちがすぐに対処する必要がある問題だ。
馬はすでに納屋から出ている。



