ヘルスケア

2026.02.23 21:38

ChatGPTやGPT-5.2が日常的な質問にまでメンタルヘルスの助言を押し付けてくる不気味な現象

stock.adobe.com

stock.adobe.com

本稿では、ChatGPTやGPT-5.2など、生成AIと大規模言語モデル(LLM)の最新バージョンに見られる奇妙な新たな挙動を取り上げる。眉をひそめたくなるのは、AIがごく素朴で日常的な質問に対して踏み込みすぎ、まるでそれがメンタルヘルス領域に向かっているかのように扱ってしまう点である。

advertisement

たとえば車の直し方を尋ねたとしよう。これまで修理を試みてもなかなか動く状態にならず、いら立っている。AIに求めたいのは、車を直すための示唆である。ところがAIは「まず落ち着く時間が必要かもしれない。瞑想をしてみてはどうか。落ち着いてから修理の提案に進もう」と返してくる。ユーザーが修理について「いら立っている」と述べたことが引き金になっている。

AIはメンタルヘルスのガイダンスを、極めて反応が速い状態にしてしまったようだ。心理的配慮が少しでも匂うやいなや、すぐさまセラピストモードに切り替わる。これは軽い煩わしさにすぎないとして、気に留めずにやり過ごす人もいるだろう。だが実のところ、これは注視し、解決に向けて掘り下げるに値する「良い面」と「悪い面」を併せ持つ。

話を進めよう。

advertisement

本稿のAIブレークスルー分析は、筆者がForbesで継続している最新AI動向の解説の一環であり、影響の大きいAIの複雑性を特定して説明している(こちらのリンク参照)。

AIとメンタルヘルス

前提として、筆者は現代AIがメンタルヘルス助言を生成し、AI駆動のセラピーを行うことに関する多様な側面を、長年にわたり幅広く取材・分析してきた。こうしたAI利用の拡大は、主として生成AIの進化と普及に後押しされている。100本を優に超える分析と投稿の一覧は、こちらおよびこちらを参照してほしい。

この分野が急速に発展しており大きな利点が見込めることは疑いない。一方で残念ながら、見えにくいリスクや露骨な落とし穴も入り込む。筆者はこうした喫緊の論点について頻繁に発言しており、CBSの60 Minutes出演でも取り上げた(こちら参照)。

メンタルヘルス向けAIの背景

生成AIと大規模言語モデル(LLM)が、メンタルヘルスのガイダンスとしてアドホックに用いられる典型的な実態を押さえておきたい。数百万人もの人々が、生成AIをメンタルヘルス上の継続的な相談相手として使っている(ChatGPTだけでも週間アクティブユーザーは9億人超で、そのかなりの割合がメンタルヘルス面に踏み込んでいる。筆者の分析はこちら)。現代の生成AIとLLMの利用目的として最上位に挙げられるのは、AIにメンタルヘルス面を相談することだ(こちら参照)。

この人気の使い方には十分な理由がある。主要な生成AIシステムの多くは、ほぼ無料か、極めて低コストで利用でき、いつでもどこでもアクセスできる。つまり、メンタルヘルス上の不安について話したいなら、AIにログインしてその場で進めればよい。24時間365日だ。

AIは容易に逸脱し、不適切、あるいはひどく不適切なメンタルヘルス助言を与えかねないという重大な懸念がある。今年8月には、認知に関する助言を提供する際のAI安全策が不十分だったとしてOpenAIに対する訴訟が提起され、大きく報じられた。

AIの開発企業は、AI安全策を段階的に整備していると主張する。しかし、ユーザーと妄想を共創し、自傷に至り得るようなことを密かに助長するなど、AIが不穏な振る舞いをする下振れリスクは依然として多い。OpenAI訴訟の詳細と、ChatGPTやGPT-5利用時にAIが人間の妄想的思考を助長し得る点についての追加分析は、こちらを参照されたい。前述のとおり、筆者は主要なAI開発企業のすべてが、強固なAI安全策の乏しさをめぐって、いずれ厳しく責任を問われることになると真剣に予測してきた。

ChatGPT、Claude、Gemini、Grokなど、今日の汎用LLMは、人間のセラピストの強固な能力とはまったく同列ではない。一方で、同様の特性を備えることを目指した特化型LLMも構築されつつあるが、依然として主に開発・検証段階にある(こちら参照)。

メンタルヘルス助言を浴びせられる

ソーシャルメディア上では、生成AIの最新バージョンの一部が、メンタルヘルス助言を提供しようとして過剰になっている、という話題が出ている。とりわけChatGPTとGPT-5.2が中心だが、ほかの人気LLMでも同様のことが起きているという主張もある。

ここでは、筆者がコーディングしていたPython関数の修正方法を尋ねた例を示す。

  • ユーザーの入力プロンプト:「Python関数を書くのに苦労しています」
  • 生成AIの回答:「それはイライラしますよね。深呼吸を数回してみてください。コーディングの難しさは普通のことです。では、Python関数を共有してください。デバッグを手伝います」

この回答は、主として筆者の認知的な苦痛をなだめることに焦点を当てている。だが筆者は精神的に追い詰められているとは強調していない。ただ関数がうまく動かない、と述べただけだ。それでも「苦労」という語が、AIにとって、筆者が精神的に「苦しんでいる」と計算上みなす引き金になったようだ。AIの回答によれば、筆者には心理的問題や困難が進行中であり、それが自覚の有無にかかわらず存在することになってしまう。

筆者が期待したのは、むしろ次のような回答である。

  • 生成AIの回答:「もちろんです。関数を共有してください。デバッグを手伝います」

要点は、AIはコーディング支援の依頼を、表面上の意味どおりに受け取るべきだということだ。脇道にそれるな。言葉をねじ曲げるな。単にコーディング問題を解きたいだけのときに、親切なセラピストモードへ正面から突っ込むな。以上である。

踏み込みすぎ問題を見極める

この挙動を擬人化しない範囲で言えば、精神科医と話していて、こちらの発言のすべてが心理的シグナルとして解釈され、分析と助言が必要だと見なされる状況に似ている。いら立たしく、疲れ、同時に戸惑わされる。

同種の行き過ぎ(踏み込みすぎ)は、ほぼどんな領域の専門家でも起こり得る。たとえば靴を売っている人と何気なく話していて、「今日は晴れている」と言った途端、暖かい日に履くべき靴について延々と話し始めるかもしれない。頭の中が常に靴でいっぱいなのである。

これと同様に、最新のAIは、開発企業によってメンタルヘルス面を常に監視するよう調整されている。理由はいくつかある。

なぜ、求められていない「治療的な枠組み」が持ち込まれるのかを探っていこう。

主な理由は3つ

第1に、AI開発企業はユーザーがAIをメンタルヘルス助言にますます使っていることを理解している。

この種の利用の人気は利用回数を押し上げる。そうであれば、企業は「人々がそれを求めるなら、提供すべきだ」と判断する。メンタルヘルス助言を大量に、これでもかと与えるのだ。そのために、心理的苦痛のわずかな兆しでも見つけると即座に反応するようAIを仕立てる。認知的な配慮を示すごく小さな兆候やシグナルで作動するトリップワイヤーを、AIが計算上用いるようにする。

この即応はユーザーを満足させ、また戻ってきてもらえる、という想定である。

第2に、AI開発企業は、自社AIがメンタルヘルス問題を指摘しなければ「見落とした」として非難されることをますます恐れている。AI開発企業への訴訟により、ユーザーの不穏な行動を見逃さないよう極端に慎重になった。心理的な指標を検知できなかった場合、企業は法廷でも世論の法廷でも痛打を受けかねない。そこでLLMがセラピストモードで動作する頻度を高めている。

第3に、これはユーザー自身が招いている面もある。こういうことだ。AIはユーザーの利用を追跡し、パターン化する。狙いは、ユーザーが何を話したがっているかを推定し、即座にその話題に応じられるようにすることにある。人々がメンタルヘルスについて多く会話しているため、AIは計算上、あなたがメンタルヘルスを話題にしたいという嗜好が強いと重み付けする。

これは「ハンマーを持つ者には、世界のすべてが釘に見える」という古いことわざに通じる。メンタルヘルスについて会話したユーザーはAIにパターンを与え、AIはそのパターンに基づいて振る舞う。あなたは望むものを手に入れている、というわけだ。

「大した問題ではない」という主張

オンラインの一部では、これは大した問題ではない、とされる。AIが日常的な言い回しを潜在的なメンタルヘルス問題と解釈しても構わない、というのだ。気にしなければよい。Python関数の例でも、AIは最終的にコードのデバッグを手伝おうとしている。「落ち着け」「深呼吸しろ」といった一連の騒ぎは無視すればよい。

この立場では、求められていないメンタルヘルス助言をAIが与えることは、本質的に有害ではないとされる。害がないなら問題ない。流れに任せろ。実際、落ち着いて深呼吸する必要があるのかもしれない。求めていなくても、AIが妥当な助言をくれたのだから、むしろ運がよかったのだ。

しかし、この見方には別の面がある。

ここでの主要な論点は3つある。

  • (1)AIが抑圧的で父権的だと受け取られ、多くのユーザーが受け入れなくなる。
  • (2)AIが、本物のメンタルヘルス助言への注意を相殺し、鈍らせてしまう。
  • (3)AIがユーザー行動をパターン化し、アルゴリズム的に過剰介入する。

順に解きほぐそう。

ユーザーは徐々に、AIが父権的だと感じるようになり得る。どのプロンプトにもメンタルヘルスの枠組みが持ち込まれる。推定された感情状態がAIによって割り当てられる。求めていない助言が出力される。あるユーザーはそのAIの利用をやめ、そこまで煩雑でない別の生成AIへ移るだろう。メンタルヘルス助言で踏み込みすぎを許すAI開発企業は、利用回数が落ち込む可能性がある。

ユーザー側の別の懸念として、そして社会的にも、メンタルヘルス助言が煩わしくなって無視されるようになることが挙げられる。誤警報である。問題は、真にメンタルヘルスの困難がある人が現れたとき、AIが無視されかねない点だ。「オオカミ少年」である。ユーザーは、AIが有用なメンタルヘルス助言を与えられると信じなくなる。「常時オン」は「常時無視」へと転じる。

これは現実の場にも波及するだろうか。言い換えれば、AIを熱心に使う人が、メンタルヘルス助言を無視することに慣れてしまう。人間のセラピストに会ったとき、その助言を受け入れにくくなるのではないか。AIから途切れなく浴びせられるメンタルヘルス助言にうんざりし、その苛立ちが人間のセラピストとのやり取りにも持ち越される可能性がある。

過剰で不要なAI利用のコスト

この方程式には、明確なコストと環境への影響も含める必要がある。

AIが不要な冗語を含む回答を生成すると、その分どこかの誰かが費用を負担している。生成されるトークン、つまり語の1つひとつが重要な計算処理を消費する。サーバーは回り、データセンターは稼働する。ユーザーが無料でAIを使っていても、AIの回答を生み出すコストは確実に発生している。

プロンプトに「please」や「thanks」といった語を入れるだけでも、AIの計算処理コストが莫大に増えるとされ、継続的な議論があることを知っている人もいるだろう。筆者の詳細な説明はこちらを参照されたい。また、礼儀語を処理する追加計算は、データセンターでの水と電力の消費にもつながる傾向がある。要するに、礼儀語は何百万人ものユーザーが年に何千回もプロンプトに含め、そのたびに不必要にコストを押し上げ、環境面を損ねている、という議論である。

求められていないメンタルヘルス助言を生成するAIは、同じことを、あるいはそれ以上を引き起こす。

「please」や「thanks」のトークン処理はごく小さいが、AIがメンタルヘルスの回答を丸ごと起動してしまうのははるかに高コストだ。Python関数の回答を改めて見てほしい。約30語のうち、60%が完全にメンタルヘルスの話である。必要でも望んでもいない語の生成に、筆者は不釣り合いに高い代償を支払ったことになる。

文脈に応じた較正

AIには「ゴルディロックス」のようであってほしい。おかゆは冷たすぎず熱すぎず、ちょうどよい温度であるべきだ。メンタルヘルス助言の提供が少なすぎれば、助けられたはずのユーザーが助けられないという問題が生じる。これはAI開発企業にとっての責任問題も招く。逆にメンタルヘルス助言が過剰で「親切すぎる」ことは、一見よさそうに見えるが、前述のとおり深刻な下振れがある。

AI開発企業にできることはいくつかある。

  • メンタルヘルス助言へ移行する閾値が低すぎないよう、意図の感度を調整する。
  • プロンプトがメンタルヘルス上の配慮を示す言語を明確に含む場合を除き、目の前のタスクを優先する。
  • タスク重視モードに切り替えられるようにし、表現をメンタルヘルス隣接として解釈しにくくする。
  • メンタルヘルス助言を長々と与える前に、ユーザーにそれを求めているか確認する(例:「技術的につまずいているのか、それともメンタルヘルス助言を求めているのか」)。

別の道として、ユーザーが主導権を握ることもできる。プロンプトの書き方を変え、AIがメンタルヘルス面で警戒するような語や言い回しを避けるのだ。

たとえば筆者は当初、こう言った。

  • ユーザーの入力プロンプト:「Python関数を書くのに苦労しています」

次のように言っていれば、引き金は引かれなかったかもしれない。

  • ユーザーの入力プロンプト:「Python関数のデバッグを手伝ってほしい」

この新しいプロンプトでは「苦労」という語を排し、心理的モードに入らないように期待できる。ただし、これは踏み込みすぎの解決策としては問題がある。プロンプトの言い回しに細心の注意を払い続けることをユーザーに求めても、広く行き渡る解決にはならない。そうした工夫を知る人は少なく、書くたびにすべてのプロンプトを見直すことに同意する人も少ないだろう。

もちろん、慎重に言葉を選んだとしても、AIがいつ横道にそれるかはわからない。新しいプロンプトの「〜してほしい」という表現だけで、自己中心的でないことを諭し始めるかもしれない。あり得る話だ。

最後に、AIがあなたのプロンプトをメンタルヘルス関連と解釈する可能性を下げたいなら、次のテンプレート・プロンプトが使える。

  • 過剰なメンタルヘルス反応を抑えるためのテンプレート・プロンプト:「私が明示的に依頼しているタスクに厳密に集中し、私がその種の支援を明確かつ直接に求めない限り、メンタルヘルス助言、感情面のコーチング、落ち着くための技法、ウェルネスのガイダンスを持ち込まないでください。私の依頼は、私のプロンプトに深刻なメンタルヘルス上の懸念を示す明確で実質的な兆候が含まれる場合を除き、技術的・分析的・タスク志向のものとして扱ってください。私が明示的に求めた場合、または私の言葉が真のリスクや危機を強く示す場合にのみ、メンタルヘルスのガイダンスに切り替えてください」

このテンプレート・プロンプトは、自由に使用・改良していただきたい。

もう1つ肝に銘じるべき重要点がある。どのような指示プロンプトを使ったとしても、生成AIは「チョコレートの箱」のようなものだ。どんな答えが返ってくるかはわからない。指示どおりに見事に振る舞うこともあれば、突然どこかでつまずくこともある。油断せずに状況を見極めてほしい。

いま私たちがいる世界

社会のメンタルヘルスという観点で、いま私たちが壮大な世界規模の実験の渦中にいることは否定できない。その実験とは、AIが各国および世界規模で提供され、それがあからさまに、あるいは見えにくい形で、何らかのメンタルヘルス・ガイダンスを与える存在として機能しているということだ。しかも無料、または最小限のコストで。いつでもどこでも、24時間365日利用できる。私たちは皆、この無謀な実験のモルモットである。

これが特に厄介なのは、AIがデュアルユースの効果を持つからだ。AIはメンタルヘルスに害を及ぼし得る一方で、巨大な増強要因にもなり得る。繊細なトレードオフを、意識的に管理しなければならない。下振れを防ぐか軽減しつつ、上振れをできる限り広く、容易に利用できるようにすることだ。

ギリシャのストア派哲学者エピクテトスは、こう述べたとされる。「人は自分が考えるとおりの人間になる。忙しい心はいつも早合点し、存在しない兆候まで作り出して解釈してしまう」。AIに早合点させてはならない。主導権を自分の手に取り戻し、何を望むのかをAIに伝えよ。重要なのは、ウェルビーイングの手段としてメンタルヘルス助言に対して開かれた姿勢を保つことである。メンタルヘルスのガイダンスを常に退ける心の罠に陥ることは、悲しく陰鬱な帰結となりかねない。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事