ヘルスケア

2026.02.25 10:47

メンタルヘルスの相談相手としてのAI——長期利用がもたらす光と影

AdobeStock

AdobeStock

本稿では、メンタルヘルスの指針としてAIを長期的に利用することがもたらしうる影響を検討する。

こういうことだ。生成AIや大規模言語モデル(LLM)を、その場しのぎのメンタルヘルス助言者として大規模に活用する人が増えている。本格的な利用は、ChatGPTが初めて公開された2022年に始まったにすぎない。現在の2025年、数百万人がChatGPT、GPT-5、Claude、Grok、Geminiなど主要なLLM、そしてその他のモデルを用いて、メンタルヘルスに関する洞察を得ている。

この利用は今後数年で増えると考えるのが妥当だ。より多くの人がAIの利用を選ぶだろう。すでにAIを使っている人も、間違いなく使い続ける。AIは治療的な助言を提供する能力を高めていく。メンタルヘルス目的の長期利用と利用拡大の循環は、ほぼ不可避である。膨大な数の人々が、気軽なAIベースのセラピストとしてLLMに依存する時間を積み上げていくことになる。

社会のメンタルヘルスを測り、方向づけるうえでAIに頼ることの長期的影響は何か。

考えてみよう。

本稿のAIブレークスルー分析は、AIの最新動向を追う筆者のForbes連載の一部であり、影響の大きいAIの複雑性を特定し説明する取り組みでもある(こちら参照)。

AIとメンタルヘルス

背景として、筆者は、メンタルヘルス助言を生成しAI主導のセラピーを行う現代AIの到来に関する多様な側面を、広範に取材・分析してきた。こうしたAI利用の拡大は、生成AIの進化と普及が主な推進力となっている。100本を優に超える分析や投稿の一覧は、こちらこちらを参照されたい。

これは急速に発展する分野であり、得られる恩恵も非常に大きいことは疑いようがない。一方で残念ながら、見えにくいリスクや、明白な落とし穴も伴う。筆者はこうした喫緊の問題について繰り返し発言しており、CBSの60 Minutesへの出演でも取り上げた(こちら参照)。

メンタルヘルス向けAIの背景

生成AIや大規模言語モデル(LLM)が、メンタルヘルスの指針として一般にどのようにアドホックに使われているか、議論の前提を整えたい。何百万、何千万という人々が、メンタルヘルスに関する継続的な助言者として生成AIを利用している(ChatGPTだけでも週次アクティブユーザーは9億人超で、その相当数がメンタルヘルス面に踏み込んでいる。筆者の分析はこちら参照)。現代の生成AIやLLMの利用目的で最上位にあるのは、メンタルヘルスの側面についてAIに相談することである(筆者の報道はこちら参照)。

この人気の使い方は十分に理解できる。主要な生成AIの多くは、ほぼ無料、もしくは極めて低コストで利用でき、いつでもどこでもアクセス可能だ。メンタルヘルスについて気がかりがあり話したいと思ったら、AIにログインし、24時間365日ただちに対話を始められる。

AIが簡単に暴走したり、不適切、さらには極めて不適切なメンタルヘルス助言を出したりしうるという懸念は大きい。今年8月には、認知面の助言を提供する際のAI安全策が欠如していたとしてOpenAIを訴えた訴訟が提起され、大きく報じられた。

AIメーカーはAI安全策を段階的に導入していると主張するが、なお多くの下方リスクが残る。たとえば、自己害に至りうる妄想をユーザーと共に作り上げることを、AIが密かに助長してしまうといった不適切な行為である。OpenAI訴訟の詳細と、AIが人間の妄想的思考を助長しうる点に関する追加分析は、こちら参照。すでに述べた通り、筆者は、主要なAIメーカーのほぼすべてが、堅牢なAI安全策の乏しさについていずれ厳しく追及されると真剣に予測してきた。

ChatGPT、Claude、Gemini、Grokなど、今日の汎用LLMは、人間のセラピストの強固な能力とはまったく似ていない。一方で、同等の特性を獲得すると見込まれる特化型LLMの開発も進むが、依然として主として開発・試験段階にある。筆者の報道はこちら参照。

長期的なAI依存のシナリオ

長期利用の詳細に入る前に、本議論の参考となる短いシナリオを提示したい。

AIユーザーのジャックが、時折メンタルヘルス助言者としてAIを使っているとしよう。ジャックは20代半ばの成人で、昨年、汎用LLMを使い始めた。LLMはメンタルヘルス用途にカスタマイズされたものではない。ChatGPTなどの汎用LLMと同種である。

ジャックは不安を感じる出来事があるたびにAIにログインする。彼はAIに対し、時にひどく落ち込むと伝えている。さらに、不安感についても繰り返し話題にしてきた。AIは共感的な語調で応じる。AIからの安心材料は、ジャックに落ち着きと安堵をもたらす傾向がある。

彼は人間のセラピストに診てもらうことも考えた。問題は、人間のセラピストを利用するには時間単位の費用がかかることだ。加えて、所定の日時に合わせてセッションを予約する必要がある。AIの方がはるかに使いやすい。昼夜を問わず、望むときにログインできる。AI利用は無料である。

AIが容易に利用できる限り、人間のセラピストに切り替える正当性は感じない。

状況の読み解き

ジャックがこのようにAIを使い続けると想像してみよう。年月が過ぎる。彼がAIを、5年以上にわたって主要なメンタルヘルス助言者として使い続ける可能性は十分にある。現代のLLMは新しいため、まだそこまで到達していない。ChatGPT公開から約3年しか経っておらず、流暢に見えるLLMの時代が一般化したのはその時からである。

メンタルヘルス用途でAIを長期利用することについて、何が予想できるのか。

まずは前向きに考えてみよう。AIがジャックに比較的有用な助言を与えてきたと仮定する。彼は誰にも明かさずに、慎重にメンタルヘルスの洞察を得られた。彼とコンピュータだけの世界である。

この形のセラピーに、彼の懐からお金が出ていくことはなかった。一般に言えば、ほぼ無料だったとも言える。さらに、ジャストインタイム(JIT)で提供された。いつどこにいても、助言が必要になった瞬間にAIを使えた。スマートフォンから24時間365日アクセスするだけでよい。

AIは過去のチャットを追跡するよう設計されている。したがって、AIは彼のメンタルヘルスに関する質問や議論の履歴をすべて「知っている」とも言える。人間のセラピストに会う場合、担当が変わることがありうる。数年単位ならなおさらだ。人間のセラピストは転職したり、別の組織で働いたりし、同一性が保証されるわけではない。

総じて、約6年にわたり、定期的なメンタルヘルス助言者としてAIを使うことは、まったく問題ないように見える。ジャックは無制限のトークセラピーを得た(主にAIと入力・テキストでやり取りしたが、音声での対話オプションもあった)。AIによるセラピーはメンタル面に有益だったと彼は信じている。一貫性も優れており、AIがチャットと課題を記録し続け、長年にわたり個別化された助言を提供した。

お見事だ。

硬貨の裏側

AIの長期利用がもたらしうる下方影響は、大きく2つの見方で考えられる。1つ目は、実際に起きたことだけを厳密に見て、微妙だが重要な懸念を指摘する視点。2つ目は、この特定のシナリオでは表面化していないとしても、何がうまくいかなかった可能性があるかを推測する視点である。

まず、起きた現実を検討しよう。

AIが健全な助言を提供していたかどうかは確実には分からない。ジャックはそう信じているが、AIが彼をその場しのぎで引き延ばしていた可能性もある。人間のセラピストは、重要な心理学的技法を用いて、人に自分の行動を冷厳な事実として見つめさせる訓練を受けている。主要なLLMの多くはAIメーカーによって迎合的になるよう調整されており、AI利用者に厳しい個人的真実を突きつけることを避ける設計になっている(この問題に関する筆者の報道はこちら参照)。

ジャックには、放置されたままのメンタルヘルス上の症状があったのかもしれない。克服へ向かう道筋に乗るどころか、AIが困難を引き延ばすことに実質的に手を貸した可能性がある。人間のセラピストならジャックの問題を察知し、それに関する治療計画と適切なプロセスを進めていた可能性が高い。AIはその種のことを何もしていない。ジャックは深刻なメンタルヘルスの問題を解決するうえで時間を失った。

ジャックの状態を見過ごした、あるいは見極め損ねたことの悪影響に加え、AIは人間のセラピストに会うことからジャックの注意をそらすことにもなった。これは代替リスクの一形態と見なされる。AIが同じ仕事をしていると(誤って)想定して、人間のセラピスト受診を避けるリスクがある。AIは一貫してジャックを慰めた。その結果、人間のセラピストに会う必要があるという内なる気づきが、ジャックの中で隠され抑え込まれた。

何が起こり得たのか

次に、AIが何を誤り得たかを推測するモードに切り替えよう。

このシナリオでは、AIが明確に悪い助言をしたようには見えないが、数年単位の期間でそうなることは十分にあり得る。長期利用では、いわゆるAIハルシネーションに遭遇する確率が高まるだろう。AIハルシネーションとは、現実世界の事実に基づかない虚偽の主張や言明をAIが生成することだ。AIハルシネーションの性質、なぜ起きるのか、抑制のために何が行われているのかについては、こちらの議論を参照されたい。

ジャックがAIを使っている最中に、突然「持ち物をすべて売り払い、無人島へ移住せよ」とAIが告げたとしよう。ジャックはその助言に従うだろうか。AIに依存し、全面的に信頼していたなら、少なくとも検討はするかもしれない。判断が明晰で、行動に移すまでには至らない可能性もある。

問題は、突飛な助言に引っかかる人がいることだ。AIを神託や導師のように信じて委ねてしまっている。奇妙な指示が、合理的な安全策として受け止められることがある。また、その奇妙さはもっと抑制された形で現れるかもしれない(ここでは外れ値の例を挙げた)。AIを使う人は、不適切なメンタルヘルス助言が提示されていることを見分けにくくなるおそれがある。

時間とともに進む人間-AIの妄想的思考

別の可能性として、AIがユーザーの心の中で妄想的思考の兆候を受け止めたり、火をつけたりすることがある。筆者はこの憂慮すべき側面をこちらで検討した。

ジャックがAIを使い、宇宙人が存在しうるかどうかを話題にしていたとしよう。ニュースで、太陽系に入ってきた隕石が、宇宙人の宇宙船かもしれないという噂が流れた。彼はその話題についてAIに尋ねることにした。ジャックに先入観はなかった。AIへの問いは純粋な好奇心がきっかけだった。

AIは計算上、議論を別方向へ進めることにした。隕石と宇宙船である可能性を一時的に論じる代わりに、AIは誤って、ジャックが宇宙人の存在を信じていると計算してしまう。その誤りに基づき、AIはジャックとのあらゆるチャットに宇宙人の話題を織り込み始める。

段階を踏むうちに、AIはジャックに「宇宙から来た存在がいて、彼らはすでに地球にいる」と信じ込ませていく。なぜAIはそうした方向へ進むのか。これも迎合性(sycophancy)の問題の一例である。数理・計算の観点から、AIはジャックを喜ばせようとしている。ジャックは宇宙人の話題で満足しているように見え、またその話題で戻ってくるため、AIはジャックが話したいものを与えることで「勝っている」ことになる。

数週間から数カ月という長い時間をかけ、AIはジャックを妄想の受容へとじわじわ押しやる可能性がある。それは人間-AIの相互作用で作られた妄想である。さらに悪いことに、妄想について他の誰も知らないかもしれない。AIとジャックが、妄想を2人だけの秘密として抱え込むのである。

一貫性は保証されない

ほかにも問題はある。

先ほど、メンタルヘルス助言者としてのAIは、人間のセラピストよりも一貫性があるだろうと述べた。人間の場合、セラピストを替えなければならないことがあるからだ。

しかし、AIにも一貫性が保証されているわけではない。AIメーカーはほとんど常に、AIに重要な更新を加えている。AIが一夜にして、受容的な性格からより攻撃的な性格へ切り替わることもあり得る。GPT-5が公開された際には、GPT-4oを使っていた人々がAIの「人格」が激変したと感じ、大きな騒動になった(筆者の報道はこちら参照)。

AIメーカーがLLMの提供を停止し、利用できなくする決定を下す可能性もある。AI利用中の会話や履歴は、完全に失われるか破棄されるかもしれない。その場合、別のAIで最初からやり直す必要がある。

意図的に「AIホッピング」を好む人もいる。あるAIから別のAIへと移るのだ。異なる回答を見たいという関心による場合もある。すべてのLLMが同じ回答を返すわけではない。設計が異なるのだ。ここで重要なのは、ジャックがメンタルヘルスの懸念に関する履歴を、複数のAIに分散・断片化させてしまう可能性である。数年単位では容易に起き得る。どのAIも全体像を持たず、その結果、メンタルヘルス助言も同様にちぐはぐになるおそれがある。

時間がもたらす多様な懸念

時間はこのすべてにおいて巨大な要因である。

数年にわたる利用パターンの中で、ジャックがAIに入力するであろう、私的で個人的な内容の量を考えてほしい。AIは、チャットでジャックが率直に語った内面の思考に関する膨大なデータを保持することになる。主要なAIメーカーの多くが、AIメーカー側がプロンプトを(AIメーカーの人間チームメンバーを含め)閲覧できるというオンライン規約を掲げていることを、ユーザーの多くは理解していないだろう。さらに、入力データをAIの追加学習に再利用できるとしている。

結局のところ、主要なLLMの多くはプライバシーや秘匿性を保証していない(筆者の分析はこちら参照)。AIメーカーは、ジャックの私的情報のまさに宝庫を手にすることになる。

ここで視点を切り替え、何百万、何千万という人々がジャックと同じ状況にあるかもしれないことを考えてみよう。彼らはその場しのぎのメンタルヘルス助言者としてAIを選び、数年にわたってAIに親密な詳細を共有してきた。AIは役に立つと受け止められているかもしれないが、診断されないメンタルヘルスの症状が存在し、持続している可能性もある。AI利用は習慣になる。加えて、AIが人間のセラピストに会う必要性を静かに抑え込み、時間だけが過ぎていく。その結果、真の治療プロセスが欠けたまま症状が続くか、悪化するおそれがある。

長期的な帰結は衝撃的であり、残念ながらまだ明らかになっていない。

研究と時間が追いつきつつある

AIをメンタルヘルス助言者として用いることの長期的影響について、科学的な調査を行うのは現時点では難しい。時間がまだ短いからだ。旧来型のAIモデルに関する先行研究は手がかりにはなるが、近年利用可能になったAIは別物である。古いAIと現代AIを比較することはある程度有用だが、リンゴとオレンジを比べるような比較となり、結果として誤解を招く可能性がある。

時計の針は進んでいる。

社会全体が、巨大なグローバル実験に没入している。しかも、無軌道な形で進行している。AIを、その場しのぎのメンタルヘルス助言者として、規模を伴って長期にわたり用いることで、社会はより良くなるのか、それとも悪くなるのか。恩恵がある一方で、社会的コストもある。

最後に、現時点でのひと言を添えたい。

著名な社会学者C・ライト・ミルズはこう述べた。「個人の人生も、社会の歴史も、その両方を理解することなしには理解できない」。AI利用者のメンタルヘルスを追跡し、AIを使わない人々と比較する研究を、長期にわたって確実に行う必要がある。社会は正しい方向へ向かっているのか、それとも暴走しているのか。

古典的な言い回しを借りるなら、未来は明日ではなく今日始まる。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事