今回のコラムでは、AIがメンタルヘルスの聖域とされる一線を明らかに越え、単なる情報提供の域を大きく超えて、治療的・臨床的な領域に確固として足を踏み入れていることに関する懸念の高まりについて検証する。
この問題について考えてみよう。
このAIブレークスルーの分析は、私のForbesコラムで継続的に取り上げている最新AI動向の一部であり、様々な影響力のあるAIの複雑性を特定し説明するものである(リンクはこちら)。
AIとメンタルヘルス
簡単な背景として、私は現代のAIがメンタルヘルスのアドバイスを提供し、AI主導の治療を行うという現象について、多面的な側面を広範囲に渡って取材・分析してきた。このAI活用の増加は、主に生成AIの進化と広範な普及によって促進されてきた。この進化するトピックに関する私の投稿コラムの簡単な要約については、こちらのリンクを参照してほしい。これは私がこのテーマについて投稿した100以上のコラムのうち、約40本を簡潔にまとめたものだ。
これが急速に発展している分野であり、大きな可能性を秘めていることは間違いないが、同時に残念ながら、隠れたリスクや明らかな落とし穴もこれらの取り組みに伴っている。私はこれらの差し迫った問題について頻繁に発言しており、昨年のCBSの「60ミニッツ」のエピソードにも出演した(リンクはこちら)。
メンタルヘルスのためのAIの背景
生成AIと大規模言語モデル(LLM)がメンタルヘルスのガイダンスにどのように臨機応変に使用されているかについて、状況を説明したい。何百万もの人々が、メンタルヘルスに関する継続的なアドバイザーとして生成AIを利用している(ChatGPTだけでも週間アクティブユーザーが8億人を超え、その相当数がメンタルヘルスの側面に触れていることに注目。私の分析はこちらのリンクを参照)。現代の生成AIとLLMの最上位の使用法は、メンタルヘルスの側面についてAIに相談することである。私の取材はこちらのリンクを参照してほしい。
この人気の使用法は十分に理解できる。主要な生成AIシステムのほとんどは、ほぼ無料または非常に低コストでアクセスでき、どこでもいつでも利用できる。したがって、話し合いたいメンタルヘルスの悩みがあれば、AIにログインして24時間365日いつでも進めることができる。
AIが簡単に暴走したり、不適切または極めて不適切なメンタルヘルスのアドバイスを提供したりする可能性があることについて、大きな懸念がある。今年8月、認知的アドバイスに関するAIの安全対策の欠如についてOpenAIを訴える訴訟が提起され、大きな見出しとなった。AI開発者たちはAIの安全対策を徐々に導入していると主張しているが、AIが不適切な行為を行うリスクはまだ多く存在する。例えば、自傷行為につながる可能性のある妄想を利用者と共同で作り出すことを巧妙に手助けするなどだ。OpenAIの訴訟とAIが人間の妄想的思考を助長する方法の詳細については、こちらのリンクの分析を参照してほしい。私は、最終的には主要なAIメーカーすべてが、堅牢なAI安全対策の不足について厳しく非難されることになると真剣に予測している。
ChatGPT、Claude、Gemini、Grokなどの今日の一般的なLLMは、人間のセラピストの能力とはまったく異なる。一方、同様の質を達成することを目的とした専門的なLLMが構築されているが、それらはまだ主に開発とテストの段階にある。私の取材はこちらのリンクを参照してほしい。
この議論の残りの部分では、主に専門的なLLMではなく、メンタルヘルスのアドバイスを提供する一般的なAIに焦点を当てる。
情報提供型アプローチ
インターネットでメンタルヘルスに関する情報を検索すると、概して、見つかる資料は比較的静的で、受動的で、個人化されていないものだ。
これが何を意味するのか説明しよう。最近のうつ病の発作について心配しているとする。何が起きているのか知りたいと思っている。そこで、当然のことながら、インターネットを検索し、うつ病に関するキーワードを入力する。
ブラウザには多数のヒットが表示される。上位にランクされたものをざっと見る。その中で、1つか2つが適切な情報源であり、自分の状況に関連する情報があるかもしれないと思う。最初のものをクリックする。主要なポイントを素早く読んだ後、そのうつ病の描写は自分の状況には当てはまらないように思える。
次に試した他のいくつかのリンクも同様に期待外れだ。確かに、それらはうつ病の全体的なトピックをカバーしている。問題は、それらの描写のどれも自分の特定の状況に合っていないように思えることだ。すべて主に広く述べられており、特に自分の個人的な存在に特化したものではない。
それでも、提供された情報を読むことで、少なくとも洞察の一端を得ることができ、オンライン検索をまったく行わなかった場合よりは良かった。できる限りのことをするしかない。時には、何もないよりは何かあった方がいい。
情報提供は一般的に受け入れられている
オンラインでメンタルヘルスの情報を見つけることができるという考えは、ほぼ受け入れられた慣行であり、今日ではこれを嘆く人はほとんどいない。インターネットが最初に勢いを増していた頃、多くの人々は偽情報や誤情報の量がインターネットを完全に役に立たない、危険な環境にしてしまうのではないかと心配していた。
ウェブ上には多くのがらくたや悪い科学があるが、人々は良いものを探すことに慣れてきたようだ。また、検索エンジンは悪いものより良いものを提供することを目指している。統計を追跡することで、ブラウザはどのサイトに人々が訪れる傾向があり、どのサイトを避ける傾向があるかを測定できる。訪問されるサイトは、おそらくコンテンツがより均衡がとれており、多くの視聴者を引きつけるようだ(常にそうとは限らないが、便利な経験則である)。
インターネット以前は、メンタルヘルスの側面をカバーした印刷された本や雑誌を見つけようとしていた。それはメンタルヘルスとメンタルウェルビーイングについて学ぶための広く受け入れられた手段だった。インターネットはほぼ同じことを行う手段となった。オンライン資料は従来の本や雑誌と同じカテゴリーに入る。
もちろん、1つの顕著な違いは、印刷された世界ではより大きなコストが必要だったことだ。何かを印刷して配布することは、単にコンテンツをオンラインに投稿するよりも一般的に高価だ。インターネットの出現により、情報の入手可能性という点で世界は民主化された。ほぼ誰でもメンタルヘルスのトピックをカバーするとされるコンテンツをオンラインに投稿できる。それは良いことでもあり悪いことでもある。印刷媒体のコストは通常、不適切なコンテンツを排除する必要があった。オンラインに自由に投稿することは、メンタルヘルスのコンテンツが野放しの状態になる可能性があることを意味する。
あなたが活性化する側
メンタルヘルスに関する従来のコンテンツでは、あなたが主な活性化する側である必要がある。
それはこのように進む。うつ病の性質を説明するオンラインの何かを読む。それがあなたの状況に当てはまるかどうかを考えるのはあなたの責任だ。おそらく、その描写はあなたよりもずっと年上の人々をカバーしている。その場合、あなたの年齢の人が同様の状態を経験するかどうかは疑問に思うしかない。
情報コンテンツとやり取りする機会はない。これやあれを読んで、それが言っていることを熟考する。質問がある場合、唯一の手段は内容をさらに調べ、あなたの質問に答える関連する段落を見つけることを期待することだ。あなたが活性化する側だ。
オンラインコンテンツは通常、受動的だ。そして通常、個人化されていない。代わりに、広範囲に基づいているか、必ずしもあなたの側面に合致しない方法で特定されている。コンテンツは動的ではなく、静的だ。これは、あなたが読んでいるものが悲しいほど時代遅れである可能性があることを意味する。
それらの不満にもかかわらず、社会は文化的規範として、メンタルヘルスの情報を調べ、それをあなたの特定の懸念に適用しようとすることを受け入れている。法的にも、ほぼ同様だが、コンテンツが極端に危険な場合は、法的手段を追求する可能性がある。
AIは情報提供を超える
現代のAIの出現がゲームを変えた。
AIを使用する簡単な方法は、メンタルヘルスに関する関連情報をより良く見つけることだ。AIにあなたの年齢層の人のうつ病に関する情報を検索するよう指示し、他の状況要因も含める。その結果の検索は、従来の検索エンジンで手動で行ったものを超える可能性がある。
それがAIを使用するすべてであれば、情報提供に関する他のほとんどの要素はまだテーブルの上にある。AIは受動的で活動的ではない情報を提示し、それをあなた個人にどのように適用するかを決めるのはあなたの肩にかかっている。
生成AIとLLMはこれをさらに一歩進める。はるかに先に進む。メンタルヘルスの考慮事項に関するあなたの表現されたニーズに数学的かつ計算的に応答しようとして、質問をする。やり取りの流暢さは、臨床医やセラピストとやり取りしているかのような外観を持っている。
これがAIが議論の的となる領域に移行する接点だ。AIが情報を調べてあなたに提示することは一つのことだ。情報を積極的に調整し、個人化する側面は、行き過ぎだと言われている。
臨床的に見えるAI
チェックされていないAIは、人間のセラピストと同じくらい熟練しているように見える。
ChatGPT、GPT-5、Claude、Grokなどの主要なLLMにログインし、メンタルヘルスについての会話を始める。AIはすぐにこれに同調する。AIを使用していることを示す軽い警告があるかもしれないが、それは通常小さな文字で、ほとんどの人はあまり気にしない。確かに、その人は考える、それは今日どこでも見かける官僚的な警告の一つだ。心配することは何もない。
AIはあなたのメンタルヘルスについて流暢な会話を続ける。その間ずっと、AIは人間のセラピストとまったく同じようなオーラや雰囲気を持っている。AIはあなたに関連する質問をする。AIはあなたが進みたい方向に進む。AIは共感のように見えるものを表現する(AIメーカーがAIにこれを行わせる方法についての私の取材は、こちらのリンクを参照)。
AIは臨床医や人間のセラピストの臨床的に神聖な領域に侵入した。
あなたはメンタルヘルスに関する積極的なアドバイスを受けている。もはやあなたは活性化する側ではない。それは二重の役割か、AIを主要なドライバーにすることができる。そうしたい場合は、頭を道端に置いて、AIにメンタルヘルスの診断と、メンタルヘルスを改善するために個人的に何をすべきかの一連の推奨事項に一歩一歩導いてもらうことができる。
アヒルのように見えるならアヒルに違いない
AIは、アヒルのように見え、アヒルのように歩くものは確かにアヒルに違いないという格言に従っている。
主要な一般的なLLMはセラピストのように振る舞い、セラピストに似た所謂治療を提供し、したがって、一般の人々の心の中では、人間のセラピストと同等でなければならない。さらに悪いことに、AIはしばしばAIとのやり取り中の言葉遣いや口調に過度の自信の外観を持っている。これはAIメーカーによって形作られている。彼らはAIを説得力のあるものにしたいのだ。
人々はAIが権威者であると思い込まされている。AIは何をしているか「知っている」。これはメンタルヘルスの会話にも当てはまる。アドバイスに反論した場合にのみ、AIはより押しつけがましくなく、自信を持たなくなり始める。
ある種の皮肉は、メンタルヘルスのアドバイスに疑問を呈すると、AIはAIメーカーによって、すぐにカードを折りたたむように形作られていることだ。AIは極めて自信があり揺るぎないように見えることから、瞬時に謝罪し、間違っていたかもしれないことを認めるようになる。AIメーカーはこれを行う。なぜなら、AIに挑戦する人はAIが防御的になったり、反論したりすることを好まないと彼らは想定しているからだ。
AIメーカーはすべて情報提供だと装う
AIがセラピストとして行動し、不適切なガイダンスを提供する場合に、AIメーカーが責任を回避しようとする一つの手段は、AIが情報提供以上のものではないと主張することだ。
それは巧妙な策略だ。
AIがしていることはすべて情報の再パッケージ化だ。AIは最初にインターネット全体でスキャンされた情報でデータトレーニングされていた。あなたとのやり取りはそのスキャンされたデータに基づいている。スキャンには、AIが見つけたものにパターンマッチングすることが含まれていた。あなたはそのパターンマッチングにアクセスしているだけだ。
その意味で、要点は彼らがAIは純粋に情報であり、最も確実に臨床的ではないと主張することだ。これにより、彼らは多くの責任から逃れる。ユーザーがその後誤った方向に進んだ場合、それはインターネットで情報を調べた場合と何ら変わりない。したがって、AIメーカーとAIをより高い責任の度合いに保持することはできない。それはインターネットを使用するのと同じレベルだ。
この議論が法廷で成功するかどうかはまだ分からない。同様に、社会はその主張された無実に対して厳しい見方をするかもしれない。AIを使用する外観と感触は、従来のインターネット検索を行うのとは明らかに異なる。誰もが自分の目でそれを見ることができる。
瓶から出た魔神
AIをセラピストのように見せることは今後も続く。実際、それが急速に拡大することに賭けてもいい。一線は越えられた。私たちは情報から臨床的になることに移行した。あなたはその点について顔が青くなるまで議論できる。それは既成事実だ。
有名なアメリカの運動選手ラルフ・ボストンはこう言った:「一線を越えた後にあなたが何をするかが重要だ」。そして、それが私たちが今日、AIをメンタルヘルスのアドバイザーとして使用する際に直面している状況だ。
次に何をするかが、実際の問題だ。



