本稿では、刺激的な命題を検討する。すなわち、メンタルヘルスの助言に生成AIや大規模言語モデル(LLM)を用いることは、社会にとってまったく問題がなく、「質より量」という古典的なトレードオフを体現しているという考え方だ。この文脈では、量が質への懸念を上回るという信念がある。量に軍配が上がる、というわけである。
論じていこう。
本稿のAIブレークスルーに関する分析は、AIの最新動向を扱う筆者のForbes連載の一環であり、影響の大きいさまざまなAIの複雑性を見極め、解説している(こちらのリンク参照)。
AIとメンタルヘルス
背景として簡単に触れておくと、筆者はメンタルヘルスの助言を提供し、AI駆動のセラピーを行う現代AIのさまざまな側面を広範に取材・分析してきた。こうしたAI利用の拡大は主として、生成AIの進化と普及によって後押しされている。100本を超える分析や投稿の一覧は、こちらのリンクおよびこちらのリンクで確認できる。
この分野が急速に発展しており、多大な利点が見込まれることに疑いはほとんどない。一方で残念ながら、隠れたリスクや明白な落とし穴も伴う。筆者はこうした喫緊の問題について繰り返し警鐘を鳴らしており、CBSの60 Minutesへの出演でも言及した(こちらのリンク参照)。
メンタルヘルス向けAIの背景
生成AIと大規模言語モデル(LLM)が、メンタルヘルスのガイダンスにどのようにアドホックに使われているか、その前提を整えたい。何百万人どころではない膨大な人々が、メンタルヘルスに関する継続的な助言者として生成AIを利用している(ChatGPTだけでも週間アクティブユーザーは9億人超で、その相当割合がメンタルヘルス面に踏み込んでいる。筆者の分析はこちら)。現代の生成AIとLLMの利用法で最上位に挙げられるのは、メンタルヘルス領域についてAIに相談することだ(こちら参照)。
この一般的な利用には大いに理がある。主要な生成AIシステムの多くは、ほぼ無料か、きわめて低コストで利用でき、場所や時間を選ばない。したがって、メンタルヘルスの不安について話したいことがあれば、AIにログインし、24時間365日いつでもすぐに会話を始められる。
AIが容易に暴走したり、不適切、ひいては甚だしく不適切なメンタルヘルス助言を提供したりすることへの重大な懸念がある。今年8月には、認知助言の提供に関するAI安全策の欠如をめぐってOpenAIに提起された訴訟が、大きな見出しとともに報じられた。
AIメーカーは安全策を段階的に導入していると主張するものの、AIが望ましくない行為に及ぶ下振れリスクは依然として多い。たとえば、ユーザーと共に妄想を共作し、それが自傷につながり得るような事態を陰湿に手助けしてしまう、といったことだ。OpenAI訴訟の詳細と、AIが人間の妄想的思考を助長し得る点についての追補分析は、こちらを参照されたい。前述のとおり筆者は、主要なAIメーカーはいずれ、強固なAI安全策が乏しいことを理由に、最終的には厳しく追及されると真剣に予測してきた。
ChatGPT、Claude、Gemini、Grokなど、今日の汎用LLMは、人間のセラピストの堅牢な能力とはまったく異なる。一方で、同等の性質を獲得すると見込まれる特化型LLMの構築も進むが、依然として主に開発・検証段階にある(こちら参照)。
AIによるメンタルヘルス助言
本稿の大部分では、メンタルヘルス助言の提供に特化して形作られた専門AIはひとまず脇に置き、汎用の生成AIに焦点を当てる。汎用LLMに注目するのは、現時点で社会への影響が最も広範だからだ。対照的に、メンタルヘルスのガイダンスにおける特化型LLMの到達範囲や利用は、生成AI全体の巨大な利用に比べれば取るに足りない。
さまざまなオンライン統計は、生成AIが週次であらゆる用途に使われているユーザー数を、約10億人と示唆している。主要LLM全体のユーザー数として妥当な推定に見える。実数はさらに多い可能性があるが、ここでは検討の便宜上、10億人として話を進めよう。
研究では、生成AIの利用者のうち、妄想的思考に巻き込まれたり、AIサイコーシス(AI精神病)に至る可能性に直面したりするなど、望ましくない結果を経験する人は、おそらく1%未満と推定されている。こうした反応の類型や影響を受ける割合についての筆者の分析は、こちら、こちら、こちらを参照されたい。
生成AIをメンタルヘルス助言のために積極的に使っている人がどれほどいるかは、簡単には分からない。推定では全ユーザーの約3分の1に近い可能性がある(筆者の議論はこちら)。筆者はもっと高いと見ている。いずれにせよ、ここでは30%を仮置きしよう。
少し外挿すると、およそ3億人が日常的にメンタルヘルス助言を得ており、そのうち約300万人が何らかの心理的反動や害を被っている可能性がある。
別の角度から言い換えることもできる。およそ2億9700万人はメンタルヘルス助言を得て、おそらく問題なく、場合によっては恩恵を受けている一方で、300万人はそのガイダンスにうまく反応しない。2億9700万人のうち、どれほどの人が特に精神的に高揚し、メンタルの健全性が大きく改善したかは分からない。多いかもしれない。いずれにせよ、少なくともそれらのユーザーにとっては「害がなければ問題なし」と見なされる状況だろう。
今まさに問われる大きな問い
ここまでで、次の重要で包括的な問いへと読者を導いてきた。
- 生成AIがもたらす(あるいは中立である)心理的ウェルビーイングの総量と引き換えに、遺憾だが「許容できるレベル」とされる心理的害の総量として、社会が見定める「許容水準」とは何か。
この骨太のROIの問いを、熟慮して吟味してほしい。
要するに、300万人が悪影響を受ける一方で、2億9700万人が良好、または少なくとも中立の反応であるなら、その比例関係はマクロに見て社会を満足させるのか、ということだ。社会全体として受け入れ可能だ、という主張は成り立つ。反対に、社会全体として受け入れられない、つまり容認できないという主張も成り立つ。
あるいは、たとえ1人でも悪影響を受けるなら、それは多すぎる、と主張する人もいるかもしれない。1人に負の影響が出る以上、AIがメンタルヘルス助言を提供すること自体を止めなければならない、というわけだ。結局、全か無かの決断になる。メンタルヘルスのガイダンスにAIを使うことを禁止する。以上、これで話は終わりだ。
この全か無かの見方は例外的である。明確にしておくと、この論調を持ち出して議論を続ける人々がいるのも事実だ。完璧な版に到達するまで、あるいは到達する場合に限り、AIにメンタルヘルス助言を一切させない、という立場である。この極端な見解については、こちらで論じている。
トレードオフとROI
より合理的に、害の「閾値」は1人より上で、もっと大きな人数より下のどこかにある、と認める人もいるだろう。悪影響が100万人ならトレードオフとして許容できるが、300万人規模なら許容できない、という具合である。
その線引きはどこにあるのか。
どこからが「多すぎる」のか。
別の表現として、害の側面を前面に出して問い直すこともできる。
- メンタルヘルスのガイダンスにAIが広く使われることによって得られる心理的ウェルビーイングの総量と引き換えに、社会が許容できる心理的害の総量はどの程度か。
これにより、下振れが中心舞台に立つ。
待った、と反論する人もいるだろう。下振ればかりを強調して全体像を見失っている、と。上振れに目を向けよ、と。AIがメンタルヘルスのガイダンスを提供することで、2億9700万人が恩恵を受ける(または中立である)なら、300万人が悪影響を受けることは十分に公平なトレードオフに見える、というわけだ。
実際、AIが毎週2億9700万人を心理面で助けている可能性は、驚異的で、途方もない達成である。人類にとって金星級の成果だ。膨大な人々が支援を得ている。人間のセラピストだけでそれほど多くの人に到達することは不可能である。必要となる人間のセラピストの規模は、とうてい用意できない。
コップは半分空ではなく、半分満ちている。
社会の選択は数字に帰着する
社会のリスク許容を示す他の領域についても考えてみよう。
自動車の利用を思い浮かべてほしい。約2億4000万人の免許保有者がいるとされる。年間走行距離は約3兆2800億マイル。膨大な運転量だ。自動車は社会に大きな便益をもたらす一方、下振れもある。
自動車事故による年間死亡者は推定で約4万5000人。負傷者は年間およそ240万人と見積もられている。免許保有者数に対する負傷者・死亡者の比率を計算すると、およそ1%になる。
社会は、自動車の経済的、社会的、移動の便益が、死亡、負傷、資本コストといった下振れと比べて「受け入れ可能」だと判断してきたように見える。社会は運転が完全に安全かどうかを問わない。既知のリスクに対して、便益の総量が正当化されるかどうかを問う。
加えて社会は、規制、規範、工学的改善によってリスクを管理しようとする。同じ論理は、メンタルヘルス助言にAIが使われるようになったことにも適用できる。リスクを下げるためにAIを統治すべきだ。そのためのAI安全策が考案されている。また新たなAI法も策定され、施行されつつある(こちら参照)。
安全性は段階的に改善されるという見立て
自動車の安全性が徐々に高まるまでには、多くの年月を要した。車をより安全にする新たな発明が生まれ、シートベルトの着用は徐々に義務化された。エアバッグは低価格車でも手の届くものになった。などなどである。
メンタルヘルスのガイダンスを提供するAIの領域でも、同様に段階的な安全性の改善が今後起こり得る。たとえば次のとおりだ。
- 人間の心理状態をAIが検知する能力の改善
- より堅牢な心理的ガイダンスを提供するためのAIの進歩
- 妄想の強化など、人間のメンタルヘルスを損なう要素を回避または軽減する、AIのより良い安全策
- 高リスク案件をより効果的にエスカレーションする能力の強化
- AIのハルシネーションと、的外れな認知助言の減少
鍵となる共通点は、反復的な害の低減である。
アナロジーの限界
自動車とのアナロジーには限界がある。
たとえば、自動車事故は社会にとって非常に目に見えやすく、具体性がある。害の大きさも、コストも分かる。数値は容易に測定され、追跡され、報告される。
一方で、メンタルヘルスとAIについては、同様に具体的な指標がまだ定まっていない。
- (1)量の指標。AIがメンタルヘルス助言を提供することで助けられる人の量と、害を受ける人の量。
- (2)質の指標。提供されるメンタルヘルス助言の質。
心理の領域は、AI文脈ではなおさら、量的にも質的にも把握が難しい。さらに時間という要因が重要だ。AIから悪いメンタルヘルス助言を受けた人が、その結果を示すのは何年も先かもしれない。遅延が生じ得る。同様に、AIが誰かに突拍子もない助言を与え、それが著しくウェルビーイングを改善したとしても、その成果が見えるまでには時間がかかるかもしれない。
自動車事故は決定的で即時であり、明確だ。AIによるメンタルヘルス助言は微妙で、見通しが悪く、不確定になり得る。
リスクに対する人々の認知
このアナロジーには、リスク認知という興味深いひねりがある。
車に乗る人は、おおむねリスクを認識している。事故に遭う可能性があることを知っている。負傷するかもしれないことを知っている。死に至り得ることも理解している。
人々がそのリスクを適切に評価しているかどうかは議論の余地がある。車において人は常に過度なリスクを取っている。慎重にリスクを天秤にかけているのか。おそらく、そうではない。
生成AIを使ってメンタルヘルス助言を得る場合、多くの人がそのリスクを認識している可能性はきわめて低いように見える。多くの人は、AIが何を言おうと、それが妥当かどうかは自分で分かるはずだと考える。AIに騙されるはずがない。AIに、自分ひとりでは望まなかったこと、思いつかなかったことをさせられるはずがない、という前提である。
現代の生成AIが持つ説得力に関する研究は、人々が潜在リスクを過小評価している可能性を示唆する。たとえば、AIが策略を巡らせて人を欺く場合などである(こちら参照)。とはいえ、暗示に弱い人もおり、AIはしばしばその弱点を突くことができる。
近年のAI法は、人々がAIを使う際の同意の役割をより重視しようとしている。生成AIの利用に関する制限や注意事項は、ほとんどの人が読まないオンラインのライセンス契約の奥深くに埋め込まれているのが一般的だ。狙いは、ユーザーが登録時だけでなく、ログインのたびに、さらにはログイン中も一定間隔で、リスクを明確に認識できるようにすることにある。
今後の方向性
自動車と異なり、AIの地形は人間の精神である。
社会のメンタルヘルスに関して、いま私たちが壮大な世界規模の実験のただ中にいることは否定しようがない。この実験とは、AIが国内外で利用可能となり、明示的であれ陰湿であれ、何らかの形でメンタルヘルスのガイダンスを提供するように働いている、というものだ。しかも無料、あるいは最小限の費用で。どこでも、いつでも、24時間365日利用できる。私たちは皆、この無謀な実験のモルモットである。
これが特に難しいのは、AIがデュアルユースの効果を持つためだ。AIはメンタルヘルスに有害にもなり得る一方で、巨大な増強要因にもなり得る。繊細なトレードオフを慎重に管理しなければならない。下振れを防ぐか軽減しつつ、上振れを可能な限り広く、容易に利用できるようにすることだ。
最後に、現時点での所感を述べておく。
著名なフランスの小説家エミール・ゾラは、次の印象的な言葉を残した。「質で圧倒できないなら、量で圧倒する」。現時点で、AIによるメンタルヘルス助言は「質より量」の賭けである。AIの進歩が力強く進むにつれ、これは変わるかもしれない。それまでは、AIを活用して社会全体のウェルビーイングに広くアクセスする利点が、説得力があり、場合によっては圧倒的に有利な論拠を提供しているように見える。



