AI

2026.02.16 10:44

AIメンタルヘルス相談に障壁を設ける動き──利便性と安全性のジレンマ

AdobeStock

AdobeStock

今回のコラムでは、やや直感に反する考え方、すなわちAIを意図的に使いにくくするというアイデアを検証する。特に、メンタルヘルスに関する指導を求めてAIを利用する場合に焦点を当てる。

なぜAIを使いにくくする必要があるのか。ChatGPTのような生成AIが容易にメンタルヘルスに関する助言を提供する現状において、1つの懸念は、人々が精神的な健康を支えるためにAIに過度に依存するようになっていることだ。さらに、AIが時として誤解を招く助言や、明らかに不適切な助言を提供する可能性があるという懸念も存在する。

そこで浮上しているアイデアの1つが、AIからメンタルヘルスに関する指導を得ることを困難にすれば、人々はそれに応じてAIを利用する可能性が低くなるというものだ。主張としては、ユーザーがメンタルヘルスに関する質問を持ち出した場合にのみ発生する摩擦、つまり本質的にスピードバンプをAIに意図的に追加すれば、人々は徐々に煩わしさに疲れ、人間のセラピストなど他の選択肢を求めるようになるというものだ。

この点について議論していこう。

このAIの画期的進展に関する分析は、最新のAIに関する私の継続的なフォーブスコラムの一部であり、影響力のあるAIの複雑性を特定し説明することを含んでいる(リンクはこちらを参照)。

AIとメンタルヘルス

簡単な背景として、私はメンタルヘルスに関する助言を生成し、AI駆動型セラピーを実施する現代のAIの出現に関する無数の側面を広範囲にわたって取り上げ、分析してきた。このAI利用の高まりは、主に生成AIの進化する進歩と広範な採用によって促進されてきた。私の100を超える分析と投稿の広範なリストについては、こちらのリンクおよびこちらのリンクを参照されたい。

これが急速に発展している分野であり、得られる莫大な利点があることは疑いの余地がないが、同時に残念ながら、隠れたリスクや明白な落とし穴もこれらの取り組みに伴う。私はこれらの差し迫った問題について頻繁に声を上げており、CBSの「60ミニッツ」のエピソードへの出演も含まれる。リンクはこちらを参照されたい。

メンタルヘルスのためのAIに関する背景

生成AIおよび大規模言語モデル(LLM)が、メンタルヘルスに関する指導のためにアドホックな方法で通常どのように使用されているかについて、舞台を設定したい。何百万人もの人々が、メンタルヘルスに関する考慮事項について継続的なアドバイザーとして生成AIを使用している(ChatGPTだけでも週間アクティブユーザーが9億人を超えており、その中の注目すべき割合がメンタルヘルスの側面に関与している。私の分析はこちらのリンクを参照)。現代の生成AIおよびLLMの最上位の使用法は、メンタルヘルスの側面についてAIに相談することである。私の報道はこちらのリンクを参照されたい。

この人気のある使用法は十分に理解できる。主要な生成AIシステムのほとんどに、ほぼ無料または超低コストでアクセスでき、いつでもどこでもアクセスできる。したがって、話し合いたいメンタルヘルスに関する不安がある場合、必要なのはAIにログインして24時間365日ベースで進めることだけだ。

AIが容易に軌道を外れたり、不適切な、あるいは極めて不適切なメンタルヘルスに関する助言を提供したりする可能性があるという重大な懸念がある。今年8月の大見出しには、認知的助言を提供する際のAI安全対策の欠如についてOpenAIに対して提起された訴訟が伴った。AI製作者が徐々にAI安全対策を導入していると主張しているにもかかわらず、AIが自傷行為につながる可能性のある妄想の共創を陰湿に支援するなど、不適切な行為を行う下振れリスクはまだ多く存在する。OpenAI訴訟の詳細とAIが人間の妄想的思考をどのように助長するかについては、こちらのリンクで私の分析を参照されたい。私は、最終的にすべての主要なAI製作者が、堅牢なAI安全対策の不足について厳しく追及されるだろうと真剣に予測してきた。

ChatGPT、Claude、Gemini、Grokなどの今日の汎用LLMは、人間のセラピストの能力とは全く似ていない。一方、同様の資質を達成すると推定される特化型LLMが構築されているが、それらはまだ主に開発およびテスト段階にある。私の報道はこちらのリンクを参照されたい。

この議論の残りの部分では、主にメンタルヘルスに関する助言を提供する汎用AIに焦点を当て、それを行う特化型LLMには焦点を当てない。

禁止に向けた動き

メンタルヘルス目的での汎用AIの広範な使用について、私たちは何をすべきか。

一部の人々は、私たちがうまくいかない可能性のある巨大なグローバル実験の最中にあると熱心に信じている。人間はモルモットであり、無謀な治療は豊富なメンタルヘルスに関する助言を提供するAIである。その助言は最終的に私たちの精神的健康を損なう可能性がある。時間だけが教えてくれるだろう。

禁止せよ。

それが一部の人々が取っている見解だ。

私はイリノイ州で最近制定された州法を注意深く検証した。私の分析はこちらのリンク、ネバダ州についてはこちらのリンク、ユタ州についてはこちらのリンクを参照されたい。これらの最先端の法律は、メンタルヘルスに関する指導を提供するAIを禁止するか、少なくとも厳しく制限する傾向がある。他の州が同じ方向に進むかどうかは不明だ。連邦政府はまだこの重大な問題について法律を制定しておらず、禁止は検討されている多くの選択肢の1つである。

スピードバンプと摩擦

禁止の代替案は、スピードバンプを要求するというアイデアだ。

こういうことだ。おそらく、AI製作者にAIに摩擦を追加することを要求すべきだ。摩擦はハイテク分野の業界用語で、システムを使いにくくすることを意味する。この場合、特定のターゲットはメンタルヘルスの側面を伴うAIの使用となる。その方法でAIを使用するには、使用を遅くし、イライラさせ、うんざりさせるスピードバンプに対処する必要がある。

そうすることは、メンタルヘルスに関する助言のためのAIの使用を思いとどまらせることを目的としている。その目的でAIを使用することはまだできるが、そうすることは煩わしいものになる。したがって、これは禁止ではない。代わりに、抑止または阻害の一形態である。

もちろん、意図的にシステムを使いにくくすることは、賢明な構築者や開発者が達成しようとすることとはほぼ正反対だ。通常の目標は、システムをできるだけ使いやすくすることだ。できるだけ多くの摩擦を減らそうとする。人々は、摩擦に満ちていると認識すればあなたのシステムに引き寄せられることはない。彼らは摩擦のないシステムを望んでいる。

AIメンタルヘルス使用への摩擦の追加

メンタルヘルスに関する指導を提供するAIに摩擦を追加することが、法律によって義務付けられるか、文化的に期待される規範になると想像してみよう。

これを実施できる6つの注目すべき方法を説明する。

  • (1)ユーザーから非常に厳格な同意を要求する。
  • (2)対話中にユーザーを絶え間なく中断する。
  • (3)ユーザーに常に極めて詳細に説明させる。
  • (4)実際の助言を与える前にプロセスを引き延ばす。
  • (5)ユーザーに言われたことを常に繰り返させる。
  • (6)実施しなければならない頻繁なタイムアウトを導入する。

これら6つのいずれも、メンタルヘルスサポートのためにAIを使用することを目指す人にとって障害となる可能性が高い。

2つ以上のスピードバンプを使用することで、ハードルをより高くすることができる。摩擦が多ければ多いほど、人々がこの目的でAIを使用したいと思う可能性は低くなる。摩擦を積み重ねる。10フィートごとにスピードバンプがある道路を運転していると想像してほしい。あなたはそれを好まないだろう。おそらく別の道を見つけようとし、その摩擦に満ちた道を完全に避けるだろう。

これら6つは氷山の一角に過ぎないことを指摘しておく。AI開発者は、摩擦を引き起こす方法をさらに多く喜んで考え出すことができる。喜んでと言うのは、通常の戦いはAIの摩擦を減らすことだからだ。彼らは摩擦点と格闘し、それらを減らすか排除する方法について苦悩する。誰かがやって来て摩擦を追加するよう懇願し、そうすることで報酬を得られるなら、歓声と喜びの声が廊下中に聞こえるだろう。

6つのモードのそれぞれの本質を順に説明していく。

ユーザーから非常に厳格な同意を要求する

主要なLLMのほとんどは、オンラインライセンス契約に埋もれた一文があり、メンタルヘルスに関する助言のためにAIを使用すべきではないと述べている。その一文がそう述べていない場合、メンタルヘルスに関する助言を得るためにAIを使用する場合、これは自己責任で行われ、生成される助言とは何の関係もないことを強調している可能性が高い。などなど。

オンラインライセンス契約を掘り下げるユーザーはほとんどいない。AI製作者がメンタルヘルスに関する助言のためにAIを使用してほしくないと主張していること、またはAI製作者がそうする可能性があることを渋々認めているが、そうすべきではないことを、膨大な割合のユーザーが知らないと私は推測する。

摩擦を追加する本当に簡単な方法は、メンタルヘルスに関連するプロンプトのわずかな兆候を持ち出した瞬間に、AIが同意を必要とする目立つメッセージをすぐに表示することだ。メッセージは明白に目立つものになる。繰り返すが、これは通常非常に小さく、ユーザーが単にクリックスルーするほとんどの同意警告とは異なる。

同意をさらに煩わしい能力に押し上げるために、同意要件はメンタルヘルスに関する対話のあらゆる段階で繰り返し表示される可能性がある。したがって、1回限りの同意確認ではなく、何度も何度もそうする必要がある。それは誰かを完全に激怒させるはずだ。

対話中にユーザーを絶え間なく中断する

次のスピードバンプは、対話をシームレスであることの反対にすることに関係している。

AI開発者は通常、あなたがAIとの対話に入り、会話を延々と続けることを望んでいる。多ければ多いほど良い。長ければ長いほど良い。これは収益化と使用統計に関係している。エナジャイザーバニーのように、あなたを続けさせ続けることがAI製作者にとって有益だ。

その反対は、AIが対話を中断することで構成される。これは実装が簡単だ。シンプルなアプローチは、会話の他のやり取りごとに、AIがメンタルヘルスについての議論を続けたいかどうかを尋ねることだ。会話がぎこちなく中断されることにうんざりするだろう。

ブーム、マイクを落とす、その人は続けたくなくなり、メンタルヘルスについて新しいチャットを開始する前に真剣に考え直すだろう。

ユーザーに常に極めて詳細に説明させる

次の摩擦点は、ユーザーを非常に冗長にさせることを伴う。繰り返すが、これはAI製作者が達成しようとすることの反対だ。従来の道は、ユーザーが非常に短いプロンプトを入力でき、AIがその人が言おうとしたことを理解しようとすることだ。その人を長いタイピストにする必要はない。ほんの数語で十分だ。

摩擦を追加するために、AIは「無邪気に」その人にもっと詳しく説明するよう求め続けることができる。ある人が落ち込んでいると言ったとしよう。AIが何をすべきかの提案を提供し始める前に、AIはユーザーにいつ落ち込んでいるのかを詳しく説明するよう求める。

それだけでは十分ではない。AIによるフォローアップの質問は、これがどのくらい続いているかを尋ねることになる。その人がどんな答えを出しても、AIはさらに多くの質問をし続ける。素晴らしいのは、AIが結論に飛びつく前に個人的な詳細を求めているように見えるため、これがすべて賢明に見えることだ。
確かに、それはおそらく目的の一部だが、摩擦に満ちた世界での真の目的は、やり取りを遅くし、ユーザーを疲弊させることだ。

実際の助言を与える前にプロセスを引き延ばす

ほとんどの人に確実に不安を生み出すスピードバンプがある。AIは何らかの形のメンタルヘルスに関する助言を提供する可能性の周りで踊ることができる。

それはこのように機能する。AIは最初に、あなたがメンタルヘルスのための一種の診断と推奨を得ることを前もって示唆するかもしれない。その道に沿って始めると、AIは助言を提供することを延期するためにできることは何でもする。これは、ユーザーに常に極めて詳細に説明させることについての前のポイントにやや似ている。

この摩擦点で、AIは助言に近づくが、助言を渡さない。あなたは助言のかすかな光を見る。あなたの希望は高まる。しかし、地平線はあなたが予想するよりもはるかに遠い。過度の時間と労力の後、AIはついにわずかなメンタルヘルスに関する助言を与える。

苦痛な待機は価値があったか。

おそらくそうではない。

ユーザーに言われたことを常に繰り返させる

もう1つの極めて単純な刺激物は、ユーザーに自分自身を繰り返すよう求めることを伴う。

ユーザーが不安になると言ったと想像してほしい。AIはユーザーに、本当に不安になると言いたかったのかと尋ねる。はい、ユーザーは言う、私は確かに不安になると言った。それは本当にあなたが意味したことですか、とAIは尋ねる。完全に確信していますか、とAIは尋ねる。もう一度教えてください、とAIは懇願する。

ユーザーがメンタルヘルスの状態について入力するほとんどすべてのことについて、AIはその人にそれを繰り返すよう促す。AIがついにあなたが言ったことの要点を理解したと思ったら、AIは突然忘れっぽいふりをして、あなたに繰り返すよう求める。すすぎと繰り返し。

誰かを壁に追い詰めることが保証されている。

実施しなければならない頻繁なタイムアウトを導入する

ソーシャルメディアユーザーに休憩を取るよう伝える傾向が、多くの主要なソーシャルメディアアプリに広がっていることをご存知かもしれない。これは通常、未成年者を対象としている。これについてはいくつかの法律がある。社会はこのアイデアを部分的に受け入れているようだ。おそらく、人、特に若い人がソーシャルメディアから休憩を取らなければならない場合、彼らは頭をクリアにし、時間を使ってより生産的で有益な何か他のことを見つけるだろう。

同じアプローチをAIで使用できる──この場合、メンタルヘルス目的でAIを使用する場合だ。

それはこのようになる。あなたはメンタルヘルスについての対話に従事している。AIはあなたと行ったり来たりしている。すべてが順調に進んでいる。数分ごとに、AIは会話から2分間の休憩を取ることを通知する。対話を続けるには、その2分間待つ必要がある。

停止間の時間は数分より多いか少ないかもしれず、同様に、休憩はより長いかより短いかもしれない。要点は、AIがメンタルヘルスに関する議論中にユーザーに休憩を取ることを強制することだ。

自発的対義務的

主要なAI製作者のいずれかが、これらのタイプの摩擦を引き起こす機能を自発的に採用することを期待するだろうか。

いいえ。

そうすることは意味をなさない。AI製作者がこれを行う場合、ユーザーは単にそれらの摩擦点を持たない別のLLMに逃げるだろう。AI製作者は自分自身の足を撃っている。これを行う説得力のある理由がない限り、インセンティブはそこにない。おそらくこれは義務付けられる必要がある。法律が必要になる。そして法律には歯が必要だ。さもなければ、AI製作者は法律の周りの卑劣な方法を見つけるだろう。

妥当性が疑問視される

ちょっと待って、一部の人は主張するかもしれない。AIがメンタルヘルスに関する助言を与えながらスピードバンプに従事する場合、これは人々がその点でAIを使用することを思いとどまらせるだけでなく、それ以上のことをする可能性がある。人々は激怒するかもしれない。このように振る舞うAIは、誰かのメンタルヘルスを悪化させる可能性がある。実際、おそらく摩擦は、最初からそこになかったメンタルヘルスの問題を引き起こすよう彼らを刺激するだろう。

フィクションに満ちた対摩擦のない視点についてどう思うか。

摩擦を追加することが間違っていると真剣に考えているなら、私はあなたにひねりを加える。精神的に準備をしてほしい。

孔子は有名にこう言った。「宝石は摩擦なしには磨かれず、人間は試練なしには完成されない」。おそらくこれは、AIに摩擦を追加することによって、提供されるメンタルヘルスに関する助言がより価値があり、採用に値すると認識されることを意味している。AIが生成した指導を得るために懸命に努力しなければならなかった場合、人々はメンタルヘルスの改善を受け入れる可能性が高くなるかもしれない。

その論理は一部の人々の怒りを買い、摩擦のように完全に間違った方法で彼らをこするだろうと私は確信している。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事