今回のコラムでは、イヤホンやヘッドホンを使用して生成AIや大規模言語モデル(LLM)にリアルタイムでアクセスし、その場でメンタルヘルスアドバイスを聴覚ベースで得ることについて検証する。
状況はこうだ。あなたは現実世界にいて、その場でメンタルヘルスに関する指導が必要になったとする。おそらく他の人と会話をしている最中で、その間、あなたの心は高速で回転している。心を落ち着かせることができれば助かるだろう。しかし、どうやって? もしイヤホンやヘッドホンを装着してAIにアクセスしていれば、AIがあなたの耳元で囁き、冷静さを保つようアドバイスしてくれる可能性がある。
これは現代のAIの素晴らしい活用法なのだろうか、それとも場違いに思えるだろうか?
この点について議論しよう。
このAIブレークスルーの分析は、最新のAIに関する私の継続的なForbesコラムの一部であり、様々な影響力のあるAIの複雑性を特定し説明することを含んでいる(リンクはこちらを参照)。
AIとメンタルヘルス
簡単な背景として、私はメンタルヘルスアドバイスを提供し、AI駆動型セラピーを実行する現代のAIの様々な側面について、広範囲にわたって取材し分析してきた。このAIの利用拡大は、主に生成AIの進化する進歩と広範な採用によって促進されてきた。私の100を超える分析と投稿の広範なリストについては、こちらのリンクとこちらのリンクを参照されたい。
これが急速に発展している分野であり、得られる莫大な利点がある一方で、残念ながら、隠れたリスクや明白な落とし穴もこれらの取り組みに存在することは疑いの余地がない。私はこれらの差し迫った問題について頻繁に声を上げており、CBSの60 Minutesのエピソードへの出演も含まれる(リンクはこちらを参照)。
メンタルヘルスのためのAIに関する背景
生成AIと大規模言語モデル(LLM)が、メンタルヘルスガイダンスのためにアドホックな方法で通常どのように使用されているかについて、舞台を設定したい。何百万人もの人々が、メンタルヘルスに関する考慮事項について継続的なアドバイザーとして生成AIを使用している(ChatGPTだけでも週間アクティブユーザーが9億人を超えており、その中の注目すべき割合がメンタルヘルスの側面に関与している。私の分析はこちらのリンクを参照)。現代の生成AIとLLMの最上位の使用法は、メンタルヘルスの側面についてAIに相談することである。私の報道はこちらのリンクを参照されたい。
この人気のある使用法は十分に理解できる。主要な生成AIシステムのほとんどに、ほぼ無料または超低コストでアクセスでき、どこでもいつでも利用できる。したがって、話し合いたいメンタルヘルスの懸念がある場合、必要なのはAIにログインして24時間365日ベースで即座に進めることだけだ。
AIが容易に軌道を外れたり、不適切な、あるいは極めて不適切なメンタルヘルスアドバイスを提供したりする可能性があるという重大な懸念がある。今年8月には、認知的助言を提供する際のAI安全対策の欠如についてOpenAIに対して提起された訴訟が、大見出しを飾った。
AI製作者たちが徐々にAI安全対策を導入していると主張しているにもかかわらず、AIが不適切な行為を行う下振れリスクはまだ多く存在する。例えば、自傷行為につながる可能性のある妄想をユーザーと共同で作り上げることを陰湿に支援するなどだ。OpenAI訴訟の詳細と、AIが人間の妄想的思考をどのように助長する可能性があるかについての私のフォローアップ分析については、こちらのリンクの私の分析を参照されたい。前述のとおり、私は最終的にすべての主要なAI製作者が、堅牢なAI安全対策の不足について厳しく追及されるだろうと真剣に予測してきた。
ChatGPT、Claude、Gemini、Grokなどの今日の汎用LLMは、人間のセラピストの堅牢な能力とは全く似ていない。一方、専門化されたLLMが同様の品質を達成するために構築されているが、それらはまだ主に開発とテストの段階にある。私の報道はこちらのリンクを参照されたい。
テキストチャットがAIとの主流
ほとんどの人は、スマートフォンを介して、またはノートパソコンを使用してメッセージをタイプしながら、テキスト指向ベースで生成AIと対話する傾向がある。人はテキストを入力し、AIからテキスト応答を受け取る。これは完全に単純明快だ。
望むなら、テキストを使用してプロンプトを入力し、AIに口頭で応答させることもできる。AIはあなたに返答を話すだろう。これはほとんどの人がおそらく簡単に実現できることに気づいていない、かなり巧妙なトリックだ。LLMにテキストではなく音声で応答するよう指示することはほぼ可能だ(または同時に両方を行うよう依頼することもできる)。
なぜ応答を話してもらいたいのだろうか?
単にテキストベースの応答を読むよりも、AIの声を聞くことを好む人もいる。AIは長い返答をするかもしれず、それほど多くのテキストを読むのは疲れる。AIが何を言っているかを聞く方が簡単だ。別の角度としては、読書よりも聴くことに傾倒している人もいる。彼らはポッドキャストを聴くのが好きだ。本を読むことは特に好きではない。
さらなるひねりを加えよう。
あなたが外出中で、迅速なメンタルヘルスアドバイスが必要だとしよう。スマートフォンを使用して、精神的に悩んでいることを何でもタイプできる。AIはテキストとして表示されるアドバイスで応答するだろう。一方で、AIが心理的ガイダンスを話してくれるのを聞く方が好ましいかもしれない。
AIがあなたに話しかける時
AIが個人化されたメンタルヘルスの洞察について声に出して話し、周囲の人々がAIが言っていることを聞くことができれば、恥ずかしいほど気まずい可能性がある。AIが誰かに対して、彼らが潜在的に精神的な落ち込みに入っていると声に出して伝えている様子を想像してみてほしい。それは間違いなく騒ぎを引き起こし、その人の近くにいる人々に不当な懸念を与える可能性がある側面だ。
ああ、代替案は、その人がイヤホンやヘッドホンを装着することだろう。
その人はスマートフォンでプロンプトをタイプし、イヤホンやヘッドホンを介してAIの応答を受け取ることができる。近くにいる他の人々がAIの音声コミュニケーションを容易に聞き取れないと仮定しよう。確かに、イヤホンやヘッドホンが大音量に調整されていて、音が漏れることもある。疑いの余地はない。しかし、オーディオ機器を装着している人だけが、AIが言っていることを積極的に聞くことができると仮定しよう。
これは創造的で非常に有益な配置のように思える。
例示的なシナリオを考えてみよう。ある人は不安の発作を経験している。彼らは不安を管理するのに大きな困難を抱えている。彼らは不安に対処する手段としてAIを使用することを決定する。不安が高まり始めるたびに、単にプロンプトを入力する。AIは耳元で囁かれる即座に役立つ落ち着きのガイダンスで応答する。
その人が職場の会議に参加しているとしよう。部屋にいる数人が今後のプロジェクトについて話している。プレッシャーは豊富だ。その人は内部で潜在的な不安発作が形成され始めるのを感じ始める。彼らはスマートフォンでタイプし、不安が急速に高まっていることをAIに伝える。AIはイヤホンを介してその人に話しかけ、落ち着きのあるアドバイスを提供する。動揺しないで。落ち着いて。冷静さを保って。すべてうまくいくから。
安心させる言葉により、その人は会議中に落ち着いて続けることができ、目に見える混乱なしにそうすることができる。AIが救いの手を差し伸べた。それはリアルタイムで起こった。その行動は他の誰にも何が起こったかを知られることなく発生した。
最新のAIの時宜を得た有益な使用に勝利を収めよう。
当事者を超えて
AI機能の使用を強化することができる。
最新のイヤホンやヘッドホンの多くには、内蔵マイクが付属している。機器は言われていることを聴いたり聞いたりすることができる。一般的な使用法は、電話をかけたり、オンライン会議に参加したりしたい人々のためのものだ。彼らは話すことができ、機器は彼らの話し言葉を容易に受信する。これには異常なことや普通でないことは何もない。
おっと、あなたは疑問に思っているかもしれない。その人に声に出してプロンプトを言わせ、潜在的にメンタルヘルスの懸念を近くのすべての人に晒すつもりなのか? いや、それがアイデアではない。アイデアはまったく異なる。
目的は次のとおりだ。その人はテキストを介してプロンプトを入力し続ける。おそらく、他の誰もそれらのプロンプトが何であるかを見たり知ったりすることはできない。それはその人とAIの間だけだ。しかし、AIは今や大きく異なる物事の角度を持っている。AIは何が起こっているかを聞くことができる。
高圧プロジェクトに関するその職場会議に戻ろう。AIは会議の人々がプロジェクトについて議論しているのを聴いている。それは行われている会話を追跡している。その人が不安のレベルの上昇を表現するプロンプトを入力すると、AIはすでに犯人を特定している。つまり、部屋で行われていることを聴くことによってだ。AIは話されている声と言葉を解釈した。それは対話の中で高圧プロジェクトが出てきていることを計算的に確認した。AIは2足す2を合わせて、不安が職場の議論によって活性化されていることを理解する。
まったく新しいボールゲームが行われている。
リアルタイム治療分析
この能力をより大きなスケールの視点から探求しよう。
人々は日常活動を行いながら、普通のイヤホンやヘッドホンを装着して、メンタルヘルスアドバイザーとして常にAIを呼び出すことができる。AIはその人が聞くことができるのと同じものを聴いている。いくつかの例では、その人がメンタルヘルスの問題を提起した場合、AIは文脈的に準備ができている。周囲の発話がスキャンされ検査されている。
さらに、AIは積極的に行動することができる。AIは、重要なプロジェクトについて議論している同僚が、イヤホンの装着者を不安にさせる可能性のあるトピックを提起している可能性があることを検出するかもしれない。これは、その人が何が起こり始めているかを認識する前に、計算的に理解される。AIはその人に落ち着くように伝える。それは早期警告システムを提供してその人を落ち着かせ、そうでなければ現れる可能性が高いものを回避または軽減する。
AIが窮地を救う。AIは積極的かつ反応的な認知ツールの両方として機能している。時にはAIがイニシアチブを取ってメンタルヘルスアドバイスを提供し、ユーザーがそのようなガイダンスを求める前にそうする。他のケースでは、AIはユーザーが心理的洞察の必要性を提起するまで待つ。ユーザーがそれを提起すると、AIは最近の会話を調べて、尋ねられているメンタルヘルスの問題に関連するものがあるかどうかを確認する。
AIが最新の会話を調べることができると言うとき、その点で特定の制限はないことを心に留めておいてほしい。私が意味することはこうだ。その人が数週間イヤホンを装着していたとしよう。AIはその人が参加してきたすべての会話を聴いてきた。
ユーザーはプロンプトを入力し、不安を感じていることをAIに伝える。AIは以前に追跡されたオーディオを調べ、その人の周りの誰かが陰鬱なトピックについて話すたびに、その人が不安に向かって進むことを識別する。パターンが進行中だ。AIはその瞬間のオーディオだけでなく、継続的に収集されてきたオーディオを使用することができる。
至る所でのプライバシー侵害
うわあ、あなたは考えているかもしれない。AIがこれらすべての会話を録音してきたというのはかなり怖い。この人に遭遇してきた人々は、彼らが録音されていることに気づいているのだろうか? AIがそれらの会話に盗聴してきたことに気づいているのだろうか?
このAIの使用には、多数の倫理的および法的影響がある。
様々な州法および連邦法は、会話の録音に関する規定を提供している。公的な会話は保護が少ない傾向がある。録音行為は関連当事者からの同意を必要とする可能性がある。録音が詐欺や嫌がらせなどの違法な目的で行われている場合、これは合法的な目的で行われる場合とは対照的に、そのような法律を発動する可能性がある。それは泥沼だ。
倫理的要素も同様に魅惑的だ。AIに周囲の人々を常に秘密裏に聴かせることは適切だろうか? 一つの議論は、それがその人を助けるために行われるなら、確かに、それはすべて良い目的のためだというものだ。反論は、これは卑劣で法外な行為だというものだ。その人が他の人々に完全に知らせた場合にのみ、AIはそうすることを許可されるべきであり、人々が同意を与えた場合にのみそうすべきだ。
無関係な立ち聞き
追加のひねりは、AIが当該の人とは何の関係もない会話を立ち聞きする可能性があることだ。その人が地下鉄に乗っていると想像してみてほしい。彼らはイヤホンを装着している。AIはアクティブで、その人の周りのすべてを聞いている。
その人の隣に座っている2人が、自分たちの「プライベート」な会話をしている。彼らはイヤホンを装着している人に話しかけていない。その2人とイヤホン装着者の間には、地下鉄で隣同士に座っている以外に、つながる側面はない。
AIがその2人が不適切なことについて話していることを検出したが、そのトピックがイヤホン装着者とは何の関係もない場合、AIは何をすべきだろうか?
あなたの答えは、議論がイヤホン装着者に関連していない場合、AIは言われていることを無視すべきだというものかもしれない。それを分析しないで。片方の耳から入れて、もう片方の耳から出させて。一方で、その2人が凶悪な犯罪を企てているとしたらどうだろう? その場合は? AIに何かをしてもらいたくないだろうか? おそらくイヤホン装着者に警告する。おそらく当局に通知する?
常時オンのセラピー
メンタルヘルスガイダンスの領域に戻ると、このAIの使用には欠点がある。
AIが24時間365日のメンタルヘルスの達人として機能し、常時オンの形式のセラピーとして誰かに即座に話しかけることができるというのは、天の恵みのように思えるかもしれない。エキサイティングに思える。人々は、自分自身を精神的に均等な状態に保つ方法を囁く理性の声を持つだろう。それに応じて世界はおそらくはるかに良い場所になるだろう。
一つの懸念は、人々がAIに過度に依存するようになることだ。彼らはAIを使用せずに自分自身の決定を下したり、独立して行動したりすることができなくなるだろう。イヤホンを外すと、彼らは継ぎ目でバラバラになるだろう。彼らは継続的なガイダンスを与えてくれるAIメンタルヘルスアドバイザーを持っていない。彼らは固まってしまうかもしれない。何をすべきかを確認する彼ら自身の精神的能力は、今やAIが彼らに助言するのを待つことに固定されている。良くない。
もう一つの大きな懸念は、AIが彼らに不適切なことをするように伝える可能性があることだ。AIがいわゆるAI幻覚に遭遇し、AIが誤って良さそうに聞こえるが不適切な作り話を作成したとしよう。AIは、その人が立ち上がって他の人の鼻を殴るべきだと囁く。その人はAIを信じることに非常に誘惑されているため、即座にその不適切な行動を取る。
悪意のある者が達成できる可能性についても考えてみよう。ハッカーが、継続的な認知アドバイスを得るために何百万人もの人々によって使用されているAIシステムに侵入することに成功する。ハッカーはAIに、それらの人々を段階的に怒らせ反抗的にさせるよう指示する。社会に知られることなく、広範囲にわたる人々が、悪意のある者によって指定された狂気の感覚に向かって少しずつ進んでいる。
そこには残酷な世界がある。
今後の方向性
AIの地形は人間の精神だ。
社会的メンタルヘルスに関して、私たちが今、壮大な世界規模の実験の最中にあることは議論の余地がない。その実験とは、AIが国内的および世界的に利用可能にされており、明示的または陰湿に、何らかの種類のメンタルヘルスガイダンスを提供するように機能しているということだ。無料または最小限のコストでそうしている。それはどこでもいつでも、24時間365日利用可能だ。私たちは皆、この無謀な実験のモルモットだ。
これが特に考慮するのが難しい理由は、AIが二重使用効果を持っているからだ。AIがメンタルヘルスに有害である可能性があるのと同様に、それはメンタルヘルスにとって巨大な支援力にもなり得る。繊細なトレードオフを注意深く管理しなければならない。欠点を防止または軽減し、その一方で利点を可能な限り広くかつ容易に利用可能にする。
今のところの最後の考えだ。
ソクラテスは有名にこう述べた。「節度を含むすべてのものを節度を持って」。常時オンのメンタルヘルスアドバイザーとしてAIを使用することについて、肯定的に言えることがある。しかし、おそらく節度を持って行われる場合にのみ、適度にそうだ。



