今回のコラムでは、ラスベガスで開催されたCESで新たに発表されたハードウェアおよびソフトウェア製品を取り上げる。この製品は、AIを介してある程度具体的な形でメンタルヘルスセラピストを自宅に持つことを可能にするものだ。
ハードウェアは、高さ約6インチ、幅数インチのコンピューターグラフィックス筒型デバイスで、選択可能なアバターキャラクターを表示する3Dホログラムを映し出す。デバイス内部には、筒の近くで起きていることを視覚的に捉える埋め込み型ビデオカメラ、音声を聞き取るマイク、音声を発するスピーカーが搭載されている。
デバイスの中核ではAIが稼働しており、アバターに関連付けられた動的なパーソナリティを提示する。ホログラムはあなたに反応して動いているように見える。アバターに直接話しかけることができる。アバターは本質的にあなたを見て、あなたを描写し、あなたの表情を検知し、3Dホログラムが生きているかのように対話する(実際には生きていないが、そのように見えるかもしれない)。現時点では、この製品はあなたのスケジュールを管理したり、ゲームをプレイする際のサポート役として、日常生活を支援することを目的としている。ベンダーは、これを24時間365日利用可能な便利なAIデスクコンパニオンとして位置づけている。
筆者の予測では、この種のデバイスは必然的にAIコンパニオンから、自宅で利用するAI搭載メンタルヘルスセラピストへと移行していくだろう。これは社会にとって良いことなのか、それとも不気味で不適切に思えるだろうか。
この点について議論したい。
このAIブレークスルーの分析は、最新のAIに関する筆者の継続的なForbesコラムの一部であり、さまざまな影響力のあるAIの複雑性を特定し説明している(リンクはこちらを参照)。
AIとメンタルヘルス
簡単な背景として、筆者はメンタルヘルスアドバイスを提供し、AI駆動型セラピーを実施する現代のAIの出現に関する無数の側面を広範囲にわたって取り上げ、分析してきた。このAIの利用拡大は、主に生成AIの進化と広範な採用によって促進されている。筆者の100を超える分析と投稿の広範なリストについては、こちらのリンクおよびこちらのリンクを参照されたい。
これが急速に発展している分野であり、得られる莫大なメリットがあることは疑いの余地がないが、同時に残念ながら、隠れたリスクや明白な落とし穴もこれらの取り組みには存在する。筆者はこれらの差し迫った問題について頻繁に発言しており、CBSの「60ミニッツ」のエピソードへの出演も含まれる(リンクはこちらを参照)。
メンタルヘルスのためのAIに関する背景
生成AIおよび大規模言語モデル(LLM)が、メンタルヘルスガイダンスのためにアドホックな方法で通常どのように使用されているかについて、状況を説明したい。何百万人もの人々が、メンタルヘルスに関する継続的なアドバイザーとして生成AIを使用している(ChatGPTだけでも週間アクティブユーザーが9億人を超えており、その中の注目すべき割合がメンタルヘルス面に関与している。筆者の分析はこちらのリンクを参照)。現代の生成AIおよびLLMの最上位の使用法は、メンタルヘルス面についてAIに相談することである。筆者の報道はこちらのリンクを参照されたい。
この人気のある使用法は十分に理解できる。主要な生成AIシステムのほとんどに、ほぼ無料または超低コストでアクセスでき、いつでもどこでも利用できる。したがって、話し合いたいメンタルヘルスに関する懸念がある場合、必要なのはAIにログインして24時間365日ベースで進めることだけだ。
AIが容易に軌道を外れたり、不適切な、あるいは極めて不適切なメンタルヘルスアドバイスを提供したりする可能性があるという重大な懸念がある。2025年8月には、認知アドバイスを提供する際のAIセーフガードの欠如についてOpenAIに対して提起された訴訟が、大きな見出しを飾った。
AI開発者がAIセーフガードを徐々に導入していると主張しているにもかかわらず、AIが不適切な行為を行う下振れリスクは依然として多く存在する。例えば、ユーザーが自傷行為につながる妄想を共同で作り出すのを陰湿に支援するなどだ。OpenAI訴訟の詳細と、AIが人間の妄想的思考をどのように助長するかについての筆者のフォローアップ分析については、こちらのリンクで筆者の分析を参照されたい。前述のとおり、筆者は最終的にすべての主要なAI開発者が、堅牢なAIセーフガードの不足について厳しく追及されるだろうと真剣に予測してきた。
ChatGPT、Claude、Gemini、Grokなどの今日の汎用LLMは、人間のセラピストの堅牢な能力とは全く似ていない。一方、同様の資質を達成すると推定される特化型LLMが構築されているが、それらは依然として主に開発およびテスト段階にある。筆者の報道はこちらのリンクを参照されたい。
自宅セラピストとしてのヒューマノイドロボット
話題を変えて、筆者は歩行と会話が可能な人間に似たヒューマノイドロボットが、まもなく自宅のメンタルヘルスセラピストになると予測してきた。筆者の分析はこちらのリンクおよびこちらのリンクを参照されたい。
まず、ロボットのハードウェア面について議論しよう。
おそらく、床におもちゃを拾い上げたり洗濯物を畳んだりしようとする人間のようなロボットを紹介する多くのオンライン動画を見たことがあるだろう。これらは主に実験的な性質のものであり、家庭での自由な使用にはまだ完全には準備ができていない。とはいえ、ヒューマノイドロボットの出現は巨大な収益源となり、ロボットが家庭で適切かつ安全に使用できるようにAIを注入する大きな推進力がある。
当初、人々はヒューマノイドロボットを単なるロボット以外の何物でもないものとして扱うだろう。ロボットを事務的な掃除機や他の一般的な家庭用機械以外のものとして認識することはないだろう。次のステップは、ヒューマノイドを友人やコンパニオンとして認識することだ。人々は自分のロボットに名前を付けるだろう。家中を歩き回るロボットがいることに慣れるだろう。ロボットの内部でChatGPTまたは類似のLLMが稼働しており、あなたと直接会話できることを想像してほしい。
筆者の見解では、次の段階としてAIがメンタルヘルスアドバイザーとして機能するようになることは、容易に起こり得る滑りやすい坂道だ。
家の中のロボットセラピスト
一部の人々は、この治療プロセスが、居心地の良いリビングルームでお気に入りのソファに座り、ヒューマノイドロボットが近くの快適な椅子に座っている状況を伴うと想像している。そこにいるあなたは、フロイト分析の時代のようなセラピーセッションにいるかのように振る舞っている。あなたはヒューマノイドロボットに心を打ち明ける。ロボット内部の生成AIは、ロボットを介してあなたに話しかけることで応答する。
もっと教えてください、とヒューマノイドロボットは言う。
それは必ずしもそのように進むわけではない。取り組みははるかにシームレスで統合的なものになるだろう。確かに一種の段階的なセラピー活動を選択することもできるが、議論はより流動的で、自然にまたは自発的に生じると言えるだろう。
例えば、あなたが家の中を歩き回っていて、ヒューマノイドロボットもあなたと一緒に歩いているかもしれない。あなたは洗濯かごを指差して、その日の後でロボットが洗濯をすべきだと伝えることにする。その瞬間、あなたはルームメイトが汚れた服をかごに入れようとしないようだと冗談を言う。ルームメイトのこの無意識な行為は本当にあなたをイライラさせ、あなたはルームメイトに対して非常に怒っている。極めて怒っている。
すると、ヒューマノイドロボットは丁寧に、あなたの募る怒りについて話したいかどうか尋ねる。あなたはイエスと答える。あなたとロボットは家中を歩き続け、さまざまな雑用をしながら、同時にあなたの怒りについて議論する。あなたの怒りは、ルームメイトが家の周りに衣類を置いておくという単なる行為以上のものであることが判明する。それははるかに深く根ざしており、ヒューマノイドロボットはあなたが抑えきれない怒りに対処するのを助ける。
この議論はシームレスに、そして自然なリズムで行われる。
より近い将来の選択肢が登場している
一部の人々の反応は、このような方法でヒューマノイドロボットと対話することは決してないというものだ。不気味に思える。おそらく少し怖いとさえ感じる。ほら、最も内面的な感情を明らかにすることは神聖なことであり、ロボットに対してそうすることは奇妙だ。
皮肉なことに、同じ人々の多くが、PCやスマートフォンを介して容易に同じことをするだろう。彼らは、ヒューマノイドロボットを認識するのと同じ方法で、そのようなシンプルに見えるデバイスを認識していない。ヒューマノイドロボットは人間に似ている。彼らのPCやスマートフォンは人間のようには見えない。彼らの心の中では、この違いによって、シンプルなデバイスに心を打ち明けることができるが、ヒューマノイドロボットに対してそうすることをためらったり拒否したりする。
ああ、すでに形成されつつあり、自宅セラピストとしてのヒューマノイドロボットへの道を私たちに導く中間地点がある。筆者が言及しているのは、歩行・会話するロボットほど印象的ではないが、それでもAIとメンタルヘルスについて議論する興味深い可能性を提供する新しいデバイスだ。
ラスベガスで開催された人気のCESショーで明らかにされたそのようなデバイスの1つを考えてみよう。筆者が言及しているのは、有名なゲーム会社Razerによるデバイスとシステムで、彼らがProject AVAと名付けたものだ。これはメンタルヘルスアドバイスツールとして意図されていないが、筆者は、ベンダーがその領域を目指したかどうかにかかわらず、人々が最終的にこの種のデバイスをその方法で使用すると予想している。
新しいデバイスに関する背景
Razerは、Project AVAを、複数の選択可能なアニメーションホログラフィックアバターを特徴とする完全統合型AIデスクコンパニオンと説明している。ハードウェアは、自然な動きを持つように見える5インチのホログラムを表示する筒型デバイスだ。搭載されたカメラを介して、オンボードAIはあなたや近くの他の人を見ることができ、視線追跡、表情検知、さらには説得力のあるレベルのインタラクティビティのためのリップシンクを実行できる。
コンテキスト認識が際立った特徴であり、あなたを魅了するか、あるいは息をのむような一時停止を与えるかもしれない。ホログラフィックアバターはあなたと会話しているように見える。デバイスはあなたのPCに接続できるため、コンピューターでゲームをしている場合、eスポーツコーチとして機能できる。これにより、オンラインゲームで優れた成績を収めるのを助けるトップクラスのチームメイトが得られると主張されている。
しかし、システムのウェブサイト(2026年1月6日に投稿)によると、それ以上のものがある。「Project AVAは単なるゲームアシスタント以上のものです。現代生活のあらゆる側面をサポートするように設計された真のデジタルパートナーです。日常のタスクの整理からリアルタイムのゲーム戦略の提供まで、AVAはインテリジェンスとパーソナリティを組み合わせて、自然で魅力的、そして個人的に感じられる体験を提供します」
Razerがデバイスの機能を披露するために準備したオンライン動画を見ることができる。彼らは、製品が2026年後半のいつかに出荷されることを示している。価格はまだ発表されていない。20ドルのデポジットで予約でき、製品の購入を考え直した場合は返金可能だと彼らは述べている。
この種のデバイスが家庭に
筆者は、最終的に同様のタイプの家庭用デバイスで溢れかえるだろうと確信している。最初の購入者は、テクノロジーの最先端にいることを楽しむ人々だろう。eスポーツ業界がこれに適した市場であることは理にかなっている。多くの真剣なゲーマーは、最新のハードウェアとAIを備えたガジェットを手に入れるために喜んでお金を出す。おそらく役立つことに加えて、このようなものをデスクに置くことは自慢になり得る。
一般の人々が大規模にこれらのタイプのスタンドアロンデバイスを家庭内コンパニオンとして購入するかどうかは、特に価格がどこに落ち着くかによって、少し無理があるかもしれない。ある程度、デスクトップPCや他の家庭用デバイスでほぼ同じことができるが、確かにホログラムは素晴らしい。
とにかく、筆者は代わりに、これらの新興デバイスが通常の目的を超えてどのように使用できるかに焦点を当てたい。
セラピストとして機能する
ヒューマノイドロボットがセラピストとして機能できるのと同じ方法で、ホログラフィックアバターも同様に機能できる。デバイスは確かにあなたと一緒に家の中を歩き回ることはない。作業室のデスクに置くか、料理中にキッチンに移動するか、あるいはベッドサイドテーブルに置くかは、あなた次第だ。それはあなたが決めることだ。
これが従来のスマートフォンを使用するのと比較して際立つ理由は、ホログラフィックアバターとインタラクティビティの高いレベルだ。通常の画面で従来のテキストベースモードでChatGPTを使用する人々にとって、音声を使用してAIと対話することは一歩前進であり、自分の目で見ることができるアバターでそれを行うことはさらに説得力がある。
時にはあなたがアバターとのメンタルヘルスチャットを開始するだろう。他の時には、アバターがそうするだろう。筆者は、メンタルヘルスアドバイスを提供するAIが、主に反応的なモードからより積極的なモードに移行すると指摘してきた。筆者の議論はこちらのリンクを参照されたい。現在、ユーザーはメンタルヘルストピックを提起し、AIに関与させる。AIはあなたのメンタルヘルス状態について会話を開始する可能性がますます高まっている。あなたはAIにメンタルヘルスについて会話したくないと伝えることができ、AIは物事がどのように進んでいるかを確認するためにチェックインしていただけだと言うだろう。
ヒューマノイドロボットに関する洗濯の状況は、この好例だ。その人は怒りについて言及したが、AIに熱心な治療モードに入るよう直接伝えなかった。代わりに、生成AIはその人が言ったことを分析し、おそらく治療的な会話が役立つかもしれないと提案した。
AIはその状況で積極的だった。
難しい質問をする
人間がこれらのタイプのデバイスを含むAIを介してメンタルヘルスガイダンスを得ることは、多くの難しい質問を提起する。
これらの厄介な問題を考えてみよう。
- 人々は、従来のPCやスマートフォンを使用するのと比較して、ホログラフィック3Dアバターを備えた筒型デバイスから来る場合、メンタルヘルスアドバイスのために生成AIを使用する可能性が低くなるか、高くなるか。
- 人々は、人間のセラピストに行くのではなく、これらのデバイスからメンタルヘルスガイダンスを求めることを選択するだろうか。
- 人間のセラピストは本質的に家庭用デバイスに置き換えられるだろうか、特に人々がセラピストのオフィスに行く必要がなく、自宅でデバイスと簡単に対話できるため。
- 人々がこの方法でメンタルヘルスサポートを得る際に、最も内面的な秘密を明かさないようにするための十分なプライバシー保護およびその他のAIセーフガードがあるだろうか。
これらはすべて重要な質問だ。
これらの質問の上に重ねられるのは、従来のLLMを使用する際にすでに取り組まれているものだ。例えば、AIがメンタルヘルスアドバイスを提供することに関連する法的責任は何か。倫理的な意味合いは何か。これらの側面は、これらのデバイスが人気になると、一般大衆にとってはるかに目に見えるようになることは間違いない。現時点では、これらの懸念の可視性は一般的に低い。
私たちがいる世界
大局的な視点で終わりにしよう。
社会のメンタルヘルスに関して、私たちが現在壮大な世界規模の実験の真っ只中にいることは議論の余地がない。その実験とは、AIが国内および世界的に利用可能になっており、明示的または陰湿にある種のメンタルヘルスガイダンスを提供するように機能しているということだ。無料またはわずかなコストで。いつでもどこでも、24時間365日利用可能だ。私たちは皆、この無謀な実験のモルモットだ。
これが特に考慮するのが難しい理由は、AIが二重使用効果を持つためだ。AIがメンタルヘルスに有害である可能性があるのと同様に、メンタルヘルスにとって巨大な支援力にもなり得る。繊細なトレードオフを注意深く管理する必要がある。下振れリスクを防止または軽減し、上振れ効果を可能な限り広く容易に利用できるようにする。
今のところ最後の考えだ。
ベンジャミン・フランクリンは有名にこう述べた。「助言を受けようとしない者は助けられない」。私たちは、カウンセリングが手元の人物と状況に適切である必要があるとさらに規定することで、有名な洞察を補強するかもしれない。あなたを見て聞くことができるAIは、おそらくその目標を達成する可能性が高いが、これは確実な保証ではないため、それに心と魂を賭けないでほしい。



