AI依存への懸念を専門家が指摘
ニューヨーク大学の老年学者で「エイジング・インキュベーター」の共同ディレクターを務めるベイ・ウー博士は、こうしたAIが人間の介護士を補完する形で活用されれば、「脳の働きを刺激し、感情面の支えにもなりうる」と指摘する。一方で、「認知機能が低下している人が過度に依存したり、個人データの安全性が損なわれたりするリスクについては警戒が必要だ」とも述べている。
家族が抱く道徳的な葛藤
高齢の親や祖父母らをAIとの会話に参加させる子どもたちは、道徳的な葛藤を抱えているとル・モワーニュは述べている。彼らの中には、「ボットを使うよりも自分たち自身が話し相手になるべきなんじゃないか」と感じる人もいると彼は指摘する。リチャードの息子ジョンも、「友人の中にはAIに懐疑的だったり、このサービスを詐欺まがいだと心配したりする人がいた」と認めている。だが、InTouchの目的は「人間同士の交流を置き換えることではない」とル・モワーニュは強調する。
同社のツールは、通話のたびに、会話の要約や気づきを抜粋したレポートをアプリを通じて家族に送っている。家族はそれを参考に次の会話のきっかけをつかんだり、様子を見に行くタイミングを思い出したりできる。レポートには、会話全体の要約や通話時間、本人の気分の評価、話題の一覧などが含まれている。
会話の微妙なニュアンスを理解するのが苦手で、混乱することも
Meela AIやInTouchのような企業のツールは、多くの場合、OpenAIやMistral(ミストラル)、Anthropic(アンソロピック)といった企業が開発した既存モデルを基盤に、高齢者に合わせて調整が施されている。会話のテンポを大幅に落とし、返答までの間に考える時間を確保し、途中の割り込みにも対応できるようにしているのだ。通常のユーザーであれば3秒の応答の遅れはストレスに感じるかもしれないが、高齢者にとってはむしろ助けになることが多い。「それは欠点ではなく“機能”なのだ」とル・モワーニュは語った。
もっとも、この技術はまだ完璧にはほど遠い。AIの話し相手は会話の微妙なニュアンスを理解するのが苦手で、混乱することもある。Meela AIのボットとのある通話では、ゴンザレスが何度も丁寧に会話を終えようとしたにもかかわらず、システムが次々と質問を重ねてきたため、最後には彼が電話を切るしかなかったという。
妄想を増幅させる、AIの深刻なリスク
さらに深刻な問題もある。AIとの長期的な会話が、特に社会的に弱い立場にある人々にとって、望ましくない結果を招くことがあるのだ。すでにいくつかのケースでは、メンタルヘルスの問題を抱える若者や大人が、ChatGPTやCharacter.AIなどのチャットボットに依存し、不健全な関係を築いてしまった例が報告されている。なかでも極端な事例として、精神疾患の既往歴を持つ56歳の男性がChatGPTとの会話を通じて被害妄想を強め、最終的に自らと母親の命を絶つに至ったケースもある。AIは、妄想的な思考を短時間で、しかも説得力をもって増幅させてしまう可能性があるのだ。
「本来アシスタントとして設計されたシステムを使用していても、そのツールが思いやりのある友人のように『正しい視点や適切なブレーキ』を与えてくれるとは限らない」と、スタンフォード大学のコンピューターサイエンス准教授ニック・ヘイバーは警鐘を鳴らす。
AIは話し相手からセラピストに進化するか
一方で、高齢者向けのAI製品が登場する以前から、実はこの世代はAIの「初期からの熱心な利用者」になりつつあった。フォーブスの「30 Under 30」に選ばれたニール・パリクが2022年に創業したSlingshot AI(スリングショットAI)もその1つだ。同社はメンタルヘルスに特化した会話型AI「Ash(アッシュ)」を開発しているが、当初は「高齢者が主要ユーザーになるとは想定していなかった」という。しかし今では、ユーザーの20〜30%を高齢者が占めている。パリクはその理由の1つに「一部の高齢者は、助けを求めることに“偏見や恥の意識”を抱いている」点を挙げる。しかしAIを相手にすることで、「人間を相手にするよりも、より早く、率直に心の内を話せるようになる」のだという。
他の「話し相手」型のAIツールとは異なり、Ashはむしろ「セラピスト」として設計されている。たとえばユーザーが「孤独を感じている」と話した場合、このボットは単に慰めたり、言われたことに何でも同意したりはしない。その代わりに「あなたの人生の中で大切な人は誰か」「どうすればその人たちとつながれるか」といった質問を投げかける。「Ashは、ユーザーがなぜその質問をするのかを問い返してくる」とパリクは説明する。これは、AIがユーザーの発言を無批判に受け入れたり、危険な行動を助長したりしないようにするための工夫だ。
このソフトウェアは、会話の内容をモニタリングし、ユーザーがストレスや危機的状況にある可能性を示す言葉を検出すると、緊急ホットラインや臨床医につなぐ仕組みになっている。それでも課題は残る。ニュースメディアのPuckが最近報じたところによると、Ashは「うつ状態の人が、自殺の意思をほのめかすような微妙なサインを見逃すことがある」という。
社会参加を促すことが目的の小型ロボット、「ElliQ」
ロボット工学のアプローチを採用するスタートアップもある。カリフォルニア州パロアルトに拠点を置くIntuition Robotics(インテュイション・ロボティクス)は、「より幸せで健やかな高齢期」を目指して開発された小型ロボット「ElliQ(エリーキュー)」を手がけている。
このデバイスは卓上ランプのような外観で、オーディオブックを読み上げたり、聖書の一節を朗読したりする。また、呼吸法を練習したり、薬の服用や通院を促したりする「ウェルネスコーチ」としての機能も備えている。同社創業者兼CEOのドール・スクラーは10年にわたってElliQの開発を続けており、自社AIの目的は「外出したり、高齢者センターを訪れたり、家族や友人に会ったりといった社会的な活動を促すことにある」と語る。
スクラーによると、ElliQは米国全土で数千人の高齢者に利用されており、3年以上使い続けている人もいるという。2022年には、ニューヨーク州高齢者局が1人暮らしの高齢者向けに約800台のElliQを購入したところ、1年後の調査では、その成果は驚くべきものだった。参加者の95%が「孤独感が軽減された」と回答したと、同局は2023年の報告書で明らかにしている。利用者は平均して1日に数十回、このロボットとやり取りしていたという。
「私たちの社会で最初にAIと共に暮らし、長期的な関係を築いている人々は、シリコンバレーの技術オタクではない。高齢者たちなのだ」とスクラーは語った。


