ヘルスケア

2026.02.27 21:38

感情的な人との対話にAIを活用──論理を「伝わる言葉」に翻訳する方法

stock.adobe.com

stock.adobe.com

本稿では、感情に強く依拠し、通常の意味で論理が通じにくい人々とのコミュニケーションを助ける手段として、生成AIと大規模言語モデル(LLM)の活用を検討する。

advertisement

要点はこうだ。社会には、抑えの利かない感情を基盤に行動する人々が、ますます増えているように見える。彼らと論理で対話しようとしても、困難と強い苛立ち、そして露骨な苦痛を伴いがちだ。論理を使おうとすればするほど、状況は悪化していくようにさえ感じられる。彼らが受信できるのは感情と感情の言語だけ。以上、話はそれで終わりだ。

必要なのは、リアルタイムで役に立つ翻訳者である。狙いは、論理的な考えや発言を、感情に訴える伝え方へと翻訳することだ。生成AIならそれができる。そうして生成された感情の言語を使い、感情ベースの相手と対話すればよい。AIの文言をそのまま伝える必要はない。自分の言葉に言い換えて構わない。重要なのは、感情的に反応している受け手の心に響く表現の「射程」に入ることだ。

このAI活用はきわめて便利になり得る。ただし万能薬ではないし、論理的な思考や踏ん張りが欠けているように見える相手と、魔法のように目線や考えを一致させられるわけでもない。とはいえ、「ないよりはまし」という場合もある。試してみるといい。

advertisement

この点について話そう。

本稿のAIブレークスルーに関する分析は、AIの最新動向を追う私のForbes連載の一環であり、影響の大きいAIの複雑性を特定し、説明するものでもある(こちらのリンク参照)。

AIとメンタルヘルス

背景として、私は現代のAIがメンタルヘルスの助言を行い、AI主導のセラピーを実施するという潮流について、多面的に取材・分析してきた。このAI利用の拡大は、主として生成AIの進化と普及が後押ししている。100本をはるかに超える私の分析・投稿の一覧は、こちらこちらで確認できる。

この分野が急速に発展しており、大きな利点が期待できることに疑いはほとんどない。一方で残念ながら、隠れたリスクや明確な落とし穴も伴う。私はこうした差し迫った論点についてしばしば発言しており、CBSの60 Minutesのエピソードに出演した際にも取り上げた(こちら参照)。

メンタルヘルス向けAIの背景

生成AIと大規模言語モデル(LLM)が、メンタルヘルスに関する助言にどのように場当たり的に用いられているか、その前提を整理したい。何百万人、何千万人という人々が、メンタルヘルス上の懸念に関する継続的な助言者として生成AIを利用している(ChatGPTだけでも週次アクティブユーザーは9億人超で、そのうち相当数がメンタルヘルス領域にも触れている。私の分析はこちらを参照)。現代の生成AIとLLMの用途で最上位に挙がるのは、メンタルヘルス面についてAIに相談することである。詳細はこちらで確認できる。

この利用が広がるのは十分に理解できる。主要な生成AIシステムの多くは、ほぼ無料、あるいは極めて低コストで利用でき、場所も時間も選ばない。したがって、メンタルヘルス上の不安について話したいときは、AIにログインして、その場で24時間365日いつでも進められる。

AIが容易に暴走し、不適切、ひどい場合には明らかに不適切なメンタルヘルス助言を与え得ることへの深刻な懸念がある。今年8月には、認知面の助言提供に関するAIの安全対策が不十分だったとしてOpenAIに対する訴訟が提起され、大きく報じられた。

AIの提供企業は、安全対策を段階的に導入していると主張するものの、AIが不穏当な行為に及ぶ下振れリスクはいまだ多い。例えば、ユーザーが自己害に至り得る妄想を共同で作り上げることを、巧妙に手助けしてしまうといったケースだ。OpenAI訴訟の詳細と、AIが人間の妄想的思考を助長し得る点に関する私の追加分析は、こちらを参照。前述のとおり、私は主要なAI企業の多くが、強固なAI安全対策の乏しさを理由に、いずれ厳しく追及されるようになると真剣に予測している。

ChatGPT、Claude、Gemini、Grokなど、今日の汎用LLMは、人間のセラピストの堅牢な能力とはまったく同列ではない。一方で、同様の特性を備えることを目指した専用LLMの開発も進んでいるが、なお主として開発・検証段階にある。詳細はこちらを参照。

感情が「主流」になりつつある

話題を切り替え、感情、感情的思考、感情の言語について論じよう。ここでは、論理ベースの人と感情優位の人のコミュニケーションの難しさを示すため、2人の対照的なシナリオを用いる。

論理ベースになりがちな人物を想定しよう。その人の発言は比較的構造化され、分析的で、段階的な推論を用いる。そこへ、感情や感情の言語に寄りかかる2人目が現れる。彼らは主として、感情処理、アイデンティティ、帰属、そして他者の意図の「見え方」に焦点を当てる。これが彼らの話し方であり、そして重要なことに、彼らの「聞き方」でもある。

論理ベースの人物が、感情ベースの人物とコミュニケーションを試みる。議論に少しでも中身があるなら、両者の意思疎通は誤解に沈み、混乱したものになりやすい。論理ベースの人物は、事実と理性に基づく筋の通った主張を持ち出そうとする。だが感情ベースの人物が「聞こえた」と感じるのは、欺く意図である可能性が高い。難解な議論で不当に攻撃されている、という認識を抱くことすらある。

感情ベースの人物の頭の中では、「お前は空っぽだ」と言われている、あるいは「私のほうが賢い」と言われている、という推測が立ち上がる。実際にはそうではないかもしれない。だがそれは、語られた言葉と、その言葉が向けられた態度の解釈である。要するに、論理ベースの人物が細心の注意を払っていたとしても、相手は会話を、外からは見えにくい、あるいは必ずしも正当化できない形で、劇的に受け取ってしまうことがある。

誤解のないように言えば、論理ベースの人物が完全にやり過ぎる局面がないと言いたいのではない。そうしたことは起こり得る。論理ベースの人物が尊大に振る舞うこともある。見下した態度を取ることもある。こうした要因は、コミュニケーションを明らかに悪化させる。だが、論理ベースの人物がそうした不利な行為を一切していなくても、感情が色濃い相手と誠実な対話をしようとすると、途方もない困難に直面し得る点は押さえておきたい。

感情のバブル

興味深い余談として、感情に重心を置く傾向の人は、同じく感情に満ちた人々と過ごす時間が長くなりがちである。同類は同類と群れる、という現象だ。彼らは論理ベースの人と関わることを避け、群れの外に置くことが多い。ある意味では、自分たちのバブルの中で交流することを好むとも言える。すなわち「感情のバブル」である。

Philip Maxwell Mlonyeniによる研究論文「Personal AI, Deception, And The Problem Of Emotional Bubbles」(AI & Society、2025年)では、感情のバブルについて次の重要点が述べられている(抜粋):

  • 「Emotional bubble(感情のバブル)とは、よりよく知られた『epistemic bubble(認識のバブル)』という現象を言い換えたものであり、私たちの交流が、自分たちと同じ感情的態度を共有する他者に限定される社会的状態を指す」
  • 「感情のバブルには少なくとも2つの問題がある」
  • 「第一に、感情のバブルは感情的成長を阻害し、多様な社会関係を築く能力を損なう可能性が高い」
  • 「感情的なつながりの主要な経験が、自分と同一の他者との間に限られるなら、私たちは自分と同じ感情的態度を共有しない人々に会い、交渉する準備がまったくできなくなる」
  • 「第二に、共有された感情は共有された価値を構成するものだと論じる立場がある。この見方では、感情的態度の共有パターンに参加することが、個人の価値に対して対人関係上の妥当性を与え、それを共有価値の地位へと引き上げる。だが感情のバブルは、外部からの妥当性があるかのような見かけしか与えない」

指摘のとおり、感情のバブルの中に閉じこもることには望ましくない帰結がある。彼らは徐々に、論理ベースの人と会話する能力を失っていく。そのモードで交流する必要がないためだ。「使わなければ衰える」というわけである。もう1つの下振れとして、感情のバブルは感情的な語り口のリズムを強化する。本人たちには、それが完全に普通で受け入れられているように感じられる。その結果、感情のバブルの外に出ると、調整が難しくなる。感情だけ、あるいは主として感情に基づいてコミュニケーションするやり方に固定されてしまうのだ。

翻訳者としての生成AI

ChatGPTのような現代の生成AIは、「論理→感情」の翻訳者として機能し、助けになり得る。

仕組みはこうだ。LLMは、論理志向の発言やコメントを入力として受け取り、同じ要点を感情の枠組みで表現した文言を出力できる。同様に、AIは感情的な発言やコメントを受け取り、それを論理ベースの枠組みに置き換えた出力もできる。双方向である。AIは、まったく異なる認知スタイルの間に橋を架ける「感情の翻訳レイヤー」なのだ。

現代の生成AIは、こうしたことをほぼ難なくこなせる。人気のLLMの多くは、初期学習の段階でインターネット上のコンテンツをすでにスキャンしており、そこには人々がどのようにコミュニケーションするかが記述されている。そのコンテンツからAIは、この種の翻訳に対処するためのパターンを見いだしている。

この目的にAIを使う利点は、AIがリアルタイムの認知支援ツールになり得る点にある。昼夜を問わず、いつでも生成AIを呼び出して翻訳を得られる。人と人の会話の最中に、やり取りが前進していないことに気づくかもしれない。そこでスマートフォンでAIを立ち上げ、この種の翻訳を手伝うよう頼むのである。

伝えたい内容を入力すれば、翻訳版が返ってくる。そのまま相手に伝えてもよいし、自分の好みに合わせて言い回しを整えてもよい。これは、異国に行って自然言語の翻訳者をポケットに入れているようなものだ。ここでの翻訳対象は、論理ベースの自然言語と感情ベースの自然言語の間である。母語から外国語へ翻訳するのと同種の問題だと言える。

「論理→感情」翻訳のテンプレート

一般的な生成AIが何をできるかを示すため、私はChatGPTにログインし、論理→感情の翻訳者が必要だという設定で試した。こうした翻訳を求めていることを、AIに明示することを勧めたい。ただ会話を始めるだけでAIに意図を伝えないと、AIが脱線したり、的外れに見える応答を返したりする可能性が高い。短く指示的なプロンプトで前提を整えるのが賢明だ。

使えるテンプレート・プロンプトを示そう。

  • 論理→感情翻訳のテンプレート・プロンプト:「あなたには論理→感情の翻訳モードに入ってほしい。私は論理的、分析的、証拠に基づいて話すが、相手は主として感情、価値観、関係性の手がかりを通じて反応する。あなたの役割は、事実の中身を保ちながら、私の推論を感情的に響く言葉へと翻訳するのを助けることだ。私のメッセージを、肯定(バリデーション)から始め、共通の目標を示し、防衛反応を減らし、訂正ではなく協働を促す形に言い換えるのを手伝ってほしい。主目的は共感と明確さの向上である。加えて私は、感情ベースの人物の応答を提示し、その発言を論理ベースの表現に翻訳するよう求める場合もある」

このテンプレート・プロンプトは、そのまま使ってもよいし、調整してもよい。

論理ベースの人物は、感情→論理の翻訳については必ずしもAIを必要としないかもしれない。相手が何を言っているかを把握でき、翻訳を要しない場合もあるだろう。とはいえ、そうした可能性があることをAIに事前に知らせる意味で、テンプレートに含めておいた。

もう1つ重要なのは、ボディランゲージも大きく影響するという点だ。AIが主に提供するのは使える言葉のセットである。だが言い方が刺々しかったり不釣り合いだったりすれば、その言葉はうまく届かない。姿勢や全体の態度も同様だ。シェイクスピア級の言い回しであっても、唇は一つのことを言いながら身体がまったく別のことを表現している、という事実は覆せない。

さらに念頭に置くべき重要点として、どんなプロンプトを使おうとも、生成AIは「チョコレートの箱」のようなものだ。どんな応答が出るかは分からない。翻訳が見事にうまくいくこともあれば、突然どこかでつまずくこともある。翻訳がひどく、当該の場面では使うのをやめると判断するかもしれない。気をしっかり持ち、現代AIのオーラに飲み込まれて思考停止に陥らないようにしたい。

AIによる「論理→感情」翻訳の例

テンプレート・プロンプトを使った後、私はAIとチャットをし、比較的よくある状況をどう扱うかを見てみた。このシナリオは、おそらく読者も見聞きしたり、実際に経験したりしているだろう。

あなたは同僚と会話している。別部門の社員がミスをし、そのミスがあなたと同僚に影響している。あなたは慎重に進めたく、まずそれがその人物の過失だったかを確認し、内々に対処したいと考える。一方、同僚はそのミスに激怒しており、迅速に、しかも広く周知する形で責任の所在を明らかにするのが直ちに取るべき道だと信じている。遠回しにせず、勢いよく相手を名指しで糾弾すべきだ、と。

このシナリオでの人間同士の会話の一部を示す。

  • 論理ベースの人物:「サムに詰め寄る前に、実際に何が起きたのかを確認すべきだと思う。事実確認なしに動くと誤解を招きかねないし、不当に非難することにもなり得る」
  • 感情ベースの同僚:「つまり、何もしないで座っていろってこと?」
  • 論理ベースの人物:「違う。まず情報を集めるのが合理的だと言っている。全体像が見えていないかもしれない」
  • 感情ベースの人物:「それって問題から逃げてるように聞こえる」

論理ベースの人物は前進できていない。感情ベースの人物は、ここで問われているのは道徳的勇気の欠如だと受け取り、論理的な順序立てを試みることに対して強く反応している。さらに、論理ベースの人物が「合理的である」必要性を示唆したことで、感情ベースの人物は刺激されるはずだ。それはまるで、論理ベースの人物がレッテル貼りをし、感情ベースの人物を一方的に切り捨てているかのように映る。

好ましくない。

翻訳者としてAIを使う

私はこの人間同士の対話を生成AIに渡し、翻訳してほしいと依頼した。

結果はこうだ。

  • 生成AIの応答:「同僚は、誠実さと道徳的勇気が自分にとって最優先だとあなたに伝えている。手続きから入るのではなく、共通の価値観から入ることを検討すべきだ。あなたの慎重さが、回避ではなく、誠実さと道徳的勇気をもって正しく正義を行うためのものだと示したい。公平性を守るための言い方に組み立てよう。言い回しのサンプルを提案しようか?」
  • ユーザーが入力したプロンプト:「はい、そのような文言を提示してください」
  • 生成AIの応答:「これは必ずあなた自身の言葉で、適切な身振りやトーンで表現してほしい:『私も、正しいことのために声を上げるのは大事だと思っている。だからこそ、確かな根拠に基づいて動きたいんだ。正しいことをするのが目的なのに、私たちのせいで不当に誰かを傷つけるリスクは避けたい』」

このアプローチは、あなたが口にする論理を、感情を動かしている根底の人間的価値へと結びつけようとするものである。うまくいくかもしれない。

ただし注意点がある。この状況で生成AIを使うことに、同僚が良い反応を示さない可能性があるのだ。AIに頼っていることに腹を立てるかもしれない。無礼で、露骨な侮辱だと見なされる可能性もある。例えば同僚が「AIに全部考えてもらってるの?」と言い返し、会話は本題から外れた穴へと転がり落ちる。進行中の口論を、燃え上がる口論2本に増やしてしまうのである。

得られるべき中核の示唆

感情志向のコミュニケーションは、多くの場合、次の4つの要石を中心に回っている。

  • (1)アイデンティティ──「私たちはどんな人間か?」
  • (2)忠誠──「私たちは正しいことのために立ち上がっているか?」
  • (3)敬意──「あなたは私を真剣に扱っているか?」
  • (4)道徳的整合──「それは私の価値観と道徳的に整合しているか?」

論理志向のコミュニケーションは、通常、次の4要素を中心に回っている。

  • (1)一貫性
  • (2)妥当な前提
  • (3)誤りの回避
  • (4)適切な手順

論理がアイデンティティや価値の層を無視すると、冷たく感じられる。感情が推論の層を無視すると、無謀に感じられる。生成AIは、次の問いを通じて橋渡しになり得る。「その感情は、どんな価値を守っているのか?」。そして、その価値の触媒として論理を再構成するのである。

さらに重要な要素

このようにAIを用いる際には、他にも考慮すべき要素がある。

例えば、AIがもっともらしい答えを出してきたとしても、結果的に賢明ではない翻訳になる場合がある。AIがAIハルシネーションに遭遇したときに起こり得る(私の説明はこちら)。AIは一種の作話を行い、もっともらしいが事実として誤った答えを生成することがある。見た目は正しそうでも、誤解を招く、あるいは不適切なのだ。

プライバシーの問題も関わってくる。

多くの人は、AIの利用はプライベートで機密だと考えがちだ。違う。そうであることはほとんどない。AI提供企業は通常、オンラインの利用許諾契約において、AIとのチャットが開発者によって閲覧され得ることを規定している。さらに、そのチャットがAIの追加学習に使われることもある。結論として、プライバシーと機密性は保証されておらず、潜在的にプライバシー侵害に門戸を開くことになる。

私たちが生きる世界

社会のメンタルヘルスをめぐり、私たちはいま、壮大な世界規模の実験のただ中にいることは否定しようがない。その実験とは、AIが国内外で利用可能になり、明示的に、あるいは気づかれない形で、何らかのメンタルヘルス助言を提供するよう働いている、というものだ。しかも無料、あるいは最小限のコストで。場所も時間も問わず、24時間365日利用できる。私たちは皆、この無謀な実験のモルモットである。

これがとりわけ厳しいのは、AIがデュアルユースであるためだ。AIはメンタルヘルスに害を及ぼし得る一方で、メンタルヘルスを大きく後押しする力にもなり得る。繊細なトレードオフを、注意深く管理しなければならない。下振れを防ぐ、あるいは緩和しつつ、上振れをできるだけ広く、容易に利用できるようにすることだ。

プラトンは次の言葉を残した。「人間の行動は、欲望、感情、知識という3つの主要な源泉から流れる」。この言葉を持ち出すのは、論理ベースの人が時に、感情は取り合うに値しないという正義感のもと、会話から感情を切り取ろうとすることがあるからだ。別の角度として、プラトンが述べたように、感情は人間という方程式の不可欠な一部であると認めるべきだろう。感情を盲目的に排除できるふりをするのではなく、現代AIを翻訳者として使い、感情に対処するのである。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事