Neurologyca(ヒューマンコンテキストAIのリーダー企業)のCEO兼創業者、フアン・グラーニャ氏。
AIはその能力で私たちを驚かせ続けている。専門家試験に合格し、コードを生成し、本を書き、さらには人間の話し方のリズムを驚くほど正確に再現することもできる。しかし、これほどの進歩を遂げているにもかかわらず、この技術は依然として憂慮すべき一次元的なままだ。事実上すべての人間の知識で訓練されているにもかかわらず、AIができることは過去から推測し、最善の予測計算を行うことだけである。
パターンマッチングやデータ分析など、その計算は信じられないほど正確なことが多いが、現在の状況下で機能することは得意ではない。それは、人間の相互作用の基盤となる感情的なニュアンスを理解できていないからだ。例えば、AIチューターは、生徒が明らかに疲れていたり集中力を失っていたりしても、同じ説明を繰り返し続けるかもしれない。同様に、感情分析エンジンは皮肉を否定的な感情と誤解したり、イライラしたメッセージの緊急性を見逃したりする可能性がある。どちらの場合も、システムは技術的には正しい出力を行っているが、文脈的には空気が読めておらず、ユーザーは理解されていないと感じてしまう。
問題はAIに知性がないことではなく、共感力、あるいは少なくとも人間の感情を解釈する能力が欠けていることだ。現在のシステムは膨大な規模で論理、確率、テキストパターンを処理するが、人間の相互作用をダイナミックで適応性のあるものにする微妙な手がかりを認識できない。例えば、私たちが答える前にためらう様子、特定の言葉が喉につかえる様子、特定のポイントに対して理解できなかったり関心を失ったりする傾向などだ。
これらの信号がなければ、AIは純粋に取引的な状態に閉じ込められたままで、最善の予測出力を提供し、プロンプトに応答するだけで、実際にユーザーと関わることはできない。だからこそ、AIの次のブレークスルーは、より高速なチップやより大きなモデルからではなく、既存のものに人間の文脈レイヤーを追加することから生まれるだろう。OpenAIの共同創業者であるイリヤ・サツケヴァー氏でさえ、AIはトレーニングやモデル革新の量に関係なく改善されない「データのピーク」に達しようとしていると述べている。つまり、より大きく高速なAIについて考えるのではなく、感情的に適応するAIについて考え始める必要があるのかもしれない。
共感の欠如
今日のほとんどのAIは、論理だけで十分だという単純な前提に基づいて構築されている。モデルは膨大な量の過去のデータを処理して次に何が起こるべきかを予測するが、それは相手側の人間が実際にその瞬間にどう感じているかを認識せずに行われる。
これは、AIに文書の要約を依頼したり、目的地への最速ルートを尋ねたりするような取引的な文脈では問題なく機能するが、ウェルネスや教育のようなより「人間的な」設定では、結果は事実の正確さと同じくらい感情的な一致に依存するため、うまく機能しない。実際、『精神病理学・臨床科学ジャーナル』で発表された2025年の研究では、スマートウォッチのストレススコアがユーザーの実際の感情と一致しないことが多く、生理学的データと感情的現実の間の断絶が浮き彫りになった。
瞑想アプリは不安を感じている人に「立ち止まって深呼吸をしましょう」と促すかもしれないが、それは良いことだ。しかし、単に落ち着きがなかったり興奮していたりする人にも同じ促しが表示される可能性がある。これは、心拍数や歩数などの生データを使用しているアルゴリズムが、不安の高まりと興奮の違いを区別できないためだ。その結果、役立っているように見えるが、実際には状況を悪化させている可能性のある不適切な反応のパターンが生じる。このようなアプリによって提案される介入は、本質的に少し賭けのようなものだ。
この問題を回避するため、ウェルネス業界の多くのアプリは自己申告に依存している。アプリケーションは絵文字を使って気分を評価したり、疲労度を10点満点で評価したりするよう求めるかもしれない。しかし、そのような自己申告は不正確でバイアスの影響を受けやすい。生態学的瞬間評価(EMA)の研究では、質問がいつ行われるかによって回答が変わることが多く、感情状態の断片的または歪んだ像につながることが示されている。これもまた「最善の予測」シナリオだ。
感情分析エンジン、声のトーン分類器、表情読み取りなどの高度なツールでさえ、範囲が限られており、単独では誤解を招くことが多い。笑顔が常に幸福を意味するわけではなく、しかめっ面が常に悲しみを意味するわけでもない。人間は結論に達する前に複数の信号を照合するが、AIシステムは感情を単一の観察可能な手がかりに還元し、文脈から切り離してしまう。これが問題だ。
感情は模倣よりも解釈が難しい
機械はすでに共感の言語を模倣することを学んでいる。チャットボットは安心させるフレーズを散りばめることができ、デジタルコーチは進歩を称賛することができ、合成音声は必要に応じてトーンを柔らかくすることができる。しかし、これは表面的な模倣に過ぎない幻想だ。相互作用をより人間らしく見せるだけで、実際により人間らしく感じさせるわけではない。MITのアフェクティブコンピューティングコミュニティの研究はこの点を強調している。ある論文では、著者らは「ユーザーの感情状態に適応するエージェントはより信頼でき、価値があり、知的であると認識される」と結論付けている一方、非適応型システムは時間の経過とともにエンゲージメントを維持する効果を失うとしている。
ここでの目標は、AIに脳を与えたり共感的に行動するよう教えたりすることではなく、感情状態を定義する豊かで層状の信号を認識し解釈できるようにすることだ。この複雑さこそが、現在のほとんどのツールが不十分である理由だ。感情分析はネガティブな言葉にフラグを立てることはできるが、皮肉と率直さを区別することはできない。表情認識はしかめっ面を検出するかもしれないが、それが混乱、疲労、集中のどれを反映しているのかを知らなければ、解釈は推測にとどまる。人間はこの曖昧さを、本能的に複数のチャネルを三角測量することで乗り切り、AIも同様に本物で正確なサポートを提供したいのであれば、同じことをしなければならない。システムがこれらの入力を一貫した全体像に融合するように設計されるまで、模倣モードから抜け出すことはできないだろう。
AIの次なる飛躍は、生の計算能力からではなく、文脈を理解することから生まれるだろう。共感を念頭に置いて設計し、エビデンスに基づき、実世界でテストし、神経科学の知見を取り入れることで、単に応答するだけでなく、真につながるシステムを構築し始めることができる。



