人のコミュニケーションをアシストする 感情解析AIが描く未来


「補助」としてのAIから「アシストする」AIへ

──将来的にはどのような技術の開発を計画しているのでしょうか。

山崎:感情を解析して精度の高い問題解決ソリューションを提供するには、音声活用だけでは足りません。例えば、声の感情解析でその人が「怒っている」と分かっても、何に対して怒っているのか、それがどの程度の怒りなのかまでは分からず、それだけでどのような対応をすべきか判断できません。

声にプラスして、顔の表情認識やテキスト解析を組み合わせていけば、より高精度な分析ができ、的確なソリューションを提供できるようになります。

音声やテキスト、表情などによる感情認識技術は、「Affective Computing(アフェクティブ・コンピューティング)」と呼ばれる領域で、人間の感情をコンピュータによって解析・表現しようとする分野です。主にアメリカのMITを中心に研究が進んでいますが、実証研究をしてからプロダクト制作にうつるので、実用化に時間がかかり、マネタイズが難しいことが大きな課題です。

アメリカでは、日本よりも実用化が進んでいます。例えばMIT発の表情感情解析技術のスタートアップAffectivaでは、CMの視聴者をWebカメラでモニタリングし、表情を解析し、広告制作時のABテストに活用しています。また、テキスト内容からポジティブ・ネガティブ感情を分析するIBM Watsonは、選挙時のツイートから投稿者の攻撃性を判断しています。

Empathが目指しているのと同じように、研究分野としてのアフェクティブ・コンピューティングは主に人の健康を目的としていますが、海外でも実用化が進んでいるのはマーケティングなどそれ以外の分野なのです。特に企業の開発は、マネタイズと研究の両輪を回す必要があります。

──技術の発展のためにも、まずはマネタイズが課題だと。では、今後アフェクティブ・コンピューティングはどのように発展していくのでしょうか。


Empath CEO 下地貴明

下地:AIによるアシスタントにはいくつか段階があります。まずは先ほどのコールセンターのように、対象者が特定の反応があった時にはこうすればいいと教えてくれる汎用的なアドバイス。これは人と人のコミュニケーションをAIがサポートしてくれるケースです。

Empathではその次の段階、AIが人と会話をして支えるパーソナルなアシスタントを目指しています。例えば、車に設置しておくといつもの声質との微妙な違いを察知して、「今日は体調が少し悪そうなので、注意して運転してください」と言ってくれる。これは汎用的なアドバイスでなく、個人に最適化したアシストです。

これはAIと人の間で会話がなされるからこそ、自由度の高いアシストが可能になっています。機械学習を深めていくことで人との会話を模倣し、将来的にはAIと人の間で感情に寄り添ったスムーズな会話も可能になるはず。そのうち日常に溶け込んでいき、「AIが友人のように自身のことを深く理解し共感してくれる」我々が最終的に目指しているのは、そんな未来の実現です。


文=野口直希 写真=林 孝典

タグ:

ForbesBrandVoice

人気記事