ところで、気になるのはその研究内容である。センター開設後、時間が経過するにつれ、さまざまなメディアからその中身が報じられるようになってきた。
ケンブリッジのセンターで研究を行うMaja Pantic氏がメディア取材に答えたところによれば、同センターでは人間の感情を正確に理解し相互疎通を促す技術「Human-like Communication」、および、それらの技術をベースにしたヘルスケアAIの開発に注力しているという。なおPantic氏は、表情・行動から感情を解析するスペシャリストだ。
Pantic氏によれば、人間の表情を正確に理解するには、瞳や首回り、口元などを全体を同時に認識しなければならない。また、例えばうつ病患者と健康な人では笑い方が異なる。同センターでは、人間の表情を正確に把握しつつ、身体や精神の異常を早期発見できる人工知能を開発中だという。
今後、サムスン電子の製品を使用することで、高齢者の認知症・うつ病などの疾患、もしくは兆候を検出し、本人や家族に伝えることができるようになるかもしれないとPantic氏は語っている。
人工知能を使った感情解析という手法は、徐々に実用化され始めている。代表的な分野で言えば「HR部門」である。海外各国の企業では、面接に来た、もしくはオンラインカメラで求職者の表情を読み取り情報を収集。そのデータを解析する用途に、人工知能を使用し始めている。
表情のデータからどのような「素養」を見出しているかは各企業それぞれであるが、「平常心を保っているか」「嘘を言っていないか」など、言語以外の情報を収集するという目的に共通点がある。とはいえ、表情解析は非常に難しく、現段階では人工知能の性能だけでなく、データを読み解く人間側の能力が必須になっているようだ。
「まず、人間の表情と感情を正確に結びつけることひとつとっても容易ではありません。顔は怒っているのに悲しんでいることもありますし、笑っているのに怒っていることもある。また、特定の感情だけ100%ということはほぼなく、混ざっているケースがほとんどです。データを取って人工知能に解析させるということは増えていくと思いますが、人間の表情が意味するところを深く考察できるデータサイエンティストが必須になってくるでしょう」(日本の感情解析AI開発関係者)