カナダのモントリオール本拠「Brain Mining Lab」の研究者、Alicia Herazはタッチスクリーン上の指先の動きから感情を読み取るアルゴリズムを開発中だ。Herazはデジタルヘルス領域の医療ジャーナル「JMIR」に論文を発表した。
「人間はビデオ録画された他人の動きから、感情を読み取ることができる。マシンラーニングの仕組みを用いれば、機械にも感情の認識が可能になり、その認識精度は人間を上回る」と彼女は述べている。
この技術はヘルスケアの分野にも、巨大な進歩をもたらすことになるだろう。「我々のゴールは、感情を読み取るタッチボードを開発することだ」と筆者のEメール取材に対し、彼女は述べた。
将来的にはツイッターやフェイスブックが、利用者が投稿を行なう際の心理状態を判別したり、グーグルアシスタントやアレクサが、声から感情を読み取って適切な対応を行なうことも可能になるだろう。
感情データの収集は新たなプライバシー侵害の懸念をもたらす一方で、マーケティングやヘルスケア、企業のマネージメント分野に大きな進歩をもたらすことが期待できる。
Herazの研究チームは117名のボランティアたちから、数十万回に及ぶタッチスクリーン入力のデータを収集し、マシンラーニングによって感情分析を行なった。その結果、91%の精度で感情を読み取るシステムを構築したという。これは、人間の認識精度の84%を上回るという。
Herazらは、タッチスクリーンから感情の読み取りを可能にするAPIを開発中だ。指先の振幅や、力の大きさ、動きの速さ、なめらかさといった詳細なデータを収集することで、多様な感情の認識が可能になる。彼女のチームはこのAPIを間もなく、Webサービスのキュレーションサイト「ProductHunt」で公開するという。
「我々が生み出したAPIは、人々のタッチスクリーンとの関わり方に大きな変化をもたらすことになる。アプリ開発者やウェブサイトの運営者たちが、利用者の指先の動きから感情データを収集することが可能になる」とHerazは述べた。