筆者は先ごろ開催されたテクノロジーカンファレンス「Collision(コリジョン)」で、人型ロボットとの会話を体験した。このロボットはすでに、米国と日本に加え、フランスでも利用が進んでいる。
身長121cmのその姿のかわいらしさに最初は大喜びした筆者だが、話しているうちに怖さを感じ始めた。理由は、ロボットが持つ「相手の笑顔を認識する」能力だ。
ロボットは、筆者にこう話しかけた──「あなたが今、笑顔かどうか分かります」「笑っていませんね」「どうしたの、一緒に楽しい時間を過ごしているじゃない?」「なぜ笑わないの?僕がかわいくないから?」
ロボットの発言は、よく言っても「感覚が鈍い」というところだ。開発者はきっと、仏頂面をしたことも、もっと笑ってと言われたこともないのだろう。そうした発言が、女性をどのような気持ちにさせるか全く理解していない人がプログラムしたのだと思う。
テクノロジーは、中立なものではない。開発した人の考えや態度を反映したものになる。企業向けに人工知能(AI)やロボット技術に関する調査・戦略立案を行う米トップボッツ(Tapbots)の調査・計画部門の責任者は、「AIの専門家らは、自分たちが合理的でデータに基づいて物事を考える人であることを誇りに思っている。だが、彼らは数字では示せない問題を見落とす可能性がある…開発者たちが持つ偏見は、その作り出すものにも波及的影響を及ぼす」と指摘している。
私たちはロボットと一緒に働く職場で今後、次のような状況に直面する可能性がある。
1. 女性や少数派を対象としたベータテストを行っていないロボットは、効率的に「同僚」と働くことができない
前出のロボットは、筆者の笑顔を認識することができなかった。だが、男性の笑顔は瞬時に認識した。筆者が女性であることが、笑顔を認識しない理由だと断定することはできないが、他にも同様の例がある。