Close RECOMMEND

PICK UP

モバイル業界のアジテーターとイノベーターに関する記事をカバー

Shutterstock.com

MITで顔認証テクノロジーの研究をしていたジョイ・ブォロムウィニ(Joy Buolamwini)は、あるとき奇妙なことに気が付いた──。コンピュータは肌の色が白い友人の顔を認識するのに、黒人であるブォロムウィニの顔を認識しない。しかし、彼女が顔の全面を白いマスクで覆うと認識するのだ。

ブォロムウィニはこの現象が大きな問題をはらんでいると感じ、マイクロソフトやIBM、中国の顔認識テクノロジー企業の「Face++」のシステムを使って同様の実験を行った。

いずれのシステムも、白人のときに高い精度で当て、とりわけ男性のときに正解率が高かった。しかし、黒人女性の場合は精度が著しく低下した。肌の色が薄い男性の時に比べ、肌の色が黒い女性の場合はエラー率が34%も増えたという。

ブォロムウィニは、この実験結果を2月24日、ニューヨークで開催されたAIの公平性に関するカンファレンス、「Conference on Fairness, Accountability and Transparency」で発表した。

アルゴリズムによる性別の予測精度は、女性の肌の色が黒くになるについて低下し、最も肌の色が黒い女性の場合には50%近い確率で外れたという。

ブォロムウィニは、この調査結果を踏まえ、人間の偏見がAIに与える影響を卒業論文のテーマにした。機械学習が人間にとってかわるというストーリーはよく耳にするが、偏りのあるデータセットで学習したAIがもたらす悪影響については見逃されがちだ。

彼女の調査は、エンジニアが白人男性の顔写真を使って顔認識アルゴリズムをトレーニングした場合、アルゴリズムが偏見を持つことを示している。

マイクロソフトが2016年にチャットボット「Tay」をツイッター上でリリースしたとき、エンジニアらは他のユーザーとの対話を通じてAIに人間の行動を学ばせようとした。

しかし、Tayは悪意を持つユーザーたちが教え込んだ「フェミニストは地獄で焼かれろ」という暴言や、ヒトラーを礼賛するメッセージを連発したため、マイクロソフトはわずか16時間後にTayをシャットダウンした。

専門家は、マイクロソフトがTayに他人の模倣をさせようとしたことは正しいが、どういう言動が適切かということを十分に教えなかったことが問題の原因だと分析している。

編集=上田裕資

記事が気に入ったら
いいね!しよう

LIKE @Forbesjapan

Forbesjapanを
フォローしよう

FOLLOW @Forbesjapan

あなたにおすすめ

合わせて読みたい