顔認識技術の致命的問題。データベースはあなたのアイデンティティを考慮しない

顔認識技術は人種の多様性を的確に表現できないことを研究者が指摘する


また、分析したデータセットの顔に関して、解析者の意見の相違も示されている。すべてのデータセットは、ある特定のタイプの人を「黒人」として含んでいるか認識しており、ステレオタイプと言える一方で、他の人種カテゴリーではより大まかな(また、より一貫性のない)定義を示していた。その上、人種に対する定義が一貫しているかどうかは、民族集団によって差異があった。例えば、あるデータセットではフィリピン人は韓国人と比較して、アジア系として一貫して見られることが少なかったという。

「一部の結果については、単純に確率的に説明することが可能だ。例えば、金髪は北欧以外では比較的めずらしいため、金髪は北欧出身で、白人のカテゴリーに属するということを示す強い指標になる。データセットが米国の個人から収集された画像に沿ったものでバイアスが掛かっていた場合、東アフリカ人はデータセットには含まれないだろうし、エチオピア人(東アフリカ)に属する人種ラベルで不一致になる割合が高くなる。その割に、黒人の人種カテゴリーにおける不一致の割合は一般的に低い」と研究者らは説明した。

こうした人種ラベル付けを巡るバイアスが問題として取り上げられない場合、それは再生・増幅される可能性があり、さらに、文化的文脈から排除されて信ぴょう性を帯び、危険な結果を招くことにもなる、と研究者らは警告する。

事実、ラジ、ジョイ・ブォロムウィニ、Dr.ティムニット・ゲブル、Dr.ヘレン・レインハムによる優れた共著「Gender Shades」、さらにVentureBeatのベンチマークデータに関する独自の分析調査など数多くの研究で、顔認識アルゴリズムは、様々なバイアスに影響を受けやすいことが証明されている。

よく見られるのは、セピア色を帯びたフィルムや、コントラストの低いデジタルカメラといった、色の淡い肌を好む技術や技巧がその一例だ。こうした偏見は、肌の色の濃い人々に関するパーフォーマンスは肌の色の淡い人々より劣るというように、アルゴリズムにエンコードされている可能性がある。

「データセットは、あらゆる人種カテゴリーにそれぞれの個人を同等数含むことが可能だが、ステレオタイプに適合していない民族や個人を排除してしまう」と、研究者らは指摘する。(データセットの)公平性は単純に数的なものであって、集団を構成する上で使用するカテゴリーとは無関係なものだと、できれば考えたい。

だが実際には、既存のシステムの公平性を測定するには、言い換えれば、物理的な世界にコンピュータビジョンが与える影響力を理解するには、現実社会に存在する集団と関連付けることが当然必要になる。たとえ大まかな関連付けだとしてもだ。

(この記事は、米で人工知能・テックニュースの主要メディアとして知られる「Venture Beat」から転載されたものです)

文=中沢弘子 編集=坂元耕二

ForbesBrandVoice

人気記事