ジェンダー・バイアスを取り除くには手間と時間がかかる
これらの方法は自然言語処理モデルのジェンダー・バイアスを減らすことができるかもしれないが、実装には時間がかかることが容易に想像できる。
また、それぞれの国の言語によって特性が変化し、マイナー言語も含めるとかなりのケースに対応しなければならなくなるため、かなりの手間になる。
世界各地で進む自然言語処理におけるジェンダーニュートラルの動き
例えば、2018年にGoogleは、Google翻訳が4つの言語の単一単語の翻訳を女性形と男性形の両方で英語に返すことを発表した。
また、ブルームバーグの研究者たちは最近、言語ベースのモデルを人間が補足記入するための最善の方法について共同研究を行っている。
ブルッキングス研究所のような多くの研究機関は、偏ったアルゴリズムに起因する消費者被害を軽減する方法に注目しており、最近では音声やチャットボットを活用している。
テクノロジー業界のジェンダーギャップも重要なファクター
女性の技術者を増やしたり、テクノロジー企業における助成率を高め、思想の多様性を高めることとで、AIにおけるジェンダー・バイアスの増幅をおさえる方法の一つになりえる。
世界経済フォーラムによると、世界のAI専門家のうち「女性はわずか22%」であるのに対し、「男性は78%」である。
また、ブルームバーグによると、大手テクノロジー企業8社では、「技術職のうち女性が占める割合は20%」にとどまっているという。技術系企業は、男性よりも女性の採用数が少ないだけでなく、女性の離職率も早い。
ボストン・コンサルティング・グループによると、世界的に見て、“科学、技術、工学、数学(STEM)分野で働く人のうち女性は25%” にすぎないが、“これらの分野のリーダーのうち女性は9%” しか占めていない。
このように、テクノロジー領域でのジェンダーギャップはかなり激しい。
現在見られる、この偏りは今後のAIにおけるジェンダー・バイアスを生み出す一つの要因になるかもしれない。
photo by skynesher / iStock