AIにおける公平性はデータそのものの公平性に左右される
AIが人間からジェンダー・バイアスを引き継ぐのは、明らかに理想的な結果ではない。しかし、機械学習システムは、処理するデータよりも優れたものになることは難しい。
私たちの社会に予め存在するバイアスは、私たちの話し方や書き方に無意識のうちに影響を与えている。その影響下で書かれた文章や、話されている言葉は最終的に機械学習システムを訓練するために使用される。
そのため、そのバイアスのかかったデータを使ってモデルを訓練すると、それがモデルに組み込まれ、既存のバイアスが保存されてしまう結果となる。
Web上のデータ自体がバイアスだらけ?
一般的には、機械が人間の言葉を学習する際には、データが多ければ多いほど性能の良いモデルが得られるとされる。そして多くの場合、より多くのデータを取得するための最善の方法は、大規模なウェブクロールを通じて膨大なデータを獲得することである。
もちろん、インターネットやその他のコンテンツは、実際の人間の言語で構成されているため、データは当然人間と同じバイアスを持つことになる。残念ながら、これらのウェブクロールされたデータセットの中のコンテンツには十分な注意が払われていない。
機械学習におけるジェンダー・バイアスを減らす方法は?
自然言語処理を活用した機械学習システムにおけるジェンダー・バイアスを減らし、より正確で公正ものにするための第一歩は、そのプロセスにおいて人間が積極的に関わっていくことだろう。
AIがデータからバイアスを学習することがわかっているのであれば、データのバイアスを取り除くことが最善のアプローチになる。そのような手法の一つが「ジェンダー・スワッピング」である。
ここでは、学習データを拡張して、ジェンダーのある文ごとに代名詞やジェンダーのある単語を反対のジェンダーのものに置き換え、名前を実体のプレースホルダで置き換えることで、追加の文が作成される。
例えば、“花子は彼女の弟の太郎をハグした”には、“NAME-1は彼の妹のNAME-2をハグした” も生成する。
この方法では、学習データはジェンダーバランスのとれたものになる。また、名前に関連付けられたジェンダー特性を学習しない。例えば、このアプローチは、男性と女性のコンテクストを同じ回数見たことになるので、“ハグする” という行動に対してのジェンダー・バイアスが生まれなくなる。
言語によって難易度が格段に異なってくる
上記のアプローチは英語や日本語では簡単だが、他の言語でははるかに困難であることに注意する必要がある。
例えば、フランス語、ポルトガル語、スペイン語などのロマンス諸語では、“文法的に中立的な性別は存在しない” 。これらの言語では、形容詞や他の修飾語も同様に性別を表現する。その結果、異なるアプローチが必要になってくる。
具体的には、主語の性別を格納するメタデータを文に追加する方法。例えば、“You are very nice” という文は英語では性別が曖昧だが、並行するポルトガル語の文が “Tu és muito simpática” であれば、英語の文の最初にタグを追加して、モデルが正しい翻訳を学習できるようにする。