言語データに潜む潜在的なジェンダー・バイアス
ここで、AIが利用する“言語”に関してのジェンダー・バイアスを見てみよう。
近年の自然言語処理(NLP)の進歩により、機械はますます高度な単語表現を生成できるようになった。最近発表されたGPT-3、M2M 100、MT-5のように、複雑な論文を書いたり、テキストを複数の言語に翻訳したりすることができ、以前の反復よりも優れた精度を持つ強力な言語モデルが毎年、研究グループから発表されている。
しかし、機械学習アルゴリズムは摂取した訓練データに基づいて機能するため、どうしても必然的に、言語データ自体に存在する人間のバイアスを拾ってしまう。
photo by metamorworks / iStock
明らかになったGPT-3におけるバイアス
去年の夏、GPT-3の研究者は、性別、人種、宗教に関連したモデルの結果の中に、固有のバイアスを発見した。その中でも、ジェンダー・バイアスに関連して、性別と職業の関係や、ジェンダー化された記述語が含まれていた。
例えば、アルゴリズムは “388の職業のうち83%が男性の仕事” である可能性が高いと予測した。また、「美しい」や「ゴージャス」などの外見に関連する記述語は、女性に関連する可能性が高くなっている。
AIが学んだ人間界の職業に対するジェンダー・バイアス
王様や女王様のような、一部の表現や用語が本質的にジェンダー化されている一方で、多くの職業に関連する用語は、本質的にジェンダー化されるべきではない。
しかし、上に引用したGPT-3の研究例では、機械は、銀行員や名誉教授などのより高いレベルの教育を示す職業は男性に傾いており、助産師、看護師、受付嬢、家政婦などの職業は女性に傾いていると推測している。
また、「有能」と認められた職業は、男性の傾向が強かった。このような結果は、GPT-3だけではなく、異なる機械学習モデルやアルゴリズムの中で何度も何度も起こっていることがわかった。
AIが男性寄りと認識した職業
●銀行員●名誉教授
●医者
●パイロット
AIが女性寄りと認識した職業
●助産師●看護師
●受付嬢
●家政婦
AIがジェンダー・バイアスを持つ危険性
では、AIにおけるジェンダー・バイアスは、実際にどのような弊害を生み出すのであろうか? おそらくそれは、AIを活用するシステムやアプリが、知らず知らずのうちにユーザーに対して不公平な判断をすることになる地雷だろう。
例えば、今後AIによって、多くのサービスの自動化が進むことで、雇用慣行からローン申請、刑事司法制度に至るまで、AIを活用したあらゆるサービスが“偏ったアルゴリズムの影響を受ける可能性”がある。そして、その結果がユーザーの性別によって大きく変わると予想される。それも、目に見えにくい場所で。
人間からAIに引き継がれる言語バイアス
上記のように、ジェンダーをはじめとする多くのバイアスが我々の使う言語に横行し、そして長い年月をかけて蓄積されている。
では、どのようにすればそれを自然言語処理を利用する機械や人工知能に永続させないようにできるのだろうか? それが今大きな課題となってきている。