決して反論しないAIアシスタントが助長する、ユーザー側のバイアス
リアルタイム翻訳プラットフォームLanguage I/Oの創業者兼CEOのヘザー・シューメーカーは、「バーチャルアシスタントが女性に設定されがちなのは、私たちが女性を支配下に置くのを好む傾向があるからだ。一方で男性に命令することには心理的な抵抗を感じている」と指摘する。
特に男性は、AIアシスタントに対して優位性を誇示しようとする傾向が強い。ある研究では、男性は女性の2倍の頻度で音声アシスタントの答えをさえぎる傾向があり、特に答えが間違いだった場合にその傾向が強かった。また、アシスタントの声が女性だった場合に、微笑んだりうなずいたりなどの好意的な反応を示す傾向が強かった。AIアシスタントは決して反論することがないため、このような振る舞いが修正されずに放置され、現実社会におけるバイアスを強化する恐れがある。
リーダーシップの研究機関「Center for Creative Leadership」に務め、ジェンダーバイアス研究者でもあるダイアン・バージェロンは、「この現象は、社会において女性が『サポート役』になることを期待されているという強固なステレオタイプを示している」と語る。「他者をサポートすることは自体は良いことだが、その役割が一貫して特定の性別に割り当てられていることは問題だ」と彼女は続ける。これらのアシスタントが家庭で一般的に使われ、幼い子どもに接するようになると、未来の大人に「女性はサポート役であるべきだ」というバイアスを吹き込むリスクがある。
また企業によっては、社内のチャットボットに女性の名前を付ける例もある。マッキンゼー・アンド・カンパニーは、社内AIアシスタントを「リリー」と名付けているが、これは1945年に同社で初めてプロフェッショナルとして採用され、後に経理部長兼秘書役を務めたリリアン・ドンブロウスキーにちなんだ名前だ。これは敬意を表する意図からなのだが、バージェロンは皮肉を込めて、こう述べている。「それが本当に名誉なことなの? みんなの個人アシスタントになるっていうことが」。
そんな中、ある研究者たちは、ジェンダーバイアスの永続化を最小限に抑えるために、バーチャルアシスタントに明確な性別を割り当てないことを提言している。
翻訳で明らかになる、ジェンダーバイアス
シューメーカーが率いるLanguage I/Oは、グローバル企業向けのリアルタイム翻訳を専門としており、AIが生成する言語にジェンダーバイアスがいかに内在しているかを明らかにしている。英語の場合は、性別に関する仮定が利用者には見えにくい。たとえば、AIチャットボットに「私は看護師です」と伝えても、AIはユーザーが男性か女性かを明示せずに応答するかもしれない。しかし、スペイン語やフランス語、イタリア語などの言語では、形容詞や文法的な要素が性別を示すため、たとえば「atenta」(スペイン語で女性に使われる「注意深い」という形容詞)という言葉をチャットボットが用いた場合、ユーザーを女性と想定していることが即座に分かる。
AIのジェンダーバイアスはビジネスに悪影響
シューメーカーによれば、ジェンダーや文化に関するAIの言葉使いが、顧客満足度に直接影響することを企業は認識し始めているという。「ほとんどの企業は、それが自社の利益に影響しない限り気にしない。つまり、関心を持つことでどの程度利益を得られるのか投資収益率(ROI)が見えない限り、気にしないし動かないでしょう」と彼女は説明する。だからこそ彼女のチームは、この問題に投じる研究開発費が、収益面で成果を生むかどうかをデータで検証している。「私たちは、この問題に研究開発費を投じることに投資対効果があるのか、徹底的に調査してきた。その結果『ある』という答えにたどり着いた」。
彼女は、AIのジェンダーバイアスに取り組むことは倫理的な面だけでなく、収益面でもメリットがあると強調する。自分が尊重されていると感じた顧客は、長期的にその企業に対するロイヤリティが高くなり、それが収益の向上につながる。AIシステムを改善したいと考える企業に、彼女は「レッドチーミング」と呼ばれる実践的なアプローチを推奨している。これは多様なメンバーで構成されたチームがチャットボットを徹底的にテストし、偏った応答を発見し、修正するという手法だ。この手法を通じて、よりインクルーシブでユーザーフレンドリーなAIを実現できる。


