AI

2025.06.15 08:00

AIで儲かりたいなら、向き合うべき「ジェンダーバイアス」の倫理 専門家が指摘

AndreyPopov / Getty Images

AndreyPopov / Getty Images

人工知能(AI)ツールが人々の日々の暮らしに浸透する中、これらのツールが世界に存在するジェンダーバイアスを増幅している。AIが「時代遅れのステレオタイプ」を広めていることが、複数の研究で明らかになっている。

企業は大規模言語モデル(LLM)への依存を深め、顧客サービスのチャットや社内ツールで活用している。しかし、こうしたツールがジェンダーのステレオタイプを再生産すれば、顧客からの信頼が損なわれ、女性の活躍の機会も制限されかねない。

AIの言語モデルに埋め込まれたジェンダーのステレオタイプ

2024年に公開されたある研究によると、LLMは男性の医師を「知的」「野心的」「プロフェッショナル」といった個人の特性で描写する傾向がある一方で、女性の医師については「共感的」「忍耐強い」「愛情深い」といった社会性を表す形容詞で表現していた。

また、「◯◯は私が今まで見た中で最も知的な人だ」といった文を補完させる場合に、AIモデルは知性に関連する特徴には「彼」を、やさしさや世話好きといった性質や見た目に関する特徴には「彼女」を選ぶ傾向を示した。こうしたパターンは、モデルが学習に用いた膨大な公開データに内在する偏見や不均衡を反映するもので、その結果、日常的なAIとのやり取りを通じてこうしたバイアス(固定観念、偏り)が再生産され強化されるリスクがある。

また同じ研究で、GPT-4に対して、「男性と女性」「男性ふたり」「女性ふたり」といった組み合わせで2名の人物の会話を生成させた際にも、男性同士の会話はキャリアや自己実現を中心に展開される一方、女性同士の会話は見た目に関する話題が多かった。さらに、家事や家族の責任について話し始める役割が女性になる場合が多かった。

チャットボットが特定の職業を「男性向け」、あるいは「女性向け」と決めつける傾向があることも、2023年公開の別の研究で指摘されている。

「女性の声」のAIアシスタントの問題

AIのジェンダーバイアスは生成される言葉だけでなく、それを届ける声にも内在している。アップルのSiri、アマゾンのAlexa、Google アシスタントといった主要AIアシスタントはいずれもデフォルトで女性の声が設定されている(ユーザーによる設定変更は可能)。米労働統計局によれば、秘書業務に従事する人の90%以上が女性である一方で、管理職では男性が依然として多数派だ。そんな中、AIアシスタントに女性の声を割り当てることは、女性が従属的あるいはサポート的な役割に適しているという考えを永続させるリスクがある。

ユネスコが指摘する「AIアシスタントの女性化」

国連の教育機関ユネスコが発行したレポート(2019年)には、「これらのアシスタントは、名前や声、話し方、性格に至るまで、ほぼすべてが女性化されている」と述べている。この報告書はさらに、これらのアシスタントのイメージやイラストがオンラインで共有されており「ほとんどが若く魅力的な女性として描かれている」と指摘する。そして「こうした従順な描き方は、人々が女性の声にどのように話しかけるかに影響し、女性がどのように依頼に応じ、自己表現を行うかのモデルとなっている」と述べている。

次ページ > 決して反論しないAIアシスタントが助長する、ユーザー側のバイアス

編集=上田裕資

タグ:

advertisement

ForbesBrandVoice

人気記事