ビジネス

2021.12.24 12:30

最新言語モデルでも避けられない。AIにおけるジェンダー・バイアス

388の職種のうち83%が男性の仕事?

388の職種のうち83%が男性の仕事?

日常生活だけではなく、さまざまな産業においてもジェンダー・バイアスが存在している。

例えば、多くの自動車のエアバッグやシートベルトといった安全装置は、クラッシュテストから得られるデータを元にデザインされているが、そこで利用されるダミー人形の多くが男性の体型を元にしていて、女性の体格や妊婦は想定されていない事が多い。その結果、女性は同じような事故に遭った男性に比べて、“重傷を負う可能性が47%、死亡する可能性が17%高い” 。

AIにおいてもジェンダー・バイアスの懸念が


データにおけるジェンダーギャップは必ずしも生命を脅かすものではないが、さまざまな業界での人工知能モデルの設計や使用は、女性の生活に大きな不利益をもたらす可能性がある。

ガートナーの調査によると、2022年までに、AIプロジェクトの “85%” が、データ、アルゴリズム、またはそれらを管理するチームの偏りが原因で、誤った結果をもたらすことになると発表されている。

音声アシスタントのほとんどが女性


ちなみに、よく考えてみるとAlexaやSiriなどの “音声アシスタントのその多くが女性” である。まあ、女性というか名前が女性的だったり、声のトーンが女性っぽかったり、返答内容が女性を前提としている。

よく考えると、Google Mapの音声ナビも女性の声だ。細かい話になるが、これももしかしたら「アシスタント=女性」というバイアスからきてるのかもしれない。
参考: AI音声アシスタントってなんで女性なの?【クラーク志織のハロー!フェミニズム

音声アシスタントアプリのロゴいくつか
女性であることが多い音声アシスタント: Siri, Alexa, Google Assistant, Cortana

データが偏ると、結果にバイアスが掛かる


バイアスを生み出す最初の原因がデータの偏りだろう。人工知能に不可欠なデータ収集プロセスにおいて「正しい」質問がされていない場合、ビジネスや経済にも悪影響を及ぼしてしまう。

例えば、何十年も前から循環器疾患は男性の病気と考えられていた。それにより、主に男性から収集したデータを元にしたオンラインアプリが、女性ユーザーに「左腕や腰が痛い」という症状を「うつ病のせいかもしれない」と提案することがあるという。

この場合、同じアプリを利用したとしても、男性ユーザーには、心臓発作の可能性があるという診断に基づいて、すぐに医師に連絡するようにアドバイスするのに対し、女性には数日後に医師の診察を受けるように表示するかもしれない。これは元となるデータの性別に偏りがあることが原因になるが、女性も心臓発作の被害に遭う可能性があることは明らかである。

AIによる顔認証の元データにも偏りがある


このような問題は性別だけにとどまらない。人種的なデータの偏りも見られる。例えば、さまざな顔認識アルゴリズムの入力画像データのうち、“白人の画像が80%、男性の顔が75%”の割合を占めている。その結果、男性の顔認識精度は99%と高精度であるのに対し、“黒人女性を認識する能力は65%” にとどまっており、その精度に差が出ている。
次ページ > さまざまなバイアスが存在する

文=Brandon K.Hill(btrax Founder & CEO)

タグ:

advertisement

ForbesBrandVoice

人気記事