テクノロジー

2018.10.16 06:30

アマゾンの人材採用AIが「女性を差別した」理由を考えてみる

LeoWolfert / shutterstock

LeoWolfert / shutterstock

アマゾンが自社で開発を続けてきた人材採用AIが、女性差別的傾向を持つとして稼働停止になったというニュースが世界中を駆け巡っている。人材採用業務に人工知能を取り入れようという動きは、昨年頃から欧米だけではく、日本や韓国などアジア圏でも活発化しているだけに、今後も物議が続きそうなイシューである。
advertisement

アマゾンの人材採用AIの話題を要約すると次のようになる。

アマゾンは2014年頃から、スコットランドの首都・エディンバラにエンジニアチームを結成し、採用を効率化するための人工知能システムを開発してきた。これは、機械学習をベースにしたもので、500台ほどのコンピューターが採用希望者の願書(履歴書など)に書かれている約5万個のキーワードを抽出・分析。自社に適した人材を選びだすというものだ。100枚ほどの願書をプログラムに入れると、数秒で“最良”の条件を持った5名ほどの書類が選び出されるという。

開発も終盤に差し掛かった時、問題が起こる。それはAIが“女性嫌い”で、「女性の評価を低く見積もる」というものだった。開発開始から1年ほどが経過した頃、AIは経歴が10年以上ある男性求職者にのみフォーカスして、雇用すべき候補として選び出し始めたという。
advertisement

IT企業に志願する人物の圧倒的多数が男性であるため、AIが男性の願書(=データやキーワード)に偏向して高い評価を与えるようなったというのが関係筋の説明である。

一方、「女性」もしくは大学時代の活動として「女性チェスクラブ」に所属していたなどのデータ、キーワードが見つかると、採用対象から除外されるというようなケースが見つかった。女子大を卒業した2人の求職者の願書も、選定対象から除外されていたことが明らかになっている。

話を聞いていると、今年8月に問題となった東京医科大学の一律原点問題を彷彿とさせる。が、人工知能が女性を差別するという現象には、人間の恣意性以上に複雑な問題があると考えさせられる。というのも、今回のアマゾンの採用AIの話題のオチは「プログラムの修正を試みたが、最終的に原因や理由を特定できなかった」というものだからだ。
次ページ > なぜ原因究明できなかったのか─

文=河 鐘基

タグ:

advertisement

ForbesBrandVoice

人気記事