アマゾンの人材採用AIが「女性を差別した」理由を考えてみる

LeoWolfert / shutterstock


個人的な推測であるが、人工知能の選考能力を改善できなかった理由は、以下のうちのどれか、もしくはすべてである可能性が高い。

まずひとつは、機械学習のなかでもディープラーニングなどのような技術を使っていて、「人工知能がなぜそう判断したか」というプロセスを追えなかったというケースがありえる。

ディープラーニングは、画像解析や音声解析、機械翻訳など、間違っても人間にとってリスクが少ない用途においては実用化が着々と進み、大きな成果を出し始めている。一方で、世界各国で解決のための研究は進んでいるものの、一部、人工知能の判断過程が「ブラックボックス化」してしまうとの懸念から、適用が難しいと議論されている分野も少なくない。

もうひとつ考えられる理由としては、選考プロセスを追える、追えない以前に、アルゴリズムを開発した人々が、「女性差別とは何か」、もしくは「差別とは何か」を理解していなかったケースも想定できる。理解していなければ、言語でプログラムに置き換えることは不可能なので、当然、生まれるべきして生まれる問題だったことになる。

今回、データ量の不均衡が問題視されているが、それは人間側が調整すればよいだけの話であるし、なんだか理由としてはあまり根拠とはならないような気もする。

より深く踏み込むのであれば、今回の「アマゾンAI女性差別騒動」には、企業側の本音と建て前が隠されているのかもしれない。男女の機会平等、もしくは多様性こそ企業の力であると本気で考えているのであれば、アルゴリズム設計と企業の利益(ここでは採用者の選定)は矛盾しないはずなのだが、結論としては「女性差別」が生まれてしまったからだ。

そう考えると、今回の問題はアマゾンの開発チームだけの問題というよりも、より大きな枠組みの問題であり、「女性差別」に関する社会的哲学が不足していることが発端とも考えられる。つまるところ、男女の機会平等や多様性が企業の利益と一致するというビジネスモデルの構築がまず先になければ、採用AIによる「女性差別」や「人種差別」は今後も問題になり続けるはずである。

連載 : AI通信「こんなとこにも人工知能」
過去記事はこちら>>

文=河 鐘基

タグ:

ForbesBrandVoice

人気記事