ビジネス

2022.10.11 11:00

「AIを用いた採用ツール」が差別を助長する、英大学の研究

Getty Images

人工知能(AI)を使って性別や人種的偏見を排除すると謳う採用ツールは、実際はダイバーシティの問題の改善には役立たず、偏見を助長する可能性があると、ケンブリッジ大学の研究者らが主張している。

10月9日にPhilosophy and Technologyに掲載された論文で、研究者たちはAIを使った採用ツールを調査した。ケンブリッジ大学ジェンダー研究センターの2名の教授は、これらのツールが、白人やヨーロッパ人男性を「理想の候補者」とする偏見を助長し、ダイバーシティに逆行していると主張している。

さらに、これらのツールは、過去の採用データに基づいているため、現在の従業員に最も近い候補者を採用する傾向があり、ダイバーシティを向上させない可能性があるという。ジェンダー研究センターのEleanor Drageは、「これらの製品がどのように作られ、テストされているかについてはほとんど説明されていない」と述べ、危険な誤情報の発信源にもなり得ると付け加えた。

アマゾンは2018年、求職者の履歴書を審査するAI採用ツールのシステムが女性を差別していることが判明し、使用を中止すると発表した。これは、システムの基盤となったAIモデルが、過去10年間に同社に提出された履歴書をもとに開発されたもので、そのほとんどが男性の応募者だったためだとされた。

企業は、採用プロセスを管理するために、AIの利用を増やしている。今回の論文に引用されたガートナーの2020年の調査によると、雇用者の86%が採用業務に仮想テクノロジーを利用しており、このトレンドはコロナ禍の中で加速したとされていた。

採用プロセスへのAIの導入は、コスト削減につながるとの主張もあるが、一部の専門家は、システムが現実世界の既存の偏見を再現することで、人種や性別の偏見を助長すると述べている。米国の複数の議員がこの問題に対処しようとしている。

ホワイトハウスは10月4日、「AI権利章典(AI Bill of Rights)」の草案を発表し、採用プロセスに使われるアルゴリズムが「既存の望ましくない不公平を再現」したり、新たな「偏見や差別」を埋め込むことが判明したと主張した。この草案は、企業の採用ツールのAIが差別やデータプライバシーを侵害しないようにすること、そしてこれらの技術が使用されていることをユーザーに周知することを求めている。

欧州連合(EU)は、AIに関する新たな法的枠組みの草案において、AIを利用した採用ソフトウェアや業績評価ツールを「高リスク」に分類した。これらのツールはより厳しい監視の対象となり、特定のコンプライアンス要件を満たすよう迫られる可能性もある。

forbes.com 原文

編集=上田裕資

ForbesBrandVoice

人気記事