AI

2026.01.07 10:46

見えないAIが採用を決める時代:応募者が「ゴースト」にされる新たな現実

stock.adobe.com

stock.adobe.com

チャールズ・ルー氏はルー法律事務所のオーナーであり、ロサンゼルス中小企業委員会のコミッショナーである。チャールズ氏はAIと法律の交差点について執筆・講演を行っている。

長年、「ゴースティング」(音信不通になること)は悪いデートの後に起こることだった。しかし今、それは求人応募後にも起きるようになり、しかも増加傾向にあるのは、ゴースティングをする側が人間ではなくアルゴリズムだということだ。

何百万人もの応募者が、何時間もかけて完璧に仕上げた履歴書が人間の目に触れることすらないことを知ることになる。それは彼らが見たこともなく、異議申し立てもできない機械によって、重み付けされ、評価され、そして組織的に破棄されるのだ。電話もメールも説明もない。ゴースティングされるのだ。AI採用の時代へようこそ。

これは単なる効率化や自動化の問題ではない。これは権力の問題だ:誰がチャンスを得て、誰がふるい落とされ、そして誰がコードの行によって判断されていることすら知らないままなのか。

新たな門番:目に見えず、自動化され、そして多くの場合、偏見を持つ

現在、多くの企業が採用プロセスの一部でAIを使用している:履歴書スキャナー、ビデオ面接分析ツール、文化適合性予測ツールなど。これらは膨大なデータセットで訓練されたツールであり、プログラマーのバイアスを反映している可能性が高い。AIは差別を意図しているわけではなく、単にパターンを学習するだけだからだ。

いくつかの例:もし企業が歴史的に主に男性を採用してきた場合、アルゴリズムは「成功する候補者」と「男性」が共起する傾向があると学習するかもしれない。もし最高のパフォーマーが若い人に偏っている場合、モデルは静かに年配の応募者の評価を下げ始めるかもしれない。もしリーダーシップが常に特定の外見をしていた場合、システムはそれがリーダーシップの姿だと仮定する。

結果は?効率性という仮面をかぶり、中立性という外観に守られながら、古い偏見を大規模に複製する自動化された門番だ。2024年、集団訴訟がWorkdayに対して提起され、同社の採用AIが黒人、女性、高齢の応募者を不釣り合いに高い割合で排除していると告発された。そしてこれが最後の訴訟になるとは到底思えない。

規制当局がついに注目し始めた

AI採用が監視を先行させて走り続けた何年もの後、立法者たちはついに追いつくために全力疾走している。最近、カリフォルニア州は公正雇用住宅法を改正し、一つのことを明確にした:雇用主は、保護されたグループに対して不均衡な影響を与えるツールを主に使用することはできず、そのようなシステムは差別的と推定される。

同様の目標を持って、ニューヨーク市は自動化された採用ツールの年次独立監査を現在義務付けており、その結果を公開することを求めている。これは企業にアルゴリズムの仕組みを示すことを強制する最初の法律だ。イリノイ州も同様に、AIを活用したビデオ分析ツールに対して同意、通知、バイアステストを義務付けている。不遵守には罰則が伴う。

最後に、コロラド州の新しいヒューマン・イン・ザ・ループ(HITL)ルールはゲームチェンジャーだと考える。AIが高リスクの決定—採用、解雇、昇進—を支援する場合、人間がそれをレビューし、レビューを文書化し、それを覆す能力を持たなければならない。罰金は適切な監視なしに行われた決定1件につき2万ドルに達する可能性がある。

問題の規模

計算してみよう。およそ88%の企業が初期候補者スクリーニング中に何らかの形でAIを使用している。本当の疑問は:これらの企業のうち、どれだけが意味のあるバイアス監査を実施しているかだ。

これらの監査ツールのほんの一部でも80%ルールに失敗するとしたら—そして初期の研究ではその多くが失敗している—法的リスクは膨大なものになる可能性がある。年間30万人の応募者をスクリーニングする全国的な小売業者を想像してみよう。そのAIが女性を男性の70%の割合でしか選ばないとしたら、それは教科書通りの不均衡な影響問題だ。壊滅的なリスクの可能性だけでも十分ではないかのように、集団訴訟はこのリスクを何倍にも増幅させる。ある大量採用企業が何万人もの拒否された応募者の認定クラスで訴えられた場合、模倣訴訟はバイアス監査について無知なままの主要小売業者、テクノロジープラットフォーム、人材派遣会社すべてに野火のように広がる可能性がある。

AIの採用とHITLの監視、あるいはその欠如から生じる訴訟の洪水を引き起こすニッチな法律である、次のBIPA(生体認証情報プライバシー法)の瞬間を目の当たりにしているのだろうか?

なぜ企業はこれを間違え続けるのか

通常、企業側の悪意によるものではなく、むしろシステムとプロセスを合理化する努力によるものだ。私が見る限り、ほとんどのHR部門は自社のAIが実際にどのように機能しているのかを知らない。彼らはベンダーのマーケティング、華やかなダッシュボード、「公平性」についての曖昧な保証を信頼している。彼らはコンプライアンスのチェックボックスにチェックを入れて先に進み、一般的にAIを活用していることに満足している。

しかしベンダーは雇用主を責任から守ることはできない。裁判所や規制当局は、ソフトウェア会社ではなく雇用主に責任を負わせる。そして現実は厳しい:ほとんどの企業は自社のAIが公平にスクリーニングしているかどうかを知らない。彼らはどのトレーニングデータが使用されたのか、またそのツールが何に最適化されているのかを認識していない。

責任ある雇用主が今すぐ行うべきこと

来るべき波を乗り切る企業は、単なる自動化ではなく、説明責任を受け入れる企業だ。それはこのようなものだ:

1. 実際のバイアス監査を実施する。ベンダー監査ではなく。実際の応募者フローデータを使用した独立監査。あなたのツールが80%ルールに失敗した場合、規制当局が知る前にあなたが知ることになる。

2. HITLレビューを実装する。AIが誰かをスクリーニングアウトした場合、資格のある人間がケースをレビューし、理由を文書化し、システムを覆す権限を持たなければならない。コロラド州の法律はこれを義務付けている。

3. ベンダーに透明性を要求する。ベンダーがモデルの仕組み、どのデータで訓練されたか、公平性をどのように測定するかを説明できない場合、それは危険信号だ。

4. ポリシーと通知を更新する。開示要件は州によって異なる。AIが公平であっても、これを間違えると責任が生じる可能性がある。

5. HRにAIを責任を持って使用するよう訓練する。AIリテラシーはもはやオプションではない。企業は自社が導入しているツールとその導入による影響を理解しなければならない。

前進への道:より公平で、よりスマートで、より人間的に

AIは採用をより効率的かつ公平にすることができる—しかしそれは透明性と組み合わせ、人間の判断と監視でその効果を強化した場合に限る。機械からの沈黙は依然として沈黙だ。そして何百万人もの応募者にとって、沈黙は不当に拒否された機会を意味する。

採用の未来はAIを活用するものになるが、それは説明責任があり、監査可能で、そして法律によってHITLを含まなければならなくなっている。早期に適応する企業が繁栄するだろう。今すぐ採用するか、さもなければ自社のAIにゴーストされることになる。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事