AI

2023.02.20

AI人事評価のバイアスを避ける方法

Shutterstock

従業員のプライバシーを害さないよう、テックウルフでは侵害性のないデータソースの使用を義務付けています。電子メールやプライベートチャットなど、詮索とみなされかねないデータソースを使用することは避けなければなりません。メールやスラックのメッセージなど、使おうとしているデータソースに上司がアクセスしても大丈夫かどうか、自分自身に問いかけてみるといいでしょう。

第二の柱:AIの判断が説明可能であること

ロバート・ジョーンズ氏は、運転中に何の疑いもなくカーナビの指示に従い、崖から転落したことで人々に記憶されています。AIの助言に従って行動する場合、その結論に至った経緯を理解する必要があります。その理論を説明するアルゴリズムの信頼性が高いほど、バイアスがかかりにくくなります。

一定レベルの説明可能性を求めることを目的とした法律が多数存在するのも、このためです。EUでは、アルゴリズムが自動処理されたデータをもとに従業員を測定または評価する場合、一般データ保護規則により従業員に「説明を受ける権利」を与えています。欧州議会でも、AI規則の審議が進められており、米国では、国立標準技術研究所が説明可能なAIの4つの原則を公表しています。

第三の柱:従業員がデータを所有する

日々の仕事で、書類を作成し、プロジェクトを進め、コースを修了するごとに、従業員はデータを生成しています。生成されたデータと構築されたスキルが、組織を超えて持ち運べ、個人がキャリアアップのために利用できるようにするのが理想的です。これが叶わなくとも、スキルを自分のプロフィールに含めるかどうか、そして、AIがそれを利用できるかどうかについては、個人に最終的な決定権があるべきです。

これを実現するには、スキルを活用して従業員に関わる決定を下すメリットを強調し、このメリットを守ることが重要です。ある調査では、働く人の79%が目的次第では自分のスキルデータを雇用者が収集することに抵抗がないと答え、さらに14%がそうしたデータを公開してもよいと回答しています。これは、こうしたアプローチが有効であることを示しています。

第四の柱:用途とメリットを共有すること

従業員は、自分のスキルデータを雇用主と共有することに前向きですが、自分にとってのメリットが明確である場合に限ると考えている人が多いです。従業員は、より公平な雇用やニーズに合った就業体験、成長の機会が得られるのであれば、進んでデータを共有します。さらに、自分のデータがどこからどのように収集され、AIがそれをどのように使用しているかについても、従業員に知らせる必要があります。全従業員にこれらの要点を理解してもらうには、説明する側にAIに関してのアップスキリング(技能向上)が必要かもしれません。

従業員は、メリットがある場合、自分のデータをAIと共有することに前向きです。 Image: Deloitte Skills-Based Organization Survey, May-June 2022

従業員は、メリットがある場合、自分のデータをAIと共有することに前向きです。 Image: Deloitte Skills-Based Organization Survey, May-June 2022

スキルベースの組織を支える4つの柱

世界がスキルベースのアプローチに移行しつつある流れの中で、従業員に関する意思決定においてAIが果たす役割は大きくなっています。スキルベースの組織にAIが登場するのは、時間の問題です。4つの柱を組織のAI戦略に組み込み、適切な基盤を構築を急ぐ必要があるでしょう。タイミングを逸すると、すべてが水の泡になってしまいます。

(この記事は、世界経済フォーラムのAgendaから転載したものです)

連載:世界が直面する課題の解決方法
過去記事はこちら>>

文=Jeroen Van Hautte, Co-Founder and CTO, TechWolf / Andreas De Neve, Co-Founder and CEO, TechWolf

ForbesBrandVoice

人気記事