Close RECOMMEND

I solve the “people pain points” that keep leaders awake at night.

ティムニット・ゲブル(Getty Images)

グーグルで倫理的人工知能(AI)チームの共同リーダーを務めていたティムニット・ゲブルは、先日解雇されるまで同社で特に有名な黒人女性従業員の一人だった。

米ニュースサイトのアクシオスによると、グーグルは学術誌に掲載されることになったAI倫理の論文にゲブルらが自分や会社の名前を添えることを禁止。ゲブルは、上司らに送った電子メールでいくつか要求を提示し、応じなければチームに与える影響を最小限に抑えつつ退職するための準備をすると伝えた。するとグーグルは唐突に「辞意を受け入れる」として、ゲブルが社内の電子メールにアクセスできないようにした。

ティムニット・ゲブルは、ただの一社員ではない。AI倫理研究分野のリーダー的存在であり、AI関連の黒人団体「ブラック・インAI」の共同設立者だ。MITテクノロジーレビューは、「顔認証が女性や有色人種の顔を認証する上での正確性は他より低く、顔認証の使用はこうした人への差別となりかねないとした革新的な論文を共同執筆したことで有名な」人物だと紹介している。

彼女が解雇されてから、グーグル社員2500人以上と学術・産業・市民社会分野の支持者4000人以上がゲブルを支持する請願書に署名。請願書は、「ゲブル博士は、類まれな才能を持ち大きな功績を収めた貢献者としてグーグルから受け入れられるのではなく、保身的な対応や人種差別、ガスライティング(相手が自分の考えを疑うよう仕向ける心理的策略)、研究の検閲を受け、しまいには報復として解雇された」と主張している。

ゲブルの解雇に対する反発は激しくなり、今月9日にはグーグルの親会社アルファベットのスンダー・ピチャイ最高経営責任者(CEO)が謝罪。「皆さんの信頼を回復に取り組む」と表明した。

だが、信頼回復には多大な努力が必要だ。私のコンサルティング企業リーダーシップIQが最近、5778人の米国人を対象に行ったアンケート調査「Many Leaders Don’t Want To Hear About Discrimination In The Workplace(多くのリーダーは、職場での差別の話を聞きたくない)」では、従業員は企業幹部が職場での差別に関する懸念に耳を傾けていないと感じていることが明らかになった。

例えば、職場での差別の懸念について、自分への問題を起こすことなく常に報告できると感じていた黒人従業員はわずか13%だった。また、職場での差別に関する懸念を報告すれば経営陣は常に解決のため意義のある行動を取ってくれると答えた女性はわずか23%だった。

編集=遠藤宗生

PICK UP

あなたにおすすめ