アン・ピッチリロ氏は、JDA TSGの最高人事責任者(CHRO)として、高成長組織や取締役会に対し、企業文化、人材、ガバナンス、変革に関する助言を行っている。
AIは生産性を拡大するだけではない。意図なく導入された場合、混乱と無秩序も拡大する。この結果については、あまり報道されない。
AIが、ほとんどの組織が吸収できるスピードを上回って進化していることは驚くべきことではない。かつては5年間の戦略ロードマップで展開されていた意思決定が、今では数週間に圧縮されている。その背景には、競争圧力と、取り残されないために他社が実装または自動化しているものを追い続けなければならないという絶え間ない引力がある。
この「競争するか時代遅れになるか」という考え方は、戦略を装った恐怖である。そして、関連性を保とうとする焦りの中で、人間の判断が最初に失われることが多い。意図ではなく恐怖によって意思決定が行われる場合、誰かが人間のシステムを守らなければならない。それはIT部門の仕事ではない。人事部門の仕事である。
なぜ「AI+HI」は間違った方程式なのか
AIに関する論評、特にAI+HI(人工知能+人間の知性)という考え方には事欠かない。しかし、無数の記事、ポッドキャスト、パネルディスカッションを経て、私たちは方程式を間違って組み立てていると考えている。
多くの組織が経験しているのは、AI+HIではない。AI−HIである。
AI−HI
私はこの概念について、SHRM(全米人材マネジメント協会)の同僚たちと議論し、セッションを主導したこともある。問題は、AIの知性を展開する焦りの中で、それを機能させるために必要な人間の判断を差し引いてしまっていることだ。
その結果はすでに見えている。マネジャーはAI駆動型ツールを使って、文脈なしにパフォーマンスをスコア化またはフラグ付けし、パフォーマンスに関する会話を育成的なものではなく防御的なものに変えている。AIは物事をスピードアップするが、人々により多くの能力を与えるわけではないため、意思決定は解決されるのではなく積み重なっていく。そして静かに、人々は回避策を構築し始める。影のシステム。サイドのスプレッドシート。「念のため」のプロセス。
AI施策が失敗する場合、その失敗は技術的なものではない。人間的なものである。そして通常、予測可能である。仕事は役割よりも速く変化する。期待値がリセットされる前にツールが展開される。マネジャーは効率を追求する一方で、信頼は亀裂から滑り落ちていく。
これが、AI実装が失敗する仕組みである──ゆっくりと、そして通常、最初は気づかれない。
なぜ人事部門が導入を担うのか
AIはIT部門の管轄かもしれないが、導入の成否は人々にかかっている。そして人々を管轄するのは人事部門だ。この点は見過ごされがちである。
AIツールが導入されると、会話はすぐに能力と効率に向かう。何ができるか、どれだけ速く動作するか、どれだけ時間を節約できるか。それは簡単な部分だ。人事部門は、ツールが稼働した後の人々への影響を見る。
トレーニングリンク付きの展開メールが送信されると、人々は自分で理解するしかないことが多い。期待値は変わるが、誰も声に出して言わない。人々はただ知っているはずだと思われている。マネジャーは判断よりもアウトプットを優先する。なぜなら数字は価値の証明のように感じられるからだ。これが、混乱が現れ、説明責任が曖昧になり、信頼が失血し始める時である。そして一度それが起こると、取り戻すのは難しい。
「プロダクトオーナーのように考えろ」は戦略ではない
技術展開中に、リーダーが従業員に「プロダクトオーナーのように考えろ」と言うのを何度聞いたか数え切れない。私にとって、それは「適応し、反復し、理解しろ」という暗号である。
しかし、プロダクトオーナーには明確な権限と意思決定権がある。ほとんどの従業員にはない。所有権なしにオーナーのように行動するよう人々に求めることは、成長マインドセットやアジリティではない。説明責任の放棄である。
展開のスピード対規模での安定性
AIツールが実装される際、プレッシャーは迅速に展開することだが、人事部門は、混乱を管理するために設計された質問をすることで、規模での安定性に焦点を当てなければならない。AIは何の意思決定に情報を提供しているのか、実際に意思決定を行っているのか。人間の判断がまだ重要なのはどこか。これは成功の測定基準をどのように変えるのか。ツールは役割を実質的に変えるのか。
これはリスク管理であり、イノベーションへの抵抗ではない。安定性のないスピードは常に何かを壊す。
ツールが明確性よりも速く動く時
もう一つのよくある仮定は、役割は時間とともに整理されるというものだ。私の経験では、そうはならない。
ここで人事部門は基本ルールをリセットする。AIが仕事の進め方を変えるにつれて、人事部門は役割の期待値を更新し、パフォーマンスの評価方法を調整し、もはや適合しない仮定を取り除く。最も重要なことは、人事部門がマネジャーと従業員が今何が「良い」のかについて合意することを確実にすることだ。この作業がなければ、導入は失敗する──一度に一つの不明確な期待値ずつ。
AIは意思決定を支援できるが、責任を吸収することはできない
AIがワークフローに組み込まれるにつれて、所有権が曖昧になり始める──誰が決定し、誰が承認し、何か問題が起きた時に誰が説明責任を負うのか。人事部門はその線を明確にする。
AIによってサポートされる意思決定には、依然として人間の名前が必要である。マネジャーはアルゴリズムの背後に隠れることはできない。従業員は、いつ判断を使用できるか、いつできないかを知る必要がある。説明責任が消えると、信頼も続く。
信頼は導入のテストである
AIが適切に扱われない場合、信頼は通常、最初に侵食されるものである。人々が技術を恐れるからではなく、それがどのように使用されているかを理解していないからだ。説明なしに監視が増加する。文脈なしにパフォーマンスデータが表示される。意思決定は考慮されたものではなく、自動化されたもののように感じられ始める。
人事部門は物事を遅くし、実際に何が変わっているのかを説明する──どのデータが使用されているのか、何に使用されないのか、そしてなぜそれが重要なのか。人々が何が起こっているかを理解していない場合、彼らはそれを信頼しない。通常、彼らはそれと戦わない。彼らはそれを回避し、離脱する。それは導入が滑ることを意味する。
AI+HIの方程式が機能する場所
ほとんどのトレーニングは「ツールの使い方はこうです」で止まる。人事部門は、人々がツールの使い方を知っているかどうかよりも、それを使って意思決定を行う準備ができているかどうかを心配する。マネジャーは依然としてリードしなければならない。従業員は、AIがいつサポートであり、代替ではないかを知る必要がある。
ここで学習モデルを変更しなければならない。判断が必要な場合、ツールトレーニングだけでは不十分である。そこに人間の知性が入ってくる。
AI+HIは、責任、明確性、信頼、判断がシステムに組み込まれている場合に機能する。それには所有権が必要である。
IT部門はAIを機能させる。人事部門はAIを実行可能にする。



