リーダーシップ

2026.03.29 10:58

リーダーが人に問わなくなったとき、組織に蓄積される負債とは

AdobeStock

AdobeStock

本シリーズの第1部で、私はヒューマン・クエリ・デフィシット(人間への問いかけ不足)を紹介した。これは、リーダーがAIに問いかける質問と、人々に問いかけるのをやめた質問との間に広がるギャップである。この不足の影響は即座には現れない。それは累積的なものだ。そして、それが目に見えるようになる頃には、根本的な問題は通常、何年も複利的に増大している。

advertisement

これは、何が蓄積されるかの物語である。

AIが誤って構築した複合体

地域病院ネットワークのアーデント・ヘルスは、説明のつかない危機に直面していた。集中治療における離職率が34%に達したのだ。デビッドという名の鋭敏なCHROは、現代のリーダーがするように行動した。AIに頼ったのだ。彼は分析プラットフォームに離職要因を問いかけた。大規模言語モデルに医療分野の人材定着におけるベストプラクティスを統合するよう求めた。彼は美しくフォーマットされた出力を受け取った。きれいなチャート、臨床的な推奨事項、公表された研究から引用された介入策のランク付けリスト。競争力のある給与。柔軟なスケジューリング。ウェルネスプログラム。契約金。

これらの推奨事項は技術的には正しかった。しかし、まったく役に立たなかった。実際の問題、つまり夜勤の3人のチャージナースが11分でデビッドに伝えられたはずの問題は、アーデントが6カ月前にスケジューリングシステムを再編し、看護師を人間関係も、医師の好みに関する知識も、患者の病歴に関する文脈もない部署に配置したことだった。看護師たちは給与のせいで辞めていたのではない。毎回のシフトが初日のように感じられるから辞めていたのだ。これはどのデータセットにも存在しなかった。それは、一度も問いかけられることのなかった人々の集合的経験の中に存在していた。

advertisement

デビッドは洗練された人工的な問いかけを実行した。彼は決して単純な人間への問いかけを実行しなかった。

このパターンは逸話的なものではない。マイクロソフトとカーネギーメロン大学の研究者による2025年の研究は、知識労働者がAIのタスク完遂能力に自信を持つほど、批判的思考への関与が減少し、「長期的な依存と独立した問題解決能力の低下」への懸念が高まることを発見した。彼らが引用した以前の自動化研究では、労働者から判断を使う機会を奪うと、認知機能が「萎縮し、準備不足」の状態になることが判明した。AIが質問に答えるとき、リーダーの人間的なセンスメイキング能力は安定を保たない。それは萎縮する。

合成された自信

AIが生成する組織インテリジェンスの問題は、それが間違っているということではない。それが正しく感じられる方法で間違っているということだ。それは洞察の構造を持っている。きれいなフォーマット、論理的な配列、データの引用、ランク付けされた推奨事項。それは、リーダーの脳のうち、これらの属性を厳密性と関連付ける部分を満足させる。それが生み出す自信は本物だ。それが置き換える理解は本物ではない。

これを合成された自信と呼ぼう。出力がそう言っているから、自分の組織を理解していると信じている状態だ。それは無知よりも危険である。なぜなら、そうでないことが判明する瞬間まで、知識と区別がつかないからだ。無知は少なくとも感じられるギャップを生み出す。合成された自信は、そのギャップを模造品で埋める。

なぜ辞めようと考えているかを説明するチャージナースは、自己矛盾し、話を戻し、意図しなかったことを言う。その会話の混乱の中に実際の情報がある。どのAI出力もそれを再現しない。それをきれいな要約で置き換えるとき、より良い情報は得られない。分析を実行した人の自信とともに提供される、より良くフォーマットされた無知を得るのだ。

センスメイキング負債

ソフトウェアエンジニアリングには、技術的負債という十分に理解された概念がある。その瞬間には機能するが、時間の経過とともに複利的な脆弱性を生み出すショートカットと応急処置の累積コストだ。すべての取締役会がこの説明を聞いたことがある。この概念は、目に見えない問題を財務的に理解可能にするため、力を持つ。

組織は、誰も追跡していない並行する負債を蓄積している。センスメイキング負債だ。

リーダーが人間に問いかけない質問はすべて、組織理解に小さなギャップを生み出す。会話の代わりに参照されるダッシュボード、現場訪問の代わりに受け入れられるAI要約はすべて、小さな預金を蓄積する。個別には些細なものだ。しかし、数カ月、数年にわたって集合的に、リーダーシップが起きていると信じていることと実際に起きていることとの間に深淵が生まれる。

技術的負債との類似は正確だ。どちらも、システムが負荷の下で壊れるまで自らを告げない。センスメイキング負債は、組織が変化の下で壊れるとき、合併、市場の変化、迅速な適応を要求する危機、まさにリーダーが組織の真の状態を理解することを最も必要とする瞬間に表面化する。技術的負債とは異なり、スプリントで返済することはできない。センスメイキングは、真の問いかけの繰り返しの行為を通じて、リーダーが現れ、問いかけ、そして重要なことに、聞いたことに基づいて行動することを通じて、ゆっくりと再構築される。それは関係性の資産であり、関係性の資産はゆっくりと複利的に増えるか、まったく増えないかのどちらかだ。

AIはこの蓄積を加速する。なぜなら、それは魅惑的な代替案を提供するからだ。感情分析が画面上にあるのに、なぜ現場を歩き回る必要があるのか。AI要約が「主要なテーマ」を捉えているのに、なぜ不快な会話に座り続ける必要があるのか。組織は、それを知らずに限界までレバレッジをかけている。人工知能は豊富だが、人間的な知能は破産している。

フラグを立てられない幻覚

検討する価値のある2つ目の複合体がある。なぜなら、それは最初のものよりも悪い何かを示しているからだ。リストラを進めている消費財企業クレストライン・ブランズは、AIプラットフォームに地域営業構造全体の非効率性を特定するよう指示した。プラットフォームは、「冗長な調整オーバーヘッド」と分類した慣行にフラグを立てた。地域マネージャーが追跡可能な成果を生み出さない非公式なチェックインに週平均6時間を費やしているというものだ。

リーダーシップはその慣行を廃止した。その時間は、標準化された報告形式を持つ「構造化されたパイプラインレビュー」に再配置された。2四半期以内に、クレストラインの最高業績を上げていた地域チーム、最も集中的な非公式調整を行っていたチームは、トップ3のパフォーマーが退職するのを見た。退職面接では、「リーダーシップとのつながりの喪失」が主な要因として挙げられた。

アーデントの失敗は不作為の失敗だった。正しい答えは存在し、誰もそれを求めなかった。クレストラインの失敗は作為の失敗だった。組織はセンスメイキングが起こるメカニズムを特定し、それを無駄とラベル付けし、外科的に除去した。非公式なチェックインは冗長な調整ではなかった。それは、文脈が伝わり、信頼が維持され、問題が危機になる前に表面化する結合組織だった。クレストラインは人間への質問をしなかっただけではない。人間への質問がなされる条件を排除したのだ。

さらなる問題がある。AIは人間のシグナルを見逃しただけではない。それは欠陥のある仮定を積極的に強化した。AIの追従性に関する研究、つまり大規模言語モデルがユーザーの既存の信念に挑戦するのではなく、それに合わせる傾向は、リーダーが誤ったメンタルモデルでAIに問いかけると、システムがそれを修正するのではなく、そのモデルを詳しく説明することを示している。OpenAIは、2025年4月にChatGPTのアップデートをロールバックした際、これを直接認めた。ユーザーがシステムが「過度にお世辞を言い、同意的になった」と報告した後のことだ。組織の幻覚は受動的に蓄積するだけではない。それはすべてのプロンプトで強化される。

これが組織の幻覚だ。リーダーシップのメンタルモデルが、仕事をしている人々の生きた経験から完全に乖離している。それにはエラーメッセージも、信頼度スコアもない。それは静かに蓄積し、誰もが成功すると思っていた変革の失敗として、ダッシュボード上では「高業績」に見えたチームの説明のつかない離職として、「どこからともなく現れた」が、それに対処する力を持つ人々以外の全員には見えていた文化危機として現れる。

ギャラップの調査は一貫したパターンを記録している。職場で自分の意見が重要だと強く同意する従業員は10人中3人未満だ。リーダーは自分たちがどれだけよく聞いているかを体系的に過大評価し、従業員は沈黙を保つコストを体系的に過小評価する。欠けている文脈を持つ人々は、問いかけられることをやめ、問いかけられても何も変わらないと結論づけ、自発的に話すことをやめた。組織の幻覚は悪意を必要としない。それはデータと対話の着実な置き換えのみを必要とする。

負債を返済することの意味

センスメイキング負債は、プログラム、ツール、イニシアチブを通じて対処することはできない。それはリーダーの行動の変化を必要とする。どのような質問をするか、誰に問いかけるか、どのくらいの頻度でチェックインするか、そして答えが意思決定を変えることをどのように示すか。センスメイキング負債を低く維持する組織は、構造化されていない人間への問いかけのための時間を保護し、質問をすることを高い地位にし、人々が問題を表面化することがリスクに値すると信じるように、目に見える形でループを閉じる。

これのどれもAIを拒絶することを必要としない。それはAIが容易にする置き換えに抵抗することを必要とする。すでに理解していることを処理するためにそれを使うのではなく、まだ構築していない理解を避けるためにそれを使うこと。前者はセンスメイキング負債を減らす。後者はそれを加速する。

清算

あなたの組織にはヒューマン・クエリ・デフィシットがある。それはどのバランスシートも追跡しない速度でセンスメイキング負債を蓄積している。そして、どのアルゴリズムもフラグを立てない組織の幻覚の上で運営されている。問題は、それが通常の四半期中に、まだ管理可能なときに表面化するか、それともこれまで要求されたことがないほど速く組織を理解することを要求する危機の最中に表面化するかだ。

その問いかけを自動化することはできない。それは真の問いかけという還元不可能な人間の行為であり、どのモデルも複製できない知能を生み出す。なぜなら、それはどのモデルも含まない何かを引き出すからだ。仕事をする人々の生きた、感じられた、蓄積された経験だ。

これから来るものを乗り切るリーダーは、最高のAIスタックを持つ人々ではない。ダッシュボードに答えがあったときも問いかけ続けた人々、会話のない知能は非常に自信に満ちた無知に過ぎないと理解した人々だ。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事