リーダーシップ

2026.03.18 15:09

AIが暴いたリーダーたちの不都合な真実:大半の組織は「仕事の進め方」を説明できない

stock.adobe.com

stock.adobe.com

Jonathan H. Westover | Educational Evangelist & Entrepreneur | Associate Dean, Western Governors University | Founder & CEO, HCI.

私の経験では、AI導入を成功させるうえで最も一般的な障壁は技術ではなく組織にある。企業が自社のシステムの中で仕事がどのように流れているのかを明確に描けていないと、AI実装は当て推量になってしまう。

経営陣がAI施策を発表したときに何が起きるかを考えてみてほしい。従業員は「AIツールを活用せよ」といった曖昧な指示を受け取るが、実務に落とし込めるガイダンスはない。どの業務が自動化の恩恵を受けるのか。どこに人の判断が不可欠なのか。こうした問いは、管理側が仕事を粒度の細かいレベルで理解していないため、答えが示されない。

現代の職務は多面体である。調査、文章作成、評価、協働、統合——その境界は、正式なプロセスよりも非公式な関係性によって動くことが多い。さらに業績指標が、成果ではなく出席を測ってしまうことで状況は悪化する。

各職務がどのような個別タスクで構成されているのかを把握できなければ、組織は自動化の対象を特定できず、脆弱性を評価できず、意味のあるベンチマークも設定できない。従業員は個別に実験を行い、組織としての学習が蓄積されないまま、一貫性のない慣行を発展させていく。

私が目にしてきた失敗

私が支援したある金融サービス企業では、経営陣が数千人の従業員に向けてエンタープライズ向けAIライセンスを購入した。ところが6カ月後、そのツールを2回以上使ったのはごく一部にすぎなかった。問題は技術ではない。どのタスクにAI支援が適切で、どのような成果を期待するのかを、誰も定義していなかったのだ。

同じチームの中でも、上位の貢献者3人がまったく異なるAI戦略を採用していた——しかも経営陣には見えていない。1人は手作業のデータ抽出をなくし、レポート作成サイクルを劇的に短縮した。別の1人は顧客対応の連絡をAIに委ね、配慮に欠ける文面によって関係性の質を損ねた。3人目は自動化を完全に拒否し、効率向上よりも無誤差のパフォーマンスを優先した。これらのアプローチは体系的なレビューなしに独立して進化したため、組織は移転可能な学びを何一つ引き出せなかった。

この断片化は普遍的である。調査によれば、AIプラットフォームにアクセスできる従業員の多くは散発的にしか利用しておらず、曖昧な期待値とミスへの不安によって身動きが取れなくなっている。AIを深く組み込む少数派は、監督を完全にすり抜けることすらある。管理されないワークフローは(セキュリティインシデントや品質不良として)被害が発生した後になって初めて表面化する。

曖昧さのコスト

従業員にとって、この曖昧さは持続的な心理的負担を生み出す。リーダーがAIによって仕事がどう変わるのかを説明できないと、働き手は見えない基準を満たせているかどうかについて、絶え間ない不確実性に直面する。曖昧な変革施策がストレスや燃え尽きの増加と関連することを示す組織的なエビデンスは、増え続けている。

組織はAIに関する最良の洞察——働き手の試行錯誤のパターンの違い——を無駄にしている。マネジメントは、禁止か、弁護士をなだめるだけで実務に役立たない骨抜きのポリシーに傾き、組織学習を阻害する。

ベテランは、習熟したプロセスにAIを向け、確立した専門性の中で自動化を適用する。新人は、汎用ツールとして捉え、役割への固着がないまま多様な責任領域で試す。どちらが優れているということはない。知恵は相互作用から生まれる。

それでも、異なる実践が生産的にぶつかり合う場を設計できている企業は少ない。サイロ化した実験は、組織能力へと複利的に積み上がらない。

実際にうまくいくこと

最も効果的な対応は、体系的なタスク分解である。職務を個別の活動に分け、どれがアルゴリズムの支援に適しているかを評価する。ある製造業のクライアントは、調達業務を80以上のタスクにマッピングし、どれがAIに適するかを評価したうえで、バイヤーの役割を関係性マネジメントと戦略調達を中心に再設計した。明確化によって導入が加速し、測定可能なコスト削減が実現すると同時に、不安も軽減された。

これは、リーダーに理解のギャップと向き合うことを迫り、AI利用のための共通言語を生み出す。AI展開前にタスクレベルで仕事を分析する組織は、一貫してより良い成果を得ている。

透明性の高いコミュニケーションも同じくらい重要だ。私が助言したある医療システムでは、幹部がAIの使い方——失敗や限界も含めて——を共有した。この「弱さを見せる姿勢」によって、導入率と自信が大幅に高まった。

最も強力な介入は、構造化された学習を伴う分散型の実験である。ある小売企業では、従業員が社内プロジェクトでAIを安全に試せる「実験サンドボックス」を設けた。チームは結果を共有wikiに記録し、毎月集まって課題を解決した。1年で200以上のユースケースが生まれ、その多くが全社に展開された。

リーダーシップのギャップ

ボトルネックを生むのは経営層の行動である。C-suiteが公の場でAIへの熱意を示していても、個人的には回避していることが少なくない。この乖離——触れもしないツールを称揚すること——が、働き手の懐疑と不安を生む。

心理的安全性は不可欠である。従業員は、賢明な試行錯誤が罰につながらないという確信を必要とする。この土台を築くリーダー——明確な境界を定めつつ曖昧さも認め、監視より結果を優先する——は、学習曲線と統合までの時間を大幅に短縮する。

あるプロフェッショナルサービス企業は、これを具体化した。経営陣は自らのワークフローでAIを試し、その結果を隔月のリーダー会議で共有することを約束した。能動的な実験を示せないディレクターには1対1のコーチングが行われた。高いインパクトの活用法を見いだした者は、全社に向けて発見を発表した。中間管理職が上層部の本気の関与を目の当たりにするにつれ、期待値は有機的に広がっていった。

このメカニズムが機能するのは、抽象的な賛同を観察可能な実践に置き換え、導入を「任意の実験」から「リーダーの能力要件」へと変えるからである。

長期に向けて築く

AIをうまく乗りこなす組織は、仕事の設計を一度きりのプロジェクトとして扱わない。仕事がどのように行われているかを理解し、再構成するための継続的な能力を構築する。すなわち、仕事設計を中核能力として位置づけ、タスク分析を業務レビューに組み込み、現場チームに再設計の権限を埋め込む。

そのためには、明確に人間的な能力を育てる必要がある。曖昧な状況での判断、創造的な問題解決、信頼を築く関係性スキルである。AIがより多くの分析タスクを担うほど、これらが比較優位となる。私は、採用基準を技術的資格から、学習俊敏性、適応力、対人効果性へとシフトする企業を見てきた。

ガバナンス構造は、イノベーションとリスクの均衡を取らなければならない。従来型のITガバナンスは、中央集権的な統制と長い承認プロセスによって学習を抑え込む。一方で、制約のない実験は脆弱性を蓄積させる。中庸の道は、イノベーションの余地を残しながら明確な境界を設けることだ。ある金融系クライアントは、AI利用を一律に扱うのではなく、データの機微性と影響度に基づいて承認要件を決めるリスク階層を定義した。

目の前の選択

AIは、長年存在していた組織の混乱を露わにしている。安定した構造と、仕事が実際にどう行われているかを検証したがらないリーダーの姿勢によって覆い隠されてきた混乱である。企業は、不明確な構造の上にAIを重ねて成果を期待するか、この瞬間を使って持続的なパフォーマンスに必要な明確性を築くかのいずれかだ。タスクレベルの仕事設計、透明なコミュニケーション、構造化された実験、リーダーの説明責任に投資する組織は、AI投資からより高いリターンを得て、リスクエクスポージャーを下げ、従業員エンゲージメントを強めるだろう。

この取り組みが不快なのは、リーダーに不確実性の認知を求め、長年当然視してきた構造の再設計を迫るからである。しかしAIは、必要な精算を強いている。企業は、自分たちが何の仕事をし、どのように貢献を構造化し、従業員に何を期待するのかについて、より意図的にならなければならない。これらの問いに向き合う組織は、AIをより効果的に導入できるだけではない。次にどのような技術が登場しようとも、より強靭な組織を築ける。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事