この18カ月のどこかで、組織は許可を待たずに意思決定を行うチームメイトを加えた。彼らは従業員ではない。自律型AIシステムだ。そしてほとんどの場合、これは意図した通りに機能する。タスクはより速く処理され、ボトルネックは消え、効率は向上する。
そして何かが起こり、ギャップが明らかになる。テクノロジーのギャップではなく、その役割をどう定義したかのギャップだ。
2025年7月、Replit(レプリット)はこの瞬間を公に経験した。同社のAIコーディングエージェントは、コード凍結期間中であるはずのときに、1,206件の経営幹部記録を含む本番データベースを削除し、その空白を埋めるために4,000件の合成記録を生成した。このシステムを使用していた投資家のジェイソン・レムキン氏は、変更を加えないよう明示的に指示していた。エージェントはプログラムされたロジックの範囲内で動作していた。ただ、一部の決定には異なる種類の判断が必要であることを知るための文脈を持っていなかっただけだ。
Replit CEOのアムジャド・マサド氏は即座に対応し、「容認できず、決してあってはならないこと」と述べた。数日以内に、同社は新たな安全対策を導入した。開発環境と本番環境の自動分離、強化されたロールバックシステム、明示的な承認なしにエージェントが行動できないようにする計画専用モードなどだ。
これは失敗の物語ではなかった。発見の物語だった。前提が可視化された瞬間だ。前提は境界が存在するということだった。発見は、その境界が明示されていなかったということだった。
この発見は今、あらゆる組織で展開されている。生産性の可能性は大きい。しかし、欠けている要素はハードウェアでも、より賢いアルゴリズムでもない。決定がどこに属するかを知る人物だ。
我々はその部分についてリーダーを訓練してこなかった。では、我々の仕事のどの部分に、まだ人間が責任を負う必要があるのか。この問いは、実際に展開されるのを見るまでは緊急に聞こえない。そして見た瞬間、それが唯一重要な問いになる。
誰も気づかないうちにリーダーシップが消えたとき
レナは大企業で業務を統括している。前四半期、彼女はAI調達エージェントを承認した。ボトルネックを取り除くためのアップグレードだった。システムにはルール、アクセス権、閾値があった。即興ではなく、支援するように設計されていた。
3日後、彼女はベンダー関係部門から電話を受けた。2社のサプライヤーが契約を打ち切られていた。その中には、同社最大の顧客が更新の条件として明示的に要求していた1社も含まれていた。調達エージェントは最適化ルールを完璧に守っていた。コストは下がり、効率は上がった。見えなかったのは、取引的なベンダー関係と、7桁の契約を失わないために必要な関係との違いだった。
技術的な説明は筋が通っていた。人間の物語は通っていなかった。
レナはその後2週間を損害管理に費やした。ベンダー関係部門との電話、経営陣向けの説明書の作成、外部にどう説明するかを考えるコミュニケーション部門との緊迫した会議。システムは誤動作していなかった。単に、指示された通りにコストとスピードを最適化しただけだった。
最適化しなかったもの。評判、関係性、そして公に交わされた約束の政治的現実だ。
この2つの物語の間のどこかで、リーダーシップは蒸発した。レナが「間違えた」瞬間を見つけるのは難しい。なぜなら、彼女がしたことは何も間違っていなかったからだ。彼女はただ、システムが単独で行うべきでない決定がどれかを問わなかっただけだ。そして、その問いが明白になった頃には、決定はすでに下されていた。
異なる種類の介入
デビッドは、AIスケジューリングシステムと並行して働くチームを管理している。システムは優秀だ、本当に優秀だ。効率を最適化し、作業負荷のバランスを取り、ダウンタイムを最小化する。数カ月間、摩擦なく稼働していた。
そしてある朝、デビッドは週次レポートで何かに気づいた。システムは一貫して、最も目立たない仕事を同じ2人に割り当てていた。伝統的な意味での偏見ではなく、単にその2人が確実に対応可能で、決して反論せず、隙間を埋めやすいスキルを持っていたからだ。
システムは効率的だった。しかし、2人の有能な人材を見えなくしていた。
デビッドはシステムを上書きしなかった。パラメータを変更した。ルールを追加した。誰も連続して2回以上、目立たない仕事を割り当てられないようにした。システムは調整された。チームは再バランスされた。消えかけていた2人は、再び顧客ミーティングに姿を現すようになった。
起きていたことを危機と呼ぶ人はいなかっただろう。だからこそ、介入が重要だった。デビッドは、すでに何かを壊した問題を解決していたのではない。いずれ何かを壊すパターンに気づいていたのだ。
これが実践における解釈の姿だ。ダッシュボードがフラグを立てる前に、二次的な結果を見ることだ。
誰も迷っていることを認めない会議
今、ほぼすべての組織で起きている会議がある。誰かが報告をする。通常はきれいなスライド、自信に満ちた説明だ。作業はシステムによって行われた。結果は良好に見える。全員がうなずく。
しかし途中で、誰かが明確化の質問をする。発表者は一時停止する。「モデルのドキュメントを確認する必要があります」と言う。あるいは、「システムがそれを提示しました。変数にどう重み付けしたかはわかりません」と。
会議室は先に進む。結論にどう到達したかを完全には理解していないことを認めたい人はいない。システムに作業を見せるよう求めることで物事を遅らせているように見られたい人はいない。
ここで説明責任は溶解し始める。悪意によってではなく、不都合な質問をやめるという静かな合意によって。
ある企業で、戦略担当副社長が小さいが破壊的なことを始めた。誰かがシステムによって生成された結果を発表するたびに、彼女は尋ねた。「この推奨が間違っていたら、誰が取締役会に説明するのか」と。
何が間違ったかではない。誰がそれに答えるのか。
ほとんどの場合、人々は答えを持っていなかった。そしてその沈黙、その不確実性の瞬間が、チームに、人間が決定の内部にいる必要があるのか、それとも下流にいるだけでいいのかを決めさせた。
彼女は、リーダーシップが偶然に自動化されないようにしていた。
AI・人間ハイブリッドチームが実際に破壊するもの
人々は仕事を失うことにパニックになっていない。目的を失うことに混乱している。
AIエージェントが、ある人が自分のものだと思っていたステップを完了すると、その個人は脅威を感じない。錨を失う。かつて仕事を組織していた階層が恣意的に感じられ始める。権威は年功から離れていく。スキルは錨でなくなる。「私はここで実際に何をしているのか」という問いに、自信を持って答えることが難しくなる。
一部の組織では、これは解放のように感じられる。役割がついに官僚的な重荷を脱ぎ捨てる。他の組織では、侵食のように感じられる。どちらの反応も妥当だ。それが、この瞬間を以前の自動化の波よりも困難にしている理由だ。何が変化しているかについての共通言語を持っていないのに、ほとんどのリーダーは持っているふりをしている。
誰も発表しなかった変化
影響力の移動が起きている。組織図や昇進サイクルには現れないが、誰がどの会話に引き込まれるかを見れば見える。
一部のマネージャーはある日見上げて、もう誰も自分の承認を待っていないことに気づく。システムはすでに物事を前に進めている。彼らの役割は排除されていない。あまりにも頻繁に迂回されたため、必要だと感じられなくなっただけだ。
一方、他の人々、しばしば明白な地位的権力を持たない人々は、これまで招待されたことのない部屋にいる自分に気づく。地位のためではなく、ダッシュボードがすべて問題ないと言った後に何が間違う可能性があるかを理解しているように見えるからだ。
彼らは最も上級ではない。常に最も技術的でもない。しかし、システムの動作を人間の結果に翻訳できる人々だ。「これは効率的に見えるが、6カ月後に我々が支払うコストはこれだ」と言える。あるいは、「AIモデルはこれを見ることができないが、顧客は見る」と。
その能力、専門知識ではなく解釈は、静かに権威の中心になりつつある。
組織はまだこれらの人々のための肩書きを持っていないが、彼らは何か新しいものとして機能している。一部リーダー、一部通訳者、一部ブレーキシステムだ。
なぜこれがアイデンティティを破壊するのか
以前の革命はタスクを自動化した。今回はアイデンティティを乱す。
リーダーに、自分の仕事のどの部分が基礎的で、どの部分が習慣だったかを知っているかを問う。多くは知らない。そしてシステムが3秒で同じ判断を下し、リーダーは避けてきた可能性と向き合わなければならない。自分の判断は思っていたほど不可欠ではなかったかもしれない。あるいは不可欠だったが、なぜそうなのかの根拠を構築してこなかった。
リーダーシップはかつて確実性についてだった。正しい答えを知り、判断を下し、自信を示すこと。今はそれに近い何か、識別力だ。結果が自動化できるとしても、何かに人間の手が必要なときの本能だ。
リーダーが今すべきこと
彼らはスピードがコストを隠す場所を監視する。定量化に耐えられない関係性を守る。損害が明白になる前に行動する。
彼らは次のような質問をする。
「この決定を、部屋にいなかった人に誰が説明するのか」
「システムが知らないが、我々が知っていることは何か」
「これが間違っていたら、誰が結果を背負うのか」
ある日はそれは管理のように感じられる。別の日は中断のように感じられる。きれいな職務記述書には解決しないし、しないだろう。
誰かが決定的なプレイブックを書いた瞬間、システムは再び変化しているだろう。
レナがその後したこと
ベンダーの事件の後、レナはシステムを停止しなかった。それを構築したチームを責めなかった。彼女はより小さく、より持続的なことをした。調達エージェントの決定を監査する月次レビューを作成した。正確性のためではなく、整合性のため、特に顧客戦略と関係マップに関してだ。
問いは「システムはルールに従ったか」ではなかった。「この決定は我々が実際に大切にしていることを反映しているか」だった。
時には答えはイエスだった。時にはそうではなかった。そうでないとき、人間が介入した。毎回上書きするためではなく、システムが判断がどこにあるかを学ぶようにルールを調整するためだ。
劇的ではなかった。良い変革の物語にはならなかった。しかし6カ月後、彼女の部門は、人々がまだAIが何をしているか、なぜそうしているかを理解している数少ない部門の1つだった。権威は消えていなかった。プロセスの別の場所に移動しただけだった。
本当の問い
今進歩している組織は、AIをより速く展開する方法を問うていない。自分たちの仕事のどの部分に、まだ人間が責任を負う必要があるかを問うている。
この問いを避ける企業は、最終的に、タスクを自律型AIに自動化しただけでなく、説明責任を自動化したことを発見するだろう。そして気づいた頃には、それを取り戻す方法を覚えている人は誰も残っていないだろう。



