AI

2026.04.25 09:27

AI生成コンテンツの氾濫が深刻化、導入戦略の見直しが急務に

Adobe Stock

Adobe Stock

企業は従業員のAI対応を急いでいる。その本能は理解できる。しかし、実行方法が問題になりつつある。

企業内部で新たな行動パターンが生まれている。従業員の人事評価をAI使用量と結びつけているのだ。社内リーダーボードがトークン消費量を追跡する。エンジニアたちは誰が最も多くの計算リソースを消費するかを競い合う。この慣行には今や名前がついている。「トークンマキシング」だ。メタはAI活用による成果を人事評価の中核基準とし、トップパフォーマーには最大200%のボーナスを支給している。ジェンセン・フアン氏は、エヌビディアのエンジニアに年間トークン予算が必要になると想定しており、その額は基本給の半分に相当する可能性がある。経営陣からのメッセージは明確だ。AIを使え。今すぐ使え。たくさん使え。

ここに問題がある。量は価値ではない。

AIスロップ:見えないコスト

スタンフォード大学などの研究は、1000人以上の米国労働者を調査し、40%が過去1カ月間に研究者が「ワークスロップ」と呼ぶものを受け取っていたことを明らかにした。AI生成コンテンツは洗練されて見えるが、中身がない。権威的に聞こえるが何も言っていないメール。構造的には健全だが知的には空虚なスライド資料。

AIスロップの解決には数時間かかることがある。規模が大きくなると、失われた生産性は急速に積み重なる。1万人規模の組織では、スタンフォード大学の研究者は年間900万ドル以上の手直しコストを推定している。そして、これは文化的ダメージを考慮していない。受信者の42%は送信者への信頼が低下したと述べた。半数は送信者を能力が低く信頼性に欠けると見なした。

データは残酷な皮肉を明らかにする。スロップを生成している人々は、自分が生産的だと考えている。それを受け取っている人々が、実際にそれを整理する作業を行っているのだ。AIは労働を排除しなかった。それを移転させたのだ。

二層化する労働力

私が活動する3つの領域、すなわち大企業の変革、初期段階のベンチャー、グローバルテクノロジーシンクタンクにおいて、リーダーたちは同じパターンを説明する。AIの使い方を理解している従業員は、スループットと品質において真の、時には劇的な改善を見ている。彼らはAIを思考のパートナーとして使用し、思考の代替物としては使用しない。プロンプトの方法、検証の方法、編集の方法、AI出力を実際のワークフローに統合する方法を知っている。

そして、それ以外の全員がいる。大量のエンゲージメント、実質的な経済的成果はゼロ。

我々は以前にもこれを見た

ロバート・ソロー氏は1987年にノーベル賞を受賞したが、同じ年に次のように述べた。「コンピューター時代はどこでも見られるが、生産性統計には見られない」。企業はPCとメインフレームに数十億ドルを投資していた。生産性の伸びは実際には低下した。IT投資が測定可能な経済的利益に転換されるまでには、組織の再設計、プロセスの再構築、労働力のトレーニングに約10年を要した。

最近のフォーチュン誌の記事は、その類似性が明確であると指摘している。2026年のAIは1987年のITを反映している。導入率は高い。影響は低い。欠けているリンクは技術ではない。技術を生産的にするために必要な組織的作業だ。1980年代のコンピューターは過剰な情報を生成した。苦痛なほど詳細なレポートが大量の紙に印刷された。聞き覚えがあるだろうか。2026年のAIは過剰なコンテンツを生成する。媒体は変わった。問題は変わっていない。

10万個の種子 vs 100本の樹木

これがリーダーたちが直面すべき核心的な緊張関係だ。広範なAI展開は必要である。全員にアクセスを与えなければ、パワーユーザーを特定できない。大規模な実験なしには、組織的な習熟度を構築できない。10万個の種子が必要だ。しかし、栽培のない種子は果樹園ではなく雑草を生み出す。

これを正しく行っている企業は、導入指標から成果指標へとシフトしている。「チームは何トークン消費したか」ではなく「それらのトークンは何を生み出したか」。「AIを使用しているか」ではなく「AIがあなたの成果物、意思決定、洞察までの速度について何を変えたかを実証できるか」。ショッピファイのリュトケ氏はこれをうまく表現した。彼は単に使用を義務付けたのではない。チームに対し、人員増を要求する前にAIがその仕事をできない理由を実証することを義務付けたのだ。それは成果フレームであり、量フレームではない。この区別は重要だ。

企業AI展開のフレームワーク

  • 許可された使用だけでなく、受け入れ可能な使用を定義する。第一世代のAIポリシーは何が許可されているかに焦点を当てていた。次世代は何が効果的かに焦点を当てなければならない。AIが判断を補強する場所と置き換える場所。
  • AI支援作業に人間の所有権を割り当てる。すべてのAI生成成果物には、その品質に責任を持つ指名された人間が必要だ。その説明責任を取り除いた瞬間、スロップが生まれる。
  • 活動ではなく成果を測定する。AIによって何が変わったかを追跡する。サイクルタイムの短縮。エラー率の改善。意思決定速度。収益への影響。トークン数ではない。
  • 100本の樹木に投資する。パワーユーザーを特定する。高収益のユースケースで。彼らが何を異なる方法で行っているかを研究する。一般的なプロンプトエンジニアリングコースではなく、彼らのワークフローを中心にトレーニングを構築する。

真のリスク

真のリスクは、企業がAIを採用するのが遅すぎることではない。意図的な戦略なしにあまりにも広範に採用することだ。目に見える指標(消費されたトークン、展開されたツール、リーダーボードランキング)を最適化する一方で、目に見えない指標(手直し時間、信頼の侵食、意思決定の質)を無視することだ。問題はAIが機能するかどうかではない。機能する。タスクレベルでは、証拠は圧倒的だ。問題は、あなたの組織がその価値を獲得するように構造化されているか、それとも単にそれに支出するように構造化されているかだ。

10万個の種子を蒔くことは発見のための戦略だ。100本の樹木が開花することは価値のための戦略だ。両方を順番に、規律を持って行う方法を見つけ出すリーダーたちは、群れから抜け出すだろう。残りは印象的なダッシュボードを持つことになる。そして、整理すべき大量のスロップを。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事