この2年間、我々は人工知能について驚くほど一貫したストーリーを聞かされてきた。
基盤モデルが弁護士、教師、アナリスト、マーケター、そしておそらくはかつて彼らの給与明細に署名していた経営幹部さえも置き換えるだろうと。デモンストレーションは印象的で、ベンチマークはリリースごとに上昇している。つい先日までChatGPTは「raspberry」の中の文字rを数えるのに苦労していたが、今日では1つのプロンプトでコードを生成し、契約書を要約し、スライド資料を作成し、カジュアルな会話で通用するほど共感に似たトーンをシミュレートできる。
これらの能力から導き出される物語は魅惑的だ。知能が一般化され、インターフェースを通じて提供できるのであれば、おそらくほとんどの専門的な仕事は単に自動化を待つパターン認識に過ぎない。OpenAIや他のモデル提供者が能力を拡大し続ければ、残された人間のレイヤーは非効率的に見え始め、完全に運命づけられているとさえ言えるだろう。
この結論は、ほとんどの人が気づいていないカテゴリーエラーに基づいている。
それは流暢さと説明責任を混同し、統合と責任を混同している。AIがドメイン全体で出力を生成できるからといって、その中で結果を引き受けられると仮定しているのだ。
よく見れば、AIを中心に持続可能なビジネスを静かに構築している創業者たちは、そのような仮定をしていないことがわかる。代わりに、彼らは知能を人間の判断力、権限、物理的な実行の周りに配置するシステムを設計しており、これらの要素を完全に消去しようとはしていない。
全能のAIという誤謬
現在の誇大宣伝サイクルは、汎用的な代替というアイデアに基づいている。
大規模言語モデルは法的条項を書き、マーケティングコピーを生成し、財務諸表を要約できる。投資家はこれらのデモンストレーションから、機能全体がソフトウェアに溶解することを想像して外挿する。この外挿は、専門領域が制度的というよりも主に情報的であると仮定している。
実際には、ほとんどの専門的な仕事はテキスト生成を超えた制約の中で展開される。インセンティブ構造、報告ライン、規制上のエクスポージャー、評判リスク、資本配分のトレードオフがあり、これらは言語的な一貫性だけでは解決できない。モデルは条項を推奨したり、不一致を指摘したりできるが、その条項が訴訟を引き起こしたとき、またはその不一致が四半期決算ガイダンスに影響を与えたときに、取締役会に座っているわけではない。
AI能力の実証的なマッピングでさえ、より微妙な現実を示唆している。大規模言語モデルの能力を米国労働省のO*NETタスクデータベースと比較した広く引用されているマイクロソフト・リサーチの研究では、研究者たちは、AIへのエクスポージャーが情報処理、執筆、分析を中心とした職業に集中している一方で、浚渫機オペレーターや重機作業員を含む物理的な操作と具体的な実行に基づく役割は、代替へのエクスポージャーが最も低いものの中にランクされていることを発見した。
このパターンは単純な点を強化している。AIは、制度的な説明責任や物理的な実行を置き換えるよりも、記号操作をはるかに容易に拡大する。
ブランドン・カード氏のリーガルテック企業Terzoは、この区別を明確に示している。
「契約書は企業における最も豊かな財務文書の一部です」とカード氏はインタビューで私に語った。「しかし歴史的には、財務資産ではなく法的書類として扱われてきました」
今日、AIエージェントは数分で数千の条項を読み、勤勉なチームでさえ疲弊させるような不一致を指摘できる。AIが行わないことは、企業のリスク選好度を決定したり、戦略的優先事項の文脈でベンダー関係を交渉したり、長期的なポジショニングのために短期的なコストを吸収するかどうかを決定したりすることだ。これらの決定は不確実性の下での判断を必要とし、データセットをはるかに超えた結果をもたらす。
「我々の目標は、CFOや関与する顧問を置き換えることではありません」とカード氏は私に語った。「財務リーダーに、資金がどこに隠れているか、リスクがどこにあるかを示すコマンドセンターを提供することです」
この区別は重要であり、エンタープライズAIがどこに向かっているかについて多くを語っている。
金融や法律などの高度に規制された領域では、洞察と所有権は互換性がない。AIシステムはクリーンな契約書を起草したり、条項の文言を業界標準に最適化したりできるが、その契約が法廷で異議を唱えられたとき、または相手方が解釈に異議を唱えたときに責任を負うわけではない。
「AIは条項を提案できます」とカード氏は述べた。「しかし、誰かがそれに署名しなければならず、その署名は説明責任を伴います」
ここでの洞察は、実際にはソフトウェア能力の問題ではない。代わりに、それは制度設計に直接語りかけている。AIは情報的な摩擦を減らし、可視性を広げるが、受託者責任や専門的な説明責任を解消するわけではない。実際、分析をより速く、より包括的にすることで、リーダーがそれを外部委託するのではなく、より鋭い判断を行使することへの期待を高める可能性がある。
「モデルはパターン認識に非常に優れています」とカード氏は付け加えた。「しかし、なぜ決定が下されたのかを説明するために取締役会の前に座っているのは彼らではありません」
AIはこれらの選択を前例のない明確さで知らせるが、それらに対する責任を負うわけではない。このアーキテクチャでは、専門知識は置き換えられない。盲点が縮小すると、残るのは判断であるため、より厳しい精査の下で増幅される。
同様のパターンは教育にも現れており、ローマン・ペスキン氏のELVTRはライブのコホートベースの指導を通じて運営されている。
AIが教科書を要約し、カスタマイズされた説明を即座に生成できる時代において、インストラクターの役割が脅威にさらされているように見えるかもしれない。しかし、ペスキン氏のテーゼは異なる観察に基づいている。専門的な開発のより高いレベルでは、教育はコンテンツの配信以上のものを含む。それは判断パターンへの露出と、実際の制約をナビゲートしてきたことから得られる暗黙知を含む。
「AIは情報を複製できます」とペスキン氏は私に語った。「複製できないのは、実際に何かを構築し、その結果とともに生きてきた人への近接性です」
ELVTRのモデルはその希少性に傾いている。ライブ指導とコホートのダイナミクスは、メンターシップがダウンロード可能なファイルではなく、具体化された交換である環境を作り出す。
「我々はYouTubeと競争しているわけではありません」とペスキン氏は述べた。「傷を持つ人々から野心的な人々が学ぶ部屋を構築しています」
確かに、AIは要約や練習問題を生成できる。説得力のあるトーンで採点やフィードバックをシミュレートすることさえできるが、教育業界の中核にある地位を授与したり、生きた権威を伝達したりすることはできない。
ペスキン氏の設計では、AIは準備と強化のためのツールとなり、人間のインストラクターは変革の中心であり続ける。
再生技術を扱うジェームズ・マードック氏のAlchemyは、代替の物語が摩擦に遭遇する第3の領域を強調している。
同社は、中古ハードウェアを大規模に再販・流通するためのプラットフォームを構築している。AIは価格を最適化し、需要を予測し、買い手と売り手の間のマッチングを合理化できる。しかし、ビジネスの中核は物理的な操作と信頼に基づいている。
「我々は実際の倉庫で実際の箱を動かしています」とマードック氏は私に語った。「データをいくら最適化しても、誰かがパッケージを開けて中身を確認しなければなりません」
デバイスは認証され、等級付けされ、輸送され、検証されなければならず、関与する物流は言語モデルが抽象化できない制約をもたらす。
「二次市場における信頼は検証の上に構築されています」とマードック氏は述べた。「AIはパターンを見るのに役立ちますが、物理的な世界が我々を正直に保ちます」
完全な自動化が現実的かどうか尋ねたとき、彼はより率直に述べた。「顧客が機能しないデバイスを受け取った場合、彼らはアルゴリズムに電話しません」と彼は言った。「彼らは我々に電話します」
ここでの限界は具体化だ。
モデルはルーティング戦略を推奨できるが、ひび割れた画面を検査したり、バッテリーの健全性を検証したりはしない。物理システムは物質そのものを通じて説明責任を課す。AIは運用効率とデータの可視性を向上させるが、現実世界の実行は人々、プロセス、インフラストラクチャに根ざしたままだ。
AIが限界に達する場所
これらのケースと、ここに掲載されなかった何千ものケースを通じて、全能のAIという幻想を複雑にするパターンが浮かび上がる。
人工知能は大規模なパターン認識に優れている。研究サイクルを圧縮し、相関関係を特定し、驚くべき流暢さでドラフト出力を生成し、その効率性で人間を恥じ入らせる。
しかし、制度的な説明責任、生きた経験に根ざした権威、そして物理的な実行の頑固な現実に直面すると、構造的な限界に遭遇する。
AIをめぐる誇大宣伝にもかかわらず、専門領域は単に自動化を待つタスクの集合ではない。それらは根本的に責任のシステムだ。
AIシステムが推奨事項を起草するとき、他の誰かが文書に署名する。アルゴリズムが戦略を提案するとき、人間の経営幹部がその実装に評判とキャリアを賭ける。運用上の失敗が発生したとき、規制当局、顧客、または取締役会に直面するのはモデルではない。
出力生成と結果負担の間の非対称性が、技術が容易に越えられない境界を定義している。
したがって、リーダーへの教訓は、いくつの役割を自動化できるかを数えることよりも、判断がどこにあるかを理解することだ。AIは情報的な摩擦を減らし、可視性を広げ、それによって解釈、決定権、所有権のプレミアムを高める。持続する組織は、人間を最も速く排除する組織ではなく、AIを使用して反復を排除しながら信頼と責任を保持する組織だ。
AIを責任を持って制度に統合し、ワークフローを再設計し、人間の監視が不可欠である場所を明確にするために、膨大な量の作業が待っている。
全能性の誤謬は、すべての価値システムが最終的に結果に答える誰かに基づいているという現実に直面すると消える。その意味で、未来はAI単独のものではない。それは知能と説明責任を整合させる方法を理解する人々のものだ。



