マイケル・ゴシュカ氏は、PlanfixのCEOである。同社はコスト削減、エラー削減、ワークフロー自動化を実現し、よりスマートなビジネス運営を支援するSaaSプラットフォームだ。
数年前、私たちは「AI機能」と誇らしげに呼ぶものをリリースした。スマートな提案、自動要約、会話型アシスタントなど、すべてを備えていた。デモは素晴らしく、顧客も皆同意しているように見えた。その後、私は自問した。「このAIは、重要な形で製品の価値を高めたのか」と。企業がより速く実際の問題を解決し、より良い意思決定を行い、一貫した成果を提供するのに役立ったのか、それとも単にいくつかのステップを自動化しただけなのか。実際の成果に十分な影響を与えていなかったことに気づき、今後のビジネスモデルの変化について私の考え方は完全に変わった。
SaaS(Software-as-a-Service)は、企業にサブスクリプションを通じてソフトウェアを継続的に提供することを教えた。しかし、次の変化は単なる提供方法についてではない。それは、使用から学習し、時間とともに成果を改善するシステムが中核的価値となる製品を構築することだ。このシナリオでは、AIは機能ではなく、製品そのものである。
今日ビジネスをリードしているなら、本当の質問は「AIを追加すべきか」ではない。「私たちはAIを中核とするモデルを責任を持って運用する準備ができているか」である。
「AIコア型」の定義
AIアドオンは最も簡単な道だ。ユーザーインターフェースのチャットボット、自動要約、いくつかの予測的推奨などである。これらは役立つが、多くの場合、従来の機能のように振る舞う。リリースして、採用が増えることを期待する。AIコア型は異なる。ここでは、製品の主要な価値は成果に結びついた学習ループから生まれる。システムは、実際の使用、実際のフィードバック、実際の結果から学習するように設計されているため改善する。
AIが中核である場合、特定の特性が現れる傾向がある。
● 顧客は、測定可能な何かが改善されるために支払う(解決時間、コンバージョン率、精度、コスト、リスク、または維持率)。
● 製品は、出力が生成されたかどうかだけでなく、出力が役立ったかどうかについてのシグナルを捕捉する。
● 改善は、品質管理、プライバシー境界、明確な所有権とともに管理される。
私の経験では、これが転換点である。ほとんどのチームは、まずより大きなモデルとよりスマートなプロンプトに手を伸ばす。しかし、利益は通常、信頼できるシグナル、一貫したフィードバック、出力品質に対する1人の責任ある所有者といった運用の基本から生まれる。
このモデルが機能する場所と機能しない場所
あるケースでは、紙の上では完璧に見えるワークフローを「AI対応」にした。デモは強力で、初期のフィードバックは肯定的だった。しかし、成果から学習する信頼できる方法がなかったため、改善は停滞した。
AIコア型はすべての企業やプロセスに適しているわけではない。学習が複利的に増加できる場合にのみ勝利する。これには通常4つの条件が必要だ。
• チーム全体で毎日発生する、実際のボリュームでの反復可能な意思決定
• 成功と失敗の明確な定義
• エラーや遅延の意味のあるコストがあり、「より良い」が実際に重要である
• 学習するのに十分なバリエーション
ほとんどのAIイニシアチブは、モデルが十分にスマートでないために失敗するわけではない。私はより単純な理由で失敗するのを見てきた。多くの場合、「AIを追加する」ことが、単一の指標を改善することではなく目標になった。おそらくシグナルが弱く、システムが入力を結果に接続できなかったため、学習できなかった。AIが間違っていたとき、誰が介入したのか、どれだけ速く介入したのかが明確ではなかった。プライバシー、セキュリティ、コンプライアンスの懸念も採用を遅らせる可能性がある。
「悪い日に、実際のインシデント中に、または締め切りのプレッシャーの下で、顧客はこれを信頼するだろうか」と自問することで「健全性チェック」を実行できる。答えがノーなら、AIコア型ではない。それをサポートできないワークフローの上にAIが乗っているだけだ。
潜在的な見返り:より速い成長とよりクリーンな運用
私の経験では、AIコア型は、スピードを追求するスタートアップや一貫性を追求する大企業など、極端な場面で最も明確に現れる。これは、彼らの制約が規律を強いるためだ。
スタートアップにとって、AIコア型は、より速いオンボーディング、より高いアクティベーション、より良い資格認定、より低いサポート負荷、より高い維持率などの成果を推進することが多い。時間とともに改善するのは「回答」だけでなく、採用プレイブックである。これには、ユーザーがどこで行き詰まるか、何が解約を予測するか、どのアクションが確実に顧客を前進させるかが含まれる。
大企業は「クール」を買わない。彼らはコントロールを買う。AIコア型は通常、より短いサイクルタイム、より少ないエラー、より強力なコンプライアンス、より低いコスト、チーム全体での一貫したサービスを対象とする。時間とともに、システムは意思決定パターンを学習する。しかし、ガバナンスなしではこれらのどれもスケールしない。監査、説明、または制御ができない場合、採用は停滞する可能性が高い。
最終的に、AIコア型は、日常の実行に組み込まれ、作業をルーティングし、意思決定を改善し、成果を複利的に増やすときに最も強力である。「分析」として上に乗っているとき、または人々が時々しか相談しないチャットボットとして存在するときに最も弱い。
準備状況テスト:コミットする前に問うべき6つの質問
このモデルを検討している場合は、ツールから始めないでください。準備状況から始めてください。複数のAI展開の成功と失敗を見てきた後、私はどのデモよりも結果をよりよく予測できる6つの質問を特定した。
1. 90日以内にどの測定可能な成果が改善されるべきか。
2. それが機能した場合、何をやめるのか。何も変わらない場合、それは中核的な変化ではない。
3. すでにどのようなデータを持っているか、そしてループを閉じるために何が欠けているか。
4. フィードバックはどのように捕捉されるか(例:レビュー、例外、成果追跡、ユーザーシグナル)。
5. 誰が出力品質と説明責任を所有するか。「AIチーム」ではなく、ビジネスオーナーを指名する。
6. AIが間違っているとき何が起こるか。上書き権限、エスカレーションパス、監査証跡を定義する。
これらの質問に答えられない場合、リスクはAIが十分にスマートでないことではない。ビジネスが学習システムを実行する準備ができていないことだ。
開始するには、強力なシグナルを持つ1つのワークフローを選択し、1つの成果指標を定義し、ガードレール付きの薄いフィードバックループを構築し、信頼を獲得した後にのみスケールする。なぜなら、価値が安全に複利的に増加しない場合、それはAIコア型ではないからだ。それは単にイノベーションに扮した余分なコストである。



