AI

2026.01.03 09:48

エージェント型AIが顧客体験を変革する前に壊す理由—そしてなぜそれが必要なのか

Adobe Stock

Adobe Stock

リトゥ・カプール氏は、Observe.AIのCMOとして、エージェント型AIを通じた顧客サービス変革に焦点を当てたブランドとGTM戦略を主導しています。

advertisement

エージェント型AIは顧客体験を再形成しようとしていますが、まず最初に多くのCX(顧客体験)業務がいかに脆弱であるかを露呈させるでしょう。この混乱は不快に感じられるかもしれませんが、リーダーがAIネイティブで信頼を中心とした、スケーラブルな顧客体験を構築したいのであれば、まさにこれが必要なのです。

今日のCXの不都合な真実

何十年もの間、経営幹部は顧客が戦略の中心にいると宣言してきました。しかし実際には、ほとんどのサービス業務は断片化され、手作業に依存し、壊れたシステムを補うために特別な努力をする一部の「ヒーロー」従業員によって維持されています。これらのチームはギャップを埋め、プロセスにパッチを当て、データとデザインが失敗した場所で共感を提供しています。これは人間の創意工夫の証ですが、同時に構造的な弱さの症状でもあります。

エージェント型AIはこれらの弱点を露呈させるでしょう。その知性はクリーンなデータ、明確な所有権、一貫した論理に依存しています。矛盾に直面したとき、意欲的な人間のように「なんとかする」ことができません。組織が価値をどう定義し、コンテキストをどう管理し、どう意思決定するかというあらゆる矛盾を明らかにするでしょう。

advertisement

待って、CXはかなり自動化されているのでは?

過去10年間、企業はCX自動化に多額の投資をしてきました。現在、よりスマートなルーティング、自動要約、基本的な質問に答えられるチャットボットがあります。これらのツールは効率化に役立ちましたが、顧客体験を真に変革したわけではありません。システム同士が連携していません。ポリシーが矛盾しています。エージェントは依然として部族的知識に頼っています。なぜなら重要な詳細が記録システムに反映されていないからです。

エージェント型AIはこれを露呈させます。プロセスがどこで成文化されていないルールや文書化されていない例外に依存しているかを正確に明らかにします。リーダーは突然、時代遅れのポリシー、接続されていないプラットフォーム、一時的なはずが恒久的になった一回限りの修正によって生じた運用上の負担を目の当たりにします。

仕事は役割よりも先に変化する

最も議論を呼ぶ質問—「AIは人間のエージェントに取って代わるのか?」—は本当の変化を見逃しています。エージェント型AIは仕事を置き換えるのであって、役割全体を置き換えるわけではありません。複数システムの検索、繰り返しの検証、通話後の文書化、厳密にスクリプト化された手順など、価値は低いが時間のかかるタスクを引き継ぐのに特に効果的です。この作業がAIに移行するにつれて、人間の役割は人間が最も得意とすることを中心に再設計できます:複雑な問題解決、重要な会話、そしてスピードよりも感情的知性が重要な瞬間です。

リーダーにとっての命題は、どのタスクが「AIファースト」になるべきかを積極的に定義し、人間の能力を単に削減するのではなく再配置することです。

リーダーのための実践的な青写真

組織を不安定にすることなくCXにエージェント型AIを実装するための簡潔なフレームワークを紹介します。

1. 組織図ではなく現実から始める

まず、サイドチャネル、手動の回避策、公式のプロセス文書には決して現れない「この人に聞く」という依存関係を含め、今日の仕事が実際にどのように行われているかをマッピングします。これを使用して、AIによる調整に適したジャーニーの部分と、依然として人間主導の裁量を必要とする部分を特定します。

2. まず一つの高摩擦ジャーニーを対象にする

返金、エスカレーション、クレーム、オンボーディングなどの特定の痛みを伴うジャーニーを選択し、AIに各ステップの重複、曖昧さ、遅延を調査させます。このジャーニーを制御された環境で意図的に壊し、AIをアドオンではなく中核的な参加者として再設計します。

3. 二重トラックモデルを実行する

レガシージャーニーとAIアシスト型またはAI主導型ジャーニーを並行して運用し、信頼性、コンプライアンス、顧客満足度、コストを比較するのに十分な期間を設けます。このビューからのデータを使用して、規制当局とフロントラインの従業員の信頼を構築します。

4. 人間に属する仕事を再定義する

ルールベース、反復的、複数システム、または文書作成が多いタスクを明示的にリストアップし、それらをAIファーストドメインとして指定します。複雑な解決策、関係構築、イノベーションなど、より高次の人間の貢献を中心に採用、トレーニング、パフォーマンス指標を調整します。

5. ワークフローをスケールする前にガードレールを構築する

AIが自律的に決定できること、推奨するだけにとどめるべきこと、規制上、倫理上、またはブランド上の制約により決して行ってはならないことを明確にします。AIへの信頼が盲目的な楽観主義ではなくガバナンスに基づいたものとなるよう、エスカレーションパス、オーバーライドメカニズム、監視プロセスを定義します。

6. 人間のエージェントを犠牲者ではなく共同設計者にする

フロントラインチームをAIの設計、フィードバック、テストに早期から関与させ、決定がどのように行われるか、そして彼らがどこで最も価値を付加するかを理解できるようにします。AIを認知負荷と管理業務を取り除き、高品質な人間のサービスの技術を高めるための能力として位置づけます。

7. 不要なプロセスを迅速に廃止する

AIが価値を加えなくなったステップを明らかにした場合、将来の改善のためのもう一つのバックログを作成するのではなく、それらを削除するために断固とした行動を取ります。すべてのAI実装を運用モデルを簡素化する機会として扱います。

8. 証明のための90日間のウィンドウを設定する

CX AIイニシアチブを、初回解決率、顧客満足度、インタラクションあたりのコストなどの明確な前後の指標を持つ90日間の実験として構成します。その期間内に測定可能な向上が見られない場合は、AIそのものが「機能しない」と結論付けるのではなく、範囲、データアクセス、またはガードレールを調整します。

CXは本当のAIテスト

顧客体験は、AIが信頼と運用の複雑さに与える影響が毎日現れる場所です。CXはまた、企業が言うことと顧客が感じることの間で最も大きなギャップがある機能でもあります。多くの組織は自らを顧客に執着していると表現していますが、そのエージェントは単純な要求を解決するために複数のシステムと硬直したプロセスと格闘しています。

エージェント型AIは、これまで人間の努力の中に隠されていた非効率性を無視する能力をリーダーから奪います。ボトルネック、ポリシーの負債、設計上の欠陥を不快に感じられる方法で浮き彫りにします。しかし、その不快感こそが変革が進行中であるというシグナルなのです。AIがCXのこのギャップを埋めることができれば、企業全体でAIを責任を持って効果的に展開する方法の再現可能なモデルが作成されます。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事