AI

2025.12.11 08:06

アイデンティティ管理がAI投資効果の隠れた要因となる理由

Adobe Stock

Adobe Stock

Eric Olden氏、Strata IdentityのCEO。エンタープライズクラウドアイデンティティの専門家であり、複数の企業を成功させたシリアルアントレプレナー、そしてSAML SSO標準の共同著者。

誰もがAIからのROI(投資対効果)について語っています。取締役会はそれを求め、投資家はそれを期待し、ビジネスリーダーはそれを約束します。しかし、ほとんどのAIプロジェクトはパイロットフェーズを超えることができません。その理由はイノベーションの欠如ではなく、信頼の欠如にあります。

概念実証デモは可能性を示すことはできますが、完了した取引、サイクルタイムの短縮、バランスシートに表れる生産性向上といったビジネス指標を動かすことはできません。これらは、AIが本番環境で安全に、スケーラブルに、ガバナンスの下で運用されて初めて実現するものです。

多くのAIイニシアチブがその段階に到達する前に停滞する主な理由は、一言で言えば、アイデンティティにあると私は考えています。

ROAIの方程式

AIからのROI、つまり「ROAI」の測定は、ビジネスインパクトと運用効率の両方を捉える相互依存的な2つの要因に基づいています:

成果:システムがエンドツーエンドで完了するタスク。例えば、解決された顧客チケット、処理された支払い、実行された契約などです。

効率性:AIコパイロットの助けを借りて開発者が2倍のコードを出荷したり、アナリストが生成ツールを使ってより速くインサイトを生み出したりするような生産性の向上です。

これらを合わせると、ROAIになります。しかし、どちらの指標もパイロット環境では捕捉できません。真のROIは、エージェントが実際のシステム、機密データ、実際のビジネスワークフローとやり取りする本番環境でのみ現れます。

パイロットと本番の間の信頼ギャップ

セキュリティとコンプライアンスチームにとって、本番環境への移行はリスクが倍増する場面です。サンドボックス環境からの飛躍はすべてを変えます。突然、AIシステムは顧客データ、財務記録、取引システムへのアクセスを必要とします。それは重要なアイデンティティの問題を提起します:

• AIエージェントの権限はどのように付与され、取り消されるのか?

• 委任されたトークンが再生されたり、悪用されたりする可能性はあるか?

• エージェントがアクションを起こした場合、誰が責任を負うのか?

• インシデントや監査の際に何が起きたかを再構築する方法はあるか?

明確な回答がなければ、パイロットは停滞します。それはモデルが機能しないからではなく、本番稼働を安全にするためのアイデンティティ保証がないからです。

アイデンティティがボトルネックになるとき

さらに複雑なことに、従来のアイデンティティとアクセス管理システムは、予測可能な人間主導の行動のために設計されています。AIエージェントはそのモデルに適合しません。彼らは推論し、適応し、複数のシステムにわたって自律的に行動します。つまり、単一のプロセスというよりも、ユーザーのチームのように機能するのです。

これにより、デプロイメントを妨げる3つの明確なリスクが生じます:

委任による権限昇格:AIエージェントはしばしばユーザーやサービスの「代わりに」行動します。境界のあるスコープとトークン交換がなければ、これらの委任は意図したよりも多くのアクセス権を誤って付与する可能性があります。

再生可能な認証情報:所有証明のないベアラートークンやAPIキーは傍受されたり再利用されたりする可能性があり、許可されたコンテキスト外でアクションが実行される可能性があります。

ゼロ観測可能性:多くのAIシステムは完全なトレーサビリティを欠いています。何かがうまくいかなかった場合、誰が、または何がアクションを開始したかを証明するのは困難です。その系統の欠如は、監査とコンプライアンスの非スターターです。

アイデンティティガードレール:ROIの前提条件

そのギャップを埋めるには、AIセキュリティを再発明する必要はなく、アイデンティティの基本を新しい方法で適用する必要があります。企業は推測ではなく、アイデンティティガードレールを必要としています。つまり:

スコープ付き委任:AIエージェントは時間制限のある最小権限の認証情報で運用されるべきです。動的に交換されるトークンにより、権限が持続したり昇格したりしないことを確保できます。

所有証明:認証情報を要求元のエージェントにバインドすることでリプレイ攻撃を防ぎ、すべてのトランザクションが暗号的にその発信元にリンクされていることを確保します。

ポリシー駆動型の実施:ゼロトラストの原則、継続的な検証、コンテキストアクセス、行動評価は非人間アクターにも拡張する必要があります。

完全な観測可能性:すべてのAIアクションは「誰が、何を、いつ、どこで、なぜ」というコンテキストで記録されるべきです。その監査可能性が、ブラックボックスの行動を測定可能な信頼に変えるものです。

これらのアイデンティティガードレールが整うと、本番環境でAIをデプロイすることに関連するリスクは劇的に低下します。セキュリティチームはエージェントがポリシーの境界内で行動していることを検証でき、コンプライアンス担当者は人間の意図から機械のアクションまでのすべての決定チェーンをトレースできます。

デプロイメント前の信頼確立

しっかりとしたガードレールが整っていても、AIを本番環境に移行することは信頼の飛躍であってはなりません。最も安全な道は、まずライブインタラクションをシミュレートすること、つまりアイデンティティのためのサンドボックスを作ることです。

この制御された環境で、企業はポリシーが期待通りに動作するかどうかをテストし、委任されたスコープを検証し、エージェントが既存のインフラとどのように相互作用するかを観察できます。誤設定やエスカレーションパスが現れた場合、実際のデータにさらされる前に安全に修正できます。

このプロセスはDevOpsチームがCI/CDパイプラインを扱う方法を反映しています:自動検証に合格するまで、何も本番環境に到達しません。AIのアイデンティティガバナンスに同じ規律を適用することで、組織は自信を持ってデプロイできるようになります。

AIのコントロールプレーンとしてのアイデンティティ

AIエージェントが検証されたアイデンティティコントロールの下で動作すると、不透明な自動化ではなく、観測可能なシステムになります。完了したタスク、委任されたアクション、データインタラクションのすべてを測定し、トレースし、開始アイデンティティ(人間または機械)に関連付けることができます。その系統データはAI運用をROAI方程式の定量化可能な入力に変え、パフォーマンス成果を信頼とガバナンスに直接リンクさせます。

アイデンティティテレメトリをAIパイプラインに統合する企業は戦略的優位性を獲得します。彼らは期待される行動をベースライン化し、権限のドリフトを検出し、使用パターンの進化に応じて適応型ポリシーを適用できます。このモデルでは、アイデンティティはもはや静的なアクセス制御ではなく、セキュリティを継続的に実施しながら効率性と説明責任を向上させる動的なフィードバックループになります。

AIから真のROIを実現する組織は、最も洗練されたパイロットを構築する組織ではなく、インテリジェントシステムのコントロールプレーンとしてアイデンティティを運用化する組織です。アイデンティティがAIガバナンスのバックボーンになると、信頼は自動化とともにスケールし、イノベーションは実験から企業価値へと安全に移行します。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事