AI

2025.11.29 09:37

エージェント型AI時代におけるデジタルトラストの確立

Adobe Stock

Adobe Stock

Jordan Rackie(ジョーダン・ラッキー)氏は、現代企業向けのアイデンティティファーストセキュリティソリューションを提供するKeyfactor(キーファクター)のCEOである。

新しいクラスの人工知能が、研究室から実用段階へと急速に移行している。それがエージェント型AIだ。従来のモデルがプロンプトに基づいて出力を生成するのとは異なり、エージェント型AIシステムは自律的に意思決定を行い、独自にアクションを実行できる。直接の監視なしに検索、取引、コミュニケーションを行うことが可能だ。

企業にとっての潜在的なメリットは計り知れない。カスタマーサービスエージェントは即座に問題を解決し、サイバーセキュリティツールはアナリストが介入する前に脅威を修復できるようになる。これらの機能は、業界全体でワークフローを再構築し、コストを削減し、イノベーションを加速する可能性を秘めている。

しかし、その可能性とともに深刻な課題も生じる。それは信頼性だ。AIエージェントの決定に対して誰が責任を負うのか?その出力をどのように検証するのか?そして、これらのシステムが悪用されたり侵害されたりした場合、何が起こるのか?

現実には、企業はこれらの問題に対処することなしに、エージェント型AIを大規模に導入することはできない。デジタルトラスト—すべてのデジタルインタラクションが本物で、安全で、適切に管理されているという確信—は導入の前提条件である。検証可能なアイデンティティと保護策がなければ、企業はエージェント型AIを安全に活用することができない。

デジタルトラストの理解

マッキンゼーの2022年のレポートでは、デジタルトラストを「消費者データを保護し、効果的なサイバーセキュリティを実施する組織への信頼」と定義している。今日、その信頼は極めて重要だ。実際、消費者の83%が、企業を信頼するかどうかを判断する上で最も重要な要素としてデータ保護を挙げている。信頼は顧客ロイヤルティ、ブランド評価、規制遵守の基盤となる。AIを業務に組み込む企業にとって、ステークホルダーがその使用に確信を持てなければ、導入は停滞するだろう。

デジタルトラストの核心はアイデンティティにある。二人の間の取引には相手を知ることが必要なように、すべてのAIエージェントもその正当性を証明しなければならない。この基盤となる層がなければ、企業は未検証の基盤の上にAIを構築するリスクを負うことになる。

デジタルトラストにおける独自の課題

エージェント型AIは、既存のセキュリティモデルが対処するよう設計されていない複雑さをもたらす。これらのシステムは、自律的で、ネットワークに接続され、従来の監視ツールでは見えないことが多い、新しいクラスの非人間アイデンティティ(NHI)を表している。

人間と異なり、AIエージェントはリアルタイムの監視なしに大規模な意思決定と行動を行うことができる。これにより、なりすまし、操作、悪意のあるコードへの露出増加、不明確な監査証跡による説明責任の低下などのリスクが生じる。

クラウドワークロードやIoTデバイスと同様に、すべてのAIエージェントは事実上もう一つの企業ワークロードである。どのワークロードも強力なアイデンティティと認証コントロールなしで運用を許可されるべきではなく、エージェント型AIも同様だ。認証がなければ、不正なエージェントが正当なものに見せかけて機密データを流出させたり、不正な取引を実行したりする可能性がある。検証可能なアイデンティティがなければ、システムは信頼できるエージェントと悪意のある偽物を区別する方法がない。

メッセージはシンプルだ:AIエージェントが認証されていなければ、信頼することはできない。エージェント型AIは企業システムと対話する前に、検証可能なアイデンティティと暗号化による保護策を備えていなければならない。そのアイデンティティ層がなければ、企業は信頼できるエージェントと悪意のある偽物を区別することができない。

デジタルトラストの確保と維持

デジタルトラストを確保するということは、すべてのプロセス、システム、インタラクションにセキュリティを組み込むことを意味する。企業がエージェント型AIを採用する際、スケーラブルで反復可能な実践に焦点を当てることで、システムがより複雑になっても信頼を確保できる。

3つの優先事項が際立っている:

1. デジタルトラスト実践のモジュール化(および自動化)

デジタルトラスト実践は、すべてのアクションが検証可能であり、すべてのエージェントが明確な境界内で動作することを保証する。他のワークロードと同様に、アイデンティティと暗号化はエージェントのライフサイクル(導入から廃止まで)に直接組み込まれなければならない。エージェントは起動時に認証された証明書を付与され、暗号化された通信チャネルが強制され、エージェントが侵害の兆候を示した瞬間に認証情報が取り消されなければならない。

手動プロセスはAIの規模では機能しない。何千ものエージェントがAPI、クラウドサービス、データパイプラインにわたって動作する場合、自動化されたアイデンティティ管理が不可欠だ。自動化に失敗した組織は、AI導入が加速するにつれて可視性とコントロールを失うリスクがある。

2. 可視性の向上

エージェント型AIには大規模な自律性が必要だが、規模が大きくなるとリスクも新たに生じる。このリスクを軽減するために、企業は暗号化環境の完全な可視性を獲得する必要がある。つまり、AIエージェントがアクセスするすべての鍵と証明書に加えて、エージェント自体のアイデンティティを継続的に発見、監視、インベントリ化することが必要だ。これにより、セキュリティチームはギャップを検出し、盲点を防ぎ、自信を持ってポリシーを適用することが可能になる。

企業は今日使用されている基盤技術を、この新しいクラスのアイデンティティに拡張できる。公開鍵基盤(PKI)や証明書ベースの認証などの実績のある方法は、アイデンティティを検証し、通信を保護するためのスケーラブルで自動化された方法を提供する。相互TLS(mTLS)により、エージェントはデータを交換する前に互いを認証できる。一時的な証明書は、短命のエージェントに時間制限付きの信頼を与える。これらの方法は、マシンアイデンティティ、IoT、ゼロトラストですでに実証されており、エージェント型AIには不可欠だ。

3. 統一されたリーダーシップと組織的連携の促進

セキュリティ上の懸念を超えて、AIは倫理的、法的、評判に関する課題ももたらす。デジタルトラストは企業全体の責任であり、IT、セキュリティ、倫理、コンプライアンスチーム間の連携と、C層からの積極的な支援が必要だ。

AIエージェントを導入する前に、機能横断的なリーダーシップは次のような質問に対応できるよう準備しておくべきだ:AIの倫理に関するガバナンス機関はあるか?AIエージェントが不適切に行動した場合、どのようにインシデントを管理するか?規制当局や一般市民にAIの責任を示すことができるか?必要に応じてエージェントのアクセスを削除するための暗号化コントロールとポリシーは整っているか?

従業員がパフォーマンスレビューとポリシー制約の下で働くのと同様に、AIエージェントも監視が必要だ。成功するイニシアチブは、信頼を日常業務に組み込むことの重要性を伝え、組織に責任を持たせるチャンピオンによって主導される。

デジタルトラストは、強力なアイデンティティフレームワーク、暗号化の俊敏性、組織的連携に基づいた継続的な旅である。エージェント型AIは攻撃対象領域を拡大するが、検証可能なアイデンティティ、安全な通信、堅牢なガバナンスなど、デジタルトラストの原則は変わらない。これらの実証済みのフレームワークを適用することで、組織は安全かつ責任を持ってAIを採用できる。今日、信頼を優先する企業はリスクを軽減し、自律型AI時代においてイノベーションを起こし、リードするための自信を獲得するだろう。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事