AI

2025.11.07 10:58

エージェント型AIがデジタル信頼を再定義する方法

AdobeStock

AdobeStock

人工知能は自ら行動することを学んでいます。SF映画に出てくる自我を持ったロボットが支配権を握るという意味ではなく、エージェント型AI(指示を待たずに意思決定し、行動し、適応できるシステム)という現実世界での進化の意味においてです。

自動化から自律性への転換は、単なる技術的な節目ではありません。それは私たちに、テクノロジーにおける最も古い問いの一つを再検討するよう迫っています:信頼とは何を意味するのか?

長年にわたり、私たちは限定的な方法で機械を信頼してきました。アルゴリズムが視聴コンテンツを推奨し、車が自動で駐車し、チャットボットが質問に答えます。しかしAIが独立して動作し始めると—クラウドインスタンスを立ち上げたり、取引を行ったり、セキュリティインシデントに対応したりする—それは新たな領域に踏み込むことになります。

信頼はもはやシステムが利用可能か正確かという問題ではありません。それは説明責任があるかどうかという問題なのです。

監視なき信頼

従来の信頼モデルは人間による制御を前提としています。私たちは人々がテクノロジーを責任を持って使用することを信頼し、その行動を監視・検証するシステムを構築します。エージェント型AIはそのモデルを覆します。自律型エージェントが人間が監視できるよりも速く行動し始めると、古い「信頼するが検証する」というアプローチは時代遅れになります。

それは監視を放棄するという意味ではなく、監視を再構築するということです。自律型AI時代の信頼は、プログラム可能で、追跡可能で、取り消し可能でなければなりません。機械には、従業員IDや入館バッジ、そして何か問題が発生した場合にそれらの特権を即座に取り消せる管理者に相当するデジタル版が必要です。

そこでデジタルアイデンティティが中心的な役割を果たします。すべてのAIエージェントは企業内の個別のエンティティを表します。それぞれに、アクセスできるもの、そのアクセスがどれだけ続くか、そして何か問題が発生した場合に誰がそれをシャットダウンできるかを定義する固有のアイデンティティが必要です。つまり、信頼はコードのようにスケールする必要があるのです。

認証情報から暗号技術へ

ある意味で、私たちはこれまでにも同様の状況を経験しています。

マシンアイデンティティはすでに人間のユーザーを大幅に上回り、継続的に通信するAPI、コンテナ、ワークロードを支えています。エージェント型AIはその課題を10倍に増幅させます。

最近クリス・ヒックマン氏(Keyfactor最高セキュリティ責任者)と議論したように、それに対処するための新しいセキュリティ技術を発明する必要は実際にはありません。「PKI(公開鍵基盤)は何があってもエージェント型AIにおいて役割を果たします」とヒックマン氏は私に語りました。

証明書はすでに日々数十億のマシン接続を認証しています。それらは監査可能で、時間制限があり、取り消し可能です—まさに自律型システムにおいてデジタル信頼が必要とする属性です。

皮肉なことに、AIの未来はサイバーセキュリティにおける最も古いツールの一つに依存するかもしれません。ヒックマン氏によれば、自律型システムの説明責任を確保するのは新奇性ではなく、実証済みの暗号技術なのです。

デジタル信頼の新たな方程式

歴史的に、デジタル信頼は3つの前提に基づいて構築されてきました:人間が制御していること、認証情報が静的であること、そしてシステムがポリシーが追いつくのに十分な遅さで進化することです。これらの前提はもはや成り立ちません。

エージェント型AIは方程式を変えます:

  • 制御は分散化される。人間はステップバイステップで指示を与えるのではなく、境界と期待を設定します。
  • 認証情報は一時的になる。静的なキーやパスワードでは動的なエージェントを保護できません。認可はリアルタイムで適応する必要があります。
  • ポリシーは予測的になる。ガバナンスは行動に反応するだけでなく、それを予測する必要があります。

これらが抽象的に聞こえるなら、そうではありません。返金を発行する権限を与えられた自律型カスタマーサービスエージェントを考えてみてください。その権限は取引サイズ、頻度、コンテキストによって制限される必要があります—そしてそれらのパラメータは手動ではなく暗号技術によって強制される必要があります。デジタル信頼は静的なルールブックではなく、生きたフレームワークになるのです。

シャドーAIと信頼の脆弱性

もちろん、組織が何を信頼しているのかを知らなければ、どんなフレームワークも完璧ではありません。「シャドーAI」—従業員による生成型AIやエージェント型ツールの非公認使用—の爆発的増加により、可視性が信頼の最初の前提条件となっています。

ヒックマン氏が指摘したように、ポリシーだけではそれを止めることはできません。「熱心な従業員はAIポリシーを回避する方法を見つけるでしょう」と彼は言いました。盲目的な信頼が誤った信頼に変わるのを防ぐのは、禁止ではなく可視性です。つまり、環境内で動作しているすべてのエージェントを発見し、その出所を検証し、そのアクセスを即座に取り消す能力を維持することを意味します。

その代替案はデジタル無政府状態です—何千ものエージェントが監視なしに意思決定を行い、何かが壊れるまで見えないままです。

量子時代への準備

組織がAI信頼の問題に取り組む一方で、別の変革が進行中です。ポスト量子暗号はまもなくデジタルセキュリティの基盤を書き換えるでしょう。今後10年の終わりまでに、企業は自律型AI、証明書の寿命短縮、量子安全アルゴリズムへの移行という「混乱の三重奏」(ヒックマン氏の表現)に直面する可能性があります。

教訓は単純です:俊敏性は信頼に等しい。システムは鍵を回転させ、アルゴリズムを切り替え、自身のセキュリティモデルを壊すことなく進化できなければなりません。自律型の世界では、硬直性が新たな脆弱性なのです。

信頼そのものの再定義

デジタル信頼はかつて、データの機密性とシステムの可用性を意味していました。エージェント型AI時代では、それはより広い意味を持ちます:自律的な行動が人間の意図と一致しているという確信です。信頼は制御ではなく、一致の尺度となります。

その転換はすべての組織に課題を突きつけるでしょう。それには透明性、説明責任、そして機械の速度での暗号技術的確実性が必要です。しかしそれはまた、テクノロジーとのより健全な関係—信頼が盲目的ではなく、すべての相互作用に組み込まれている関係—を招きます。

私たちは何十年もの間、機械に考えることを教えてきました。次の10年は、機械に信頼を獲得することを教える時代になるでしょう。そしてそれこそが、最も人間的な課題かもしれません。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事