AI

2025.12.06 09:14

AIエージェント時代の信頼性:データ保護が鍵を握る

Adobe Stock

Adobe Stock

人工知能(AI)は自律性の時代に入った。もはや単に予測や自動化を行うツールではなく、行動するものになっている。この進化は、しばしばエージェント型AIと呼ばれ、根本的な変化を表している。私たちは推論し、選択し、世界で行動するシステムを構築しているのだ。

その力にはリスクが伴う。AIが下す決断は全て、学習データの完全性と、その境界を定める安全装置を反映している。ジェイソン・クラーク氏(Cyera最高戦略責任者)が私に語ったように、「AIは大量のデータを消費し、大量のデータを生み出す超能力だ」。彼によれば、課題はAIとデータガバナンスという2つの力が連携しなければならないことだという。

それがまさに、CyeraのハイブリッドイベントDataSecAI 2025カンファレンスの前提だ。このイベントはCISO(最高情報セキュリティ責任者)、研究者、政策立案者を集め、データとAIセキュリティの交差点を再定義する。2年目にして、このカンファレンスはすでに世界中から1000人以上の参加者を集めている。「始めた当初は、100人ほど来るかなと思っていました」とクラーク氏は笑いながら言った。「結局300人が来て、そのうち70%がC級幹部でした」。

その理由は単純だと彼は付け加えた。誰もが、AIが制御不能なほど拡大する前に、どうやってAIを安全に保つかを模索しているのだ。

防御から発見へ

何十年もの間、サイバーセキュリティは脅威の追跡—脆弱性の修正や侵害への対応—に焦点を当ててきた。クラーク氏は、AIがその方程式を完全に変えると主張する。「私たちは長い間、脅威と脆弱性を追いかけてきたため、データの問題を解決できませんでした」と彼は私に語った。「AIのせいで、その問題は100倍大きくなったのです」。

Cyeraの最新のAI対応性レポートがそれを裏付けている。この調査によると、組織の70%がデータ露出を完全に理解しないままAIツールを導入している。その結果、イノベーションと保護の間のギャップが広がっている—責任を持って管理されれば、AIそのものが埋めることができるギャップだ。

Omdiaの業界データは、導入のペースとそれに伴うリスクをさらに強調している。「企業は生成AIと特にAIエージェントに熱心に投資しています」と、Omdiaのサイバーセキュリティ業界アナリストトッド・ティーマン氏は述べた。「Omdiaの調査によると、圧倒的多数の80%の組織が、他のAIイニシアチブと比較して、AIエージェントを最優先または高優先事項としています」。

ティーマン氏によると、エージェント導入の第一波は比較的リスクの低いユースケース—SalesforceのAgentforceやWorkdayのエージェントなど、機密システムに触れることなく生産性を向上させる組み込みアシスタント—に焦点を当てている。「今後の方向性は、エージェントが企業の中核的なアプリケーションに触れることです」と彼は説明した。「そこで大きな価値を引き出せますが、同時に大きなサイバーセキュリティリスクも伴います」。

AIエージェントが企業の中核に近づくにつれ、リスクは高まる。堅牢なアクセス制御、監査可能性、行動監視がなければ、時間節約ツールとして始まったものが、監視されていない侵害ポイントになる可能性がある。

それがDataSecAI 2025が探求しようとしていることの一部だ:AIがどのように企業のセキュリティ態勢を弱めるのではなく、強化できるかということ。クラーク氏はこれを、セキュリティリーダーが新しい役割—単に防御的ではなく戦略的な役割—に踏み出す機会だと見ている。「セキュリティチームは、データがどこにあり、どれだけ価値があり、誰が使っているかを真に理解するビジネスの最初の部分になりつつあります」と彼は言った。「それにより、『いいえ、それはできません』から『安全に行う方法をお手伝いします』という会話に変わるのです」。

エージェントをリードにつなぐ

私たちの会話は、AIエージェント—人間のようにログインし、タスクを実行し、システムとやり取りするデジタルワーカー—という成長する現象に移った。私は、一部の企業がすでにAIエージェントに従業員番号を割り当てていると言及した。荒唐無稽に聞こえるかもしれないが、実際に起きていることだ。そして、クラーク氏に伝えたように、それはもはやこれらのエージェントを単純なソフトウェアプロセスとして扱えないことを意味する。彼らは従業員のように振る舞い、従業員のように—明確なアイデンティティ、許可、監視を持って—管理される必要がある。

クラーク氏も同意した。「エージェントをリード(引き綱)につないでおく必要があります」と彼は言った。「どれだけリードを緩めるかが重要ですが、それでもリードにつないでおく必要があります」。

これは鮮やかな比喩であり、課題を完璧に捉えている。エージェント型AIは、クラーク氏が「トニー・スタークのアイアンマンスーツのような能力」と呼ぶもの—超人的な記憶力、スピード、到達範囲—を与えてくれるが、ガードレールがなければ、その力は暴走する可能性がある。

私たちは両方とも、唯一持続可能なアプローチは階層化された信頼だということに同意した:新入社員と同じように、AIエージェントに段階的に自律性を与えるのだ。最初は常に彼らの仕事をチェックし、後に信頼が構築されるにつれてリードを緩める。「常に人間がループの中にいます」とクラーク氏は私に思い出させた。「問題は、自律性のスケールのどこまで進むつもりかということです」。

インフラとしての教育

Cyeraが取った最も励みになるステップの1つは、AIセキュリティスクールの立ち上げだ。これは、専門家がAI駆動のリスクを理解し軽減するための無料プログラムだ。コースはモデルガバナンスからデータ分類、行動監視まで、理論的セキュリティと実践的防御の間のギャップを埋めるあらゆることをカバーしている。

これは単なる企業の善意以上のものだ。クラーク氏が指摘したように、セキュリティ人材はかつてないほど速く進化することを求められている。「AIは私たちが今日行っていることすべてを壊します」と彼は言った。「だから、アクセス、行動、データをすべて一緒に考える方法について、業界を再教育する必要があるのです」。

教育はレジリエンスの結合組織となる—組織がテクノロジー自体と同じくらい速く適応できる手段だ。

新たな境界線としての信頼

信頼は、特にAIに関して、今年の私の会話で繰り返しテーマとなっている。それはデータやモデルを信頼することだけではなく—私たちの世界を解釈するシステムが忠実にそれを行っていると信頼することだ。

クラーク氏と私は、AIは必然的に間違いを犯し、完璧さが正しい基準ではないということに同意した。「100%の精度を期待するなら、要点を見逃しています」と私は彼に言った。「人間の従業員でさえ、完璧ではありません」。クラーク氏は同意したが、規模での継続的な監視の必要性を強調した。「1つのエージェントの仕事を手動でチェックするかもしれませんが、アプリケーション全体で1000のエージェントが実行されている場合はどうなりますか?エージェントを監視するエージェントが必要になり—そしてそれらすべてを監視する何かが必要になります」。

それは目まいがするようなビジョンだ:デジタルワーカー、監督者、モニターのエコシステム—人間の組織を映し出す知性の階層。しかし、その核心では、すべてが1つの原則に戻る:データが正しくなければならない。それがなければ、信頼は崩壊する。

インテリジェントな信頼の構築

私の見解では、DataSecAI 2025カンファレンスは単に技術的な制御についてだけではない—それは自律性の時代における信頼の再定義についてだ。Cyeraの研究、教育、コミュニティの組み合わせは、その未来がどのようなものになるかを示している:透明で、管理され、人間と連携している。

私たちはAIを恐れる必要はない。理解する必要があるのだ。そしてその理解は、その基盤となるデータから始まる。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事