AI

2025.12.07 22:06

エージェント型AIの到来—あなたのサイバーセキュリティは本当に準備できていますか?

Adobe Stock

Adobe Stock

ハイブリッドデータ、分析、AIプラットフォームを提供するClouderaの2025年の調査によると、企業の96%が来年中にAIエージェントの利用を拡大する計画だという。エージェント型AIが台頭していることは明らかだが、本当の問題は、サイバーセキュリティチームが急速に変化する脅威の状況に伴うエージェント型AIのサイバーセキュリティ課題に対応する準備ができているかどうかである。

セキュリティは多くの組織がAIの導入過程で直面する障壁となっている。Prompt Securityの調査によると、企業は平均して67の生成AIツールを使用しているが、その90%は適切な監視やライセンスがない状態で運用されている。さらに、Cloud Security Allianceによると、従業員の38%が機密情報をAIツールと共有しているという。

AIエージェントはAI-サイバーセキュリティの状況にさらなる次元を加える。これはAIエージェントが単に質問に答えるだけでなく、複雑なワークフローの調整や重要な意思決定へのデータと洞察の提供など、幅広いタスクを私たちに代わって自律的に行動するためである。その報酬とリスクはより高い。

私の会社であるCentric Consultingでの一例を紹介しよう。AIエージェントを有効にした後、ある従業員がパフォーマンスデータにアクセスした。そのデータには適切なセキュリティ管理が欠けていたが、以前は見えにくくなっていた。しかしエージェントは簡単にそれを掘り起こした。

幸いにも、これは小さく簡単に修正できるミスで済んだ。しかし教訓は明確だ:エージェント型AIについては誰もが学習段階にあるが、サイバーセキュリティはAI実装戦略の最前線に位置付けられる必要がある。そうでなければ、企業はデータプライバシーや規制コンプライアンスの失敗など、大きく高コストな問題への扉を開くことになる。

エージェントが日常的なツールになる前に取り組むべき4つのエージェント型AIサイバーセキュリティ課題

リーダーたちがエージェント型AIを組織に導入を進める中、エージェント型AIから利益を得て—リスクを最小化するために—以下のサイバーセキュリティの懸念事項を考慮する必要がある:

1. セキュリティの基本を疎かにしない。AIエージェントは新しい技術かもしれないが、基本的なサイバーセキュリティ管理は依然として不可欠である。しかしAIツールを展開する際、ベンダー評価、第三者リスクレビュー、セキュリティ監査などの基本的なサイバーデューデリジェンスをスキップしている組織があまりにも多い。ある調査によると、AI関連の侵害を報告した組織の97%が適切なアクセス制御を導入していなかったという。

これはデータ侵害、コンプライアンスエラーなどのリスクを高める間違いである。セキュリティは後回しにできず、サイバーセキュリティの基本的な構成要素は依然として適用される。

2. データ整合性を確保するための戦略を持つ。データへの信頼がなければAIへの信頼もなく、エージェント型AIは安全に拡張できない。ここでデータ整合性が重要になる。サイバーセキュリティの専門家ブルース・シュナイアーによると、データ整合性はAI時代のサイバーセキュリティの中核的な柱となっている。

データ整合性とは何か?それは、データが許可なく変更できないという保証である。簡単に言えば、データ整合性とはデータの正確性を確保し、変更が追跡可能で検証可能であることを意味する。エージェントが破損したデータに基づいて意思決定を行う場合、それは単なる運用上の問題ではなく、規制上および評判上のリスクとなる。

例えば、一部の組織は展開を迅速化するためにエージェントをアプリケーションに直接組み込んでいる。しかしこのアプローチは多くの場合、ブラインドスポットを生み出す。なぜなら、ほとんどの企業システムはデータの背後にある歴史的文脈を保存するように構築されていないからだ。この文脈の欠如により、エージェントは今日見ているものが常にそうであったと考え、誤った判断につながる可能性がある。

真のデータ整合性には、データがどのように、なぜ変化するかを捉える、集中的で適切に管理されたデータ基盤が必要である。データの変化自体は問題ではない。むしろ、それらの変化が捉えられず、AIが全体像を見ることができない場合にリスクが生じる。

3. 2つの形態のシャドウAIへの対処。シャドウAIとは、従業員が職場で未承認のAIツールを使用することを指す。機密情報をこれらのツールに入力すると、組織はそのデータの制御を失う。しかし、より微妙なシャドウAIの形態もある:承認済みのツールがAI機能を追加し、セキュリティチームが管理を見直さない場合である。

どちらの形態のシャドウAIも組織にとってコストがかかる可能性がある。IBMの調査によると、組織の20%がシャドウAIに関連するサイバー攻撃を経験しており、シャドウAIの使用レベルが高い企業ではデータ侵害のコストが平均67万ドル高くなるという。

サムスンのエンジニアがソースコードと会議の書き起こしをChatGPTにアップロードした際に起きたことを考えてみよう。データがOpenAIのシステムに入力されると、それを取り戻したり削除したりすることができなくなり、サムスンは生成AIの使用を禁止することになった。

4. AIエージェントにおける人間の関与を維持する。自律型AIに関する誇大宣伝にもかかわらず、エージェント型AIがサイバーセキュリティチームに取って代わることはない。エージェントは脅威ログの監視、変更管理プロセス、アクセスレビューなど、多くの定型的なサイバーセキュリティタスクを自動化し、拡張することができる。しかし、文脈、倫理的判断、バイアス検出、状況認識には依然として人間の判断が必要である。

リーダーはまた、AIの使用におけるセキュリティ脅威に対抗するために従業員の協力を求める必要がある。AIセキュリティに関する議論ではしばしば見過ごされるが、人的要素は特に従業員によるAIの使用に関して、サイバーセキュリティ脅威に対する最強の防御であると同時に最大の脆弱性でもある。

エージェント型AIなどの新技術の使用について従業員を訓練するだけでなく、適切なセキュリティプロトコルについても訓練し、これらのツールを安全に使用し、組織を不当なリスクにさらさないようにすることも重要である。例えば、従業員は機密データをAIツールに入力しないこと、未承認のツールを使用しないことを知っておく必要がある。

エージェント型AIはサイバーセキュリティにリスクと機会をもたらす

エージェント型AIは新たなリスクをもたらす一方で、サイバーセキュリティに新たな機会も提供する。例えば、多くの組織は依然としてジュニアアナリストに脅威ツールの監視やログの手動レビューを頼っている。将来的には、エージェントがこれらのタスクを引き継ぎ、人間のチームがより影響力の高い意思決定、高度な脅威、戦略的イニシアチブに集中できるようになるだろう。

エージェント型AIは組織の運営方法を変革する可能性があるが、それは最初からエージェント型AIのサイバーセキュリティを含め、安全に展開された場合に限られる。データへの信頼を構築し、ガバナンスを強化し、人間を関与させ続けるリーダーは、コストのかかるミスを回避するだけでなく、AIの可能性を安全に解き放ち、持続的な競争優位性を獲得するだろう。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事