Brian Sobyは、SaaSセキュリティのリーダー企業AppOmniのCTO兼共同創業者で、20年以上のセキュリティ経験を持つ。
明日の見出しを飾る可能性のある新たなセキュリティリスクがある:シャドーAIの急増だ。従業員が効率性と生産性を高めるためにツールを導入する中、気づかないうちに新たな脅威のカテゴリーが持ち込まれ、それらはより発見が困難になる可能性がある。
現代の企業のほとんどは、機密データや重要なワークフローの作成、保存、維持にSaaSアプリケーションを使用しており、それらにはAI機能が組み込まれている。これらはITやセキュリティチームに知られておらず、企業の承認やセキュリティチェックを通過していないことが多く、隠れたリスクを生み出している。
企業の財務実績に関する年末のスライドデッキを作成する任務を負った従業員を想像してみよう。高品質なアウトプットを生成するために、貸借対照表、過去のキャッシュフロー、顧客セグメンテーションの詳細などの機密データが、ChatGPTのような未承認のツールにアップロードされる。SaaSプラットフォーム自体(例:Google Workspace)は使用が承認されていても、データを処理するAI統合機能は承認されていない。
これは単一のスプレッドシートへのアクセスだけの問題ではない。AIツールは企業の最重要資産を取り込み、それを公共領域に漏洩させる可能性がある。あるいは、アップロードされたデータがAIプロバイダーによってモデルトレーニングのために保持され、機密保持契約やデータプライバシー規制に違反する可能性もある。
これは可視性とコントロールの巨大なブラックホールを表し、コンプライアンス違反のリスクも高める。さらに、AIモデル自体の脆弱性が新たな攻撃ベクトルとなる可能性がある。
認識のギャップは驚くべきものだ。当社の調査によると、800人以上のセキュリティリーダーからの洞察をまとめたところ、組織の61%がSaaSアプリケーション内の生成AIツールアクセスのより良い監視を求めている。しかし、機密データが知らないうちに大規模言語モデル(LLM)に取り込まれることを懸念しているのはわずか7%だ。これは危険なほど低い数字である。
シャドーAIは規制の焦点でもある。GDPR、CCPA/CPRA、HIPAAなどの枠組みは、データ処理に厳格なルールを課している。善意ではあるが未承認の個人健康情報や個人識別情報のLLMでのパターン認識のための使用(例えば、地域のクリニックからワクチン記録を提出して使用パターンを理解するなど)は、重大な財政的または規制上のペナルティにつながる可能性がある。
AIアプリケーションは通常、SaaSアプリケーションとして構築・提供される。つまり、AIの保護とSaaSアプリケーションの保護は同じコインの裏表だ。SaaSの保護を導くSaaSセキュリティポスチャー管理(SSPM)の原則は、AIにも直接適用される。では、CISOは今、どのような対策を取るべきか?これらの課題に対処するには、既存のSaaSセキュリティプレイブックを拡張する実用的な多面的アプローチが必要だ。
1. 明確なルールを確立する。
特にSaaSプラットフォーム内に隠れているものも含め、どのような種類の情報をAIシステムに取り込むことができるかを規定する明示的なデータ使用ポリシーを直ちに作成し、実施する。どのAIツールが許可されているかを正確に定義する。組織全体、特に実験を好むビジネスユニットに対して、ルールを平易な言葉で伝える。未承認AIの使用リスクについて従業員を教育し、承認された企業グレードのソリューションのメリットを強調する。
2. すべてを見て、何も信用しない。
確かに、見えないものは保護できない。組織は、承認されたソリューションとSaaSアプリケーション内の未承認機能を含む、すべてのAIツールと機能の完全な可視性を獲得する必要がある。これらのツールを発見するテクノロジーを活用して、従業員が使用しているものの完全な全体像を把握する。
人間、サービスアカウント、特にAIエージェントを含むすべてのIDをマッピングし追跡する。AIボットを強力なユーザーとして扱い、SaaSアプリケーション全体での異常を特定するために行動を監視する:AIが突然1万件の顧客記録をダウンロードしたり、パラメータを変更したりした場合、これは進行中の侵害である可能性がある。
ゼロトラストの考え方を採用する。証明されるまで、AIツールは安全ではないと想定する。プレイブックは新しいものではなく、既存のSSPMプログラムの拡張であり、同じ原則をAIのID、アクセスレベル、行動に適用する。これには、従来のツールでは捉えられない隠れたリスクを特定するために、アプリの発見、IDアクセス、行動分析を関連付けることが含まれる。
3. AIを保護するためにAIを活用する。
AI脅威は静的なルールや手動検出には速すぎる進化をする。しかし、リーダーはAI自体を活用したインテリジェントなセキュリティツールを活用することで、膨大な量のデータを分析し、人間のアナリストや従来のセキュリティツールでは見逃す可能性のある行動の変化、微妙な誤用、複雑なパターンを特定することができる。これにより、AIだけが処理できる規模と深さで可視性とデータ分析が可能になり、複雑なSaaSセキュリティの質問を明確で実用的な回答と洞察に変換する。しかし、AIが効果的にAIを保護するためには、深いセキュリティドメインの専門知識と豊富で包括的なデータの基盤を持って構築される必要がある。
2026年までに、SaaSアプリがインテリジェントエージェントプラットフォームに進化するにつれ、攻撃対象はコードからビジネスプロセスへとシフトするだろう。リード生成フォーム、顧客チケット、ワークフローはすべて、日常業務に隠されたAI駆動の攻撃の侵入ポイントとなる。
今、責任あるAI使用を推進するために行動するCISOは、データを保護するだけでなく、コストのかかる対策を防ぎ、コンプライアンスを維持し、2026年のサイバーセキュリティの姿を定義する信頼と回復力の文化を創造するだろう。



