シェーン・オドネル氏は、Centric Consultingのサイバーセキュリティ担当副社長であり、監査とサイバーリスク管理において20年の経験を持つ。
物理的な世界では、危険なものが影に潜んでいる。デジタルの世界も同様で、シャドーAIはビジネスリーダーにとって最悪の悪夢となりうる。
よく知られているシャドーITと同様に、シャドーAIとは組織内の従業員による未承認ツール(この場合はAIツール)の使用を指す。しかし、シャドーAIははるかに大きなリスクをもたらす可能性があり、すべてのC層幹部は自社組織におけるその運用について懸念すべきである。
良いニュースは、テクノロジーリーダーたちがそのリスクを理解し始めていることだ。従業員1,000人以上の企業のIT部長や幹部200人を対象とした最近の調査では、90%がプライバシーとセキュリティの観点からシャドーAIを懸念していると回答している。
しかし、IBMの調査によると、5社に1社がすでにシャドーAIに関連するサイバー攻撃を経験しており、懸念するだけでは不十分な状況だ。シャドーAIの使用レベルが高い企業は、未承認AIの使用が最小限の企業と比較して、データ侵害コストが平均で67万ドル高くなっている。
また、シャドーAIは個人データが非準拠の方法で共有される原因となり、罰金やコンプライアンス問題を引き起こす可能性もある。
不可視のAIのリスクは、財務的影響をはるかに超える。セキュリティチームが未承認のAIツールを可視化できないため、データ露出の発生源と範囲を追跡することはほぼ不可能だ。
現実世界の警鐘
ChatGPTの発表からそれほど経たないうちに、サムスン電子はAIのサイバーセキュリティリスクの顕著な例となった。3週間の間に、3人のエンジニアが誤って機密企業データをプラットフォームに漏洩させた:1人はバグを修正しようとしてソースコードを貼り付け、別の1人は最適化を求めて独自の機器テストコードを入力し、3人目は機密会議の録音をテキストに変換し、議事録を得るためにエンジンに送信した。
サイバーセキュリティへの影響は即時かつ不可逆的だった。企業がダメージを抑えられる可能性のある従来のデータ侵害とは異なり、サムスンの知的財産はOpenAIのシステムに組み込まれ、回収や削除が不可能になった。同社は生成AI ツールを全社的に禁止し、アマゾンや一部の主要金融機関など、従業員のこれらのプラットフォームへのアクセスを制限する他の企業に加わった。
しかし、AIを禁止することがこの問題を解決するための最良の戦略ではないかもしれない。そうすることで、企業は正当な業務にAIツールを使用できなくなった従業員の生産性低下、内部代替手段の開発コスト、競合他社がこれらのテクノロジーを活用し続ける中でAIなしで運営する競争上の不利益といったコストに直面する可能性がある。
シャドーAI:サイバーセキュリティリスクの増幅効果
シャドーITが特定の文書やデータを露出させる可能性がある一方、シャドーAIはデータからパターン、関係性、洞察を抽出し、はるかに広範なセキュリティ脆弱性を生み出す。この能力こそが、従来のシャドーITよりも指数関数的に危険である理由だ。
攻撃対象領域は膨大だ。Axiusが引用するサイバーセキュリティ企業Prompt Securityの調査によると、企業は通常、システム全体で67の生成AIツールを実行しているが、90%は適切なライセンスや監視がない。一方、Cloud Security Allianceによると、従業員の38%がAIプラットフォームと機密データを共有していることを認め、ChatGPTユーザーの65%が、データが競合他社にアクセス可能なモデルのトレーニングに使用される可能性のある無料版に依存している。
一般的なサイバーセキュリティリスクには以下が含まれる:
• 大規模なデータ流出:静的データを盗む従来の侵害とは異なり、シャドーAIはライブワークフロー、意思決定プロセス、戦略的思考パターンを捕捉できる。従業員が独自情報をAIシステムに入力すると、本質的に組織の運営方法の設計図を提供していることになる。
• サプライチェーンの脆弱性:ほとんどのシャドーAI攻撃は、AIプラットフォームに接続された侵害されたアプリ、API、またはプラグインを通じて発生する。IBMのレポートによると、組織の97%が適切なAIアクセス制御を欠いており、これらの侵入ポイントは大部分が無防備なままだ。
• AI駆動の攻撃増幅:シャドーAIツールが組織データを漏洩すると、悪意ある行為者はその情報を使用して、特定の企業に合わせたより洗練されたフィッシングキャンペーン、ディープフェイク攻撃、ソーシャルエンジニアリング計画を作成できる。
経営幹部のための実践的フレームワーク
従業員が未承認のAIツールを使用するのは、害を与えるためではなく、承認されたシステムでは対応できない問題を解決するためだ。シャドーAIを脅威から管理された戦略的優位性に転換するのはリーダーの役割である。検討すべき戦略は以下の通り:
• サンドボックスを実装する。制限的なポリシーでAIの使用を地下に追いやるのではなく、チームがAIツールを安全に実験できる環境を作る。合成データを使用した専用テスト環境、処理できる情報に関する明確なガードレール、どのツールがエンタープライズ採用に値するかを判断する評価基準を確立する。
• 技術的保護策を導入する。未承認のAIプラットフォームに送信される機密データパターンを検出・ブロックできるAI特有のデータ損失防止(DLP)ツールを実装する。ネットワーク全体でのAIアプリ使用状況をリアルタイムで可視化するクラウドアクセスセキュリティブローカーソリューションを導入する。重要なのは、ツールを「承認済み」「限定使用」「禁止」のカテゴリに分類し、各階層のユースケースとデータ処理要件を明確にするAIガバナンスポリシーを確立することだ。
• 教育を通じて変化を促進する。監視からパートナーシップへとアプローチを変える。データプライバシーと倫理的AIに関する包括的なトレーニングを提供し、従業員がAIツールの機能とリスクを理解できるようにする。従業員が罰則を恐れずにAI使用を開示できる安全な報告メカニズムを作る。従業員が求めるメリットを提供する承認済みエンタープライズAIソリューションに投資する。
• シャドーAIを競争情報に変える。従業員が未承認ツールを採用するとき、彼らはビジネスプロセスに何が効果的かについての非公式なR&Dを実施している。これらの草の根採用を評価して、どの機能が価値を提供するかを特定し、検証済みのエンタープライズバージョンを実装する。これにより、ベンダーの約束や理論的なユースケースではなく、ユーザー行動に基づいたデジタルトランスフォーメーションが加速する。
シャドーAIはなくならない—なくすべきでもない。成功の鍵は、ガバナンスと戦略的フレームワークを通じてイノベーションを導くことだ。このバランスをマスターする企業は、壊滅的なデータ漏洩を回避するだけでなく、デジタルトランスフォーメーションを加速し、生産性を向上させ、草の根AIの採用から競争情報を獲得する。
賢明なリーダーは、シャドーAIを排除すべき脅威ではなく、活用を待つイノベーションとして認識している。



