AI

2025.11.19 09:32

2025年のシャドーAI:セキュリティチームが知るべき5つの洞察

Adobe Stock

Adobe Stock

オファー・クラインは、動的SaaSセキュリティを提供するRecoのCEO兼共同創業者である。

生成AIは組織全体で爆発的に普及しているが、多くの場合正式な承認なしに導入されており、従業員による非公認のAIツール使用、つまり「シャドーAI」が台頭している。

あらゆる部門の従業員が日常業務にAIを取り入れており、シャドーAIは基本的に企業のほぼすべての領域に侵入し、従来のセキュリティツールでは対応できない巨大な死角を生み出している。

シャドーAIを無視することは単なる仮説上のリスクではなく、測定可能なコストがかかる。シャドーAIが蔓延する環境での侵害は、通常よりも平均67万ドル高い損失をもたらしている。Recoによる2025年シャドーAIレポートは、北米、ラテンアメリカ、EMEA、APACの80社の顧客ベースから収集した匿名化された実際の使用データの詳細な分析を通じて、高リスクのシャドーAIアプリケーションを特定した。

以下では、セキュリティリーダーが無視できないレポートからの5つの洞察を紹介する。それぞれがシャドーAIの課題の新たな側面と、企業セキュリティにとっての意味を示している。

1. 主要なシャドーAIアプリには基本的なセキュリティ対策が欠如している

最初の発見は厳しい警鐘だ。最も普及している上位10のシャドーAIアプリケーションは、ひどく安全性に欠けていることが判明した。著名なチャットボットプラットフォームと2つの人気AI文字起こしツールを含む最悪の3つのアプリは、セキュリティ評価で不合格だった。

これらには暗号化、多要素認証(MFA)、監査ログなどの基本的な保護メカニズムが欠けていた。

これは膨大なリスクを意味する。これらの安全でないアプリを使用すると、データ、知的財産、顧客情報が不正アクセスやデータ侵害にさらされる可能性がある。また、これは少数の例外ではない。さらに7つのAIアプリが、脆弱な暗号化、データ保持ポリシーの欠如、アクセス制御の不備などの問題で高リスクと評価されており、広く使用されている合計10のシャドーAIツールが企業データを危険にさらしている。

2. 高い採用率と低いセキュリティ—人気の罠

このレポートは多くの組織における危険な誤解を明らかにしている:最も人気のあるAIツールが必ずしも最も安全であるとは限らない。従業員が機能が豊富なAIアプリに群がるが、それらのツールがセキュリティ機能を欠いている可能性があることに気づかないという人気の罠がある。

それぞれ数千人の企業ユーザーを獲得した2つのAIアプリケーションは、セキュリティスコアが非常に低く、企業環境からは除外されるべきものだ。実際には、多くの従業員はコンシューマーアプリを選ぶのと同じようにAIツールを選んでいる:セキュリティ審査ではなく、クールな機能や利便性に基づいて。これは深刻な死角である。

3. OpenAIの53%—企業リスクの単一障害点

この調査で最も懸念される統計は、非公認使用におけるOpenAIのサービス(ChatGPT)の優位性だ。調査対象企業全体のシャドーAIアクティビティの53%以上がOpenAIに関連しており、1万人以上のアクティブな企業ユーザーを代表している。

この集中は、AI関連リスクのほぼ半分が単一のプラットフォームを通じて流れていることを意味し、セキュリティインシデント、データ漏洩、API侵害、ポリシー変更、サービス停止のいずれかが企業のワークフローに潜在的な混乱をもたらす可能性がある。

4. シャドーAIは長期間持続し、リスクを複合化する

もう一つの洞察は、シャドーAIが「今日あって明日なくなる」試行的な現象ではないということだ。従業員が非公認のAIツールを使用し、それが有用だと感じると、承認や監視なしに長期間、時には1年以上にわたって使い続ける傾向がある。例えば、2つの特定のツールは、それぞれ約403日と401日という中央値の使用期間があることが判明した。これは1年以上の継続的な使用を意味する。

これは、機密性の高い企業データが何カ月にもわたって公式チャネル外のツールを通じて流れていたことを意味する。100日以上の継続的な使用の後、AIツールはもはや実験ではなく、中核的なビジネスプロセスや日常のワークフローに組み込まれている。その時点で、それを取り除こうとすると、大きな混乱とユーザーの抵抗を引き起こす可能性がある(チームに突然、生産性に不可欠になったツールの使用を中止するよう伝えることを想像してみてほしい)。

5. 小規模企業は不釣り合いなリスクに直面している

レポートの最後の洞察はパラドックスを示している。小規模組織は不釣り合いに大きなシャドーAIの問題に直面している。何万人もの従業員を抱える大企業の方がシャドーAIの心配が多いと思うかもしれないが、絶対数ではそれは事実だが、集中度の点では、実際に最も影響を受けているのは中小企業である。

わずか11〜50人の従業員を持つ企業が、従業員1000人あたり平均269の非公認AIツール(従業員の約27%が使用)という最も高い密度のシャドーAI使用を示した。本質的に、小規模企業の4人に1人以上がITの知らないところで何らかのAIアプリを使用している可能性がある。中規模組織(従業員500〜1000人)でさえ、調査ではユーザー1000人あたり約200のシャドーAIツールがあり、これはまだ1人あたりの巨大な露出である。

対策を講じる

シャドーAIとそのリスクに対処するために、組織はこの問題に正面から取り組むための計画を立てる必要がある。シャドーAIの効果的なガバナンスプログラムには、いくつかの重要なステップを組み込むべきだ:

1. 発見とインベントリ:ツールを使用して組織内のAIアプリケーションを検出し、カタログ化し、使用パターンと潜在的な脆弱性の可視性を獲得する。

2. リスク評価:発見された各AIサービスまたはツールを評価し、セキュリティ、コンプライアンス、データプライバシー、ビジネス運営への潜在的な影響を理解する。

3. ポリシー開発:許容されるAI使用、承認されたツール、セキュリティ期待値を定義する明確なガイドラインとポリシーを確立する。

4. 従業員教育:AI関連のリスク、コンプライアンス責任、ベストプラクティスについて従業員を定期的に教育し、情報提供する。

5. 継続的な実施:AIの使用の継続的な監視を維持し、リスクに積極的に対処し、確立されたポリシーの遵守を確保する。

結論

シャドーAIは企業のワークフローにますます深く組み込まれており、従来のセキュリティ対策ではほとんど見えないままである。現実には、AIの採用はセキュリティ上の理由で減速することはない。一部のセキュリティチームはこれを認識し、後手に回るのではなく、リスクに先んじるためにシャドーAIの発見とガバナンスプログラムの実装を開始している。しかし、未知の未知を安全に管理できる既知の量に変えるためには、まだやるべきことがある。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事