AI

2025.12.04 10:11

サイバーセキュリティにおけるAI活用—セキュリティリーダーが見失いがちな4つの基本原則

Adobe Stock

Adobe Stock

オースティン・バーグラスは、FBI ニューヨークサイバー部門の元責任者であり、現在はBlueVoyantのグローバルプロフェッショナルサービス責任者を務めています。

AI(人工知能)は企業のあらゆる層でサイバー防御を変革しています。アナリストやエンジニアの作業が迅速化し、誤検知が減少し、チームは以前なら見逃していたかもしれない異常を素早く発見できるようになっています。AIは業務をより効率的にしていますが、速いことと賢いことは同じではありません。

新しいツールを導入する急ぎの中で、基本を見失うことはよくあります。以下に、現在のセキュリティリーダーに私がお勧めする4つのアドバイスを紹介します。

加速と置き換えを混同しないこと

経験を自動化で置き換えることはできませんし、意思決定や制作のプロセスから人を排除しても同じ質の判断やアウトプットを期待することはできません。それは非現実的です。

セキュリティは依然として人、プロセス、信頼の上に成り立っています。精度、品質、セキュリティを犠牲にせずにAI導入を加速することは、拡張と価値創造に焦点を当てた必須事項です。これには、リーダーシップによる意図的な人間中心のアプローチが必要です。

「人間を介在させる」設計を優先することで、AIの機能が人間と協力し、反復的なタスクを排除し、効率を向上させる推奨事項、洞察、または自動化されたアクションを提供しつつも、それらをレビュー、検証、または変更できるようになります。

従業員は依然として防御の最前線であることを忘れないこと

サイバー攻撃で最も成功する手法は、技術的な安全対策を回避するものではなく、人間の要素を悪用するものです。フィッシング、認証情報の収集、ソーシャルエンジニアリングの手法は、一貫してシステム侵害の主要な原因となっています。

AI搭載システムは、不審なメールパターンのフラグ付け、異常なログイン行動の分析、潜在的な脅威の大規模な特定に非常に価値がありますが、防御の最終的な「ラストマイル」は個々のユーザーにかかっています。悪意のあるリンクをクリックするか、機密情報を共有するか、不審なやり取りを報告するかという従業員の決断が、ほとんどの攻撃が成功するか失敗するかの分かれ目となります。

したがって、セキュリティ意識向上トレーニングは、静的で定期的な演習であってはなりません。代わりに、セキュリティリーダーは継続的な学習を通じて、動的で適応性のあるセキュリティ態勢を育むべきです。AIは、パーソナライズされたトレーニングコンテンツの提供、個人の脆弱性の特定、最も効果的なタイミングと場所で関連する教育モジュールを提供することで重要な役割を果たします。しかし、全体的な目標は変わりません:脅威が具体化する前に、それを見分けて無力化するために必要な批判的思考スキルを従業員に提供することです。

従業員が適切な装備と権限を与えられると、脅威はより効果的に封じ込められ、広範囲な危機に発展する前に、重大な運用の混乱や評判の損害を軽減することができます。このトレーニングとAIを組み合わせることで、AIは人間の警戒心の代替ではなく、それを強化するための不可欠な資産として機能します。

サプライチェーンリスク管理における協力は不可欠

AIが特に高度な監視システムを通じてリスク管理を急速に変革している一方で、組織のサプライチェーンに固有の脆弱性は依然として存在します。サードパーティのエコシステムは、企業のセキュリティ態勢の中で最も露出した側面を頻繁に表しています。私の会社BlueVoyantの2024年サプライチェーン防御の現状レポートによると、組織の81%がサードパーティの侵害を経験し、1組織あたり平均で約4回のそのような混乱が発生しています。

AI駆動の分析は、リスク特定を加速・深化させ、セキュリティチームが拡張ネットワーク全体の潜在的な脅威を可視化できるようにします。しかし、洗練されたダッシュボードやリスク評価は情報提供に役立つものの、脆弱性を自律的に修正するわけではないことを認識することが重要です。真の進歩は、この強化された可視性が積極的で直接的な協力に変換されるときに起こります。私たちの調査結果は重要な変化を示しています:組織の36%がサプライヤーと修復作業について直接関わっていると報告しており、これは前年比100%の増加です。このレベルの関与は回復力を育み、サプライチェーンエコシステム全体を強化します。

CISOは、サプライヤーリスク管理戦略に関して、規制機関、目の肥えた顧客、企業取締役会からの精査が強化されることを予測する必要があります。継続的なモニタリングは堅牢なセキュリティフレームワークの不可欠な要素であり続けますが、それは包括的なソリューションの一側面に過ぎません。最終的に、サプライチェーンリスク管理の有効性は、ダッシュボードに表示されるデータを支える関係の強さと性質にかかっています。

信頼はサイバーセキュリティの通貨であり続ける

AIは信頼を強化する可能性がありますが、管理の悪いアプリケーションはそれを損なう可能性があります。AIアルゴリズムが良性の活動を重大な脅威として誤って警告したり、本物のセキュリティインシデントを検出できなかったりすると、その影響は技術的な不正確さをはるかに超えます。そのような失敗は信頼性を直接損ない、懐疑心を生み出し、セキュリティインフラへの信頼を低下させます。したがって、人間による監視、継続的な検証、包括的な監査証跡はオプションの強化ではなく、AIをリスクの潜在的な源から戦略的資産に変える不可欠な安全装置です。

「ガベージイン、ガベージアウト」の原則は、AIの文脈で非常に適切です。欠陥のある入力、不十分なテスト、偏ったトレーニングセットは、必然的に信頼できない結果につながります。したがって、AIガバナンスフレームワークは、ポリシーの後付けではなく、必須の運用管理として確立され、扱われなければなりません。CISOには、AIの精度、説明責任、倫理的な展開をシステム全体でどのように検証しているかを、取締役会や顧客に透明性をもって明確に説明する受託者責任があります。

最近のフォレスター社の総経済的影響調査では、当社の独自のMDRを活用している組織が、印象的な210%のROIと3年間で累積約400万ドルの価値を報告しています。この成果は自動化だけでなく、専門家の人間のアナリストと高度なAIシステムの間のシームレスな協力によるものでした。人間の創意工夫とAIの能力が協調して機能するとき、結果として生じる効率性とセキュリティの強化は単に加算的ではなく、指数関数的なものになります。

2026年のAI駆動型セキュリティ

AI時代に持続的な成功を収める企業は、自動化の量ではなく、高度な技術と堅牢な人間の説明責任を統合する能力によって定義されるでしょう。リーダーは、人的資本を強化し、透明で協力的なベンダー関係を育み、あらゆる重要な意思決定ポイントで信頼を維持する投資を優先する必要があります。

AIはサイバーセキュリティ運用内で変革的な軌道を続け、その役割は人間の置き換えではなく、強力な拡張のままであるべきです。私たちの防御の強さは、人間の洞察力と機械の知性のスピードを統合することから生まれます。信頼、説明責任、協力的なフレームワークをセキュリティプログラムに組み込む組織は、進化する脅威をナビゲートし、回復力を示すのに最も適した組織となるでしょう。AIは私たちの運用能力を拡張しますが、重要な瞬間における適応性と決定的な行動の究極の源泉は、常に人間の戦略的洞察力であり続けるでしょう。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事