スティーブ・ダービンはInformation Security ForumのCEOです。サイバーセキュリティとテクノロジーにおける取締役会の役割について頻繁に講演を行っています。
サイバーセキュリティはもはや技術的領域に限定されていません。近年、世界的な不安定さと人工知能の急速な変化に影響される戦略的分野へと変貌しました。セキュリティを単なる反応的なチェックリストとして捉える組織は、地政学的動機と高度なAIスキルを組み合わせて、業務を混乱させ、信頼を弱め、優位性を獲得しようとする敵対者からの攻撃に対して脆弱になるリスクがあります。
サイバーセキュリティ業界での私の経験から、強固な防御を構築するには、トレンドの継続的な監視、協力的なシナリオ開発、そして具体的な防御策に変換できる適応型コントロールが必要です。セキュリティ実践を進化する政治的、経済的、社会的、技術的、法的、環境的要因と連携させることで、企業は増大する脅威に直面しても機敏性を維持できます。
サイバー触媒としての地政学
貿易制裁と関税は調達戦略を混乱させる傾向があり、組織が少数のグローバルサプライヤーに大きく依存せざるを得なくなることが多く、集中リスクが高まります。これらの依存関係は代理紛争や国家支援のサイバーキャンペーンにおいて人気のターゲットになっていることを私は観察してきました。
攻撃者はしばしばサードパーティベンダーや物流ネットワークを利用して、間接的に標的を侵害しようとします。同時に、情報戦キャンペーンはソーシャルメディアプラットフォームやディープフェイク技術を活用して世論を左右し、政策議論を誘導することで、社会的分断を強める可能性があります。
先手を打つために、マクロレベルの紛争がどのように組織に対する運用攻撃経路に変換されるかをマッピングすることをお勧めします。つまり、規制の変化、地域紛争、外交的緊張点を追跡し、それらを企業の重要資産、サプライチェーンノード、顧客向けチャネルにリンクさせることを意味します。
PESTLE:脅威予測のための構造化レンズ
この複雑さに対処するため、セキュリティリーダーはPESTLE(政治的、経済的、社会的、技術的、法的、環境的要因の略)のような構造化フレームワークに increasingly turning to しています。私はこのフレームワークがセキュリティチームに広範なグローバルな動向を具体的で実行可能な脅威シナリオに変換することを可能にしているのを見てきました。これらの要因の背後にあるものを詳しく見てみましょう:
• 政治的:国家支援のサイバー活動や変化する貿易規制は、不確実で変動するリスク環境を生み出す可能性があります。組織はしばしば変化する地政学的状況に迅速に対応する必要があります。
• 経済的:サプライチェーンはますます標的にされており、攻撃はしばしばサードパーティベンダーから発生します。企業内の財政的圧力は、従業員が上層部からの要求に応えようとする努力の中で警戒を緩めることで、このエクスポージャーをさらに増大させる可能性があります。
• 社会的:ソーシャルメディアは誤情報と活動主義を加速させる可能性があります。多くの抗議活動は現在、政府に加えて企業も標的にしており、評判の問題を引き起こしています。
• 技術的:AIは攻撃と防御の両方を変革しています。ディープフェイク、合成ペルソナ、自動化ツールが旧式のコントロールを圧倒しています。
• 法的:特に貿易とデータに関する突然の規制変更により、企業は運用とコンプライアンス戦術を変更せざるを得なくなる可能性があります。
• 環境的:気候関連の混乱は、物流とインフラの回復力に複雑さを加える可能性があります。
これらの要因をビジネスクリティカルな資産と考えられる敵対者の戦術に結びつけることで、企業は脅威の一般的な認識を超えて、業務を混乱させる可能性が最も高いシナリオに集中できます。このターゲットを絞ったアプローチは、セキュリティチームが特定のインシデント対応計画を開発し、デジタル環境と物理環境の最も脆弱な領域を強化するのに役立ちます。
AI:サイバー脅威のフォースマルチプライヤー
AIはサイバー脅威の規模、速度、複雑さを急速に増大させています。リアルなテキスト、音声、ビデオを生成できる生成モデルは、なりすましのコストを下げ、ソーシャルエンジニアリング攻撃をより説得力があり検出が困難にしています。ディープフェイクと合成ペルソナは人間の信頼を悪用することで技術的コントロールを回避できます。これにより、詐欺、恐喝、大規模な影響力操作が可能になります。
AIは従来の攻撃ワークフローも加速させます。自動化された偵察ツールは広大なネットワーク全体の脆弱性を数秒でスキャンでき、AI駆動型マルウェアはリアルタイムで適応して検出を回避します。外部の脅威を超えて、AIは内部防御にシステミックリスクをもたらします:データ汚染はモデルの動作を破壊し、モデル反転は機密の訓練データを露出させる可能性があり、適切に管理されていない訓練パイプラインは機密データの漏洩リスクがあります。
これらの能力は国家に限定されていません。犯罪グループはますますAIを使用してサイバー犯罪を扇動しています。AIが進化し続けるにつれて、企業はそれを攻撃の潜在的な標的と考える必要があります。私の経験では、AIの使用を保護するには、強力な内部コントロール、慎重な監視、AIセキュリティポスチャー管理(AI-SPM)が必要です。
強靭な運用の主要な柱
これらの変化する脅威と戦うために、セキュリティチームとITチームの技術的スキルをスマートなガバナンスと組み合わせる方法を使用してください。以下はいくつかの私がお勧めする戦略です:
• 継続的なシナリオ計画: 固定された脅威レポートを超えて、年間を通じたシナリオ計画を開始してください。これは、地政学的指標、インテリジェンスフィード、レッドチームの洞察を集めて、変化する攻撃経路をシミュレーションすることを意味します。これにより、組織が複雑なマルチベクトル脅威にどれだけ準備ができているかを評価するのに役立ちます。
• 統合されたリスク管理とベンダーガバナンス: サプライヤー保証とリスクツールを一元化することで、サプライチェーンのブラインドスポットを排除できます。評価を共有プラットフォームにまとめることで、一貫したコントロールを維持し、可視性を高め、調達とベンダー契約に直接セキュリティ要件を含めることができます。
• 技術的および組織的保護策によるAIシステムの保護: AI脅威には技術的防御とガバナンス監視の両方が必要です。出所追跡、敵対的テスト、アクセス制御などのモデルレベルの保護は、従来のパッチ適用とセグメンテーションと連携して機能する必要があります。検出システムが合成コンテンツと自動化された攻撃を特定できるように調整されていることを確認してください。
• 強化されたID制御と検証: なりすましリスクが高まる中、すべてのチャネルでID検証を改善することがますます重要になっています。フィッシング耐性のある多要素認証(MFA)を使用し、最小権限アクセスを適用し、異常なアカウント活動を特定するための行動分析を採用してください。
• 機能横断的なインシデント対応: AI対応および評判に関する脅威に効果的に対応するために、セキュリティ、法務、コミュニケーション、事業継続チーム間の強力な連携を優先してください。プレイブックを定期的に更新して、誤情報と運用の混乱を封じ込めるための迅速なマルチステークホルダーアクションのための最新のガイダンスを継続的に提供できるようにしてください。
先見の明から行動へ
地政学的不安定性と急速なAI導入のペースの組み合わせは、サイバーセキュリティへのアプローチ方法の変更を必要とします。組織を保護するために、ベンダー信頼の一元化、IDと検証の強化、モデルレベルでの防御とガバナンスの実装、継続的なシナリオ演習の通常のセキュリティルーティンへの組み込みに焦点を当ててください。これらのアクションにより、戦略的洞察を実用的な回復力に変えることができます。



