AI

2025.12.10 15:49

進化するAIシステムのセキュリティ:テックリーダーが取るべき新たなアプローチ

stock.adobe.com

stock.adobe.com

Dharmesh Acharyaは、グローバルなテクノロジーコンサルテーションおよびカスタムソフトウェアサービスプロバイダーであるRadixwebのCOOである。

「AIの品質はデータの質に左右される」という言葉を聞いたことがあるだろう。それによって、データの解析、クリーニング、構造化、再構造化に取り組んできたかもしれない。

しかし、完璧なデータを追求している間に、AIモデルは巧みに進化し、単なる自動化を超えて、推論し、適応し、人間の認知能力を模倣することを学んでいた。現在のAIツールは、本番環境レベルのコードを書き、パーソナライズされたコンテンツでユーザー体験をカスタマイズし、クラウドインフラを匿名で最適化し、サイバーセキュリティの欠陥や脆弱性を検出できるようになっている。

ルールベースの受動的ツールからビジネス戦略、セキュリティ、ソフトウェア開発における積極的な協力者へと、AIは人間の理解を超えて進化している。AIが自ら「考える」ようになるにつれ、急成長するビジネスに多くの機会をもたらす。しかし、その一方で、AIは急速で独特かつ圧倒的なサイバーセキュリティリスクの広範なスペクトルももたらしている。

我々は今、テックリーダーがインテリジェントシステムのガバナンス、AIセキュリティの未来、倫理的ガバナンスの展望を再考しなければならない分岐点に立っている。

AIを生きるデジタル資産として扱う

AIシステムや生成AIモデルは生きているエンティティだ—まあ、ほぼそうだ!これらは固定されたインフラや静的データとは大きく異なり、微調整、新しいデータ入力やプロンプトによる再トレーニングにさらされると急速に進化する。

これはつまり、認知能力を持つ進化したAIソリューションは異なる振る舞いをし、多様な意思決定ロジックを持ち、より独自の脆弱性の状況を持つことを意味する。

これまでは、使用中、転送中、保存中のデータのフローを保護していたかもしれない。しかし今後のAIセキュリティでは、ユーザープロンプト、出力、取得された知識、推奨事項、コンテンツ生成など、モデル入力も保護する必要がある。なぜか?プロンプト、生成された出力、推奨事項はデータ漏洩の可能性があるリンクとして機能するからだ。これらは操作されてモデルや機密ビジネスロジックを混乱させ、出力を奇妙にバイアスのかかったものにする可能性がある。

では、AIリスクの状況がどのようなものか見ていこう。

AIは「考える」ことを学んだ—あなたはそれを保護する方法を学ばなければならない

自動化から人間のような認知へ、AIはタイムラインを飛び越えたように見える。グローバルデータ、ユーザー、複雑なエンタープライズグレードシステムとの一見カジュアルな相互作用は、実際には非常に予測不可能だ。

今後、主にこれらの戦場でAIモデルと戦うことになるだろう:

• シャドーAI:従業員は日常業務や調査のために幅広いツールを使用している。これらの注入はデータを露出させ、ほとんど見えないコンプライアンスリスクを引き起こす。IBMが最近説明したように、侵害の約35%はシャドーデータによって発生し、その25%はオンプレミスで発生している。

• AIが主導する脅威:従来の防御策が今や最悪の敵となっている。かつて大規模データセットの分析、脅威の特定、サイバー攻撃の予測に使用されていた高度な大規模言語モデル(LLM)が、現在では適応型マルウェアの構築やリアルなフィッシングに使用されていることを考えてみよう。実際、フィッシングケースの82%でAIが活用され、60%の成功率を誇っている。

• 推論層の脅威:これは3つの中で最も重要であり、AIモデルがデプロイされた後に最も多くの攻撃が発生する場所だ。脆弱なAIモデルはトレーニングデータの改変のために調査される。一度露出したユーザープロンプトは、AIモデルを汚染して偏ったものだけでなく、有害な出力を生成するために使用される可能性がある。

2026年以降のAIセキュリティ確保方法

データ分類、高度なセキュリティ制御、堅牢な監査証跡を用いて進化するAIリスクを管理する必要がある—AIとの連携方法だけでなく、AIトレーニングデータ、推論パイプライン、生成された出力についても同様だ。

推論層のセキュリティ:

• AIの出力を包括的かつリアルタイムで監視する。

• アクセス制御と異常検出によって、すべての相互作用ポイントを保護する。

• 敵対的テストとレッドチーミングで脆弱性を探す。

シャドーAIガバナンスの確立:

• データ漏洩を防ぐためにブラウザネイティブの制御を統合する。

• 使用中および内部で使用可能なAIツールを分析、分類、定義する。

• AIの安全性と責任ある使用について、チームに常に最新情報を提供する。

セキュリティ・バイ・デザインのAI実装:

• 最初のコード行からAI開発にセキュリティを統合する。

• 組織のビジネスポリシーに沿ってAIプロジェクトを構築する。

• デプロイ前に包括的なリスク評価を実施する。

MLSecOpsの採用:

• AIが主導するインシデント対応と脅威検出を実装する。

• アナリストとしてAIエージェントを活用する。

• 積極的なセキュリティ運用を構築する。

ゼロトラストモデルの導入:

• AIモデルとエージェントにゼロトラスト原則を実装する。ガートナーによれば、世界のビジネスの63%がすでにこれを実装している。

• セキュリティポリシーの境界を厳格に適用する。

• すべての相互作用、およびすべての入力と出力を検証する。

規制コンプライアンスの遵守:

• 監査可能で説明可能、かつ倫理的なAIモデルを構築する。

• 米国の州法、EU AI法、データ保護のためのグローバル基準を遵守する。

• AIの脅威と説明責任を監視するガバナンスチームを持つ。

AIへのセキュリティ投資は複雑な領域であり、AIのフットプリントの規模に合わせるべきだ。本番環境レベルのコードへの投資において、データの準備は譲れないものであり、実質的な攻撃対象領域が適切だろう。しかし、AIモデルがワークフローに深く統合されている段階にある場合は、エンドツーエンドのデータインベントリ、資産分類、サードパーティリスク管理による基本的な衛生管理を維持しながら、戦略的アプローチを統合する必要がある。

リーダーシップの責務

IT Governance USAの報告によると、2023年11月から2024年4月の間に、2,741件の公開されたインシデントで6,845,908,997件の記録が侵害された。明らかに、従来のサイバーセキュリティシステムはAIのダイナミックな性質に追いつけない。

自己監査、自己修復、自己監視AIシステムとラストマイルセキュリティの考え方で積極的な回復力を構築しよう。セキュリティパラメータをソフトウェア開発ライフサイクル(SDLC)に直接統合することで、AIセキュリティを中核的な設計原則として扱おう。倫理的AIの専門家、データエンジニア、セキュリティ専門家を含む機能横断的なAIセキュリティチームを確保し、AI特有の脅威モデリングに大きく投資しよう。同時に、開発者、運用チーム、顧客対応チームを含むすべての関係者に、AIシステムの進化するリスクについて教育しよう。

また、AIセキュリティについていくつかの重要な質問をすべきだ:あなたのソリューションはエンドポイントエージェントとネットワークの再ルーティングに依存しているか?BYOD(Bring Your Own Device)環境でシャドーAIを規制できるか?単なる「ブロック」以上のものを提供できるか?未発表のAIツールに適応できるか?

AIの成功の未来はあなたの手の中に

AI強化されたソフトウェア開発の時代におけるセキュリティ組み込み型SDLCは、もはや後付けではなく—責任を持ってイノベーションを起こしたいビジネスにとっては前提条件となっている。

開発環境と本番環境の両方でAIモデルを予防的に評価し、バックドア攻撃やモデル侵害から保護し、インシデント発生時に迅速かつ断固として対応したいなら、データエンジニアリングとサイバーセキュリティチーム間のコラボレーションを強化する必要がある。AIデータライフサイクル全体の制御と可視性を高め、攻撃監視、脆弱性検出、インシデント対応を強化して、関係者の階層全体でAIの使用状況の可視性を確保しよう。最後に、関連するすべてのコンプライアンス遵守において妥協しないこと。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事