AI

2025.12.12 10:26

AIが兵器化され、脆弱性管理の常識が覆る。次の一手は?

stock.adobe.com

stock.adobe.com

私たちは正式にサイバー攻撃の新時代に突入した。11月にAnthropic(アンソロピック)Oligo Securityから発表されたレポートでは、ジェイルブレイクされたLLM(大規模言語モデル)を使用した大規模サイバー攻撃の詳細が明らかにされた。両社の報告によると、LLMベースのコード生成と、Anthropicのケースではその他のLLM機能が攻撃キャンペーンの実行に使用されたという。

これは驚くべきことではない。コーネル大学の研究者たちは今年5月、私たちがこの道を進んでいることを予測していた。実際、LLMはさまざまなタスクに非常に役立つツールであり、その中にはサイバーセキュリティに関連するものも含まれている。OpenAI(オープンAI)は専用のサイバーセキュリティ研究者をリリースしている。しかし人類の歴史には、もともと戦争のために開発されたわけではないが、後に兵器化された技術の例が多数ある。おそらく最も有名な例はダイナマイトであり、皮肉にもノーベル平和賞の名前の由来となった人物が発明したものだ。他にも肥料、民間航空機、3Dプリンター、ドローンなど、例は枚挙にいとまがない。

サイバーセキュリティへの影響

サイバーセキュリティの文脈では、LLMがサイバー犯罪者や国家支援の脅威アクターによって攻撃ツールに変えられたことを意味する。これが長期的に意味するのは、以前の時代に機能していたアプローチが、AI生成あるいはAI支援のサイバー攻撃の時代にはもはや機能しなくなるということだ。

以前の時代では、攻撃者は深く掘り下げる(高価値ターゲット、高労力)か、広く展開する(スクリプト化された無差別攻撃)かの選択を迫られていた。生成AIはこのトレードオフを崩壊させる。巧みに作られたプロンプトを使えば、攻撃者は今や両方を実現できる:人間レベルの攻撃キャンペーンを作成し、それを人間の介入や継続的な指示なしに多数のターゲットに同時に適用することが可能になる。

Anthropicのケースでは、LLMは人間のオペレーターから初期のターゲットと攻撃フレームワークに関する指示を与えられ、これには基盤となるLLM(この場合はClaudeコード)のジェイルブレイク手法も含まれており、悪意のある活動に対する組み込みのガードレールを回避するものだった。そこからキャンペーンの実行は大部分が自律的に行われ、Anthropicのレポートによると、約30のターゲットへの攻撃と少数の侵害成功につながったという。

Oligoが報告したケースでは、研究者たちはAI生成コードを使用してRay(AIインフラストラクチャソフトウェアツール)を攻撃し、その後暗号通貨のマイニングを行い、自律的に他の攻撃対象システムを特定するボットネットについて説明している。

今日まで、セキュリティベンダーと実務者は、脅威モデルに従って修正の優先順位を付けることで、脆弱性管理の課題に主に対応してきた。従来、脅威モデリングは資産の価値と潜在的な脆弱性の深刻度、そして脆弱性が悪用される可能性を組み合わせたものだ。これは完璧ではないし、完璧であることを意図していない…組織がすべての潜在的な脅威に対処するためのリソースを持たないという、ほぼ普遍的なシナリオにおいて、セキュリティ対策に焦点を当てることを目的としている。

リスクベースの優先順位付けアプローチが主に機能するのは、効果的な攻撃のコストが攻撃者にとって高すぎるため、あらゆる可能な攻撃経路を探索することができないからだ。これは、人間の攻撃者が最も価値が得られる場所と成功の可能性が最も高い場所に焦点を当てるという暗黙の前提に基づいている。これは攻撃者/防御者のダイナミクスが防御者に有利に働く稀なケースだ。ただし、攻撃者に有利な根本的な非対称性がまだ存在することに注意すべきだ。理論上、防御者はすべての利用可能な攻撃経路に対処しなければならないが、攻撃者は防御者が見逃した経路を見つけるだけでよい。攻撃者が自身のリソース使用について選択的にならざるを得ないと仮定できる場合、防御者として彼らがどこに焦点を当てるかについて良い推測ができる。

しかし、攻撃者がLLMを生産性ツールとして使用することで深さと規模のトレードオフを崩壊させることができる場合、彼らは最も価値の高い資産や成功する可能性が最も高い攻撃経路に焦点を当てる必要がなくなる。これにより、防御者のわずかな優位性が奪われ、ダイナミクスがさらに非対称になる。

防御のもう一つの複雑な点は、脆弱性を閉じる際に、防御者は潜在的な攻撃者への影響だけでなく、正当な使用への影響も考慮しなければならないことだ。緩和策が攻撃経路を閉じるが、重要な機能も停止させる場合、攻撃者が必要なくても被害は発生している。多くの場合、まさにこの理由から緩和策が実施されないままになり、防御者の仕事をさらに困難にしている。

皮肉にも、AIはこの問題の解決に役立つ

この新しい現実に対処するために必要なのは、考え方の転換だ。人間のオペレーターによって最終的に実行されるチケットワークフローシステムによって調整されるセキュリティ修正の優先順位付けされたバックログではなく、組織はAIを活用して脅威に対処する必要がある。これは、ビジネスを混乱させる可能性のある変更を行う運用リスクを無視しない、自動化優先のマインドセットを意味する。これは優先順位付けがなくなることを意味するわけではない。運用リスクは修正を設計する際に考慮されるべきであり、また二項対立的な修正/非修正モデルではなく、緩和戦略を設計する際に追加のコンテキストが必要になることを意味する。

例えば、特定のビジネスアプリケーションに対する深刻なアクティブな脅威がある場合、組織全体でそのアプリケーションのすべての使用を禁止するという答えにはならない。より良い解決策は、そのアプリケーションを一度も使用したことがないユーザー、あるいは最近使用していないユーザーに対しては禁止し、役割上それを必要とするユーザーに対しては、おそらく追加の制御を加えた上で許可することだろう。このアプローチには多くの潜在的なニュアンスがある。通常、人間のセキュリティエンジニアがその決定を下すが、この新しい時代では、AIがアプローチを提案し、提案を実装する運用リスクも評価することができる。リスクが十分に低ければ、おそらく自動的に展開される。リスクが高い場合は、人間のセキュリティエンジニアが判断を下す必要があるかもしれない。

私たちはまだ潜在的な攻撃者に対して上り坂の戦いを続けており、彼らがAIを使って取り組みを拡大する能力は、その不利な状況をさらに悪化させる。しかし、同じ技術を使って競争条件を平等にすることもできる。適切なアプローチを取れば、最終的には状況を私たちに有利に傾けることさえできるかもしれない。免責事項として、私は主にサイバーセキュリティ企業に投資しており、そのようなアプローチを取る企業を積極的に評価している。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事