Forbesが4月10日に発表した「AI 50(注目すべきAI企業50社)」の2025年版は、世界のAI(人工知能)分野が転換点に差し掛かったことを示していた。世界中の大手企業が「AIエージェント」の導入を加速するなか、サイバー攻撃の規模と範囲は拡大している。多くの組織が適切な保護策を講じず、こうしたツールを重要なシステムに組み込んでいるためだ。
ハッカーが企業のAIエージェントの脆弱性を突いて攻撃を仕掛けることがある一方で、ハッカーが「独自のAIエージェント」を構築して、企業に攻撃を仕掛けるケースも増えている。
先日開催されたイスラエルのセキュリティ大手CyberArk(サイバーアーク)のカンファレンス「IMPACT 2025」では、同社のリサーチ担当副社長のラヴィ・ラザロヴィッツが、AIエージェントがもたらす様々な脅威に関する初期の分析を発表した。
「AIエージェントの特徴は、その自律性と先を見据えて行動するプロアクティブさ(積極性)にある」とラザロヴィッツは語り、このツールが引き起こすリスクが、今後も高まり続けると予測した。また、現段階では全てのリスクを軽減できる特効薬はなく、「多層防衛」と呼ばれる、ワークフローの異なるステージや様々なセキュリティ対策に複数の保護レイヤーを導入する施策こそが、最善のアプローチだと指摘した。
CyberArkは企業に対し、「大規模言語モデル(LLM)を決して信用してはならない」と警告している。このカンファレンスでマサチューセッツ工科大学(MIT)スローン経営大学院のレセフ・レヴィ教授は、「LLMの使用は、成分を知らずに薬を摂取するようなものだ」と指摘した。
同教授はさらに、AIエージェントを導入する上での主な課題が、一般的には人間のほうがAIよりも優れているとされる、「ニュアンスの識別」や「状況の変化と例外的な動きや異常に対する感度」「新たな文脈の検知」などの能力を損わないようにすることだと指摘。「パフォーマンスと能力を混同してはならない」と語った。
レヴィ教授はまた、ハッカーが生成AIやLLMを用いてサイバー攻撃能力を強化するなか、企業は自社のデジタルサプライチェーンを把握するための基準を設け、潜在的な脆弱性を特定するべきだと述べている。
生成AIがもたらす新たな脅威を特定するための研究は、急速に進んでいる。例えばイスラエルのスタートアップ企業、Pillar Security(ピラー・セキュリティ)は、2000件以上のLLM搭載アプリケーションを分析したレポートを公開した。それによると、成功した攻撃の90%が機密データの漏洩につながっており、攻撃者は平均42秒で攻撃を完了しているという。



