テロリスト集団によるテクノロジー(AIを含む)の利用について広範な調査を行ってきたのが、MEMRIのエグゼクティブディレクター、スティーブン・スタリンスキー氏である。
人工知能(AI)はもはやイノベーションを推進するだけでなく、グローバルなサイバー戦場を積極的に形作っている。9月中旬、Claude AIモデルを開発するAnthropic(アンソロピック)は、中国の国家支援グループがClaudeを使用して、テクノロジー企業や化学メーカーから金融機関や政府機関まで、世界中の30のターゲットへのハッキングを試みたことを明らかにした。Anthropicはこれを「人間の大規模な介入なしに実行された大規模サイバー攻撃の最初の記録された事例」と説明し、「高度なサイバー攻撃を実行するための障壁が大幅に低下しており、今後もその傾向が続くと予測している」と警告した。
ビジネスリーダーや投資家はもはや目を背けることはできない。安全対策が不十分なAIシステムは単なる規制上の頭痛の種ではなく、暴力を可能にし、市場に混乱をもたらし、国家安全保障を危険にさらす可能性がある。今すぐ行動して悪用を予測し、自社製品をロックダウンする企業は、収益と公共の安全の両方を守ることになる。そして、これは米国政府と緊密に連携して行うべきである。
AIは現代史上どの技術よりも速く進化しており、それがもたらす脅威も同様だ。AIは日々、テロのために武器化できることを示している:プロパガンダの生成、勧誘の自動化、標的の選定、ドローンの誘導、さらには攻撃計画の支援まで。西側諸国政府がイノベーションと悪用のリスクのバランスを取りながら、対テロ活動のためにAIを活用しようと競争する一方で、ロシア、中国、イラン、北朝鮮などの敵対勢力はすでにAIを悪用してライバルに害を与えている。
これらの敵対勢力だけではない。過去3年間、私はテロ組織がすでにAIを実験し、それが国家安全保障に与える影響を研究するチームを率いてきた。これらのグループはAIを使用してメッセージングを自動化し、ディープフェイクを作成し、オープンソースモデルを悪用し、紛争地域の非国家主体を監視している。彼らはまた、政府が対テロ活動にAIをどのように使用しているかを追跡し、検出を回避する方法を探している。
AI支援テロの脅威はもはや遠い将来のものではなく、すでに到来している。2025年11月、英国の情報機関MI5とMI6は、ロンドンで18歳の若者が逮捕された後、イスラム国が初めてAIを使用して英国のジハード主義者を勧誘したと警告した。同様に、シンガポールのイスラム教担当大臣代行ファイサル・イブラヒム氏も11月に、若者の過激化におけるAIの役割の拡大を強調した。これらの展開は、AI企業が傍観者でいられないことを明確に示している:彼らには悪用を予測し、プラットフォームを安全にし、悪用を防ぐために政府と緊密に協力するという重要な責任がある。
米国での最近の事件は、その重要性を示している。今年初め、ロサンゼルス史上最も破壊的な火災の一つであるパシフィック・パリセイズ火災の容疑で逮捕された29歳のジョナサン・リンダークネヒトは、炎に包まれた都市のAI生成画像が携帯電話に保存されており、火災の責任を問われるかどうかをAIに質問していたことが判明した。2025年元日、マシュー・リベルスバーガーはラスベガスのトランプ・インターナショナル・ホテル外で爆発物を爆発させ、7人が負傷したが、彼は攻撃を計画するためにChatGPTを含む生成AIを使用していた。これらの事例は明確な点を示している:AIは意図を生み出すわけではないが、AI企業はテロリストや犯罪者に強力な新たなツールを事実上提供している。AI開発者には、悪用を予測し、プラットフォームを安全にし、悪用を防ぐために政府と緊密に協力するという重要な責任がある。
AI企業自身もリスクを認識している。Anthropicは上院での証言で、AIが単独犯テロリストを支援し、攻撃の計画、標的の選定、材料の調達に必要な技術的専門知識の敷居を下げる可能性があると警告した。同社の2025年8月の報告書では次のように述べている:「エージェント型AIツールは現在、本来ならオペレーターチームを必要とするような攻撃に対して、技術的アドバイスと積極的な運用サポートの両方を提供するために使用されている...AI支援コーディングがサイバー犯罪に必要な技術的専門知識を減らすにつれて、このような攻撃がより一般的になると予想している」
OpenAIとAnthropicもまた、適切なプロンプトを使用すれば、彼らのモデルが爆発物や生物兵器に関する運用ガイダンスを提供する可能性があると報告している。バイオセキュリティに関して、ワシントン・ポスト紙の論説は、AIが現在機能的なウイルスを設計できるようになっていること—これは米国が準備できていないこと—を警告し、AI駆動の対策、より迅速な治療薬生産、更新された準備プロトコルを求めている。これは医学・生命科学分野、バイオテクノロジー・製薬会社、公衆衛生機関、研究室安全専門家、規制当局からの関与を必要としている。
米国では、連邦・地方機関がセーフガード・オハイオやニューオーリンズ、ニューヨークでのAI支援監視などのイニシアチブを通じて、重要インフラを監視し不審な活動を検出するためにAIを活用している。他の政府も対応しているが、その取り組みは均一ではない:オーストリアはAI生成プロパガンダが過激化を助長する可能性があると警告し、シンガポールはAI支援による若者の過激化を記録し、ケニアはアル・シャバブを監視するためにAI対応ドローン、顔認識、予測分析を使用している。日本は政治指導者への攻撃を受けて過激派活動のためにソーシャルメディアをスキャンし、オーストラリア連邦警察は「犯罪インフルエンサー」、暴力とサイバー犯罪を美化するオンラインネットワークを特定するために、暗号化されたチャットで絵文字やZ世代/アルファ世代のスラングを解釈するAIツールを開発している。
AI領域のデュアルユース(軍民両用)の現実は、AI開発者に独自の責任を課している:正当なユーザーに力を与えながら、悪意のある行為者による悪用を防ぐことだ。米国のビジネスと政府の両方にとって、メッセージは明確である:AIはもはやイノベーションのためのツールだけでなく、テロリズム、サイバー犯罪、生物学的脅威の潜在的なベクトルである。AIを責任を持って展開し、セキュリティイニシアチブで協力する企業は、悪用を防ぎ、国家インフラを保護し、公共の信頼を強化するのに役立つ。しかし、これらの課題に取り組むには、国家安全保障と広範な公共の利益の両方を確保するために、研究、規制、官民パートナーシップへの緊急の政府投資が必要である。



