これまで、ランサムウェアなどの高度なマルウェアを作成する、比較的少数のサイバー犯罪の天才たちのビジネスモデルは、ダークウェブ上で技術力の低い犯罪者にマルウェアやサービスを提供し、時には配信システムまで提供して、一般的に受け取った身代金の一定割合を報酬とするというものだった。しかし、AIによってこのモデルは急速に変化し、技術力の低い犯罪者でもAIを活用して様々な詐欺を実行できるようになっている。
AIツールは、ソーシャルメディアや公開情報源から膨大なデータを収集し、サイバー犯罪者がスピアフィッシングメールと呼ばれる特定のターゲットを狙ったフィッシングメールを作成することを可能にしている。これらのメールは標的となる被害者から信頼される可能性が高く、個人情報の提供を誘導して身元盗難につながったり、何らかの口実で支払いをさせたりする。
容易に入手できるディープフェイク動画や音声クローン技術により、サイバー犯罪者は祖父母詐欺や家族緊急事態詐欺、ビジネスメール詐欺など様々な詐欺を実行できるようになった。これらの詐欺は過去には主にメールを通じたソーシャルエンジニアリング戦術に依存し、詐欺師が企業幹部を装って下位レベルの従業員に何らかの口実で詐欺師の指示通りに支払いを承認させるというものだった。2018年頃に始まったこの詐欺は、FBIによると、2023年10月から12月の間に世界中で550億ドル以上の損失をもたらした。
現在、AIの登場とディープフェイク技術や音声クローン技術の使用により、詐欺師はさらに手口を高度化させている。2024年、エンジニアリング会社Arupは2500万ドルを失った。サイバー犯罪者が同社のCFOになりすましてディープフェイクのビデオ通話を行い、従業員に送金を説得したのだ。
しかし状況は想像以上に悪い。はるかに深刻なのだ。
Claudeチャットボットを開発した企業Anthropicは最近、同社のチャットボットが高度なサイバー犯罪の開発と実行に使用されている実態を詳述した報告書を発表した。この報告書では、サイバー犯罪者によるAI利用の進化について説明しており、AIをマルウェア開発のツールとしてだけでなく、「バイブハッキング」と呼ばれるサイバー攻撃の積極的な実行者として使用する方法が詳述されている。報告書では、GTG-5004と呼ばれる英国を拠点とするサイバー犯罪者の例を挙げている。この人物はClaudeを使用して、何千ものVPNエンドポイントをスキャンして脆弱なシステムを見つけ、企業のネットワークに最も効果的に侵入する方法を特定し、機密データを盗むための回避機能を持つマルウェアを作成し、マルウェアを配信し、データを盗み、どのデータがハッキングされた企業を恐喝するのに最も効果的かを判断するためにデータを選別し、さらには心理学を活用して身代金要求メールを作成していた。Claudeはまた、盗まれた資料を公開しない代わりに要求するビットコインの金額を決定するために、標的企業の財務記録を盗むためにも利用された。
GTG-5004は1ヶ月間でClaudeを使用して、政府、医療、緊急サービス、宗教機関に関わる17の組織を攻撃し、7万5000ドルから50万ドル以上の要求を行った。
その後GTG-5004は、ダークウェブ上で他のサイバー犯罪者にオンデマンドのランサムウェアサービスを販売し始め、暗号化機能やハッカーが検出を回避するための方法など、さまざまなレベルのパッケージを提供した。重要なのは、報告書が示しているように、過去に技術的に洗練された犯罪者が自分で作成したマルウェアをダークウェブで販売またはリースしていたのとは異なり、「この運営者はClaudeの支援なしには暗号化アルゴリズム、解析対策技術、Windowsの内部操作を実装する能力がないように見える」ということだ。
その結果、一人のサイバー犯罪者が、以前なら暗号技術、Windowsの内部構造、回避技術に熟練した全チームが必要だったランサムウェアの作成や、ターゲティング、悪用、収益化に関する戦略的・戦術的決定の自動化、さらには遭遇した防御措置への適応までもが可能になった。これらすべてが、サイバー犯罪を犯そうとする犯罪者にとってのハードルを下げている。
報告書はまた、北朝鮮の工作員がAI機能を悪用して技術企業にリモートの仕事を獲得していた実態も詳述している。報告書によると、「従来の北朝鮮のIT労働者の活動は、北朝鮮内で若いうちから採用され訓練された高度なスキルを持つ個人に依存していた。我々の調査は根本的な変化を明らかにしている:AIが、限られた技術スキルしか持たない工作員が西側の技術企業に成功裏に潜入し、職位を維持することを可能にする主要な要因となっている」。
報告書によると、AIを使用することで、基本的なコードを自分で書けなかったり英語でコミュニケーションを取れなかったりする北朝鮮の工作員が、面接に合格して技術企業に就職し、北朝鮮の武器プログラムに資金を提供する年間数億ドルを稼ぐことができるようになっている。さらに悪いことに、AIを通じて各工作員は、AIなしでは不可能だった複数の職位を米国の技術企業で維持することができるようになっている。
Anthropicは、特定された脅威に対応するため、これらの活動に関連するアカウントを禁止し、この種の活動を特定するための専用の分類器を開発し、既存の安全執行システムに検出措置を組み込んだ。さらにAnthropicは、他の企業やセキュリティおよび安全コミュニティと調査結果を共有し、AIプラットフォームを使用する犯罪者によってもたらされる脅威を認識し防御するのを支援している。しかし、サイバー犯罪へのAI利用の脅威は依然として大きい。
Anthropicの報告書は、AI業界全体への警鐘である。



