Anthropic(アンソロピック)のCEOであるダリオ・アモデイ氏が12月17日に米下院国土安全保障委員会で証言する際、中国のハッカーが同社のClaudeという人工知能システムを使ってサイバースパイ活動を自動化したことについて質問を受けることになる。しかし、この公聴会ではより深い緊張関係が明らかになる可能性がある。それは、誰がアルゴリズム戦争の武器を管理すべきか、そして提案されている解決策が安全保障と他の利益のどちらに貢献するのかという問題だ。
アンソロピックの報告によると、9月に中国の国家支援を受けたハッカーがClaude Codeを操作して約30のターゲットに侵入し、AIがその作戦の80〜90%を実行したという事実は衝撃的である。米国国家安全保障局(NSA)の元長官で米国サイバー軍の司令官だったポール・M・ナカソネ将軍は、これを「これまでに見たことのないスピードと規模」での敵対者の能力の露呈だと述べている。
しかし、中国のスパイ活動に対する警戒の裏には、次に何をすべきかについてのテクノロジーコミュニティ内での合意の崩壊がある。この議論は、脅威の深刻さだけでなく、AIを特に危険なものとして位置づけることで誰が利益を得るのか、そしてその開発を制限することで解決するよりも多くの問題を生み出す可能性があるのかどうかに焦点を当てている。
様々な反応
この事件は、AI研究コミュニティ内で技術的な詳細を超えた議論を引き起こしている。Metaを去ってAIスタートアップを立ち上げるヤン・ルカン氏は、アンソロピックが「疑わしい研究で皆を怖がらせ、オープンソースモデルが規制によって存在できなくなるようにしている」と非難した。
複数のセキュリティ研究者は、アンソロピックの公開報告書に詳細な侵害指標や確固たる帰属証拠が欠けていると指摘した。ある情報セキュリティコンサルタントはThe Stackに対し、この開示は「90%が自己宣伝で10%が価値」だと語り、サイバーセキュリティ研究者のThe Grugqは「中国がAI競争でこれほど優れているなら、なぜ彼らの脅威アクターはアンソロピックを使わなければならないのか」と疑問を投げかけた。
技術的な反論を超えて、サイバー攻撃の帰属には外交的な結果が伴う。ワシントンの中国大使館は予想通りこれらの主張を否定し、「根拠のない憶測ではなく実質的な証拠」を要求した。
アンソロピックは攻撃者に詳細な手順書を提供することを避けるため、特定の技術的詳細を控える一方で、組織が防御を強化するのに十分な情報を共有した。同社はまた、法執行機関と連携し、影響を受けた組織に個別に通知した。
この問題は学術的な意見の相違を超えている。もしアンソロピックの主張—AIエージェントが前例のないサイバー脅威を表し、厳格な監視が必要であるという見方—が優勢になれば、その結果としての規制対応は、オープンソースの代替手段よりも、大規模で資金力のあるAI研究所を優遇し、これらの技術を誰が開発できるかを根本的に変える可能性がある。
誰が防衛を管理するのか
AIを活用した攻撃が避けられないものになったとすれば、それに対抗するために必要なAIを活用した防衛を誰が管理すべきだろうか。
オープンソースAIコミュニティは、これらの能力を少数の大規模研究所に集中させることでシステム上の脆弱性が生まれ、規制の捕捉を可能にすると主張している。歴史はこの見方をある程度支持している。隠蔽による安全性は一般的に失敗し、分散型の開発は時間の経過とともにより堅牢なシステムを生み出してきた。
しかし、AIエージェントのスピードと自律性は、歴史的なパターンにきれいに当てはまらない変数をもたらす。報告された攻撃の間、Claudeは何千もの要求を行い、しばしば1秒間に複数の要求を行った。攻撃が機械のスピードで数十のターゲットに同時に行われる場合、効果的な防御には同様の能力が必要となる。そのような防御を構築するには、ほとんどの組織が持っていないリソース、専門知識、インフラが必要だ。
アンソロピックの立場は、「組み込みの安全対策」を持つAIモデルがサイバーセキュリティの専門家が脅威に対抗するのを支援すべきというものだ。しかし、疑問は残る。誰がそれらの安全対策を定義するのか。アルゴリズムによる防御がアルゴリズムによる攻撃の境界線を越えるのはいつか、誰が決めるのか。そして、主要国すべてが人間が結果を評価できるよりも速く認識された脅威に対応できるAIエージェントを配備した場合、何が起こるのか。
今後の展望
12月17日の議会公聴会は、中国のスパイ活動とアンソロピックのセキュリティ慣行の詳細に焦点を当てる可能性が高い。しかし、より深い問題は権力に関するものだ。誰が人間の監視を超えて運用できるAIシステムを構築する権利を持ち、どのような制約の下でそれを行うのかという問題である。
脅威の物語が規制をどのように形作るかについての懸念と、前例のない敵対者の能力についての警告の両方が真剣に考慮されるべきである。どちらの視点も無視されるべきではない。課題は、リスクが実在し、それに対処することで、セキュリティニーズと同じくらい組織の利益に貢献するような方法で権力が集中する可能性についての懸念も実在するということだ。
AIの軍拡競争は始まっている。今重要なのは、私たちが全ての人を守る防衛を構築しているのか、それとも強者だけが振るうことのできる武器を構築しているのかということだ。


