この10年ほどの大半において、データ主権は法務・コンプライアンスの問題だった。法務部門の誰かが扱い、ITはネットワークを構築してツールを購入し、規制当局が「データがどこにあるのか」を尋ねてきたとしても、それは別の誰かの仕事だった。
だが、この分業は崩れつつある──そして率直に言えば、もっと早く崩れていて然るべきだった。クラウド採用の進展、地政学の変化、ローカルに留める必要のあるAIワークロード、そして実際に執行され始めたデータレジデンシー規制の波が重なり、主権はインフラの問いへと変わった。しかも戦略的な問いである。にもかかわらず、ほとんどの組織はその議論の準備ができていない。
実際に何がこれを動かしているのか
GDPRは2018年から存在する。EU、英国、アジア太平洋の金融規制当局は、越境データに関するルールを長年運用してきた。新しい話ではない。変わったのは、執行が現実味を帯びてきたこと、規制環境が拡大していること──NIS2、DORA、各国版GDPRのさまざまな適用──そして、地政学的環境が、誰も本気で想定していなかった新たなリスク区分を持ち込んだことだ。
これを地政学の記事にするつもりはないが、無視するのは難しい。少し前まで懸念の中心は、中国政府が企業データに影響力を及ぼし、アクセスし得るという理由で、他国の組織が中国ベンダーとの取引を望まないことだった。これは正当な懸念だった。いまでは、他国が米国拠点のクラウドプロバイダーにも同様の監視の目を向けている──そして、近年の政策の変化を踏まえれば、その理由も理解できる。筆者としては、現政権や、懸念すべき権限の濫用を助長したり受け入れたりしている米国のテックセクターを無条件に信頼することには、慎重にならざるを得ない。
実務上の帰結として、組織──とりわけ規制産業、防衛、重要インフラ、政府──は、「国内」にデータを保存するとは実際に何を意味するのか、より厳しい問いを投げかけている。データへのアクセスが、外国の管轄下で運用される第三者インフラを経由する可能性があるなら、なおさらだ。そして、そこにこそ多くの現行アーキテクチャが抱える大きな欠落がある。
多くの組織が見落としがちな点がある。認証済みの国内データセンターにデータを保存していても、そのデータへのアクセスを、同じ主権要件を満たさないクラウドセキュリティプロバイダー経由でルーティングしてしまうことがあり得る。データは主権的でも、そこへ至るネットワークパスは主権的ではないのだ。EUは、まさにそのギャップを埋める枠組みづくりを積極的に進めている。自社のアーキテクチャがその動きに先行しているのか、それとも後手に回っているのか、問い直す価値がある。
十分に注目されていないセキュリティアーキテクチャ上の問題
クラウド提供型セキュリティの支配的モデル──Security Services Edge(SSE)──は、主としてアウトバウンドトラフィックを念頭に設計されている。ユーザーがクラウドアプリケーションへ接続する方向だ。そこに最適化されている。一方、インバウンド、すなわち企業環境に入ってくるトラフィックは、依然としてオンプレミスのファイアウォールに頼るのが一般的で、しかもそれらは、もはやほとんど存在しない境界(ペリメータ)モデルを前提に作られている。
このギャップは、多くの人が思う以上に、主権の文脈では重要になる。セキュリティ態勢について実質的な管轄権コントロールを維持しようとするなら、クラウド提供型とオンプレミスという2つの別々のアーキテクチャを併走させることは、複雑性、カバレッジの穴、そして要件を満たさないインフラを通じてデータが移動する機会を増やしてしまう。
この問題に最も長く向き合ってきた組織──防衛機関、大規模金融機関、重要インフラ事業者──は、概して「すべて自前で構築する」ことで解決してきた。自前のスタックを展開し、運用し、運用負荷を受け入れる。予算と人材があるなら機能する。だが、多くの組織にはそれがない。
AIが前提を変えつつある
現時点でのエンタープライズAIセキュリティの議論は、アクセスに焦点が当たりがちだ──従業員にAIツールを使わせつつ、機微データをうっかり露出させないにはどうするか。これは現実の問題である。だが、最も難しい問題ではない。
より難しいのは、AIワークロードがクラウドベースの推論からローカル展開へ移っていく中で何が起きるのか、という点だ。各店舗で不正検知モデルをローカルに動かす小売業者。支店拠点で生体認証分析を行う銀行。エッジハードウェアで予知保全を走らせる製造業者。どれも仮の話ではない。組織がいま、実際に下している意思決定である。
確かに、筆者はChatGPTも使えるし、Claudeも使えるし、Perplexityも使える。それで十分なことは多い。だが突き詰めれば──小売業者の顧客行動データ、銀行の取引パターン、製造業者の独自プロセスデータといった話になれば──「クラウドのLLM(大規模言語モデル)を使えばいい」で済む話ではない。自分たちのものが必要だ。データが自分たちのものであり続けることを担保しなければならない。そして、そのすべては主権へと立ち返る。
エージェント型AIのレイヤーは、その上にさらに別の次元を加える。従来のSASE(Secure Access Service Edge)やSSEのアーキテクチャは、比較的予測可能なトラフィックパターン──ユーザーがアプリケーションへ接続する、いわゆる南北(north-south)トラフィック──を前提として設計されてきた。エージェント型AIは、あらゆる方向にトラフィックを生み出す。エージェント同士の通信、外部APIの呼び出し、ローカルデータストアからの取得、クラウドサービスへの接続。そこに一貫したセキュリティポリシーを適用するのは、多くの企業セキュリティチームがこれまで解いてきた問題とは本質的に異なる。
あるベンダーはどう取り組んでいるか
Versaは、同社が「Sovereign SASE-as-a-Service」と呼ぶものを発表した。統合ネットワーキング/セキュリティプラットフォーム上に構築されたマネージドサービスであり、第三者のクラウドインフラを経由してデータをルーティングすることなく、クラウド提供型の運用を必要とする組織を想定して設計されている。
Versaは以前から存在するが、正直に言えば筆者は同社にあまり詳しくなかった。CEOのKelly Ahujaと面談し、このニュースについて話を聞いたところ、印象的だったのは、同社にとって主権対応の導入が新しいユースケースではないという点だ。むしろ主流である。「トップ100のアカウントを分析したところ、85〜90%がすべて主権対応だったと思う」とAhujaは述べた。「つまり、我々はソフトウェアを提供し、顧客が自分たちの環境に導入し、自分たちで運用する。我々は何が起きているかさえ知らない」
新しい提供形態は、自前の主権インフラを配置・運用する人員を確保できない組織へ、そのモデルを拡張するものだ。Versaは主に、サービスプロバイダーおよび通信事業者パートナー──世界で150社以上──というチャネルを通じて提供し、パートナー各社がプラットフォームの上にマネージドサービスを構築する。Ahujaが例として挙げたのはスイスのSwisscomで、主権を組み込んだ標準のサービス階層としてセキュア接続性を提供し、中小企業が自らエンタープライズSASEを評価して導入しなくても済むようにしている。企業は通信キャリアからインターネットを購入し、セキュリティはそれに付随する。
いま問うべきこと
コンプライアンス要件は、出発点としては容易だ。GDPR、NIS2、DORA、あるいは業界に適用される各種のセクター別フレームワーク──それらは最低ラインを定める。より難しい問いは、それらの要件を満たすことが自社の実際のリスク態勢を反映しているのか、それとも、現在の脅威環境が成立する前に書かれた規制に対してチェックボックスを埋めているだけなのか、という点である。
いくつか、検証に値する点がある。第1に、主権データへのアクセスを制御するセキュリティレイヤーは、データそのものだけでなく、実際に主権要件を満たしているのか。第2に、AIワークロードの展開を始めたとき、主権態勢はどう変化するのか。推論リクエスト、学習データ、あるいはテレメトリーが、データレイヤーと同じ基準を満たさないインフラを横断しているなら、まだ可視化できていないギャップが存在する。
第3に──そしてこれは緊急になるまで先送りされがちだが──主権アーキテクチャをスケールさせたとき、どのような姿になるのか。1つの法域はプロジェクトで済む。だが複数法域、異なる規制フレームワーク、分散した労働力、さらにその上にAIレイヤーが載るなら、複雑性の桁が変わる。いま考え始める組織は、コンプライアンス期限やインシデントに追い込まれて動く組織より先に行ける。
マネージドサービスモデルは、人員確保という問題に対する1つの答えである。唯一の答えではなく、適切なアプローチは組織の規模、リスク許容度、規制環境によって異なる。だが根本の課題は現実であり、消えることはない。むしろ、容易になる前に、いっそう複雑になる可能性が高い。



