Metaがコーニングに60億ドルの光ファイバーケーブルを発注。AIの真のボトルネックはソフトウェアではない
Metaが2030年までにコーニングから約60億ドル相当の光ファイバーケーブルを調達すると発表すると、コーニング株は1日で16%急騰した。データセンター顧客1社、供給契約1件。それでも、多くのAIソフトウェア企業がプロダクトローンチで生み出す動きより大きい。ここから、真の制約がどこにあるのかが見えてくる。
2026年のAIをめぐる見出しは、エージェント、モデル、雇用の置き換えなど、ソフトウェアに焦点が当たりがちだ。だがAIはハードウェアの上で動き、ハードウェアはネットワークの上で動く。AIインフラのボトルネックは、2年の間に3回も移り変わった。最初はGPU、次に電力、そしていまは接続性(コネクティビティ)だ。何十万ものGPUを「機能するAI工場」へと束ねる物理レイヤーを構築する企業が、今サイクルを決定づける投資対象となりつつある。
銅の壁
データセンター内部では、GPU間の接続はいまだに主として銅線で賄われている。AIクラスターが数千GPU規模から数十万GPU規模へと拡大するにつれ、銅は物理的限界に突き当たりつつある。Dell'Oro Groupのバイスプレジデント、サメ・ブジェルベン氏はFierce Networkに対し、AIクラスターは1クラスター当たり数千GPUから数十万GPUへ拡大し、将来的には1クラスター当たり100万GPUに達する可能性があると語った。規模が拡大するほど、インターコネクト要件は「指数関数的に増大する」という。
銅は短距離でも信号品質が落ち、エネルギーを無駄にし、高価な信号ブースターを必要とし、さらに余分な熱を発生させる。コーニングのグローバル研究担当バイスプレジデント、クラウディオ・マッツァリ氏は、データセンター内部での銅から光ファイバーへの移行は「不可避」だと述べ、過去20年にわたり海底、長距離、メトロ(都市圏)、アクセスネットワークで起きた同様の移行になぞらえた。
Dell'Oro Groupは、AIバックエンドネットワークが年率50%超で成長し、2028年までに200億ドルに達すると予測している。光伝送(Optical Transport)市場は2025年第3四半期に前年同期比15%増を記録し、Dell'Oroは2025年と2026年の見通しを引き上げた。ネットワークのバックボーン容量の伸びは、9四半期にわたる停滞を経て再び25%超に戻っている。
「横方向のスケール(Scaling Across)」が実際に意味するもの
2026年のインフラで最重要の概念は、多くの投資家が耳にしたことすらないものだ。それが「横方向のスケール(scaling across)」である。
ハイパースケーラーは、もはや単独のデータセンターを建設していない。地域内の複数の建物にまたがる数十万GPU規模のクラスターを、単一のAI工場として扱うギガワット級のAIキャンパスを構築しているのだ。これには施設間での大規模な光ファイバー敷設が必要で、しばしば最大100km離れた距離を、異なる電力系統に接続するために800 ZR+光学(オプティクス)を用いて結ぶ。
こうしたキャンパス内部のファイバー密度は、業界がこれまで目にしたことのない水準だ。従来のように1000未満のファイバー敷設ではなく、いまや事業者は1回の敷設で数千本のファイバーを必要とし、複数の管路を用いた敷設が積み上がって数十万本規模に達する。最新のGPUクラスターは東西(east-west)帯域として毎秒200テラビットを指定しており、これはファブリックリンク1本当たり3000本超のファイバーを設置することを意味する。STLのCEO、ラフル・プリ氏はFierce Networkに対し、AI特化型データセンターは従来のCPUベースのラックに比べ、およそ36倍のファイバーを必要とすると語った。
米国だけでも、2029年までにさらに2億1300万ファイバーマイルを追加する必要があり、現在の1億6000万マイルを2倍以上にすることになる。マイクロソフトはクラウドのバックボーンを補強するため、80億ドル超のダークファイバー(未使用光ファイバー)契約を確保した。少なくとも大手ファイバーメーカー1社は、すでに2026年までのファイバー在庫をすべて売り切ったという。
次の移行はコ・パッケージド・オプティクス(Co-Packaged Optics)
現在のアーキテクチャでは、サーバーのフェースプレートで光を電気に変換し、その後データを銅線でチップへ送っている。コ・パッケージド・オプティクス(CPO)はデータを光のまま、GPUやスイッチチップそのものまで届け、最後の銅リンクに伴う非効率を排除する。
業界推計では、CPOにより光部品コストを40%削減できる可能性がある。チップメーカーの一部は、現行技術と比較して50%以上の電力削減を見込む。エヌビディアは2025年3月のGTCでシリコンフォトニクス(シリコン光学)ベースのCPO技術を披露し、ブロードコムは400G/Lane級のCPOソリューションを発表した。コーニングのブライアン・ローニー氏は、2026年に複数ラックにまたがる複数GPUを単一の計算「脳」へと結ぶ、ファイバー給電のスケールアップ・ファブリックの最初のフィールドトライアルが始まると予測する。
コーニング自身のCFOレベルの見立てでは、CPOはデモやパイロットを経て、2026年に実際のAIクラスター配備に入るという。同社のFlexConnectファイバーは、CPOが求める短尺構成に最適化されている。GlassWorks AI製品群は、データセンター内外を含むAIネットワークスタック全体を狙う。AIネットワーク需要に牽引され、エンタープライズ向け売上は2025年第3四半期に前年同期比58%増となった。
ソブリンAIの次元
EU AI法の透明性要件は、欧州とアジアにおけるソブリンAI(主権型AI)インフラの構築を加速させている。各国は国内AIクラウドの整備を競っており、これは各法域ごとに冗長なデータセンター容量が必要になることを意味する。ソブリンAIクラスターはいずれも、同じファイバー、同じオプティクス、同じ物理的接続性を必要とする。
これにより、インフラ企業に対する持続的かつ地理的に分散した需要が生まれる。単一のハイパースケーラーの設備投資サイクルに依存しないのだ。ノキアはAI対応ネットワーク技術のため、米国での研究開発と製造に40億ドルを投資すると発表した。シエナは2026年度の売上見通しを57億〜61億ドルへ引き上げたが、アナリストはこれをAI主導の需要に直接結び付けている。シリコンフォトニクス市場は、2024年の21億6000万ドルから2029年には75億2000万ドルへ拡大すると予測されている。
DeepSeekが変えたのは需要曲線であって、インフラ曲線ではない
DeepSeekが低コストで競争力ある性能を実現したとしても、インフラ需要は減らない。むしろ増える。高度なAI推論が手頃になれば、導入する企業が増え、推論(インファレンス)トラフィックが増え、データセンター負荷が増え、ファイバー需要が増す。ボトルネックは「誰がモデル学習の費用を払えるか」から「誰がモデルを大規模に動かす物理的キャパシティを持つか」へ移る。安価な知能は、その知能を運ぶネットワークを構築する企業にとって追い風である。
トレードショーが実際に示したもの
Tech Show London(2026年3月4〜5日)で開催されたBig Data & AI Worldは、一般的なエンタープライズ向けカンファレンスであり、元の記事が描写したような画期的瞬間ではなかった。チャットボットからエージェント型AI(agentic AI)への移行は現実であり、業界調査でも広範に記録され、加速している。しかし、ロンドンのトレードショーで「チャットボット時代は今週終わった」とする主張は、そこで起きたことを過大に語っている。
2026年初頭に本当に新しいのは、このエージェント型への移行に対するインフラ投資の反応である。複数ステップのワークフローを実行するエージェント型AIシステムは、単発の問い合わせに答えるチャットボットよりも、計算量とデータトラフィックを大幅に増やす。3月16〜19日にサンノゼで開かれるNVIDIA GTCでは、エージェント型ワークロード向けに設計された推論重視のチップ「Feynman」アーキテクチャが紹介される見込みだ。新しい推論チップには、それを接続するネットワークが必要となる。物理レイヤーは、ソフトウェアの進歩のたびにスケールする。
インフラ投資のテーゼ
見出しをつかむのはソフトウェアだ。収益をつかむのはインフラである。コーニングのジョン・マクガー氏はFierce Networkに対し、ハイパースケールとAIネットワーク負荷がファイバー需要見通しを「大幅に押し上げた」と語った。コーニングはCPOと光電(オプトエレクトロニクス)回路向けのガラス基板を開発している。同社のContour Flow Cableは、既存のケーブル直径のままファイバーを2倍収容できる。また、半導体パッケージング向けのガラスコア技術も前進させ、ネットワークからチップへと射程を広げている。
AIインフラの増設は、1年限りのトレードではない。米国は2029年までにファイバーマイルを2倍以上にする必要がある。ハイパースケーラーは複数年・数十億ドル規模の供給契約を結んでいる。データセンターの接続性需要は年率50%超で拡大している。コーニング、シエナ、ノキア、プリズミアン、そしてより広範な光学サプライチェーンといった、この物理レイヤーを構築する企業は、モデル改善のたびに、エージェント配備のたびに、そして新たなソブリンAIの要請のたびに、より急になる需要曲線に向けて販売している。
AI時代の基盤は、文字どおり建設中だ。ケーブルを敷設する企業は、モデル競争に勝つ必要はない。競争が続きさえすればよいのだ。
この記事が気に入った方は、Substackで毎日配信しているコンテンツもぜひ。気軽に読めて、鋭い視点で、実際に役立つ内容だ。こちらから登録を。



