エヌビディアが510億ドルの売上高を計上。競合他社がいまだに追いつけない理由
エヌビディアは先月、四半期売上高512億ドルを発表し、前年同期比66%増となった。ジェンスン・フアンCEOは、Blackwellチップの売上が""桁外れ""であり、クラウドGPUは完売していると述べた。同社は次四半期に650億ドルを見込んでいる。
一方、メンフィスでは、イーロン・マスク氏のxAIが世界最大のAIトレーニングクラスターとなる施設を建設中だ。Colossus 2は、2026年の完成時には50万個以上のエヌビディアGPUを収容する予定である。最初の11万個のチップはすでに設置が進められている。
圧倒的優位性を示す数字
その規模は驚異的だ。エヌビディアは現在、S&P 500種株価指数の時価総額全体の約8%を占めており、これは半世紀以上で単一銘柄として最高の集中度である。同社は72個のBlackwell GPUを搭載した1つのラックを約300万ドルで販売しており、週に約1000台のラックを出荷している。
3月のGTCで、フアン氏は話題をチップから、同氏が""AIファクトリー""と呼ぶものへと移した。これは、大規模なデータ処理がAIシステムを作成・展開する特殊なコンピューティング環境である。各GB200 NVL72ラックシステムには60万個以上のコンポーネントが含まれており、1つの巨大なコンピューターとして機能し、1兆パラメーターのAIモデルに対して従来のシステムの30倍高速なパフォーマンスを提供する。
この複雑さが参入障壁を生み出している。これらは汎用部品から組み立てられるサーバーではない。ラックあたり120キロワットの液体冷却、GPU間で毎秒130テラバイトで動作するカスタムインターコネクト、数万個のチップを1つの統合されたマシンとして扱うソフトウェアを必要とする精密設計されたシステムなのだ。
カスタムチップが差を縮められない理由
理論上、グーグルの新しいIronwood TPUは競争力があるように見える。各チップは4.6ペタFLOPSのAI演算能力を提供し、エヌビディアのB200の4.5ペタFLOPSをわずかに上回る。グーグルはこれらを9216個のチップのポッドにスケールでき、単一クラスターで40万個のアクセラレーターを理論的にサポートできる。
しかし、落とし穴がある。TPUはGoogle Cloud内でのみ動作する。複数のクラウドプロバイダーにまたがってワークロードを実行したい場合、オンプレミスのインフラを構築したい場合、またはグーグルのエコシステム外のフレームワークを使用したい場合、エヌビディアが唯一の選択肢として残る。
アマゾンのTrainiumチップも同様の制限に直面している。AWSは他のベンダーと比較して30%から40%優れた価格性能比を主張しているが、それはアマゾンのクラウド内で完全に実行されるワークロードに限られる。これらのチップは、エヌビディアのハードウェアがあらゆるフレームワークでトレーニング、ファインチューニング、推論を処理できる汎用的な柔軟性ではなく、特定のタスクに特化している。
2年以内に稼働させなければならないインフラに1000億ドルを費やす企業にとって、単一のクラウドプロバイダーの独自ハードウェアに賭けることは、ほとんどの企業が取らないリスクである。
真の障壁:エコシステム
エヌビディアの優位性はシリコンだけではない。それは数十年にわたるソフトウェア、ツール、訓練されたエンジニアである。
エヌビディアが2006年から開発しているCUDAプログラミングプラットフォームは、PyTorch、TensorFlow、JAXを含むほぼすべての主要なAIフレームワークで動作する。競合他社のチップに切り替えることは、多くの場合、コードの書き直し、スタッフの再教育、一部の機能が単に動作しないことを受け入れることを意味する。
""CUDA""に言及する求人情報は、依然として代替案に言及するものを大幅に上回っている。スタンフォード大学の機械学習コースが2025年にグーグルのJAXフレームワークをデフォルトオプションとして追加したとき、それが注目されたのは、CUDAが10年以上にわたって標準であったからこそである。
エヌビディアはまた、サプライチェーン全体にわたる関係を構築してきた。同社は世界中の150以上の工場で200以上のテクノロジーパートナーと協力している。電力会社、冷却専門家、データセンター開発者、さらには主要な投資会社までもが、現在エヌビディアのネットワークの一部となっている。
このエコシステムは、エヌビディアのインフラを購入するCEOが単にチップを入手するだけではないことを意味する。彼らはグローバルサポートを備えた完全な戦略を手に入れているのだ。
何が変わる可能性があるか
経済性は周辺部で変化している。同じモデルを大規模に繰り返し実行する大量推論ワークロードの場合、グーグルのTPUとアマゾンのTrainiumチップは、エヌビディアの汎用GPUよりも優れたトークンあたりのコストを提供できる。
一部の企業は静かに切り替えを行っている。Anthropicは2025年後半に数十万個のグーグルTPUを約束した。Midjourneyは、画像生成ワークロードの多くをエヌビディアのハードウェアからGoogle Cloud TPUに移行し、月間コストを大幅に削減したと報じられている。
しかし、新しいフロンティアモデルのトレーニングは?それは依然としてエヌビディアを必要とする。xAIが世界で最も強力なAIトレーニングシステムを構築する必要があったとき、彼らは比較検討しなかった。Colossus 2はエヌビディアのGB200チップを使用している。
競争の構図は現実的である。グーグルのIronwood TPUは初めて生のスペックでエヌビディアに匹敵する。AMDのMI350シリーズは、第2のサプライヤーを求める企業に代替案を提供する。しかし、ベンチマークでスペックを一致させることは、エヌビディアが数十年かけて構築してきたソフトウェア、サポート、サプライチェーンの完全なスタックを一致させることとは異なる。
これが他のすべての人にとって意味すること
投資家にとって、パターンは明確である。エヌビディアの優位性は脆弱ではないが、永遠に保証されているわけでもない。同社は、ついに信頼できる代替案を構築している競合他社よりも速く動き続けなければならない。
AIシステムを構築している企業にとって、計算は状況によって異なる。フロンティアモデルをトレーニングしている場合、またはクラウドやフレームワーク全体で柔軟性が必要な場合、エヌビディアは依然として標準である。単一のクラウド内で大規模な推論ワークロードを実行している場合、特殊チップの経済性は真剣な評価に値する。
他のすべての人にとって、このインフラ構築は、AIを直接使用するかどうかにかかわらず、影響を及ぼす。これらのデータセンターに電力を供給する電力は、料金の引き上げを促進している。これらの工場に供給するサプライチェーンは、世界の製造業を再構築している。新型コロナウイルス感染症の期間中にノートパソコンを高価にしたチップ不足は、コンピューティング需要が供給を上回ったときに何が起こるかのプレビューだった。
エヌビディアは単にハードウェアを販売しているだけではない。フアン氏が""AI時代""と呼ぶものの基盤を構築しているのだ。その基盤がエヌビディア独占のままであるか、より競争的になるかは、次の10年がどのように展開するかについて多くのことを決定するだろう。
これが気に入ったなら、私たちがSubstackの読者に送っている毎日の情報をきっと気に入るだろう。リラックスしていて、鋭く、実際に役立つ。こちらから参加してほしい。
情報源
- エヌビディア2026年度第3四半期決算:売上高512億ドル、前年同期比66%増、""Blackwellの売上は桁外れ"" — Nvidia Newsroom、2025年11月20日 https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-third-quarter-fiscal-2026
- エヌビディア第4四半期ガイダンス:売上高650億ドルを予想 — Nvidia Newsroom、2025年11月20日 https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-third-quarter-fiscal-2026
- xAI Colossus 2:11万個のGB200 GPUを設置中、2026年までに100万個のGPUを計画 — Action News 5、2025年7月22日 https://www.actionnews5.com/2025/07/22/xai-begins-installing-computing-infrastructure-colossus-2/
- xAI Colossus 2:50万個以上のエヌビディアGPUを計画 — Nvidia Newsroom、2025年12月 https://nvidianews.nvidia.com/news/nvidia-partners-ai-infrastructure-america
- エヌビディアのS&P 500種株価指数における8%のウェイト、50年以上で単一銘柄として最高の集中度 — Financial Content、2025年12月22日 https://markets.financialcontent.com/wral/article/marketminute-2025-12-22-the-5-trillion-engine-nvidias-unstoppable-momentum-drives-2025-holiday-market-rally
- GB200 NVL72ラック:300万ドル、週に1000台出荷 — CNBC、2025年11月21日 https://www.cnbc.com/2025/11/21/nvidia-gpus-google-tpus-aws-trainium-comparing-the-top-ai-chips.html
- GB200 NVL72:30倍高速な推論、ラックあたり60万個のコンポーネント、毎秒130テラバイトのインターコネクト — Nvidia Blog、2025年9月 https://blogs.nvidia.com/blog/blackwell-ai-inference/
- グーグルIronwood TPU:4.6ペタFLOPS FP8対エヌビディアB200の4.5ペタFLOPS — The Register、2025年11月6日 https://www.theregister.com/2025/11/06/googles_ironwood_tpus_ai/
- AWS Trainium:30〜40%優れた価格性能比を主張 — CNBC、2025年11月21日 https://www.cnbc.com/2025/11/21/nvidia-gpus-google-tpus-aws-trainium-comparing-the-top-ai-chips.html
- エヌビディア、NVL72製造のために200以上のパートナー、150以上の工場 — Nvidia Blog、2025年9月 https://blogs.nvidia.com/blog/blackwell-ai-inference/
- AnthropicのTPU契約:数十万個のチップを約束 — 24/7 Wall St.、2025年12月14日 https://247wallst.com/investing/2025/12/14/the-nvidia-blackwell-vs-google-tpu-battle-explained-ais-biggest-2026-showdown/
- スタンフォード大学CS229がJAX/TPUをデフォルトフレームワークとして追加、2025年冬学期 — AI News Hub、2025年11月 https://www.ainewshub.org/post/nvidia-vs-google-tpu-2025-cost-comparison



