テクノロジー

2025.12.25 19:01

TPUの躍進:NVIDIAの牙城に挑む専用AI半導体

stock.adobe.com

stock.adobe.com

GPUとTPUの違いとは何か?確かにマニアックな問いだが、企業がハードウェアとインフラの主導権を握ろうとするAI軍拡競争において、多くの興味深い応用がある。そして、これは巨額の資金が動く競争であり、その賭け金は高い。

実際、少し広い市場の文脈から始めよう。NVIDIAはAIシステムを動かすGPUのトップセラーとなり、時価総額ではアップルとマイクロソフトの両方を追い抜いて米国株式市場のトップに躍り出た。これらの優良銘柄は、NVIDIAが流星のように駆け抜けるのを目の当たりにした。なぜか?それはGPUがAIデータセンターの主力製品となったからだ。

しかし今、グーグルのTPU(テンソル処理ユニット)というライバルが登場している。これは、まあ、異なる種類のチップだ。どう違うのか?それには、これら競合するハードウェアの種類を取り巻く意味論と設計哲学を見る必要がある。

GPUとTPU

私はこれについて多くを読んできたが、この2つのアプローチ、GPUとTPUの違いを特徴づける、かなり分かりやすい方法がある。

GPUは並列処理を基本とし、多様なタスクを処理できる。ある意味、高度なタスク、特に元々設計された目的であるグラフィックスのレンダリングなどに特化した、パワーアップしたCPUと言える。

一方、TPUは特定のプロセスにのみ焦点を当てるという意味で専門化されている。TPUでコンピュータを動かすことはできない。これらのチップは高速なテンソル/行列計算のために設計されている。広範なプログラムを効率的に実行することを目指すのではなく、特定の機械学習操作(行列乗算、畳み込みなど)を圧倒的に処理することを目指している。

TPUとRISC

実際、非常に一般的な意味では、TPUは「縮小命令セット」の概念から生まれたと言えるだろう。RISCモデル、つまり小さくシンプルな命令セットを使用し、各命令が非常に高速に、多くの場合1クロックサイクルで実行できるCPU設計アプローチを覚えているだろうか?

それはTPUの構築方法によく似ていると思った。TPUは行列演算「だけ」を行う—だからそれをより良く行うのだ。

しかし、この類推に確信が持てなかったので、ChatGPTに尋ねてみた。

「Q: TPUは限定された命令セットを持つRISCのようなものではないか?

A: 緩やかな類推としてはそうかもしれないが、CPU的な意味ではそうではない。両者は柔軟性を「制限」して速度/効率を得るが、TPUはRISC CPUというよりASIC数学エンジンに近い。」

そこで、ASIC数学エンジンとは何かを理解する必要があった。以下は、再びLLMのおかげで得られた定義だ:

「ASIC数学エンジンは、限られた数学演算を非常に高速かつ効率的に行うために特別に設計されたカスタムチップブロックです。CPUのように多くの一般的な命令を処理するのではなく、AIのための行列乗算のような特定のワークロードに最適化されており、専用のデータパス、メモリレイアウト、並列処理を使用しています。」

つまり、TPUの「哲学」について語るには、ASICかRISCのどちらかを参照できるが…これは実際には何を意味するのだろうか?

それは、グーグルがNVIDIAの神聖な堀を攻撃しているということだ。

市場の動き

最近、テック系メディアは、メタが2027年から数十億ドル相当のグーグルのTPUチップを購入する可能性があるという示唆で沸き立った。これはTPUの星が昇りつつあることを示す証拠の一部に過ぎず、このニュースはNVIDIAの株価を急落させた。

「TPUエコシステムは勢いを増しているが、実世界での採用はまだ限定的だ」とビクター・デイ氏は12月5日にObserverで書いている。「韓国の半導体大手サムスンとSKハイニックスは、グーグルのチップの部品メーカーおよびパッケージングパートナーとしての役割を拡大していると伝えられている。10月には、Anthropicが2026年にCloudeモデルの次世代の訓練と実行のために、グーグルクラウドから最大100万個のTPUにアクセスする計画を発表した(購入ではなく、実質的にレンタル)。同社はアマゾンのTrainiumカスタムASICとNVIDIA GPUと並んで、多様化された計算戦略の一環として内部的にそれらを展開する予定だ。」

デイ氏の「実世界での採用はまだ限定的」という主張に関しては、メタのニュースはNVIDIAにとって地平線上の唯一の脅威ではない。大企業がTPUに大規模な投資をしているという点では、Anthropicも注目を集めており、彼らは10月にもこれについて書いていた。

「本日、我々はグーグルクラウドテクノロジーの利用拡大を発表します。最大100万個のTPUを含み、AI研究と製品開発の境界を押し広げ続けるにつれて、計算リソースを劇的に増加させます」と広報担当者は10月23日に書いた。「この拡大は数百億ドル規模であり、2026年には1ギガワット以上の容量をオンラインにもたらすと予想されています。」

これは小さな話ではなく、すぐに「実世界」に波及するはずだ。

この大きな変化に基づく市場の大きな変動に注目しよう:GPUはもはや王者ではない。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事