エージェンティックAIがCPU需要の構図を変える
自律型AI(エージェンティックAI)への移行は、データセンターがハードウェアに求める要件を再定義している。従来の推論プロセスとは異なり、自律型AIエージェントは複雑な多段階の推論・計画タスクに取り組む。これらの推論ワークロードの多くは、高価なGPUよりも高コア数CPUで経済的に実行できるため、「エージェンティックシフト」はCPUに一種の復権をもたらしつつある。このワークロードは高コア数CPUで効果的に動作し、AMDのTurin(第5世代EPYC)プロセッサーはこの用途に最適である。AI推論が推論集約型タスクへと進化するにつれ、アクセラレーターの追求と並行して、高性能サーバーCPUへの需要も高まっている。
さらに、CPU需要が継続的に拡大する理由として、より単純で構造的な要因もある。すべてのAIクラスターは、データフローを監督し、システム機能を維持するためにCPUを必要とする。その比率はおおよそ、GPU4〜8基に対して高コア数CPU1基だ。つまり、AIアクセラレーターの新たなラックが追加されるたびに、GPUメーカーにかかわらず、自動的にEPYCへの需要が生まれる。AMDのHeliosプラットフォームは、CPU、GPU、ネットワーキング、ソフトウェア全体にわたるラック規模の管理を担うことでこれを後押しし、AIインフラ投資のあらゆるレイヤーにおいてAMDを有利な立場に置いている。
CPU:収益性の高い資産
EPYCプロセッサーは、AI用GPUとは根本的に異なるコスト構造を持つ。HBM3eメモリーや、GPU製造に必要な複雑なパッケージングを必要としない。これらはいずれもAIアクセラレーターにおいて高価で供給制約のある部品だ。この製造上の複雑性の低さは、直接的にマージンの向上につながり、CPU売上高が純利益に転化する比率はGPU分野より高くなる。AMDはAIアクセラレーターへの関与を拡大する一方で、確立されたCPUラインが今四半期に過去最高の26億ドル(約4070億円)のフリーキャッシュフローを生み出す事業の安定性を提供している。
AMDがこの過去最高水準のフリーキャッシュフローを達成したのは、GPU売上高だけによるものではなく、大規模に稼働する成熟した高歩留まりCPU製造ラインの効率性によるものだ。


