クアルコム(QCOM)の株価はここ数年、AIがけん引する半導体上昇局面の恩恵を十分に享受できていなかった。だが状況は同社にとって好転したようだ。AIの次の段階に向けた準備が進む中、株価はこの1カ月で約70%上昇している。
次の段階とは、中央集約型コンピューティングにとどまらず、相互接続された数十億台のデバイスまでを包含するAIである。以前の分析では、エッジAIが追い風となり、クアルコム株は2倍になる可能性があることを指摘した。本稿では、この移行の具体像と、クアルコムの顧客基盤の構成がどのように変化しているのかを詳述する。
推論(インファレンス)でクアルコムが独自に優位な理由
現在のAI環境は中央集約型コンピューティングに大きく依存している。すなわち、ワークロードをクラウドのデータセンターに集約し、エヌビディア(NVDA)のような企業のチップで一括処理するモデルだ。しかし、このモデルには限界がある。すべての推論をクラウド経由で処理すればコストが大きく、遅延も生じ、消費電力も増えるため、数十億台のデバイスへと拡張するには現実的ではない。
次の進化はローカル推論である。デバイス上で直接動作するAIは、処理を高速化し、プライバシーを高め、接続性への依存を減らす。量子化、プルーニング(枝刈り)、蒸留といったモデル圧縮手法は、性能への影響を大きく損なうことなくモデルサイズを縮小し、この「オンデバイスAI」への移行を後押ししている。皮肉なことに、AI研究によって達成される効率性の進展は、その都度クアルコムのエッジ向けハードウェア能力を同時に押し上げる。
これはクアルコムの強みと完璧に合致する。
同社は長年にわたり、エッジAIを規定する2つの主要な制約、すなわち電力効率と接続性に注力してきた。クアルコムのSnapdragonおよびDragonwingプラットフォームは、AIワークロードを3つの専用エンジンに分散させる。NPU(ニューラルプロセッシングユニット)はAI向けの集中的な行列演算を担い、80TOPS(チップが1秒間に実行できるAI計算回数の指標)という驚異的な性能を、ノートPCのCPUと比べてはるかに低い消費電力で実現する。GPUは生成AIに関連するビジュアル処理を受け持ち、CPUはアプリケーションのロジックを担う。「適材適所」の処理を実現しているのだ。
さらにクアルコムは、モデムを演算エンジンと同一のシリコン上に統合しており、2つの別チップを必要とするのではなく、共通の電力予算の下で接続性と推論を管理できる。この統合は長年にわたる協調設計の成果で、新規参入の競合が再現できるものではない。加えて、エッジデバイスは、データセンター向けチップが高速なモデル処理のために依存する高帯域幅メモリ(HBM)を利用しない。クアルコムのプラットフォームは当初からこの制約を前提に設計されている一方、多くの競合はデータセンター向けの手法をエッジ用途に適応させようとしている段階だ。



