推論の分野ではエヌビディアの支配力が比較的弱いため、多数の小規模スタートアップが活躍の場を得ている。セレブラスと同業のスタートアップチップ企業もDeepSeekが巻き起こした変化に期待を寄せているとフォーブスに語った。
「DeepSeekは、オープンソースと推論に関わるAIの常識をひっくり返した」と、時価総額51億ドル(約7874億9000万円)のSambaNova(サンバノバ)のロドリゴ・リアンCEOは言う。また時価総額28億ドル(約4323億5000万円)のGroq(グロック)でCOOを務めるサニー・マドラは、同社が運営するGroqCloud(グロッククラウド)にDeepSeekのR1モデルを追加して以来、アカウント登録やチップの利用が急増しているとフォーブスに語り「推論に注力している企業にとっては、とても良い流れです」と話す。6月に1億2000万ドル(約185億2900万円)をシリーズAで調達した初期段階の企業Etched(エッチド)の共同創業者、ロバート・ワッヘンは「推論が訓練よりも重要になるという、長い間待たれていた変化への反応です」と述べている。
DeepSeekの主張によれば、昨年12月末に公開したパラメータ数6710億の言語モデル「V3」は2カ月という期間でわずか558万ドル(約8億6100万円)で訓練されたという。これは、OpenAIのGPT-4に投じられた1億ドル(154億2300万円)をはるかに下回る額であり、業界では激しい議論を呼んでいる(GPT-4の方がより規模は大きいが)。
多くの専門家は、DeepSeekが実際には公表以上の資金や計算リソースを使ったと考えており、Scale(スケール)のアレクサンドル・ワンCEOは、同社が中国で禁止されている最新鋭のエヌビディア製チップH100を約5万台保有していたと主張している。それでも、こうした「予想外の低コスト」が米国側のライバルを驚かせたのは確かだ。SambaNovaのリアンは「実際に600万ドル(約9億2600万円)か6000万ドル(約92億6000万円)かはわかりませんが、6億ドル(約926億円)ではなかったでしょう」という。
DeepSeekは、モデルを安価に訓練できるだけでなく、推論への投資を増やすことで優れた成果が得られることも示した。先週、DeepSeekはOpenAIのo1モデルと類似する推論モデル「R1」をオープンソースで公開したが、こちらは無料あるいは非常に安価に使える(OpenAIは月額200ドル[約3万900円]を課金している)。そしてR1をはじめ、推論型モデルは問い合わせの複数ステップを「考える」ため、推論の計算量がさらに大きくなる。推論の処理が増えれば、それだけ安価に使える推論効率に特化したチップの需要も高まるため、セレブラスなどの企業にとっては好都合である。