杭州に拠点を置く小規模なAIラボであるDeepSeekは、昨年12月末に6710億パラメータを持つ言語モデル「V3」を公開したが、このモデルは、わずか2カ月間で558万ドル(約8億7000万円)のコストで訓練されたと報告されている。一方、1.8兆パラメータを持つとされるOpenAIのGPT-4の訓練費用は、1億ドル(約155億円)以上だったと同社のサム・アルトマンCEOは述べていた。
DeepSeekは1月20日、さらなる挑戦を仕かけ、「R-1」というモデルをリリースした。このモデルは、コーディングや複雑な数学・科学の問題を解く推論タスクにおいてOpenAIの「o1」モデルに匹敵すると同社主張している。OpenAIがこうしたモデルを月額200ドル(約3万1000円)で提供する一方、DeepSeekは自社のモデルを無料で提供している。
DeepSeekのモデルの高い性能とその価格設定は、すでに米国のAIスタートアップの事業運営に影響を与えている。カスタマーサービス向けのAIエージェントを構築するDecagon(デカゴン)のCEOであるジェシー・チャンは、「DeepSeekの新たなモデルは、OpenAIやAnthropic(アンソロピック)のような米国の大手に価格の再評価を迫る可能性がある」とフォーブスに語った。
ソフトウェアエンジニアリング向けのAIを構築するユニコーン企業Poolside AI(プールサイドAI)のCTOで共同創業者のエイソ・カントは、DeepSeekの強みは限られたリソースで多くを達成する技術力にあると指摘する。