こうした動きのなかで2023年にDeepSeekが設立された。企業情報サービスのQichachaによれば、同社は外部からの出資を受けておらず、自己資金で運営されている。2023年11月には最初のAIモデルをローンチしている。
清華大学の情報科学助教授、許華哲(シュイ・ホアヂェ)はWeChatを通じて「DeepSeekのイノベーションの一部は「Mixture of Experts(MoE)」(専門家の組み合わせ)と呼ばれる技術から生まれたようだ」と述べている。これは多数の小規模AIモデルを同時に学習させ、ユーザーへの応答時に選択されたモデルの出力を組み合わせる手法である。
許助教授によれば、この技術により、必要とする高性能チップや大規模データが少なくて済む可能性があり、DeepSeekはコスト削減につなげているようだ。同社は、一部のAIモデルの学習費用が560万ドル(約8億6800万円)にとどまり、OpenAIが投入した額と比較して最大95%削減できたと主張している。
その結果、DeepSeekはユーザーへの料金を低く抑えている。AIアシスタント機能は無料で使用できるが、開発者が基盤モデルにアクセスして自社製品を構築する場合に課金される仕組みだ。DeepSeek R1は100万トークンあたり14セント(約21.7円)を課金している一方、OpenAIは7.50ドル(約1162円)を請求している。
北京に拠点を置くブティック投資銀行Chanson & Co.のマネージングディレクター、沈萌(シェン・モン)はWeChatで「DeepSeekは中国製モデルの大半が模倣に留まるなか、独自の技術路線を切り開いた存在です。これは中国のチップ開発企業にも大きな期待をもたらしています」と述べている。
「DeepSeekのトレーニングは、それほど大規模な計算能力に依存していないため、エヌビディア製GPUを大量に使う必要がないのです」と沈はいう。「つまり、中国産チップが成長する余地がさらに広がったことを意味します」