【重要なお知らせ:当社を装った偽サイトにご注意ください】

AI

2025.01.30 17:00

蒸留疑惑と株価急落、DeepSeek旋風が映し出すAI市場の行方

わずか560万ドル(約8.6億円)程度の開発費でモデルを完成させ、短期間で市場投入にまでこぎ着けたと主張する中国製AI「DeepSeek」(Jaap Arriens/NurPhoto via Getty Images)

わずか560万ドル(約8.6億円)程度の開発費でモデルを完成させ、短期間で市場投入にまでこぎ着けたと主張する中国製AI「DeepSeek」(Jaap Arriens/NurPhoto via Getty Images)

中国のAIスタートアップ、DeepSeek(ディープシーク)は、2024年末から2025年初頭にかけて「DeepSeek-V3」や「R1」などと呼ばれる、大規模言語モデル(LLM)を相次いで発表した。注目を集めた最大の理由は、OpenAIのGPTシリーズやメタのLlama、グーグルのGeminiといった並いるテックジャイアントと同等、あるいはそれ以上の性能を、圧倒的に少ない演算リソースとコストで実現したとされた点にある。

具体的には、DeepSeekはわずか560万ドル(約8億6000万円)程度の開発費でモデルを完成させ、短期間で市場投入にまでこぎ着けたと主張している。通常、ChatGPTやGPT-4クラスのモデルを開発するには、数千億円規模の予算と数万台クラスの高性能GPUを長期間稼働させる必要があるため、DeepSeekの主張が本当ならAI業界の常識を覆す大きな成果だ。

当初の情報では、「H800」と呼ばれる世代が古いGPUを2048個使っただけで実現とされていたが、AI企業Scale AIの創設者兼CEO、アレクサンダー・ワン氏はCNBCのインタビューで「DeepSeekはより高性能なH100を5万個保有している」としている。

560万ドルという開発コストは学習コストであり、AIモデルの開発、全体にかかった個数ではないとの指摘もある。

しかし、優れているという指摘は多く、決してブラフというわけではない。

低コスト実現のカギ、蒸留(ディスティレーション)とは?

DeepSeekのコスト低減における主役は「蒸留(ディスティレーション)」を積極的に取り入れたとされる。これは、先行する大規模AIモデル(教師モデル)が持つ知見や推論パターンを、より小型で効率的なモデル(生徒モデル)へと移し替える技術だ。

すでに成熟したAIは、誤りに対して十分に追加の学習や調整が行われている。「先輩のAIが長い時間をかけて習得した知識や回答の『クセ(調整)』を、短期間で後輩AIに継承する」ことで性能を上げるイメージだ。
次ページ > 「ショック」から一夜明け

編集=安井克至

タグ:

ForbesBrandVoice

人気記事