このビジネスモデルの中核となっているのは、生成AIの進歩に不可欠な最先端ハードウェアを提供する、時価総額約3兆ドル(約442兆円)の巨大企業エヌビディアとの戦略的な連携とパートナーシップだ。エヌビディアはAmazon Web ServicesやGoogle Cloud(GCP)といった、大規模なコンピューティングパワーを持つ数千ものデータセンターを運営するクラウド大手にもチップを提供しているが、CoreWeave(エヌビディアが約1億ドル[約147億円]を投資)やLambdaのようなディストリビューターのエコシステムの構築にも関わっている。
クラウド大手よりもはるかに柔軟性の高いサービスを提供できるこれらの企業は、小規模な顧客をターゲットにしている。多くのAI開発者は、AIモデルの構築や学習を行う際に、わずか数週間だけオンデマンドで「計算資源」を購入できる、チップのクラスターを必要としているのだ。
グーグルやアマゾンのような企業は、顧客に1年間または複数年の契約を要求することが多く、高額な請求書や計算リソースの無駄につながる可能性があるとアグラワルは述べる。一方、クラウドベースの計算資源プロバイダーは、Nvidia H100を従量課金制でレンタルしており、GPU 1つあたりの時間単価は約2.5ドル(約368円)から5ドル(約736円)だ。アマゾンのような巨大企業は、医療、小売、金融といったさまざまな分野に対して幅広いアプリケーションやサービスを提供しているが、CoreWeaveや同類の企業は、特にAIユースケース向けにデザインされている。
CoreWeaveのイントレーターは、「あらゆるユースケースをサポートするために構築されたクラウドよりも、このタイプの計算資源を提供できるより良い環境を構築しています」と述べている。
彼はフォーブスの取材に対して、「私たちは写真を保存したり、ウェブサイトをホストしたりするつもりはありません。そのような用途をサポートするためのすばらしい仕事をしているクラウドは他にたくさんあります。私たちが作り上げたものはそれとは異なるものです。結局、私たちがやったことは、『将来、計算資源が使用される新しい方法が生まれそうだ。それが可能な限り成功するために何が必要になるのだろうか?』と考えたことなのです」と述べている。
(forbes.com 原文)