石原:スーパー・マイクロは、生成AIの台頭後は特にAI向けサーバーで存在感を示していて、NVIDIAの最新のCPU(中央処理装置)やGPUを搭載したAIサーバーを製造しています。ただ、GPUの課題の一つに、「電力消費が膨大」という点があります。電力をどう確保し、それをどう効率化するかは、エネルギー自給率が低く、設備投資も遅れている日本にとって大きな課題です。
その点、スーパー・マイクロは「リキッド・クーリング・ソリューション(Liquid Cooling Solution)」という独自の液体冷却方式をもっており、従来の空冷式に比べてオペレーションコストが低く、いわゆる“高効率化”はもちろん、自然環境に配慮した「グリーン・コンピューティング」の観点からも特異性があると注目していました。
──国際エネルギー機関(IEA)は2024年1月に発表した報告書「Electricity 2024(電力2024)」内で「さまざまな分野のソフトウェア・プログラミングにAIが急速に組み込まれるなど、市場の動向はデータセンターの電力需要全体を増加させる」と触れており、AIサーバー市場については「NVIDIAの市場シェアは95%と推定される。2023年、NVIDIAは年間平均7.3TWhの電力を消費する100000台を出荷。2026年までにAI産業は指数関数的に成長し、2023年の需要の少なくとも10倍を消費する」と予想しています。電力確保もさることながら、環境への負荷を抑えることも課題になってきそうですね。
石原:国内データセンターの電力容量の観点からグリーン・コンピューティングで効率的に既存のデータセンターを使うのも大事ですが、電力供給が確保できる用地や施設を高効率のAI向けデータセンターに切り替えていく戦略も必要になってくるでしょう。
──日本でも大阪大学 サイバーメディアセンターが「SQUID スーパーコンピューター」で、液体冷却を活用したスーパー・マイクロのサーバーを導入していますね。今後、スーパー・マイクロとはどのように協業することを考えているのでしょうか。
石原:スーパー・マイクロとMOUを結んだことで、GPUを確保することもですが、AIサーバーを日本に導入し、その上で「AIクラウドサービス」を共同で展開していくモデルを想定しています。さまざまなAIモデルとユーザーにとって使いやすい、オープンプラットフォーム型のAIクラウドサービスです。AIサーバーのリーディングプレイヤーであるスーパー・マイクロは、その強力なパートナーの一つになるはずです。同時に、日本企業との戦略的な連携の可能性についても検討を進めています。