Forbes BrandVoice!! とは BrandVoiceは、企業や団体のコンテンツマーケティングを行うForbes JAPANの企画広告です。

2023.08.31 16:00

AI利活用を支援するクラウドプラットフォームが登場!世界最速のスパコン技術をもつHPEが考えるAIのこれから

3074

ヒューレット・パッカード エンタープライズ(HPE)のAIクラウドプラットフォーム「HPE GreenLake for LLMs」には、AIの利活用を進めるうえで必要な要素が盛り込まれている。企業が利活用するうえでまだ障壁が多いなか、HPEはなぜ大規模言語モデル(LLM)に最適化されたプラットフォームをリリースできたのか。その背景には長年にわたる技術革新と挑戦の蓄積があった―。


コロナ禍が後押しとなり、多くの企業でDXが進んだといわれている。これまで企業内に点在していたデータの集約・蓄積・連携などが可能になったことで、今後それらのデータをどのように活用していくかが新たな課題となった。

日本ヒューレット・パッカード執行役員・統括本部長の根岸史季は、「その解決方法のひとつが生成AI分野、なかでもLLMへの活用です。ChatGPTをはじめとした生成AIの認知度は近年大幅に高まりました。今後は業界別・企業別の専用モデルの誕生が予想されており、イノベーションの観点からも利活用が加速すると考えられます」と語る。

しかし、企業がLLMを導入・活用する場合の懸念点もある。根岸はこの課題を大きく3つに分ける。

ひとつ目は「データの取り扱い」だ。LLMは、どれだけ大量かつリアルな学習データを用いるかで精度が大きく変わってくる。オープンデータを使うことも可能だが、特定のサービスにおいては機密情報が含まれるケースも少なくない。そうなると結果的に、自社でプライベートクラウドを構築せざるをえない状況になってしまう。

ふたつ目は「AIのハルシネーション(Hallucination:幻覚)」だ。プロダクトが未成熟な現在の生成AIは時として“もっともらしいウソ”を生成するケースがあるが、例えばカスタマーサポートなど特定のサービスで利用する際の阻害要因となってしまう。改善には、学習データの追跡を可能にするトレーサビリティによって該当データを突き止め、除外したうえで再学習させる仕組みが欠かせない。

本格的なサービス活用を考えれば、トレーサビリティ以外にも、データに関する一連の変遷を記録できるデータリネージなどが必要となってくる。さらに、AI学習はチーム単位での分担作業になるため、誰がどこを修正したか、どのような再学習をさせたかといった、一貫性をもたせるためのプロジェクト管理も必須だ。これらを網羅するAI特化型の開発ツールを、企業が個別で用意するのはかなりハードルが高い。

3つ目は設備投資である。LLMは、膨大なアクセスに耐えるネットワーク環境、効率的かつ安定稼働させる冷却システム、そして何よりスーパーコンピュータ(以下、スパコン)が必要不可欠。スパコンは電力消費も大きくなるため、サステナビリティも兼ね備えたデータセンターが求められる。

このように、各企業が個別でLLMの膨大なデータ量を扱うためのインフラや設備、AI特化型の開発ツールなどを保有するのは、セキュリティやコストの面で非現実的といえるだろう。

現在へとつながる技術革新と挑戦の蓄積


こうした企業の課題をクリアにするのが、2023年6月に発表された「HPE GreenLake for LLMs」だ。世界最速のスパコン「Frontier」をもつHPEの高度な技術力をベースとした「HPE CrayXDスーパーコンピューター」や、独AlephAlpha社のLLM「Luminous」を採用。センシティブなデータを扱う際も莫大な設備投資コストを負うことなく、LLMの利活用に最適な環境をクラウド上で提供してくれる。

大規模モデル開発の作業負担を減らしてくれるトレーニング環境や、多様なデータを統合・追跡・監査してデータやモデルを正確に維持管理できるソフトウェアなど、AI特化型の開発ツールが提供されている点にも注目したい。これにより、ハルシネーションの原因究明や円滑なプロジェクト管理が可能となる。

さらにコロケーション施設についても、99.5%再生可能エネルギーで稼働するというサステナビリティの高さを実現しているのが特徴だ。

「AIの発展につれ問題視されているのが、電力消費などのサステナビリティ関連です。『HPE GreenLake for LLMs』のデータを置く、QScale社のカナダ・ケベックのデータセンターはグリーン設計で、99.5%再生可能エネルギーで電力を賄います」(根岸)

技術の壁を破りその先にある新たな世界へ


企業がAI利活用の道筋を熟考する段階で、なぜHPEは課題を先取りし、解決に導く先進的なサービスを確立できたのか。

「膨大なデータを処理するAIにはスパコンが不可欠ですが、HPEは長年スパコンのシステム構築だけでなく運用も行っています。また現在のスパコンの性能は電力と冷却能力に律速されますが、HPEはこの領域でも長年壁にぶつかっては技術革新を重ね、業界をけん引してきました。『HPE GreenLake For LLMs』をもってパブリッククラウド事業に再編入したことでクラウド事業者のライバルと目されることがありますが、システムの特徴を見ても競合ではなく相補性のあるもの。HPEがスパコン・AI領域における幅広いポートフォリオをもっているからこそ、インフラを提供しつつ、先進的なサービスを確立できているのです」

長年の技術革新の蓄積と幅広いポートフォリオが結びついた一例が、来春に稼働開始予定となっている東京工業大学学術国際情報センターの「TSUBAME 4.0」だ。TSUBAME4.0の理論演算性能は、国内のスパコンでは「富岳」に次ぐ2位相当の性能になるという。

「従来は“スパコン=科学技術の専門家だけが触れるもの”というイメージが強かったでしょう。しかし、ChatGPTをはじめとするサービスにより“AIの民主化”が進み、これまでと違う活用方法などを生み出せる可能性が高まっている。TSUBAMEシリーズにおいて『みんなのスパコン』標榜しているように、幅広い層に計算環境を提供でき、それによりイノベーションが生まれるのは大きな喜びです。そしてHPE GreenLake for LLMsは、AI・スパコンとみなさまの距離をさらに縮める存在になります。研究や事業の最前線で、みなさまと一緒に技術的な壁を破り、新たな世界を見たいと願っています」(根岸)


AI領域のインフラを支えるHPE

膨大なデータの処理を前提とするAI(LLM含む)には、CPU、GPU、メモリ、ネットワーク、ストレージが高度に融合したスパコンが不可欠だ。HPEは世界最速のスパコン「Frontier」(写真上)を米エネルギー省オークリッジ国立研究所に納めている。スパコンの課題は消費電力の大きさと、高度な冷却技術の確立といわれている。HPEは、両者の技術革新をし続けており、「Frontier」の液冷機能(写真下)は高出力デバイスの熱を効率的に排熱する。こういったスパコンの、システム構築や運用には高い技術と長年の経験を要するため、手がけられるのはHPEを含むごく一部の企業のみだ。


日本ヒューレット・パッカード 
https://www.hpe.com/jp 


ねぎし・ふみき◎1998年に日本IBMに入社、以後一貫して「最先端IT技術をビジネス価値にする」をテーマにさまざまな業界を担当。2020年より現 職にてHPC&AI等の先端ITの事業責任者として営業からデリバリーまでを統括。

HPE特別連載ページを公開中

Promoted by 日本ヒューレット・パッカード / text by Koichi Araki / photograph by Shuji Goto / edited by Kaori Saeki