Julius Černiauskasは、ウェブインテリジェンスプラットフォームおよびプレミアムプロキシプロバイダーであるOxylabsのCEOである。
チャットボットに問いかけるにせよ、大規模なウェブインテリジェンスを収集するにせよ、すべての問い合わせがこれまでに構築された中でも最も資源集約的な技術インフラによって処理されていることを忘れがちである。AIは産業全体の最適化と効率化を約束する一方で、これらの進歩を支える物理的基盤は、警戒すべき、そして潜在的に持続不可能なペースで資源を消費している。
このインフラがどれほど広大であるかを把握するのは難しい。例えば、2025年末までに、世界のAIシステムは世界中の約6,000のデータセンターによって支えられることになる。2030年までに、この数字は8,000を超えると予想されている。そして、これらの施設はすでに国家全体よりも多くの電力を使用しているにもかかわらず、AI開発—そしてその拡大する環境への影響—は同じペースで続く見込みだ。業界はこの問題から技術革新によって脱却できるだろうか?
驚異的なエネルギーコスト
AIを可能にするハイパースケールデータセンターの規模は真に巨大である。例えば、ネバダ州リノのシタデルキャンパスは、驚異的な770万平方フィートの面積を誇る—そしてさらに大きな施設を建設する提案もある。これらの巨大施設はしばしば100メガワット以上の電力を消費する—これは8万世帯が1時間に使用する電力に相当する。大規模データセンターはまた、1日あたり100万から500万ガロンの水を使用する高度な冷却システムを必要とする。これを別の視点で見ると、GPT-3のトレーニングに必要なエネルギーは、米国の平均的な家庭を約120年間稼働させることができる量である。
AIの能力は2012年から2019年の間に天文学的な30万倍に増加した。2024年には、データセンターはすでに世界の電力の約1.5%を消費しており(2030年までに3%に達すると予測されている)、AI特有のワークロードがこの需要の中で最も急速に成長している分野となっている。
これらの事実を踏まえると、データセンター経済とAI開発を持続可能にするためには、技術革新、組織的慣行の調整、そして世界中の企業や政策立案者によるこれらの問題への対処方法における抜本的な変化という3つの分野での行動が必要である。
持続可能性のための技術革新
何十年もの間デフォルトであった集中型データセンターは今後も存続するだろう。しかし、代替アプローチが登場しつつある。
例えば、エッジコンピューティングと分散コンピューティングにより、開発者はインターネットを介して接続された何百ものコンピュータにAIモデルのトレーニングを分散させることができる。AIの開発へのアクセスを民主化することに加えて、このアプローチはハイパースケールデータセンター特有の集中的な環境への影響を軽減する可能性もある。一部のスタートアップはすでに分散型AIトレーニングの実現可能性を実証しており、1000億パラメータを持つLLMをトレーニングする野心的な計画を持っている。
DEEPXのような企業は、これまでよりもエネルギー需要の低いAIチップの開発に取り組んでいると報告されている。これらの特殊なチップは、データセンターとエッジデバイス間のエネルギー集約型のデータ転送の必要性を排除するように設計されたオンデバイスAIシステムに使用される。世界経済フォーラムは、オンデバイス処理によりエネルギー消費を100倍から1,000倍削減できると推定している。
この革新は液体冷却と相乗効果を発揮する可能性がある。歴史的に、データセンターのエネルギー使用量の約40%が適切な温度を維持するために使われており、液体冷却によって総電力消費量を約10%削減できることが示されており、はるかに低いエネルギー要件でより高い計算密度を実現できる。
さらに、機械学習研究者たちはモデル蒸留、量子化、プルーニングなどの多くのスマートな技術を考案しており、これらは開発者が精度に影響を与えることなくAIモデルのサイズを縮小するのに役立つ。例えば、蒸留により、小規模な開発チームが大規模なAIモデルから知識を抽出し、より小さく特化したモデルを迅速に作成してトレーニングすることができる。
組織的慣行
非効率的なコードや最適化されていないアルゴリズム、ウェブサイト、アプリによって多くのエネルギーが無駄になっている。不必要なループや複雑なコード行は、個々には大したことではないが、積み重なるとエネルギー資源の大きな浪費と大気中の余分なCO2につながる。これは、モジュール式で再利用可能なコードの使用、遅延読み込みなどのエネルギー節約設計パターン、データ圧縮などの様々な慣行を採用することで対処できる。企業にとってさらに良いことに、最適化されたコードは環境だけでなく、より速く実行されるため、自社の収益にも良い影響を与える。
カーボンフットプリントを縮小するもう一つの方法は、サプライチェーンに変更を加え、それによって企業の影響を直接的な領域を超えて拡大することである。複数のサードパーティのデータセンターを使用する大手企業は、その影響力を行使し、パートナーに持続可能性への投資と環境フットプリントの削減を要求することができる。
最後に、ワークロード最適化は、すぐにカーボン排出量を削減するための素晴らしいが見過ごされがちな方法である。コンピューティングタスクがいつどこで実行されるかを詳細に検討した後、組織はパフォーマンスを損なうことなく排出量を大幅に削減することができる。例えば、グーグルはカーボンインテリジェントコンピューティングを導入しており、これは柔軟なコンピューティングタスクを低炭素エネルギー源がピークにある時間帯に巧みにシフトさせる。
ガバナンスにおけるシステム的変化
おそらく、持続可能性への深い影響は、AIエコシステム全体が環境責任にどのようにアプローチするかを再形成するシステムレベルの変化からもたらされる可能性が高い。
例えば、4月に初回の協議を開催した英国のAIエネルギー評議会や、欧州の気候中立データセンター協定のような協力的イニシアチブは—成功すれば—AIの将来の発展に深い影響を与える可能性がある。これらを有望にしているのはまさに「協力的」な部分であり、これらのプロジェクトはテクノロジー企業、エネルギープロバイダー、規制当局と連携して起草された。両方の取り組みは、関係者がインフラ開発を再生可能エネルギーの拡大と整合させ、業界全体で環境持続可能性の指標を標準化するのを支援することを目的としている。
結論
炭素を多く含むインフラに縛られた数十年の歴史を持つ古い産業とは異なり、AI部門はまだ成長段階にある。企業がデータセンターをどこに設置するか、ハードウェアをどのように設計するか、必要なエネルギーをどのように調達するかについて今後数年間に行う選択が、AIが別の環境負担になるのか、それとも画期的な技術が地球の限界内で繁栄できる例になるのかを形作ることになる。



