AIは現代のIT分野で最もエネルギーを大量に消費するものの1つだ。二酸化炭素(CO2)の排出を懸念する世界の備えは万全ではないないかもしれない。
LLMの学習と運用に使用されるデータセンターは膨大な電力を必要とする。例えば、GPT-4は50ギガワット時(GWh)以上を必要とし、これは米カリフォルニア州で1年間に発電される電力の約0.02%に相当し、GPT-3の学習に必要な量の50倍だ。AIが産業界で普及するにつれ、こうしたエネルギー需要は増大する一方だ。エネルギーを大量に消費する製造業の最適化にAIが使われるようになれば、実験とより多くのデータが必要となり、エネルギー問題は深刻になるばかりだ。
データセンターと関連する送電網は、世界のエネルギー消費を増大させる主要因となっている。現在、世界のエネルギー消費量の3%を占め、ブラジルと同量のCO2を排出している。エネルギー需要の増加は衰える気配はなく、エネルギー消費量は2022年の460テラワット時(TWh)から2026年には1000TWhに増える可能性がある。米国だけでもデータセンター需要による電力需要の増加は、2022年時点の200TWhから2026年には260TWhに増加すると予想されており、これは全米の総電力使用量の6%に相当する。データセンターのエネルギー需要は2030年までに倍増すると予想されている。
さらに問題を複雑にしているのがデータセンターの設置場所の分散だ。多くの産業と同様、データセンターは集合体だ。データセンターの建設は早く、ほぼどこでも経済的に成り立つ。これは予期せぬ場所で新たなエネルギー問題が急浮上していることを意味する。