企業がLLM以外にもAIを活用し始めるにつれ、多くの企業の電力使用量が増加することが予想される。このことは、単にデータセンターが増えるだけでなく、データセンターがより多くの電力を使用することにもつながる。データセンターにある従来型のサーバーが7キロワットの電力で稼働するのに対し、処理能力が向上したAIサーバーは30~100キロワット使用する。AIサーバーの最大手であるエヌビディアは昨年10万台出荷したが、これらは毎年、従来型の7.3倍のエネルギーを消費すると予想されている。
計算効率はクーメイの法則に従うかもしれない。クーメイの法則では、一定量の計算を行うのに必要なエネルギー量は2年半ごとに半減するが、データセンターはこのシナリオにおいても問題を抱える。例えば、データプロセッサーの効率が上がれば、当然ながら動作温度は高くなる。このため、冷却システムに割かなければならないエネルギーと水がさらに必要となる。2022年にはグーグルとマイクロソフトのデータセンターだけで320億リットルの水を消費した。
この水準の消費を満たすためには、米国は資源を慎重に利用しなければならない。現在、マイクロソフトのようなデータセンターの普及を担う大企業は、風力発電所や太陽光発電所を建設して発電することで、データセンターで使われる電力を賄おうとしている。これは良い取り組みだが、これらのエネルギー源は途切れることがある。データセンターは、風が吹いていないときや日が照っていないときでも処理を続けるためのエネルギーを必要とする。
データセンターのエネルギー使用量の問題に関しては、データセンターが接続される送電網にかかる負担にも対処しなければならない。米国の送電網は、製造業の国内回帰の動きによる工業生産の増加ですでに負荷がかかっており、今後も緩むことはないだろう。