top of page

データセンターの電力需要予測はなぜこんなに難しいのか──不確実性との向き合い方

ree

シリーズ: 知新察来


◆今回のピックアップ記事:Ian Goldsmith et al. "Powering the US Data Center Boom: Why Forecasting Can Be So Tricky" (World Resources Institute, 2025年9月17日)

  • 概要:アメリカにおけるデータセンターの急速な成長と、それに伴う電力需要の予測の難しさについて分析した記事。予測の幅が大きい理由として、投機的な接続申請、市場の不確実性、技術的な効率改善の可能性、モデリング手法の違いなどを挙げ、地域の政策立案者が取るべき対応策を提示している。



生成AIの登場とクラウドサービスの拡大によって、アメリカ各地にデータセンターが次々と建設されています。しかし、これらの施設が今後どれほどの電力を必要とするのか、その予測は専門家の間でも大きく揺れています。ある試算では2030年までに全米の電力消費の4.6パーセントと見積もられる一方、別の試算では9.1パーセントに達するとされ、その差は約1100万世帯分の電力消費に相当します。


この予測の不一致は、単なる数字の問題ではありません。電力インフラへの過剰投資や化石燃料発電の延命、そして最終的には家庭や企業の電気料金の上昇に直結する可能性があります。富良野とPhronaの対話を通じて、なぜ予測がこれほど難しいのか、そして地域の政策立案者たちが不確実性にどう向き合うべきなのかを考えていきます。




予測が揺れる理由──まず数字を眺めてみると


富良野:2030年までのデータセンターの電力消費が、200テラワット時という試算もあれば、1050テラワット時という試算もある。この記事を読んでいて、5倍以上の開きがあることに驚きました。


Phrona:1050テラワット時って、2023年のアメリカ全体の発電量の4分の1に相当するんですよね。それだけの差があるって、もはや予測というより当てずっぽうに近いんじゃないかと思えてきます。


富良野:いや、でもそこが面白いところで。予測って本来、未来に起こることを当てるゲームじゃなくて、不確実性の地図を描く作業だと思うんです。この記事が示しているのは、データセンター需要という現象が、どれだけ多くの変数に影響されているかということなんじゃないかな。


Phrona:変数が多いというのは、つまりコントロールできない要素が多いということでもありますよね。市場の動き、技術の進歩、投資の波……どれも確定したものじゃない。


富良野:そう。しかも2010年から2018年までは、世界中でコンピューティング需要が爆発的に増えたのに、データセンターの電力消費はほぼ横ばいだったという事実もある。効率化の技術革新が需要増を吸収したわけです。


Phrona:つまり過去にも、電力不足が起こると騒がれたけど結局そうならなかった、という経験があるんですね。でも今回は違うという見方が支配的なんですよね?


富良野:ええ、今回は多くの専門家が、横ばい時代は終わったと見ている。生成AIのような新しい技術が、これまでとは異なる負荷を生み出しているという認識です。ただ、その負荷がどこまで伸びるかは、やっぱり見えていない。


Phrona:見えていないというより、見えなくさせている要因がいくつもあるという感じですね。記事では投機的な接続申請とか、ファントムロードといった言葉が出てきましたけど。


投機的な申請とファントムロード──数字の水増しが起こる構造


富良野:投機的な接続申請っていうのは、データセンターの開発業者が、実際には建設するかどうか分からない段階で電力網への接続を申請する行為のことです。しかも同じプロジェクトで複数の申請を出すケースもあるらしい。


Phrona:それって、席を取るために複数の予約を入れるみたいなものですよね。最終的にはどれか一つしか使わないのに。


富良野:そう、しかも申請のコストが低いから、とりあえず出しておくという動機が働く。どのくらい早く接続できるかを確かめる意味もあるんでしょうね。でもその結果、電力会社の予測が膨らんでしまう。


Phrona:ファントムロードっていうのは、つまり幽霊みたいな負荷ということですか。存在しない需要が数字の中に紛れ込んでいる。


富良野:まさに。で、この幽霊がどのくらい紛れ込んでいるかは、誰にも正確には分からない。結果として、電力会社は過大な需要予測を基にインフラ投資を計画してしまうリスクがある。


Phrona:それって、最終的には誰が負担するんですか?


富良野:記事が強調しているのは、まさにそこなんです。過剰に建設されたインフラのコストは、最終的には一般の家庭や企業の電気料金に転嫁される可能性がある。データセンターが来なかったのに、そのために作られたインフラの支払いだけが残る。


Phrona:それは理不尽ですね。自分たちには関係のない投機が、自分たちの負担になるなんて。


富良野:だから記事では、地域の政策立案者がきちんとコスト配分のルールを整備すべきだと主張しているんです。オレゴン州の例では、大規模な電力利用施設を別の顧客カテゴリーにして、そのインフラコストを他の顧客に転嫁しないような料金体系を作っている。


Phrona:ああ、なるほど。つまり、データセンターのためのインフラはデータセンターが払え、ということですね。


市場の不確実性──AIバブルの可能性


富良野:もうひとつの大きな不確実性は、AI市場そのものがどう展開するかが分からないということです。生成AIへの期待が現在のデータセンターブームを牽引しているわけだけど、その期待がバブルかもしれないという見方もある。


Phrona:バブルというのは、実際の価値以上に膨らんだ期待ということですよね。でも生成AIって、実際にビジネスで使われ始めているんじゃないんですか?


富良野:使われてはいるんですけど、それがどこまで収益を生むかはまだ見えていない。OpenAIとソフトバンクのプロジェクト・スターゲートという計画は、2029年までに5000億ドルを投資してAI専用のデータセンターを建設するという触れ込みだったんですが、実際には今年末までに小さなセンターがひとつ開設される程度で、期待よりずっとスローペースなんです。


Phrona:なるほど、発表と実態にズレがあるんですね。それに、投資が集まっているからといって、その投資が成功するとは限らない。


富良野:そう。さらに関税や中東の紛争、クリーンエネルギー投資の後退といった経済的なショックも影響する。これらすべてが、企業のデータセンター投資を揺るがす可能性がある。


Phrona:そうすると、今は熱狂の中にいるけれど、数年後には冷めているかもしれないということですね。過去にもそういう波はあったわけですし。


富良野:2000年代初頭のインターネットバブルのときも、データセンターの需要は急増したけど、その後は技術革新で横ばいになった。今回も同じような展開になる可能性はある。ただ、今回が違うのは、AIという新しい技術の性質がまだよく分かっていないということです。


技術革新の二面性──効率化とリバウンド効果


Phrona:記事の中で興味深かったのが、効率化が進めば電力消費は抑えられるけれど、リバウンド効果が起こる可能性もあるという指摘です。リバウンド効果って、どういうことなんですか?


富良野:簡単に言うと、効率が上がったことで、かえって使用量が増えてしまう現象です。たとえば車の燃費が良くなると、人は遠くまでドライブするようになるかもしれない。それと同じで、データセンターの電力効率が上がると、企業はもっと多くの計算を実行するようになるかもしれない。


Phrona:ああ、効率が上がった分、余裕ができるから、その余裕を使い切ってしまうということですね。節約したはずなのに、結局は元の木阿弥になる。


富良野:そう。NvidiaやArmといった企業は、ハードウェアの電力効率を競って改善しているし、DeepSeekやz.aiのようなAIモデルは、既存のハードウェアで高いパフォーマンスを出せるようになっている。冷却システムの効率化も進んでいる。冷却ってデータセンターの電力消費の4割を占めることもあるから、ここを改善する意義は大きい。


Phrona:でも、その効率化がどこまで電力需要の抑制に貢献するかは、結局リバウンド効果次第ということですね。


富良野:そう。だから効率化が進むという前提で予測を立てても、その効果がどの程度かは不確実なんです。効率化の速度も、リバウンドの程度も、どちらもまだ見通せない。


Phrona:未来が不確実なのは、技術が足りないからじゃなくて、技術がどう使われるかが分からないからなんですね。


モデリング手法の違い──トップダウンとボトムアップ


富良野:予測の揺れのもう一つの理由は、モデリング手法の違いです。記事では、ボトムアップ・アプローチとトップダウン・アプローチという二つの方法が紹介されている。


Phrona:ボトムアップっていうのは、個々の部品から積み上げていく方法ですよね。サーバー一台あたりの消費電力を計算して、それを積み重ねて全体を推定する。


富良野:そう。現在設置されているサーバーの数と、将来出荷される機器の量を基に予測を立てる。一方、トップダウンは、ある地域の総電力消費とデータセンターサービスへの需要を組み合わせて、必要なインフラの量を逆算する方法です。


Phrona:どちらも理にかなっているように聞こえますけど、結果が違うんですね。


富良野:ええ、ボトムアップでも、使うデータや前提条件が違えば結果は変わってくる。しかも、透明性が低いケースも多いから、どの前提が妥当なのか外部からは判断しにくい。


Phrona:つまり、予測の信頼性を評価するのが難しいということですね。同じボトムアップでも、前提が違えば答えが変わる。


富良野:そう。しかも記事によると、予測は時間とともに上方修正される傾向があるらしい。2023年には今後5年間の夏季ピーク需要の増加が38ギガワットと予測されていたのが、2024年には128ギガワットに膨れ上がった。


Phrona:それってつまり、予測が現実を追いかけているというより、期待が期待を呼んでいる状態なんじゃないですか?


富良野:そういう側面もあると思います。市場が過熱しているときは、予測も楽観的になりがちですからね。


地域レベルでの対応──透明性の確保


Phrona:記事の後半では、国レベルの議論じゃなくて、地域や州の政策立案者がどう対応すべきかに焦点が当てられていますよね。これって、なぜなんでしょう?


富良野:実際にインフラを整備して、コストを負担するのは地域のレベルだからです。電力網への接続申請も、州や地域の電力会社が扱う。だから、全国的な予測がどれだけ揺れていようと、地域の意思決定者は何かしらの判断を下さなきゃいけない。


Phrona:でも、その判断の材料になる情報が不透明だと、正しい判断ができないですよね。


富良野:そう。だから記事が提案している第一の対策は、大規模な負荷の接続申請に関する透明性を高めることです。ジョージア州の例では、電力会社が四半期ごとに115メガワット以上の大規模プロジェクトの状況を公表するよう義務づけられている。プロジェクトの規模、審査状況、稼働予定日、負荷の増加スケジュールなどが公開されるんです。


Phrona:それがあれば、地域の住民や政策立案者も、どんな需要が来ようとしているのか把握できるわけですね。


富良野:ええ。バージニア州では、電力会社が地方自治体に対して、100メガワット以上の施設に関する変電所や送電線の情報を事前に通知する法案も提案されていた。情報が公開されることで、投機的な申請がどのくらいあるのか、どのプロジェクトが本当に進みそうなのかを見極めやすくなる。


Phrona:透明性って、結局は民主主義の基盤ですよね。何が起こっているかを知らなければ、関与することもできない。


予測手法の改善──不確実性を織り込む


富良野:第二の対策は、電力会社や送電計画者が、不確実性を考慮した予測手法を採用することです。テキサス州の送電網を管理するERCOTという組織は、電力会社の予測を鵜呑みにせず、過去の実績データを基に補正をかける手法を開発した。


Phrona:つまり、過去に予測がどのくらい外れたかを見て、今回の予測も割り引いて考えるということですか。


富良野:そう。実際にデータセンターが稼働を開始するまでに遅延がどのくらいあったか、負荷の増加がどう進んだか、予測された需要のうち実際にどれだけが現実化したかを分析して、予測を調整する。


Phrona:それって、予測を予測するみたいなメタな作業ですね。でも、それをしないと過大評価のリスクが高まるということですね。


富良野:ええ。記事では、規制されている垂直統合型の電力会社に対して、複数のシナリオを作って評価することを義務づけるべきだとも提案されています。たとえば楽観的シナリオ、中立的シナリオ、悲観的シナリオをそれぞれ検討する。


Phrona:シナリオを複数持つことで、どのシナリオが実現しても対応できる柔軟性を確保するということですね。


富良野:そう。連邦エネルギー規制委員会のOrder 1920という規則では、送電計画者に対して少なくとも三つの長期シナリオを使うことを義務づけている。これも不確実性に対処するための枠組みです。


料金体系の工夫──負担の公平性を守る


Phrona:第三の対策が、料金体系の設計ですね。これが一番、一般の人々に直接関係する部分だと思います。


富良野:そう。最大の懸念は、データセンターのために作られたインフラのコストが、他の顧客に転嫁されることです。データセンターが来なかったり、予想より早く撤退したりしたら、そのインフラは誰が払うのか。


Phrona:記事では、オレゴン州のPOWER Actという法律が紹介されていましたね。


富良野:ええ。この法律は、20メガワット以上の大規模負荷施設を別の顧客カテゴリーに分類して、その施設に関連するコストを直接割り当てることを義務づけている。他の顧客にコストが転嫁されないように設計されている。


Phrona:さらに、契約期間が10年以上で、予測使用量に基づいた最低支払い義務があるんですよね。


富良野:そう。つまり、データセンター事業者は長期的にコミットしなきゃいけないし、使わなかった場合でも一定額は払わなきゃいけない。これで投機的な申請を抑制し、インフラ投資のリスクをデータセンター側に負担させる構造になっている。


Phrona:それって、フェアな仕組みだと思います。利益を得るのはデータセンターなんだから、リスクもそちらが負うべきですよね。


富良野:ミネソタ州でも似たような法律が通っているそうです。ただ、こうした制度を設計するのは州の規制当局や議会の役割なので、地域ごとに対応が分かれる可能性がある。

Phrona:だからこそ、地域の政策立案者がしっかり考えなきゃいけないということですね。


不確実性と向き合う姿勢──石炭の延命を避けるために


富良野:記事の最後で触れられているのが、トランプ政権がデータセンター需要を理由に石炭生産への投資を増やし、化石燃料発電所の廃止を延期させようとしているという点です。これは気候変動対策の観点から大きな問題ですよね。


Phrona:予測が不確実なのに、それを理由に長期的なインフラ決定をしてしまうということですね。石炭火力発電所って、一度延命させると何十年も影響が残る。


富良野:そう。しかも、実際にはデータセンターの需要が予測ほど伸びなかった場合でも、排出はロックインされてしまう。これはまさに、不確実性に対する間違った対処法だと思います。


Phrona:不確実だからこそ、後戻りできない選択は避けるべきなんですよね。柔軟性を保つことが大切。


富良野:記事が強調しているのは、不確実性があっても、クリーンで手頃な価格で信頼できるエネルギーシステムを構築することは可能だということです。そのためには、透明性、適切な予測手法、公平なコスト配分が必要なんです。


Phrona:結局、未来が見えないことを認めた上で、どう備えるかということですね。予測を当てようとするんじゃなくて、どんな未来が来ても対応できるような仕組みを作る。


富良野:そう。不確実性を恐れるんじゃなくて、不確実性と共に生きるための知恵を持つこと。それが今、求められているんだと思います。



 

ポイント整理


  • 予測の幅の大きさ

    • 2030年までのデータセンター電力消費の予測は、200テラワット時から1050テラワット時まで5倍以上の開きがあり、この不確実性は単なる数字の問題ではなく、インフラ投資や電気料金に直結する

  • 過去の経験

    • 2010年から2018年にかけて、コンピューティング需要は増加したがデータセンターの電力消費は横ばいだった。これは効率化技術の革新による結果であり、過去にも電力不足の懸念が現実化しなかった事例がある

  • 投機的な接続申請

    • データセンター開発業者が実現しないプロジェクトや同一プロジェクトで複数の接続申請を行うことで、ファントムロードが発生し、電力会社の需要予測が過大になるリスクがある

  • 市場の不確実性

    • AI市場の将来性は不透明であり、OpenAIとソフトバンクのProject Stargate計画の遅延など、大規模投資が期待通りに進まない事例もある。関税、紛争、政策変更などの経済的ショックも投資に影響する

  • 技術革新の二面性

    • ハードウェアやソフトウェアの効率改善、冷却システムの最適化などは電力消費を抑える可能性があるが、リバウンド効果により効率が上がった分だけ使用量が増える可能性もある

  • モデリング手法の違い

    • ボトムアップ・アプローチは個々の機器の消費電力から積み上げ、トップダウン・アプローチは地域全体の需要から逆算する。どちらも前提条件や透明性の違いにより結果が大きく変わる

  • 予測の上方修正傾向

    • Grid Strategiesの調査では、電力会社の5年先の夏季ピーク需要予測が2023年の38ギガワットから2024年には128ギガワットへと3倍以上に膨らんでおり、市場過熱による楽観的予測の可能性がある

  • 地域レベルの責任

    • インフラ整備とコスト負担の実務は州や地域の電力会社が担うため、全国的な予測の不確実性にかかわらず、地域レベルでの意思決定が必要となる

  • 透明性の確保

    • ジョージア州は電力会社に対し115メガワット以上のプロジェクトの情報公開を義務づけており、バージニア州でも類似の法案が提案された。透明性向上により投機的申請の実態把握が可能になる

  • 予測手法の改善

    • テキサス州のERCOTは過去の遅延や実現率データを基に電力会社の予測を補正する手法を開発。複数シナリオの検討義務化により不確実性への対応力が向上する

  • 公平なコスト配分

    • オレゴン州POWER Actやミネソタ州の法律では、大規模負荷施設を別カテゴリーに分類し、関連コストの直接割当てと長期契約義務により、一般顧客へのコスト転嫁を防止している

  • 化石燃料延命のリスク

    • トランプ政権はデータセンター需要予測を根拠に石炭生産投資の増加や化石燃料発電所の廃止延期を進めているが、需要が予測を下回った場合でも温室効果ガス排出がロックインされる危険性がある

  • クリーンエネルギーへの道

    • 不確実性は存在するが、透明性の確保、適切な予測手法の採用、公平なコスト配分により、クリーンで手頃な価格の信頼できるエネルギーシステムの構築は可能である



キーワード解説


データセンター】

コンピューティングやネットワーク機器を収容し、データ処理・保管能力を提供する施設。単一の部屋から数百エーカーにわたる大規模施設まで様々


【テラワット時】

電力量の単位。1テラワット時は10億キロワット時に相当し、大規模なエネルギー消費を表現する際に使用される


【ギガワット】

電力の単位。1ギガワットは100万キロワットに相当し、発電能力や電力需要のピークを表す際に使われる


【生成AI】

ChatGPTなどのように、テキスト、画像、音声などのコンテンツを生成できる人工知能技術


【ファントムロード】

実際には実現しない電力需要が予測に含まれている状態。投機的な申請などにより発生する幽霊のような負荷


【投機的な接続申請】

実現可能性が不確実な段階で、複数の電力網接続申請を行うこと。申請コストが低いため、とりあえず席を確保する目的で行われる


【リバウンド効果】

効率が向上した結果、かえって使用量が増加してしまう現象。燃費の良い車で遠出が増えるのと同様の原理


【ボトムアップ・アプローチ】

個別の機器や部品レベルから消費電力を積み上げて全体を推定する予測手法


【トップダウン・アプローチ】

地域全体のエネルギー消費とサービス需要から必要なインフラを逆算する予測手法


【垂直統合型電力会社】

発電、送電、配電のすべての機能を一社で担う電力会社。規制されている州では総合的な資源計画の提出が求められる


【統合資源計画】

電力会社が長期的な需要予測と供給計画を策定し、規制当局に提出するプロセス


【大規模負荷】

通常100メガワット以上の大量の電力を消費する施設。データセンターはこのカテゴリーに該当することが多い


【料金体系】

電力の使用量や顧客カテゴリーに応じて電気料金を設定する仕組み。公平なコスト配分のために重要


【ロックイン】

一度選択すると長期間にわたって変更が困難な状態。化石燃料インフラへの投資は温



本稿は近日中にnoteにも掲載予定です。
ご関心を持っていただけましたら、note上でご感想などお聞かせいただけると幸いです。
bottom of page