—·
全てのコンテンツはAIによって生成されており、誤りが含まれる可能性があります。ご自身でご確認ください。
AIの計算能力はギガワット単位で“キャンパス計画”のように売られる。しかし投資の実相は、変電設備、系統連系の順番、そして24時間365日の電力信頼性にある。
「AIキャンパス」は、紙の上では計算能力の増強をそのまま実装するだけの、分かりやすい構図に見えます。ところがオハイオ――ソフトバンクのStargate推進が絡む動きでは――カレンダーを決めるのは計算ではなく、電力システムです。
ポーツマス周辺に関する最近の報道では、最大10ギガワットのデータセンターに加えて、最大10ギガワットの新たな発電(9.2ギガワットの天然ガスを含む)を見込んでおり、さらに顧客料金への影響を抑えるための系統増強や送電線がセットで語られています。(Source)
この順序が重要なのは、AIインフラの調達が、通常の設備投資(capex)サイクルのように振る舞わないからです。電力の制約がワークロードを縛れば、下流のあらゆる要素が再評価されます。学習のスループット、サーバー稼働率、さらには「キャパシティ販売」における資金構造までもが値付けし直される。ハイパースケーラーやデータセンター開発事業者は、連系可能性と発電の利用可否を、単なる“外部条件”ではなく、最上位の資産として扱うことを迫られます。
すると調査すべき問いは、こう変わります。ギガワット級データセンターの「電力から計算へ」のスタックの中身は、実際には何なのか。そしてコストとタイムラインは、どこから生まれてくるのか。答えはモデル性能ではありません。電力調達、系統の信頼性義務、連系の遅延、そして電力変換の領域が、AI作業1単位あたりの総コストを形作ります。
「電力から計算へ」とは、大口の電力調達から、GPUやアクセラレータの計算基板に電力を供給する最終的な変換段階までの道筋です。実際の「届けられる計算能力」は、構造的な制約に左右されます。それは4つの差分(デルタ)として測れます。すなわち、(1)電力が“供給可能”になるタイミング、(2)購入したエネルギーがIT負荷としてどれだけ使える形になるか、(3)サイトが停電をどれくらい“IT負荷を落とさずに耐え抜けるか”、(4)可用性の約束が満たされなかった場合に生じるペナルティや支払いです。
第一は、系統の供給可能性(グリッド・デリバラビリティ)です。長期の電力契約を結んだとしても、系統が自らを守る必要がある局面では、電力を引き出せないことがあります。連系キューが、発電から負荷へキャパシティが流れる時期を決めます。加えて、米国ではプロセス改革によって移行にどれほど時間がかかり得るかが示されています。規制上のタイムラインは、通常、FERC Order No. 2023(2023年7月28日発行)に基づくFERCのルール策定と、RTOの実装として表現されます。この命令は、連系手続の改革を進め、従来の先着優先の力学だけに頼らず、クラスタースタディの活用を可能にするものです。(Source) しかし現場の実相は冷徹です。「AI需要」が物理的な電子(エレクトロン)を生み出すわけではありません。制約された送電網を通る“合法かつ電気的な経路”を見つける必要があります。そして、その経路には、データセンターの契約が成立した後でもずれ込む可能性のある日付が付いて回ります。
第二は、信頼性エンジニアリングです。AIのワークロードは、経済面でミッションクリティカルです。停止は、より遅い推論よりも高くつき得ます。だからこそ、冗長な電力経路や、意味のある稼働時間を前提に設計されたバックアップ発電機システムといった設計パターンが現れます。正確な“何時間”はオペレーターや立地によって変わりますが、編纂されたデータセンター技術ハンドブックでは、典型的にはディーゼルエンジン発電機のバックアップに加えて、現地燃料貯蔵を用い、満荷時で概ね12〜48時間を想定することが多いとされています。さらに、N+1冗長や2Nバリアントのような構成も、発電機の台数やリスクの置き方に応じて使い分けられます。(Source) 投資家とオペレーターにとって重要なのは、「稼働率(アップタイム)の保証」が単なるマーケティングではなく、エンジニアリング上の選択――冗長バス、切替スイッチング、燃料ロジスティクス、メンテナンスの頻度――を押し上げ、結果としてcapexもopexも増やす点です。同時に、それによって“割り込み可能(インタラプティブル)”なエネルギーの割合と、“確実(ファーム)”なエネルギーの割合も左右されます。
第三は、変換効率とアーキテクチャです。系統で買った電気は、1対1で計算基板に届くわけではありません。変換の各段階で損失が生じ、その損失は高い電力密度では積み上がります。炭化ケイ素(SiC)のパワーエレクトロニクスが、インフラの物語に加わってきたのは、より高い電圧で効率と熱性能が改善されることが期待されるためです。変換損失が減れば、冷却負担も軽くなります。例えばインフィニオンは、SiCに結び付けた最先端の800ボルトAIデータセンターパワーの方向性を市場に提示し、「変換段あたり98%にまで達し得る効率」といった目標を、製品・プレス文脈で報じています。(Source) マイクロチップも同様に、AIデータセンターの電力変換でエネルギー損失の低減を狙う400V DCラック電源配電とmSiC技術とを組み合わせたような、アーキテクチャへの転換について述べています。(Source)
つまり何が重要か。AI計算インフラを真剣に調べるなら、「電力から計算へ」を4つのデルタの問題として扱うべきです。供給可能性のタイミング、変換損失、耐え抜き(ライドスルー)の時間、そして可用性の経済性です。グリッドのキューと、最後の電力変換段階の両方が、支払われたメガワット時(MWh)あたりの“実効的な計算能力”に影響します。ギガワット級になれば、たった一つの見逃したマイルストーンが、どの単一の効率主張よりもタイムラインを支配することすらあります。
データセンター需要の伸びは、もはや抽象的な予測ではありません。全国の発電構成比に現れ、州ごとのストレスポイントとして可視化されるようになりました。
米国では電力研究所(EPRI)が、シナリオに基づく推計を公表しています。それによれば、データセンターが2030年までに米国の電力発電の4.6%〜9.1%を消費する可能性があります(4つのシナリオ)。(prnewswire.com) さらにエネルギー省(DOE)は後に分析を要約し、データセンターが2023年に米国の総電力の約4.4%を消費しており、2028年には約6.7%〜12%に達する見込みだとしています。(Source)
キャパシティの経済は、こうした数字に連動します。全国シェアが高まれば、地域のグリッド制約は一層締まる。連系プロセスに、それが出てきます。信頼性調達にも出てきます。PJM――米国の中部大西洋と中西部の広い範囲をカバーし、オハイオが属するRTO――は、連系改革の進捗について公に説明しています。改革移行の初期からの“トランジション・キュー”は、約20万MWから約63,000MWへと圧縮された、というのがその主張です。(insidelines.pjm.com) またPJMは、2025年の計画資料の中で、2023年以降に17万MW超の新規発電リクエストを処理した一方、連系移行のキューに残る発電見込みは3万MWであり、これを2026年に処理する予定だとも述べています。(Source)
これらの事実をつなぐと、構造的な結論が浮かび上がります。ギガワット級のAI施設は、電力価格だけでなく、物理的にも手続的にも“グリッドの時間”を奪い合っているのです。
だから何をするべきか。ニュースで「キャンパスが発表された」と聞いたら、調査員として次の2点を即座に問うべきです。第一に、連系を通じた供給可能性の計画は何か。第二に、バックアップと系統支援のための信頼性計画は何か。両方がなければ、ギガワット級の主張は、配備可能な制約というより、マーケティング上の到達点へと転落する恐れがあります。
ソフトバンクのオハイオ物語は、しばしば見出し数字で語られます。しかし調達メカニクスはより難しく、しかも高くつきます。
最近の報道によれば、DOEの情報として、ポーツマスの「PORTS Technology Campus」は、10ギガワット規模のデータセンターと、最大10ギガワットの新しい発電(9.2ギガワットの天然ガスを含む)を見込む期待と結び付けられています。(Source) 同じ報道では、送電線と系統増強への42億ドルの投資が語られ、さらにその増強が顧客料金を押し上げないという主張も添えられています。(Source)
ここで生じるのが、コスト回収の問いです。AI負荷を可能にする変電設備、送電、連系の増強費用は誰が負担し、その資金は料金や契約の中でどう扱われるのでしょうか。実務上、この“バンドル(束ねる)”という見せ方が重要になります。というのも、系統増強は、多くの場合、電力会社の料金体系や、開発者の支払いとして交渉されるメカニズムを通じて回収されます。そこには、(a)顧客が資金拠出し、あるいは顧客に割り当てられるネットワーク増強の費用、(b)将来の料金回収スケジュールを見込む電力会社主導のプロジェクト、(c)データセンターの負荷が契約条件や関税(タリフ)ライダーを通じて部分的に“自分で費用を賄う”ような取り決め、といった形が含まれ得ます。ポートフォリオ型の案件では、投資家の役割は「エレクトロンの購入(電力供給)」と「ワイヤの購入(増強と配送)」を切り分けることです。ソフトバンク/オハイオの事例は、裏方の実現条件ではなく、双方をディールを決める資産として扱う“エコシステム型”アプローチを示唆しているように見えます。
次に、製造とサイト準備の層です。ソフトバンクに紐づくStargateサーバーの製造は、オハイオ州ロードスタウンの産業基盤と結び付けられてきました。報道では、ソフトバンクがフォックスコンのオハイオ拠点を買収し、AIサーバーや関連機器を作るための改修(レトロフィット)を計画したとされています。(tomshardware.com) これはインフラ・スタックの観点で決定的です。ハードの調達は、系統が完了するまで待つことはめったにありません。電力の供給可能性が仮に1年遅れれば、ラックが“置き去り”になります。電力がないためにキャパシティは遊び、あるいは契約がスケジュールの組み替えや稼働(コミッショニング)日の再交渉、さらに減価償却や利息のタイミング調整を強いることになります。製造との結び付けは、単なる産業政策ではなく、異なる調達タイムライン(サーバー、開閉装置、変圧器、連系の増強)にまたがるスケジュール連動のリスク管理でもあるのです。
三つ目の層として、キャンパス規模は段階的に展開される可能性があります。ロードスタウン周辺をめぐるローカル報道では、ハブ向けに計画されたStargate関連データセンターは、必ずしも巨大な単一施設ではないこと、またソフトバンクが従来報じられていた電力数値の“ごく一部”だけを使う意向を示したとされています。(wfmj.com) これは最終的な技術仕様というより、進行中の説明であり続けるとしても、調査員としてのポイントを補強します。ギガワット級の語りは、電力やエンジニアリング上の制約が完全に“ロック”される前に到着しがちです。段階化は、仮の連系と建設計画を、分割してコミット可能な約束へ変換するための、しばしば唯一の手段です。つまり実務上の“ギガワット”は、単発のスイッチではなく、供給可能性のマイルストーンの連なりとして現れることになります。
だから何をするべきか。ソフトバンク/オハイオを追いかけるのは熱狂のためではなく、取引のロジックを地図化するために使うべきです。系統増強を資金面で担うのは誰か。連系のスケジュールリスクを負うのは誰か。冗長性(レジリエンシー)はどのように予算化されているのか。さらに、供給可能性が遅れたときに契約がどう動くのか――違約金、段階的なキャパシティのテイク・オア・ペイ、解除(ターミネーション)の権利、あるいは段階的な価格上乗せ(ステップアップ)――を問うべきです。こうした判断が、「ギガワット」が“実際に使える計算”へ変換されるのか、“オプションのような主張”に留まるのかを決めます。
連系の遅れは、電力計画を金融的なリスクへ変えます。書類が出そろうまで数か月、数年待つだけの話ではありません。投資家はタイミングをどうヘッジし、運用者は可用性をどう保険化するのかが問題になります。
米国の連系プロセスは、直列の遅延を減らすために改革されてきました。2023年7月28日に発行されたFERCの連系最終ルール改革は、手続と合意を合理化し、従来の先着優先の力学に代えてクラスタースタディのアプローチを導入することを目的にしています。(ferc.gov) PJMの公的資料は、トランジション・キューの減少を進捗として描いていますが、それでも数字は、滞留(バックログ)が続いていることを物語ります。(insidelines.pjm.com) さらにPJMは、データセンターからの需要増が生む近い将来の計画圧力は認めつつ、供給は十分だとしているとも述べています。(insidelines.pjm.com)
ギガワット級キャンパスに隠れる“仕組み”は、デポジット(預り金)的な経済とスケジュール連動です。連系スタディの費用、増強のトリガー、タイミングの窓が、GPUの準備が整った時に開発者が電力受け入れを立ち上げられるかどうかを左右します。改革が進んだとしても、大規模なネットワーク増強がなお必要になることがあり、それが許認可のタイムライン、機器のリードタイム、建設の並行可否と連鎖します。
もう一つの構造的なひねりは、信頼性リソースの調達です。PJMは、Reliability Resource Initiative(RRI)のような取り組み――次のサイクルで完全に実装された連系プロセスを待つのではなく、後段のトランジション・サイクルに追加することで、より“すぐ工事に入れる(shovel-ready)”高信頼性プロジェクトを早くスタディし、接続することを狙う――を挙げています。(Source) またPJMは、予測への組み込みの文脈で、2026/2027のデリバリー・イヤーという早い時期からシステムに影響し得る容量不足の可能性にも触れています。(Source)
だから何をするべきか。連系を“電力会社の手続”としてではなく、“リスク商品”として調査してください。増強とタイミングのリスクをどの契約条項が割り当てているかを見極め、RTOの提出資料から、計算資産がコミッショニングされる時に系統が容量を届けられる状態にあるのかを判断することです。
AI計算インフラのコストは、データホールの$/メガワットだけではありません。稼働率保証、変換損失、燃料戦略、系統支援の義務まで含めて、$/届けられるメガワット時で捉える必要があります。
まずは待機電力とバックアップの規模(サイズ)です。N+1や2Nの発電機冗長を前提に設計すれば、発電機の台数と燃料貯蔵、メンテナンスに応じて資本費と運用費が増えます。技術ハンドブックの編纂によれば、多くの大規模データセンターがバックアップとしてディーゼルエンジン発電機を頼り、その場合、満荷時の12〜48時間分のディーゼルを貯蔵することが典型的なレンジとして引用されています。(datacenterhive.com) これらの選択は、調査員が見える制約を2つ生みます。タンクやポンプのための土地とスペース、そして排出規制への適合と燃料ロジスティクスです。
次に、電力市場へのエクスポージャーです。データセンターの運用者は、自社の負荷プロファイルと完全には一致しない電力調達契約を結ぶことがあります。AI推論と学習は、スケジューリングシステムやハードウェア稼働率目標によって負荷形状(ロードシェイピング)を作れますが、系統運用者はデリバラビリティと信頼性を前提に計画します。その結果、運用者は必要な時にアクセスできない容量に対して支払うか、制約の強い時間帯においてより高いkWh単価を受け入れることになります。
最後に「グリッド支援」の取引条件があります。極端に制約された系統では、開発者と電力会社は、系統を安定させる解決策へと押し出されます。系統増強、信頼性メカニズムへの参加、そして料金負担者のリスクを減らす運用上の取り決めです。ソフトバンク/オハイオが報じられたところでは、発電やそれに伴う主張とともに系統増強を束ね、料金に影響しないとした点が、この政治的・規制的な取引を象徴しています。(apnews.com) 管轄や契約の詳細は異なるとしても、経済パターンは変わりません。サイトが自分の手配で確実なデリバリーを買う(契約上の供給可能性、現地でのレジリエンス、系統サービスのコミット)か、それともコストを外へ押し出し、料金設計や信頼性の資金調達の枠組みに振り替えるのか。その違いが問われています。
だから何をするべきか。キャパシティ経済の観点で、$金額のうち運用者が払っている部分と、社会化(一般負担)されている部分を確認してください。そして待機資産が、保険のかかった可用性として扱われているのか、それとも「埋没した冗長性」として扱われているのかを点検するべきです。前者か後者かで、届けられる計算の経済モデルの組み方が変わり、「電力」をエネルギー商品として評価すべきなのか、キャパシティ商品として評価すべきなのか、あるいは両方のハイブリッドとして“可用性保証”として価値づけるべきなのかも変わってきます。
投資家とエンジニアリングの問いは、「アクセラレータ1台あたりのハードコストをどう下げるか」から、「学習や推論のワークロードあたりの総デリバリーコストをどう下げるか」へ移っています。
一つのてこは、より高い電圧での電力変換と、新しいラック・アーキテクチャです。マイクロチップは、SiCベースのアプローチと組み合わせた400V DCラック電源配電のような、電力分配の変化を説明し、電力変換の最適化、エネルギー損失の低減、そして高電力密度環境における信頼性向上を狙うとしています。(Source) インフィニオンも同様に、800Vに関連する方向性の中でSiCを位置づけ、将来のAIデータセンター・アーキテクチャで、変換段あたりの高効率を目指すとしています。(Source)
二つ目のてこは、SiCだけにとどまらない高度なパワー半導体です。インフィニオンのプレス文脈では、効率改善のためにSiC、窒化ガリウム(GaN)、そしてシリコン技術をまとめて語っています。(Source) 投資家側の制約は明確です。部品は、それがシステム全体の経済性を改善する限りでしか意味を持ちません。変換効率が上がれば損失が減り、同じ計算スループットに対してエネルギーコストと冷却負担の双方が下がるからです。
三つ目のてこは、系統との接続(グリッド・インターフェース)と、発電の配置(プレースメント)の選択です。長距離の送電網増強への依存を減らせる、あるいは発電の近くに立地してデリバリー期間を短縮できるなら、連系とネットワーク増強のリスクも減らせます。PJMが信頼性リソースの取り組みを使っているのは、キューが詰まった局面で、高信頼性リソースの接続までの時間を圧縮するための制度的アプローチの一例と見なせます。(Source)
だから何をするべきか。パワーエレクトロニクスを、孤立した技術ベットではなく、総コストモデルの一部として扱ってください。インフラ計画の比較では、変換損失と、それがワークロードあたりの届けられるエネルギーに与える影響を定量化します。そして、その改善が連系や系統増強の制約を相殺できるのかをマップするのです。
ここで見てきた具体例は、実際のAI計算の意思決定が、電力とグリッドの現実を通じてどう組み立てられるかを読み解く助けになります。
オハイオ州のPORTS Technology Campusにおける電力の束ね方。 APによれば、ポーツマス周辺では、10ギガワット規模のデータセンターと、最大10ギガワットの新たな発電(9.2ギガワットの天然ガスを含む)に加え、計画の一部として語られた系統増強や送電線が含まれる見込みです。(タイムライン:2026-03-21に公表された報道、DOEの見通しを参照。)(Source)
PJMの連系改革の進捗と残る滞留。 PJMは、連系改革の進捗の一環として、トランジション・キューが約200,000MWから約63,000MWへと減少したと説明しています。(タイムライン:ファクトシートにより、2025年6月更新として参照、改革の文脈あり。)(Source)
PJMの予測に基づく信頼性の切迫感。 PJMのRRI関連報道は、予測とFERCの動きを背景に、容量不足の懸念が2026/2027のデリバリー・イヤー早期にまで及ぶ可能性を示しています。(タイムライン:FERCが受理した行動を説明するPJM記事、2025年の文脈で公表。)(Source)
ロードスタウンの製造を通じた、ソフトバンクのオハイオ向けハード供給パイプライン。 ロイターによる報道(集約された報道経由)では、ソフトバンクがロードスタウンにあるフォックスコンのオハイオ拠点を買収し、AIサーバーおよび関連インフラ機器を作るための改修を計画していると報じられています。製造の準備状況と計算デリバリーを結び付ける材料になっています。(タイムライン:引用された報道における、2025-08-18付の取引コンテクスト。)(tomshardware.com)
だから何をするべきか。「ブラックボックスを解剖する」なら、これらのシグナルを3つの次元で追ってください。(1)グリッドの供給可能性パッケージ、(2)連系改革のステータスと残存キュー量、(3)サイトの電力コミッショニングとのハードの準備の同期です。
ギガワット級のAI計算インフラに対する拘束条件は、計算の調達から、グリッドの準備(グリッド・レディネス)へと移りつつあります。電力シェアの見通し、連系改革のタイムライン、RTOの信頼性計画の切迫度といった形で測定できます。(prnewswire.com) 実務上の帰結は明快です。インフラ開発者は、サプライチェーン部品のリスクを下げるのと同じように、電力の供給可能性のリスクも下げる必要があります。
政策提言(米国の関係者): 連邦エネルギー規制委員会(FERC)および関連するRTO/ISO運営者は、制約のある地域における大規模データセンターの新規電力コミットメントに関し、連系状況と建設の準備状況に結び付けた、透明で監査可能な「供給可能性のマイルストーン」を含めることを求めるべきです。狙いは、投機的なキャパシティの取り込みを減らし、計算が到着したときに実際に電力を注入し届けられるプロジェクトへ投資を振り向けることにあります。
結論として見える“実態”:キャンパスはこれからも発表され続けます。だが勝者は、グリッドの供給可能性と信頼性の会計を“本当の商品”として扱い、その変電設備をサーバースタックの一部のように組み込めるチームです。