ここ数年、データセンターという言葉の意味が変わりつつあります。ChatGPTが登場した2022年末以降、生成AIの学習と推論を支えるために、世界中のデータセンターが凄まじい勢いで姿を変えている。「サーバールーム」の延長だった施設が、いまやGPUを何千基も並べる巨大な演算工場へと進化しています。この連載「AI時代のデータセンター」では、その変革の全体像を複数回に分けて追いかけます。第1回となる本記事では、生成AIブームがデータセンターの何を、どこまで変えたのかを概観します。
CPUの時代からGPUの時代へ——設計思想の根本的転換
従来のデータセンターは、CPUベースの汎用サーバーを効率よく並べる施設でした。Webアプリケーション、データベース、メール、ストレージ。こうしたワークロードはCPU性能とメモリ容量がボトルネックになることが多く、1ラックあたりの消費電力は5〜10kW程度。冷却も空調の風を回せば十分に対応できる世界です。
AI向けデータセンターの設計思想は、まるで別物です。
中心にあるのはNVIDIAのGPU。H100やB200といった演算チップを8基〜72基単位で搭載したサーバーが、InfiniBand(NDR世代で400Gbps)やNVLinkといった超高速インターコネクトで結ばれ、クラスタ全体がひとつの巨大な計算機として振る舞います。大規模言語モデル(LLM)の学習では、数千枚のGPUが同時にパラメータを交換しながら計算を進めるため、GPU同士の通信帯域と遅延が性能を左右します。ネットワーク設計も、従来のツリー型トポロジーからGPU間通信に最適化されたRail-Optimizedトポロジーへ。ストレージも高速NVMe SSDと並列ファイルシステムでデータ供給のボトルネックを潰す必要があります。
ひと言で言えば、「何でもそこそこ動く汎用施設」から「AI演算に全振りした専用施設」への転換。これが2023年以降、世界中で同時多発的に起きている現象です。
ラック消費電力の急増——5kWから132kWへ
数字を見ると、変化の大きさが実感できると思います。
従来型のCPUサーバーラックは5〜10kW。2020年に登場したNVIDIA A100世代で10〜20kWに上がり、2022年のH100世代では1枚あたり700WのGPUを8基搭載して20〜40kWに達しました。そして2024年発表のGB200 NVL72ラックシステム。72基のGPUをひとつのラックに詰め込んだこのモンスターは、ラックあたり約130〜132kWを消費します。従来の約13〜26倍。さらに2025年登場のB300(Blackwell Ultra)は1枚あたり1,400Wで、将来的にはラックあたり250〜900kWに達するとの予測もあります。
コスト面のインパクトも無視できません。2025年時点のAIラック1台の平均コストは約390万ドル(およそ5.9億円)。従来型ラックの50万ドルと比べて約7.8倍です。データセンター事業者にとって、設備投資の桁が文字通り変わってしまった。
NVIDIA GPUの配備が進む日本——さくらインターネットの石狩事例
この波は日本にも確実に押し寄せています。国内で象徴的な事例が、さくらインターネットの石狩データセンターです。
さくらインターネットは北海道石狩市のデータセンターにNVIDIA H100 Tensor コアGPUを約2,000基整備し、2024年8月に計画完了を発表しました。計算能力は2.0エクサフロップス(EFLOPS)。これを「高火力 DOK」などのGPUクラウドサービスとして2024年6月から提供しています。北海道の冷涼な気候は冷却コストの面で有利であり、立地選定の段階からAI時代を見据えた判断だったと言えます。
2025年4月にはKDDI・さくらインターネット・ハイレゾの3社がGPU相互利用の基本合意書を締結。国内のGPU計算資源を共有し、AI産業の基盤を強化する動きも始まりました。GMOやIIJなど他の国内事業者もGPU設備への投資を拡大しており、日本のデータセンター業界全体が「GPU対応」に舵を切っている状況です。
加えて、外資系クラウド大手の日本投資も急拡大しています。AWSが約2兆2,600億円、Microsoftが2026年から2029年にかけて約1兆6,000億円(100億ドル)、Oracleが約80億ドル超と、2024〜2026年の発表分だけで合計約4兆円規模。デジタル主権やデータの国内保管ニーズを背景に、日本のデータセンター市場が投資先として注目を集めています。
空冷では追いつかない——液冷技術への移行が始まった
ラック消費電力が20kWを超えると、従来の空冷(CRAC/CRAH方式)では冷却が追いつかなくなると言われています。132kWのGB200 NVL72ラックを空調の風だけで冷やすのは、物理的に不可能です。
いま注目されている冷却技術は大きく3つあります。
- リアドア型熱交換器:ラック背面に水冷式の熱交換器を取り付ける中間的な手法。既存施設への導入が比較的容易
- 直接液冷(DLC:Direct-to-Chip):CPUやGPUの放熱板に冷却液を直接循環させる方式。GB200以降の高発熱GPUでは事実上の標準になりつつある
- 液浸冷却(Immersion Cooling):サーバー全体を誘電体液体に浸す方式。冷却効率が極めて高く、騒音ゼロ、防塵効果もある
TrendForceの調査によると、2025年にはAIサーバー全体の30%超が液冷を採用する見込みです。NTTファシリティーズも2024年10月に液冷サーバーの模擬負荷装置とスキッド型CDU(冷却液分配ユニット)を組み合わせたハイブリッド冷却システムの検証を開始しています。
ただし、現実には普及のスピードに機器供給や施設改修が追いついていません。日経新聞の取材に対して、あるデータセンター関連事業者は「正直、ここまでの消費電力の増加幅を2024年までは全く想像していなかった」とコメントしています。NVIDIA B300(1,400W/GPU)に対応できるデータセンターは、世界でもまだ約1%しかないとされます。技術的には液冷への移行は避けられないものの、実装にはまだ大きなギャップがある。これが2025年時点の正直な現状です。
電力インフラへの圧力——日本と世界の統計が示すもの
データセンターの電力消費は、もはやエネルギー政策レベルの課題です。
IEA(国際エネルギー機関)の「Energy and AI」レポートによると、2024年のデータセンター全体の世界電力消費量は415TWh(テラワット時)。世界の電気消費量の約1.5%に相当します。これが2030年には945TWhへと倍増する見込みで、現在の日本の年間電力消費量を超える規模です。米国単体でも、2024年にデータセンターが消費した電力は183TWhで、全米の電力消費の約4%を占めます。
日本国内の数字も見てみましょう。IEAの「Electricity 2025」によれば、日本のデータセンター電力消費量は2024年の19TWhから2034年には57〜66TWhへ、10年で3倍以上に増加する見通しです。資源エネルギー庁の資料では、この増加分の約60%をデータセンターが占めるとの試算もあり、1,500〜1,800万世帯分の電力に相当します。
効率化の努力も進んでいます。電力使用効率を示すPUE(Power Usage Effectiveness)は、業界平均が1.56であるのに対し、Googleは1.09という驚異的な数値を達成。大手ハイパースケーラーは1.1〜1.2台を実現しています。ドイツでは2023年9月にエネルギー効率法(EnEfG)が施行され、既存データセンターには2027年7月までにPUE 1.5以下、2030年7月までにPUE 1.3以下の達成を義務付けるなど、規制面からの圧力も強まっています。
個人的には、PUEの改善だけでは吸収しきれないほどの電力需要増が来ると思います。効率を上げても、総量が倍になれば意味がない。電力の「質」と「量」の両面からの対策が求められるフェーズに入っています。
まとめ——データセンターは「別の産業」になりつつある
生成AIブームが引き起こしたデータセンターの変革は、単なるアップグレードではありません。設計思想、電力密度、冷却方式、投資規模のすべてが根本から変わりつつある。もはや「従来のデータセンターの進化形」ではなく、「別の産業」が立ち上がっていると言ってもいいかもしれません。
本記事のポイントを整理します。
- データセンターの中心がCPUサーバーからGPUサーバーに移行し、設計思想が根本から変わった
- ラック消費電力は5〜10kWから132kWへと10倍以上に急増。コストも約7.8倍に
- さくらインターネットのH100 2,000基整備など、日本国内でもGPU配備が本格化
- 空冷の限界を超え、液冷技術(DLC・液浸冷却)への移行が不可避に
- 世界のデータセンター電力消費は2030年に945TWhへ倍増する見込み。日本も10年で3倍
次回「AI時代のデータセンター 第2回」では、急増する電力需要にどう対応するのか——再生可能エネルギーの活用、原子力発電との連携、そして日本独自の電力事情について掘り下げます。
