2029年までに、人工知能(AI)を支えるデータセンターへの世界的な支出は、実に3兆ドル(約420兆円)に達すると推定されています。これはモルガン・スタンレーの試算で、その半額が建設費、残りの半額が高価なAI関連ハードウェアに充てられるとのこと。フランスの2024年のGDPに匹敵する巨額です。
この莫大な投資の背景には、AIの処理能力に対する急増する需要があります。英国だけでも今後数年で100以上の新たなデータセンターが建設されると予想され、マイクロソフトは既に英国のAIセクターに300億ドル(約4兆2000億円)を投資することを発表しています。
従来のデータセンターとの違いは何か? それはAI特有の処理ニーズにあります。多くのAIモデルは、高価なNvidia製のコンピューターチップに依存しており、1台のキャビネットだけでも約400万ドル(約5億6000万円)もの費用がかかります。これらのキャビネットは、AIデータセンターの心臓部と言えるでしょう。
AIソフトウェアを訓練する大規模言語モデル(LLM)は、言語を可能な限り小さな意味単位に分解する必要があります。これは、多数のコンピューターが極めて近接して連携することで初めて可能になります。なぜ近接性が重要なのか? それは、チップ間の距離が1メートル増えるごとに、処理時間がナノ秒(10億分の1秒)増加するためです。些細なように思えますが、倉庫一杯のコンピューターが稼働すれば、これらの微小な遅延が積み重なり、AIに必要なパフォーマンスを低下させてしまうのです。
そのため、AI処理キャビネットは極めて密に配置され、「並列処理」を実現します。まるで巨大な一台のコンピューターのように動作するのです。「密度」こそがAIデータセンター建設における魔法の言葉と言えるでしょう。この高密度化によって、従来のデータセンターに見られるような、処理プロセッサ間の距離によるボトルネックを解消できます。
しかし、この高密度化は莫大な電力消費を招きます。LLMの訓練は、電力需要に急激なスパイクを引き起こし、これは数千軒の家庭が同時に電気ケトルを使うようなもの。このような不安定な電力需要は、地域電力網への負担となり、綿密な管理が必要です。データセンターエンジニアリングコンサルティング会社であるThe Uptime InstituteのDaniel Bizo氏は、「通常のデータセンターは静かな存在ですが、AIのワークロードは電力網に大きな負荷を与えます」と指摘し、この規模の特異なワークロードは前例がなく、アポロ計画のような極めて困難なエンジニアリング課題だと述べています。
電力問題への対策として、NvidiaのCEOであるJensen Huang氏は、短期的な対策として送電網に負担をかけないよう、オフグリッドでガスタービンを使用することを検討していると発言。さらに、AI自体がより効率的なガスタービン、太陽光パネル、風力タービン、核融合エネルギーを設計すると述べています。マイクロソフトは原子力発電を含むエネルギープロジェクトに数十億ドルを投資しており、Googleも2030年までにカーボンフリーエネルギーへの移行を目指して原子力発電への投資を進めています。Amazon Web Services (AWS)も、世界最大の再生可能エネルギー購入企業であると主張しています。
一方、データセンター業界は、電力消費による環境への影響や地域インフラへの潜在的な影響について、立法府から注目を集めていることを認識しています。特に、冷却用水の問題は深刻で、米国バージニア州では、データセンターの新設を水消費量に関連付ける法案が検討されています。英国でも、提案されたAI工場が地元の水道会社から懸念の声を上げられています。
巨額の費用と様々な課題を抱えるAIデータセンターブーム。本当にバブルなのか?投資アドバイザーのZahl Limbuwala氏は、AIデータセンターへの投資には大きな疑問点があると認めつつも、「AIはインターネットを含む過去のテクノロジーよりも大きな影響を与えるだろう」として、莫大な電力需要も現実的なものだと考えています。そして、AIデータセンターは「テクノロジー業界の不動産」であり、1990年代のドットコムバブルのような空虚なものではないと指摘しています。しかし、この投資ブームが永遠に続くわけではないことは明らかです。



