ADEY2715

近期,針對 NVIDIA 和 AI 產業大舉投入產製 AI 晶片,有一種觀點認為該產業最終會面臨運算能力過剩的問題。對此,NVIDIA 執行長黃仁勳表示,未來兩到三年內「不存在」算力過剩的情況,而微軟執行長納德拉和 OpenAI 近期共同受訪時,也給出了各自的答案。

GPU 不缺,電力才是 AI 真正的瓶頸

納德拉在 YouTube 節目《Bg2 Pod》中指出,供需週期無法預測,但坦白說,微軟目前手上有大量 GPU 庫存,卻無法全部部署使用。「我們遇到的最大問題不是運算能力過剩,而是電力不足。如果我們無法在靠近電源的地點快速建置資料中心,那些晶片就只能躺在庫存裡。」他甚至形容,現在的困境是「我有一堆晶片,但沒有溫暖的機房可以插電」。

他所指的「溫暖機房」(warm shells),是具備電力與冷卻條件的資料中心外殼。隨著 AI 模型訓練與推理需求暴增,新一代 GPU 的電力需求呈指數級成長。《Wccftech》報導評論,顯而易見,運算基礎設施的競賽已經到達瓶頸,像微軟這樣的公司已無法在現有配置中再容納更多晶片,納德拉所說的電力不足,也反映了另一層含義:NVIDIA 的新一代伺服器架構從 Ampere 到 Kyber 設計,機櫃功耗上升了近百倍,產業最終會遭遇「能源瓶頸」。

奧特曼在同場訪談則指出,AI 運算能力過剩「遲早會發生」,只是時間問題。他也表示,如果每單位智慧的成本持續以驚人的速度下降,例如平均每年下降約 40 倍,這對於基礎設施建設來說是一個非常可怕的基數。而 OpenAI 的賭注是,隨著運算成本下降,需求將大幅增加。但他也表達了擔憂:如果技術持續突破,讓每個人都能在自己電腦上執行個人通用智慧,那麼那些正在建設大型集中式運算堆疊的公司將會嚴重受創,現有雲端算力堆疊可能在一夜之間失去價值。

從「算力過剩」到「電力通縮」,AI 時代的能源焦慮爆發

AI 的能耗危機早已成為產業隱憂。隨著 GPU 供應鏈問題解決,新的瓶頸轉向能源供應。根據《Tom’s Hardware》報導,OpenAI 曾呼籲美國政府每年建設 100 吉瓦(GW)新發電量,視其為美中 AI 競爭的「戰略資產」。

高盛預測,到 2030 年全球資料中心的耗電量將比 2020 年增加 165%,而美國資料中心耗電將從 2020 年的不到 1,000 億度電,暴增至 4,000 億度電,超過墨西哥全國用電量。根據《MIT Technology Review》,因電力與建設壓力,一些公司已放緩或暫停資料中心計畫。

微軟、Google、亞馬遜全面轉向核能與再生能源

為了突破能源限制,科技巨頭正大舉投資「AI 用電的下一代解方」——核能與小型模組化反應爐(SMR)。
《MIT Technology Review》報導,Google、Amazon、Microsoft 與 Meta 都在尋找低碳、可持續的固定電源來源而核能提供穩定輸出,符合 24 小時不間斷運轉的資料中心需求。

Google 已與核能新創 Kairos Power 簽署協議,預計 2030 年前啟動首座小型反應爐;Amazon 則投資美國 X-energy,規劃在華盛頓州建設可輸出 960 兆瓦電力的模組化核電廠,足以供應一座超大型 AI 資料中心。微軟則走另一條路,與 Constellation Energy 簽署長期採購協議,支持重啟美國賓州三哩島(Three Mile Island)核電廠的一個反應爐,以確保自家 AI 伺服器群的長期電力穩定。

然而,這些能源計畫仍面臨現實挑戰:核電廠興建需時 8 到 10 年,即便是小型反應爐也尚未商轉。短期內,科技業仍將依賴天然氣與燃煤機組來支撐 AI 雲端需求,這也讓綠能目標與能源現實之間的矛盾進一步擴大。

AI 熱潮能否撐過能源瓶頸?

納德拉的坦白,揭示了 AI 產業下一階段的潛在震盪。當「算力通膨」與「電力通縮」同時發生,市場恐將出現新的不均衡現象。但同時,這也為能源創新開啟新戰場。從小型核反應爐、地熱能、再到 AI 控制的智慧電網,新的基礎建設戰爭正在展開。對於微軟、OpenAI 這樣的領頭企業而言,真正的競爭優勢,可能不再是誰擁有最多 GPU,而是誰能先插上電。

本圖/文由「Techorange科技報橘」授權刊登,非經同意不得任意轉載。
原文出處:電力不足,AI 晶片只能成堆放庫存!納德拉指微軟最大挑戰不是運算能力過剩