為滿足人工智慧(AI)的爆發需求,市場上掀起興建數據中心的熱潮,而構築這些容納超級電腦的巨型中心需要大量的組件、場地和電力,由此引發相關資源短缺。
數據中心高管們表示,訂製冷卻系統的交付時間比幾年前拉長了四倍。備用發電機的交付時間從最短時候的只要一個月拉長到要等待兩年。
本文為風傳媒與華爾街日報正式合作授權轉載。加入VVIP會員請點此訂閱:風傳媒・華爾街日報VVIP,獨享全球最低優惠價,暢讀中英日文全版本之華爾街日報,洞悉國際政經最前沿。
較容易獲得充足電力和數據連接的廉價地產供不應求,這促使數據中心的建設者在全球範圍內四處尋找合適場地並想出各種創新方案。比如,在薩爾瓦多的一座火山旁,在西德克薩斯州和非洲停放的大規模貨櫃內,都規劃了興建新的數據中心。
今年早些時候,數據中心營運商Hydra Host發現自己遇到了麻煩,需要尋找15兆瓦的電力來運行一個規劃中的配備有10,000個AI晶片的設施。
為了找到合適的場地,Hydra Host四處考察,從鳳凰城到休士頓,再到堪薩斯城、密蘇里州、紐約和北卡羅來納州。目前仍在尋找中。
有些場地有電力供應,卻沒有合適的冷卻系統來保證伺服器的運行。而由於供應緊張,新的冷卻系統需要6到8個月才能部署到位。與此同時,擁有冷卻系統的建築卻沒有接收額外電力所需的變壓器,而這些變壓器需要長達一年的時間才能到貨。
Hydra Host的執行長Aaron Ginn說,「就我們目前看到的情況,這波數據中心建設熱潮可能是自第一次網路浪潮以來最熱的一波。」他說,尋找合適的零組件和場地所花費的時間比預期多了好幾個月。
自2022年底OpenAI的ChatGPT開始展示出AI技術的潛力以來,創建AI系統導致對計算能力的需求激增。對於配備了新一代AI晶片的電腦伺服器的需求,正在使現有的數據中心不堪重負。在此類需求方面,目前大熱的是輝達(Nvidia)的圖形處理器(GPU)。
數據中心公司DataBank的執行長Raul Martynek說,「面對這波海嘯式需求,現有數據中心容量將出現短缺。」
創建和部署複雜的AI系統需要數量空前的晶片。分析師估計,2022年推出的ChatGPT版本需要超過1萬個輝達的GPU來進行訓練,而最近發布的新版本則需要更多GPU,這給數據中心帶來了更大壓力。大型科技公司已難以獲取數據中心的供應。
根據房地產公司世邦魏理仕(CBRE)的數據,去年美國的數據中心面積成長了26%,在建面積也創下了紀錄新高。可用來建造數據中心的場地空間價格正節節攀升,與此同時空置率微乎其微,這表明供應跟不上需求。