華爾街日報12月15日報導,已同意向微軟(Microsoft)數據中心供應核電的Constellation Energy預估,美國境內人工智慧(AI)用電量未來可能是電動車(EV)充電量的5-6倍。報導指出,微軟正致力透過自家AI技術來加快新核電廠的審批流程。
阿姆斯特丹自由大學商業與經濟學院研究員Alex de Vries 10月指出,依據輝達(Nvidia_AI晶片現有和未來銷售進行推斷,全球AI系統用電量可能等同於荷蘭電力需求。他說,上述預估數據不包括數據中心內的AI晶片冷卻成本。
標普全球10月指出,Indigo顧問集團常務董事David Groarke接受電話採訪時表示,谷歌(Google)說、AI目前佔其用電量的10-15%。他指出,2030年AI可能佔全球用電量的3-4%。
耗能是AI的弱點,會限制AI的運算能力
de Vries 10月10日引述半導體分析機構SemiAnalysis研究數據指出,每次的谷歌搜尋若都動用到類似ChatGPT的生成式AI技術、將需要超過50萬台的輝達HGX A100伺服器,這意味著每天平均用電量將上看80 GWh、全年用電量將達29.2 TWh。
scientificamerican.com 10月報導,根據國際能源署(IEA)的數據,數據中心目前約佔全球用電量的1-1.5%。
de Vries受訪時表示,根據最壞的假設情境,所有事情如果都透過AI處理,每座數據中心的能源消耗將增加10倍。
nextgov.com報導,應用材料(Applied Materials, Inc.)執行長迪克森(Gary Dickerson)2020年對SEMICON WEST會議發表演說時指出,功耗是AI的阿基里斯腱(致命弱點),若不解決將會阻礙AI發揮真正潛能。
迪克森於2020年11月指出,訓練神經網路所需的AI運算力相當耗電,業界有必要改善每瓦運算效能。
本文獲授權轉載自MoneyDJ,未經同意不得轉載,小標為編輯所加。
責任編輯/郭家宏