美國境內AI電力需求未來可能是EV充電量的5-6倍

2023-12-20 10:40

? 人氣

AI伺服器比電動車還耗電(美聯社)

AI伺服器比電動車還耗電(美聯社)

華爾街日報12月15日報導,已同意向微軟(Microsoft)數據中心供應核電的Constellation Energy預估,美國境內人工智慧(AI)用電量未來可能是電動車(EV)充電量的5-6倍。報導指出,微軟正致力透過自家AI技術來加快新核電廠的審批流程。

透過<Google新聞> 追蹤風傳媒

阿姆斯特丹自由大學商業與經濟學院研究員Alex de Vries 10月指出,依據輝達(Nvidia_AI晶片現有和未來銷售進行推斷,全球AI系統用電量可能等同於荷蘭電力需求。他說,上述預估數據不包括數據中心內的AI晶片冷卻成本。

標普全球10月指出,Indigo顧問集團常務董事David Groarke接受電話採訪時表示,谷歌(Google)說、AI目前佔其用電量的10-15%。他指出,2030年AI可能佔全球用電量的3-4%。

延伸閱讀:用ChatGPT可能會有侵權問題?5條職場AI安全守則,讓AI當你的好助手

耗能是AI的弱點,會限制AI的運算能力

de Vries 10月10日引述半導體分析機構SemiAnalysis研究數據指出,每次的谷歌搜尋若都動用到類似ChatGPT的生成式AI技術、將需要超過50萬台的輝達HGX A100伺服器,這意味著每天平均用電量將上看80 GWh、全年用電量將達29.2 TWh。

scientificamerican.com 10月報導,根據國際能源署(IEA)的數據,數據中心目前約佔全球用電量的1-1.5%。

de Vries受訪時表示,根據最壞的假設情境,所有事情如果都透過AI處理,每座數據中心的能源消耗將增加10倍。

nextgov.com報導,應用材料(Applied Materials, Inc.)執行長迪克森(Gary Dickerson)2020年對SEMICON WEST會議發表演說時指出,功耗是AI的阿基里斯腱(致命弱點),若不解決將會阻礙AI發揮真正潛能。

迪克森於2020年11月指出,訓練神經網路所需的AI運算力相當耗電,業界有必要改善每瓦運算效能。


本文獲授權轉載自MoneyDJ,未經同意不得轉載,小標為編輯所加。

責任編輯/郭家宏

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章