加州大學河濱分校和德州大學阿靈頓分校的研究人員稱,OpenAI的GPT-3模型每回答10到50次用戶詢問,就會消耗相當於16.9盎司(500毫升)瓶裝水的水量。OpenAI對此不予置評。
數據中心的用水通常來自市政供水系統。但在水資源短缺的時代,將飲用水轉用於工業用途在一些地方造成緊張。這促使AI公司開始尋找其他水源,包括雨水、經過處理的廢水或工廠生產過程中剩餘的水。
例如,亞馬遜在加州聖克拉拉的數據中心使用回收廢水進行冷卻。這些水來自該市污水處理系統,經過三個步驟的處理去除99%的雜質。
更智慧的AI訓練
一些研究人員嘗試謹慎控制AI模型在訓練期間吸收的資訊種類和數量。通常,訓練所謂的大語言模型AI,比如OpenAI的ChatGPT和微軟的Copilot,需要從網路和其他地方獲取數千億個單詞,然後學習它們之間的關係。
這需要耗費大量能源和水資源。史丹佛大學的一份報告顯示,訓練名為BLOOM的AI模型在3個半月的時間裡消耗的電力足以供美國普通家庭使用41年。
加州大學河濱分校電氣與電腦工程系教授Shaolei Ren表示,在用水方面,訓練名為LaMDA的GoogleAI模型大約消耗了200萬升水,足以裝滿大約5,000個浴缸。這些水包括用於發電以及用於給電腦降溫的水。Google對這項研究不予置評,但表示該公司「致力於以環保的方式為我們的數據中心降溫」。
一種可能的解決方案是讓AI去除冗餘和低品質的數據,而不是對整個網路上的內容來者不拒。這樣做的目的是,當用戶向AI系統提問時,AI可以更輕鬆地在一個規模小得多的數據集中進行篩選。
一些研究人員表示,這可以降低電力消耗。
專家們指出,限制資訊接收的AI系統產生「幻覺」(給出錯誤或誤導性答案)的可能性也更低,而且由於涵蓋的數據品質更高,因此能做出更切題的回答。微軟發現,該公司一個精簡版AI在常識和邏輯推理方面的表現超過了更大的AI。
降低功耗
多所大學的研究人員發現, 限制AI電腦的用電量只會對結果產生輕微影響,比如處理時間略有增加。
麻省理工學院(Massachusetts Institute of Technology)和東北大學(Northeastern University)的專家表示,將Meta的一個AI功耗降低22%-24%,只會讓查詢的回應速度降低5%-8%。「這些技術可以明顯降低能耗,」研究人員表示。他們還說,這種方法還降低了處理器的運行溫度,從而有望減少冷卻需求。