衆所周知,機器學習需要消耗大量的能源。算力是人工智能世界發展的基礎,而算力的瓶頸歸根到底是電力,那些訓練聊天機器人、爲文本生成視頻提供動力的人工智能模型,幾乎以每小時兆瓦爲單位,產生巨額的服務器用電账單。
Digital Information World發布的報告顯示,數據中心爲訓練AI模型產生的能耗是常規雲工作的三倍,預計到2030年,美國數據中心的電力需求將以每年約10%的速度增長。
而訓練模型,將比傳統數據中心活動消耗更多電力,對電力的需求更高。以訓練GPT-3大型語言模型爲例,需消耗接近1,300兆瓦時的電力,這大約相當於130個美國家庭1年的用電量,而這僅僅是訓練AI模型的前期電力,僅佔模型實際使用時所消耗電力的40%。
據報道,2023年1月,OpenAI僅一個月已耗用可能等同17.5萬個丹麥家庭的全年用電量。谷歌AI每年耗電量達2.3太瓦時,相當於美國亞特蘭大州所有家庭1年的用電量。
阿姆斯特丹自由大學博士生Alex de Vries推算認爲,到2027年,人工智能行業每年的電量消耗可能在85到134太瓦時之間。這幾乎相當於荷蘭一個國家年度電力需求,這是個相當可觀的數字。
國際能源署(IEA)最近的一份報告也給出了類似的結論,指出由於人工智能和加密貨幣的需求,數據中心的用電量將在不久的將來大幅增加。該機構表示,2022年數據中心的能源使用量約爲460太瓦時,到2026年可能會增加到620至1,050太瓦時之間,分別相當於瑞典或德國的能源需求。
隨着人工智能產業的發展,電力消耗可能會更大。同時,隨着人工智能的盈利,其研發公司對大模型訓練的細節信息——什么樣的硬件,運行多長時間等,越發保密。
人工智能公司Hugging Face的研究員Sasha Luccioni表示,對於ChatGPT,我們不知道它有多大,不知道基礎模型有多少參數,也不知道它在哪裏運行......研發公司的保密行爲可能出於行業競爭考慮,也可能是爲了轉移公衆的“批評”。
一些參與人工智能的公司聲稱,人工智能技術本身可以幫助解決高電耗問題。代表Microsoft的發言人表示,人工智能“將成爲推進可持續發展解決方案的有力工具”,並強調Microsoft正在努力實現“到2030年實現負碳、正水和零浪費的可持續發展目標”。
但是一家公司的目標無法涵蓋整個行業的全部需求,可能還需要其他方法。Luccioni建議行業爲AI模型引入能源之星評級,使消費者能夠像比較電器一樣比較人工智能的能源效率。
人工智能帶來的種種創新功能,都是以處理性能和功耗方面的高昂成本爲代價,它並不是免費的。
編輯丨楊 朔
排版丨鄭 莉
來源丨The Verge
圖片來源丨千圖網
原文標題 : “大口喫電”的人工智能
標題:“大口喫電”的人工智能
地址:https://www.utechfun.com/post/337424.html