GPT成爲耗電狂魔,一年電費2億元?

2024-03-14 18:40:29    編輯: robot
導讀 文/陳根 3月11日,《紐約客》發布的一篇文章引起了廣泛關注。根據文章報道,ChatGPT每天大約要處理2億個用戶請求,每天消耗電力50萬千瓦時,相當於美國家庭每天平均用電量(29千瓦時)的1.7萬...

/陳根

311日,《紐約客》發布的一篇文章引起了廣泛關注。根據文章報道,ChatGPT每天大約要處理2億個用戶請求,每天消耗電力50萬千瓦時,相當於美國家庭每天平均用電量(29千瓦時)的1.7萬多倍。

也就是說,ChatGPT一天的耗電量,大概等於1.7萬個家庭一天的耗電量,ChatGPT一年,光是電費,就要花2億元。

《紐約客》還在文章中提到,根據荷蘭國家銀行數據科學家Alex de Vries的估算,預計到2027年,整個人工智能行業每年將消耗85134太瓦時的電力(1太瓦時=10億千瓦時)。這個電量相當於肯尼亞、危地馬拉和克羅地亞三國的年總發電量。《紐約客》的消息一出,直接衝上了微博熱搜。

事實上,在這之前,關於AI耗電的討論就已經有很多了,不管是研究報告還是調查數據,都顯示人工智能已經成爲了耗電大戶,並且,隨着人工智能的發展,耗電量還會越來越大。

科羅拉多大學與德克薩斯大學的研究人員在一篇名爲“讓AI更節水”的預印論文中也發布了訓練AI的用水估算結果,顯示訓練GPT-3所需的清水量相當於填滿一個核反應堆的冷卻塔所需的水量。並且在使用過程中,ChatGPT(在GPT-3推出之後)每與用戶交流2550個問題,就得“喝下”一瓶500毫升的水來降溫。

人工智能爲啥這么耗電?這其實和人工智能的工作原理有關。人工智能工作原理的核心,就是計算。而本質上,計算就是把數據從無序變成有序的過程,這個過程則需要一定能量的輸入。特別是爲了處理海量的數據和復雜的計算任務,人工智能系統需要強大的計算能力和存儲設備,而這些設備在運行過程中會產生大量的熱量和能耗。

並且,隨着人工智能技術的不斷發展,對芯片的需求也在急劇增加,進一步推動了電力需求的增長。

可以很明確的說,人工智能如果想進一步發展和突破,或者說人工智能如果要真正地進入人類社會中應用,必須要解決耗能問題。

如果依然是遵照傳統路徑,繼續購买算力來擴增人工智能的計算能力,那么人工智能將會對電力的需求形成一個無底洞。對於AI耗能的問題,奧特曼也曾警告說,下一波生成型人工智能系統消耗的電力將遠遠超出預期,能源系統將難以應對。馬斯克也多次表達了對未來能源基礎設施,尤其是電力和變壓器短缺將成爲AI技術突破運行的瓶頸,而這種電力短缺最早可能在2025年就會出現。

而解決耗能問題的關鍵,就在於發展新的能源技術,比如可控核聚變,或者更便宜的太陽能及存儲等等。說到底,科技帶來的能源資源消耗問題,依然只能從技術層面來根本性地解決。

當然這也讓我們看到爲什么奧特曼在打造通用人工智能的道理上,也提前投資了可控核聚變公司的初衷。曾經的趕英超美,今天回頭看我們是最大的糧食進口大國;如今國內一些人工智能企業喊出的趕超OpenAI,過幾年回頭看,大家覺得會是一個什么結果?

       原文標題 : 陳根:GPT成爲耗電狂魔,一年電費2億元?



標題:GPT成爲耗電狂魔,一年電費2億元?

地址:https://www.utechfun.com/post/345730.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡