大模型的盡頭是電力?
在這場以大模型爲名的千億美金級豪賭實驗,從來不缺少故事。從ChatGPT引爆那一刻起,AI行業的競爭從來不僅是技術的競爭,也是一場資源的競爭。到了今年,這場競爭從算力延伸到了電力。
在今年短短不到三個月的時間,黃仁勳、奧特曼和馬斯克分別在不同場景的演講裏都表達了同一個觀點:AI的未來很缺電。
據《紐約客》當時時間9日報導,荷蘭國家銀行數據專家Alex de Vries估計,OpenAI旗下聊天機器人ChatGPT每天消耗超過50萬千瓦時的電力,用于處理約2億個用戶請求,相當于美國家庭每天用電量的1.7萬多倍。
更重要的是,在互聯網時代邁向AI時代的過程中,數據中心的耗電增長曲線將從線性增長變成幾何式上升。假設生成式AI被集成到谷歌的每一個搜索中,屆時意味著谷歌每年將會有29.2太瓦時的電力消耗(292億度電),相當于2021年美國全社會總用電量的0.77%。
考慮到搜索只是一個AI應用場景,後續隨著應用場景的增加,人工智能行業的耗電量將出現巨大增長。
從缺矽到缺電
今年以來,在AI大佬的講話裏,都有一個共同的主題:缺電。不久前,在一場公開演講裏,英偉達創始人黃仁勳表示,“AI的盡頭是光伏和儲能,不要光想著算力,如果只想著計算機,需要燒掉14個地球的能源”。
OpenAI的創始人山姆·奧特曼也提出了類似的看法。奧特曼公開承認,人工智能行業正在走向能源危機。在瑞士達沃斯舉行的世界經濟論壇年會上,奧特曼警告說,下一波生成型人工智能系統消耗的電力將遠遠超出預期,能源系統將難以應對,未來AI的技術取決于能源,我們需要更多的光伏和儲能。
作爲科技圈的大佬,馬斯克也成爲了能源焦慮的吹風人。不久前,馬斯克在博世互聯世界2024大會上預言,“接下來陷入短缺的將是電力,到明年(2025年),我們就沒有足夠的電力來運行所有的芯片了。”
這並非馬斯克第一次預測人工智能算力會面臨變壓器和電力供應的短缺,2023年至今,馬斯克和其xAI團隊已至少三次提及過這一問題。去年8月,馬斯克就警告說,電力短缺造成的嚴重後果,可能會阻礙人工智能等能源密集型技術的發展。
有趣的是,上周騰訊科技發布的《朱嘯虎講了一個中國現實主義AIGC故事》裏,當談及未來5到10年能不能産生AGI,朱嘯虎同樣表達了對算力、能耗等資源的擔憂:
“從哲學角度看,智力級別的提升首先需要能量級別的提升。可控核聚變實現前,我不太相信地球有足夠的算力能夠實現真正的AGI。
幫人類降低90%的工作可能未來3到5年可以實現,但最後的10%可能需要天量的算力和能耗,這也是爲什麽Sam Altman想融天量的資金!行百里者半九十。”
所有大佬都認爲AI的未來很缺電。那麽,大模型的耗電量究竟有多瘋狂?
單月耗電量大比拼,ChatGPT 等于23.7萬中國人
在AI行業的成本結構裏,電力成本是除了芯片成本外最核心的成本。一般來說,生成式AI的電力消耗主要來自兩方面:訓練構成AI系統核心的大型語言模型時所需的電力,以及大型語言模型執行邏輯推論(Inference)運算時的能耗。
由人工智能初創公司 Hugging Face 搭建的BLOOM模型 ,有1760億參數,光是前期訓練它,就得花掉43.3萬度電。2022年,我國居民年人均用電量是948度電,BLOOM訓練階段用的電就相當于456個人一年的用電量。GPT-3的耗電量更誇張,訓練一次需要128.7度電,相當于 3000輛特斯拉同時跑 32 公里。
這還只是訓練階段的用電量,越往後走推理才是用電量的大頭。據IDC預測,2023年AI服務器訓練需求占比達41.5%,隨著大模型的應用,該比例在2025年將降低至39.2%。
對于大模型在訓練階段的用電量,晚點做過一個測算:
按ChatGPT日咨詢量2.7億次、月咨詢量接近80億次計算,已知 1 張 A100 GPU 推理 1 個單詞大約需要 0.35 秒。假設每個提問長度約30個字/單詞,則ChatGPT每天需要處理80億字咨詢量,用一張A100 GPU來跑需要約78萬小時,對應每天需要約3.24萬張A100 GPU。
前述 3.24 萬張 A100 GPU 大約等同于 4000 台英偉達 DGX A100 服務器(搭載 8 張 A100 GPU),後者最大功率爲 6.5 kW,單月耗電量約爲 1872 萬 kWh。
每處理一次用戶請求的耗電量,相當于 60 瓦的燈泡亮 140 秒。這樣一來,項目光是電費就得交近 200 萬美元。2022年中國居民人均生活用電約79kWh/ 月,ChatGPT 單月耗電量差不多跟 23.7萬中國人相當。
如果生成式AI被進一步采用,耗電量可能會更多。在互聯網時代,僅僅用于數據存儲的數據中心每年耗電增速和耗電占比數據基本維持線性增長。據統計,2022年全國數據中心總耗電量約2700億千瓦時,占全社會用電量的3.1%,超過兩座三峽水電站年發電量。
但到了AI時代,能耗變成了幾何式上升的趨勢。舉個例子,假設生成式AI被集成到谷歌的每一個搜索中,屆時谷歌就會大幅增加對電力的需求。
據SemiAnalysis 估算,在每次谷歌搜索中實施類似 ChatGPT的人工智能將需要51.28萬個英偉達A100 HGX服務器,總計410.26萬個GPU,如果每台服務器的電力需求爲6.5千瓦,意味著每年29.2太瓦時的電力消耗(292億度電),相當于2021年美國全社會總用電量的0.77%。
考慮到搜索只是一個AI應用場景,後續隨著AI應用的增加,人工智能行業的耗電量將出現巨大增長。 荷蘭國家銀行數據科學家亞曆克斯·德弗里斯在一篇論文中估計,到2027年,整個人工智能行業每年將消耗85至134太瓦時(1太瓦時=10億千瓦時)的電力。
爲什麽大佬押注核聚變?
怎麽解決AI面臨的能源危機?大佬們很快找到了一個答案——核聚變。
據國際原子能機構給出的定義,核聚變是模仿太陽的原理,使兩個較輕的原子核結合成一個較重的原子核,結合期間釋放出大量能量。與化石能源相比,聚變反應不排放二氧化碳;並且與當前通常意義上的核能——核裂變能相比,它既不會産生核廢料,輻射也極少。
近年來,核聚變研究取得了不少積極進展。去年2月,設在英國牛津的歐共體聯合聚變中心(JET)實驗室科學家在實驗中産生了平均11兆瓦的功率輸出,足夠供應1萬個家庭使用。
由于核聚變存在巨大的想象空間,引得不少大佬下注。作爲AGI的堅定信徒之一,奧特曼目前總共投了兩家能源公司——Helion、Oklo。
其中,2021年奧特曼以個人名義豪擲3.75億美元,領投了核聚變公司Helion價值5億美元的E輪融資,並稱這是自己有史以來“最大的賭注”。除了阿爾特曼,Helion還獲得了“矽谷創投教父”彼得·蒂爾、Facebook聯合創始人達斯汀·莫斯科維茨、領英創始人裏德·霍夫曼、eBay第一任總裁傑夫·斯科爾等人的6億美元投資。
公開資料顯示,Helion Energy是一家核聚變初創公司。他們正在開發一種磁慣性聚變技術,通過非中子聚變産生氦 3 和聚變能,從而可以使用僅從水中提取的燃料産生低成本的清潔電能。
2023年5月,微軟宣布和Helion Energy簽署了購電協議,將于2028年向Helion購買其核聚變發電廠的50兆瓦電力。在這份購電協議中Helion表示, 2028 年前上線的核聚變裝置,在一年內會把發電功率提升到50兆瓦以上,能夠撐起 40000戶家庭的供電。Helion首席執行官大衛·柯特利說,公司的目標是有一天將成本降低到每千瓦時1美分,即1度電0.07元人民幣。
除了奧特曼外,貝索斯則向加拿大的核聚變能源初創公司General Fusion進行了投資。據了解,General Fusion通過使用兩種混合聚變技術(磁性和慣性約束),在磁場中約束氫同位素等離子,然後利用高壓,使之産生高溫及高的密度。
有趣的是,在核聚變這條賽道,並沒有看到馬斯克的身影。原因是,馬斯克認爲,最好的能源問題終極方案,是利用太陽能(風能本質也是太陽能的一種),而不是不計成本去搞人造太陽。
從大模型開閉源到未來能源的方向,馬斯克又一次做出了與奧特曼不同的選擇,競爭還在繼續。---來源: 钛媒體-