01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

生成式AI有多耗能:谷歌耗電堪比一國電量,ChatGPT答個問題“喝水”10毫升

2024031121:13

11日,據環球時報援引《紐約客》雜志報導,OpenAI的ChatGPT聊天機器人每天消耗超過50萬千瓦時的電力,用于處理約2億個用戶請求,相當于美國家庭每天用電量的1.7萬多倍。

據報導,隨著生成式人工智能的廣泛應用,預計到2027年,整個人工智能行業每年將消耗85至134太瓦時的電力,這顯示了AI技術對電力資源的巨大需求。是什麽導致了生成式AI如此高的能耗?在未來有何解決方案?對此,上遊新聞進行了了解。

* 耗電:堪比一國用電量

隨著人工智能技術的發展,對芯片的需求急劇增加,進而帶動了電力需求的激增。全球數據中心市場的耗電量已經從十年前的100億瓦增加到如今的1000億瓦水平。根據美國機構Uptime Institute的預測,到2025年,人工智能業務在全球數據中心用電量中的占比將從2%增加到10%。

據經濟觀察網消息,2023年10月10日,阿姆斯特丹自由大學商業與經濟學院的博士候選人德弗裏斯(Alex de Vries)在一篇論文中表示,像ChatGPT這樣的大型語言模型需要大量的數據集來訓練人工智能,在人工智能模型經過訓練階段後,會過渡到推理階段,然後根據新的輸入生成信息。推理階段消耗的能源似乎更多。

研究公司SemiAnalysis表示,OpenAI公司需要3617台英偉達的HGX A100服務器,總共28936個圖形處理單元(GPU)來支持ChatGPT,這意味著每天的能源需求就要達到564兆瓦時,這要比訓練階段的能源需求高得多。

過去的工作常常關注的是人工智能訓練所消耗的能量,但德弗裏斯提醒道,需要更多考慮人工智能的整個生命周期。

此外,英偉達生産的GPU芯片作爲人工智能領域的命脈,該公司在2023年第二季度的收入爲135億美元,其數據中心業務較上一季度增長了141%,這一點足以證明人工智能産品需求的迅速增長。



德弗里斯表示:"考慮到未來幾年的預期産量,到2027年,新製造的人工智能設備的用電量將與荷蘭一樣多,這也與瑞典、阿根廷等國的用電量處于同一範圍。"

德弗里斯還承認:"最壞的情況就是,僅谷歌一家公司的人工智能就可以消耗與愛爾蘭等國家一樣多的電力。"

德弗里斯在論文中設想,如果將生成式人工智能集成到谷歌的每一個搜索中,那麽屆時谷歌就會大幅增加對電力的需求。

另一家研究機構New Street Research也得出了類似的估計,認爲谷歌將需要大約40萬台服務器,這將導致每天消耗62.4吉瓦時,每年消耗22.8太瓦時的能源。

* 費水:答50個問題"喝"水500毫升

除了耗電,生成式AI同樣耗費著巨量的水資源。

要對AI進行大量訓練,也就意味著需要更強的算力中心和與之匹配的散熱能力。在AI快速進步的道路上,對水資源的消耗也不斷加碼升級。

谷歌發布的2023年環境報告顯示,公司前一年的用水量同比顯著增加了20%,達到56億加侖(21198305立方米),而其中絕大部分都被用于爲該公司的數據中心散熱。而這並不是個例。2023年初,由OpenAI打造的ChatGPT火遍全球,一躍成爲人工智能領域的現象級應用,也引發了全球互聯網公司的AIGC"軍備競賽"。

科羅拉多大學與德克薩斯大學的研究人員在一篇名爲"讓AI更節水"的預印論文中也發布了訓練AI的用水估算結果,顯示訓練GPT-3所需的清水量相當于填滿一個核反應堆的冷卻塔所需的水量。ChatGPT(在GPT-3推出之後)每與用戶交流25到50個問題,就得"喝下"一瓶500毫升的水來降溫。

除了谷歌,另一個巨頭Meta在美國亞利桑那州建設了數據中心,僅2022年用水量就超過260萬立方米。隨著全球人工智能"軍備競賽"的持續升級和大量科技公司競相建設新數據中心,其消耗的水量很可能會繼續上升。



正在大力開發人工智能的微軟也在其最新的環境報告中透露,2022年公司用水量同比前一年激增了34%,達到640萬立方米,比2500個奧林匹克標准遊泳池的水量還多。外部研究人員認爲這與微軟的人工智能研究有關。

對此,有專家表示,整體來看,當前數據中心耗水已經成爲制約數據中心快速發展的因素之一。中國電子節能技術協會數據中心節能技術委員會秘書長呂天文介紹稱,爲了節約寶貴的自來水資源,很多企業嘗試用各種方法爲數據中心散熱,例如,微軟曾嘗試部署海下數據中心,Facebook數據中心選址北極圈附近,阿里雲千島湖數據中心使用深層湖水制冷,"但上述方法總是會帶來新的問題,目前國內數據中心的用水主要使用的還是自來水,近幾年政府層面更鼓勵數據中心企業利用中水(循環再利用的水)。"

據悉,此前北京市發展改革委修訂印發了《關于進一步加強數據中心項目節能審查的若干規定》,其中就新增了關于引導數據中心充分利用再生水的內容:再生水輸配管網覆蓋範圍內的數據中心,設備冷卻水、機房加濕等非生活用水應采用再生水。

* 碳排放:兩月1000噸

除了消耗大量的電力和水資源,以生成式AI爲代表的智算算力還是碳排放大戶。

新冠病毒的分子信息建模、石油勘探中的環境模擬、航空航天導航,需用到超算算力;互聯網、金融、工業、城市治理等,對通用算力和智算算力需求很大;智能網聯車、視頻監控等,偏重于邊緣計算算力。而今,城市經濟、社會、生活無時無刻不需要算力。

阿里云中國區解決方案副總余勇舉例,在淘寶,拍照搜索商品的"拍立淘",對算力要求是在30億張圖片中搜尋,2秒出結果;在製造能源領域,智算算力已運用于海螺集團150條水泥産線的經營決策優化,運用于對山東德州電力的負荷預測等,算力需求驚人。"國內企業的智算算力需求,平均每3.5個月就會翻一倍。"



服務器。資料圖

"截至2022年底,全國算力總規模達到180eflops(每秒18000億億次浮點運算),位居全球第二。"中國信通院雲大所副所長李潔博士說。

需求急速擴增同時,越來越多數據中心被戴上"能耗大戶"帽子。有研究機構指出,訓練ChatGPT這樣一個包含1750億參數的大模型,帶來兩個月排碳1000噸的巨大消耗。

對此,早在2021年11月,中國就已出台公共機構碳達峰方案,新建大型、超大型數據中心須全部達到綠色數據中心要求,綠色低碳等級達4a級以上,電能利用效率(pue)1.3以下。

* 應對:優化架構提升能效

在氣候挑戰日益嚴峻的今天,不斷膨脹的人工智能正消耗著越來越多的電力、水資源,産生著越來越多的碳排放。據預測,到2030年,智能計算的年耗電量將達到5000億度,占全球發電總量的5%。如果AlphaGo對弈一盤棋就要耗去1噸煤的發電量,訓練對弈千萬盤棋局就要燃燒20萬噸煤,那麽讓大模型賦能千行百業,地球能否承受得起如此巨大的碳排放?

此外,根據摩爾定律,計算機的算力每18個月翻一番,而並行訓練日益複雜的AI網絡的需求,每三四個月就會翻一番。中國工程院院士、清華大學信息科學技術學院院長戴瓊海指出,近五年來,作爲AI發展重要支撐的算力正逐漸變爲制約AI繼續向前的瓶頸。

爲此,行業大佬及科研人員也在進行著不斷的研究和探索。

近日,人工智能芯片龍頭英偉達的創始人兼CEO黃仁勳表示,人工智能的未來發展與狀態和儲能緊密相連。他強調,不應僅僅關注計算力,而是需要更全面地考慮能源消耗問題。

OpenAl的創始人山姆·奧特曼也提出了類似的看法。他認爲,未來AI技術的發展將高度依賴于能源,特別是光伏和儲能技術的進步。



服務器。資料圖

"在控制大模型帶來的能耗和成本方面,半導體企業可以通過優化計算架構、提升能效等措施,降低大模型的能耗和成本。"北京大學集成電路學院研究員賈天宇說。

長期以來,人工智能及其熱門應用常常被喻爲"大腦",比如自動駕駛被喻爲"車輪上的大腦"。但是,人腦並不是僅僅依靠大腦工作,腦幹、小腦也承擔了許多任務,比如控制心跳和體溫,保持身體的穩定性、協調性等。如果大腦進行所有的決策和控制,人體就很難負擔大腦需要的能量。

比照包含大腦、小腦、腦幹的人腦系統,恩智浦半導體執行副總裁兼首席技術官Lars Reger描述了一種更加高效節能的計算體系:以AI算力芯片爲"大腦",進行高效能的計算和加速;以網關處理器爲"小腦",實現不同功能區的互聯和集成,以及異構網絡中的數據處理;以MCU、感知芯片、聯網芯片作爲"腦幹",實現感知和實時任務處理。

此外,目前在大算力芯片研發上,我國在光電智能芯片領域有望與歐美一爭高下。中國工程院院士、清華大學信息科學技術學院院長戴瓊海表示,一旦光電智能計算得到應用,將對當代計算的速度、能量效率和數據通量産生變革性影響,可實現計算速度的成千倍提升、能效的百萬倍提升。"改用光電智能芯片,AlphaGo整體計算能耗將從1噸煤下降到1克。"戴瓊海說。

(1太瓦時=1000吉瓦時=1000000兆瓦時=1000000000千瓦時——編者注)

[上遊新聞綜合自 : 環球時報、每日經濟新聞、文彙報、上觀新聞、經濟觀察網等/來源: 上遊新聞]