大模型熱到芯片暴漲,阿里百度成了英偉達的打工仔
中國科技公司和創業者競相追逐大模型,引發GPU芯片需求量的暴增,以及價格的瘋狂上漲。
GPU是ChatGPT訓練和部署的關鍵部件,這是強大算力的基礎設施。根據公開消息,微軟的Azure雲服務為ChatGPT構建了超過1萬枚A100 GPU芯片的AI計算集群。
千芯科技董事長陳巍告訴《中國企業家》,以A100芯片為例,從去年年底到現在,其單價漲了超過50%,從之前約5萬元漲到了近10萬元。由於A100已經被美國禁止售往中國內地,國內同行預估僅有3萬枚存量。推出的A100替代版A800,國內廠商也是排隊拿貨,並且常常無貨。
國內某大型服務器廠商的員工王石也感受到了這股浪潮。他告訴《中國企業家》,近期供應的壓力比較大,包括等供應商的壓力也比較大,但這並不代表錯過了這一波就沒有機會了,「相信今年年內供需回歸到相對理性的水平」。
「我要給大家降溫。這是一個突發的需求,大家不要着急,不是說我錯過了這兩個月或者三個月,我就失敗了,遠遠沒有到那個時候。」王石強調。
據《中國企業家》統計,除了阿里巴巴、百度等互聯網巨頭之外,商湯科技、崑崙萬維、毫末智行、360等公司也官宣了自己的大模型,如果再加上王小川、王慧文、李開復等創業者,中國年內推出的大模型數量已經超過了10個。
一些行業人士預測,國內需要有8至20個大模型,比如生物醫藥計算、材料計算、化學計算、自動駕駛、氣象等大模型,甚至未來四五十個也說不定。
算力、算法和數據構成了AI時代的三要素,而算力又是電力般的基礎設施,有多少枚GPU,有多少算力,成為外界評估大模型研發和創業成敗的關鍵。
在這一輪由ChatGPT掀起的大模型創業潮里,黃仁勛和成為了大贏家。
據統計,2020年,全世界跑AI的雲計算與數據中心,80.6%都在用英偉達的GPU驅動。截至發稿,股價為270美元,比2022年9月時的低點119美元翻了一番,總市值為6669億美元,成為美國第五大上市公司,比德州儀器、超威半導體(AMD)、高通、英特爾等芯片企業市值相加還要多。
五分之二的預算買算力
已經供不上貨了。
近期,馬斯克為推進推特內部的新AIGC項目,購買了大約1萬枚GPU。從2022年末,微軟就實行了GPU資源配額供給,但今年1月以來審批時間越來越長,如今部分申請需要等待幾天甚至幾周才能獲批。同時,微軟向預訂的數萬枚GPU芯片,交貨無期。
2月份,出門問問CEO李志飛和美團聯合創始人王慧文,討論了大模型創業要花多少錢、入門門檻什麼樣。李志飛認為,門檻至少需要5000萬美元,其中的2000萬美元就是用來購買算力的。王慧文和李志飛不久前相繼宣布在大模型領域創業。
根據陳巍測算,國內如果想要直接訓練出一個ChatGPT3級別的大模型,常規最少需要1000枚A100級別的GPU芯片,而如果想要實際部署,不考慮冗餘和響應速度,對於搜索引擎級別的服務,至少需要6000枚A100級別的GPU芯片。僅僅芯片一項,最小投入就到了近10億元人民幣。
一份流傳的《阿里AI專家交流紀要》顯示,百度年初緊急下單3000台8張芯片的A800服務器,這意味着需要2.4萬枚A800,而預計全年百度會有A800和H800共5萬枚的需求。阿里雲預計在今年需要1萬枚左右,其中6000枚是H800。此外,阿里雲也會用到平頭哥這種自研的芯片,每年採購大概3000枚。
2022年9月,發布H100型號GPU,但被美國禁止出口至中國,但怎會忍心錯過中國的大模型熱,為了出口,犧牲了部分性能,在今年推出了H800版本。
對照百度發布的文心一言,陳巍測算,按照國內成本估算單次應答成本5分錢,如果日訪問量10億人次,以月租價格評估,每天雲計算成本約5000萬元人民幣,一個月將增加成本15億元,一年增加成本180億元,遠遠高於訓練成本。此前媒體估算,ChatGPT光3月份的電費就得交近200萬美元,這差不多跟27.5萬中國居民一個月用電量相當。
《中國企業家》了解到,對於不缺錢的巨頭來說,A100存儲量也不多,未來採購以A800和H800為主,但仍需要V100等老式芯片補充。V100性價比高一些,在雲上跑的成本是A100的三分之二左右,但運行速度較慢,如果是ChatGPT4級別大模型就不夠用了。
也就是說,要想大模型算得更快、更准,必須適配最先進的GPU芯片。雖然拿不到最先進的GPU,但大模型玩家依然在積極囤貨。按照上述數字估算,國內對A800以及H800的需求已經到了數十萬級別。
王石說,目前來看,對於算力的需求可以說是上不封頂,有多少算力,都希望能夠投身進來,「只能這麼說,越多越好」。
僅僅靠資本似乎已經玩不轉了,大模型之戰,最後結局可能還是巨頭之間的遊戲。
一位頭部投資機構的負責人告訴《中國企業家》:「創投界這點資本是不值一提的,資本它對整個行業的格局不造成影響,本來就這點錢也投不起,中國這幾個VC加上PE,今年不在ChatGPT上投下10億、20億美元,水漂都打不起來,做不了幾個訓練級,但是百度和華為如果願意在上面努力去做的話,我覺得投得起。」
瘸腿奔跑的中國大模型
不管是阿里巴巴、騰訊、百度等巨頭,還是王慧文、王小川等創業者,他們不得不戴着枷鎖跳舞:一方面,迫於美國的芯片禁令,他們得不到最先進的芯片源源不斷的支持;另一方面,他們還要追趕國外已經到了ChatGPT4水準的技術。
陳巍感慨中國AI企業的不易。如果得不到國外先進的芯片,中國企業只能使用比較老舊或者工藝成熟但不那麼先進的芯片,綜合性能可能只有A100的60%,數量需要更多,跑得卻更慢,綜合成本要高出20%至30%,對於企業來說,這很有可能是賺錢和不賺錢的分水嶺,活下去和活不下去的分水嶺。
處處受限,起步又晚,但大模型也得幹下去。
王小川在接受媒體採訪時說,晚了也得干。美國人之前把核彈造出來,中國就不造了嗎?這跟創業公司本身沒關係,是中國要不要做的問題。
王石認為,中國企業沒必要「芯片焦慮」。他提到了前幾年「挖幣」造成的硬盤泡沫,結果造成了SSD(硬盤)的一地雞毛,整個硬盤廠商在2022年整年可能都在消耗庫存。
GPU只是大模型創業鏈條中的一環,機房環境、算法、人才等等也必須配套跟上。
IT設備特別是計算設備的迭代和更新太快,如果在沒有準備好的時候,放在庫房裡沒有用,放一年,價值就浪費了。「現在都在用A800,今年下半年就有H800,性能提升很快,這個時候搶到了A800,但如果還沒有用起來,是沒有價值的,永遠會有新產品出來。」王石表示。
王石還補充說,現階段,算力的供應無論如何是不夠的。這有兩個策略,一個是把後台的產能跟上,另一個則是優化效率,通過算法等技術手段提升可用算力的效率。
英偉達成最大贏家
阿里和騰訊近期在算力市場都有重大動作。
阿里雲在4月11日峰會上說,阿里雲進行有史以來最大幅度的一次降價,通用計算將大幅降低,對比上一代主售產品最高可下降40%,還發布了「飛天免費試用計劃」,開放計算存儲、數據庫、機器學習等核心產品免費試用。
騰訊則發布了新一代高性能計算集群HCC,採用了國內首發的H800 GPU。有數據稱,騰訊雲新一代集群的算力性能較前代提升高達3倍,是國內性能最強的大模型計算集群。
但不管哪家,他們都擺脫不了一個名叫英偉達的廠商,其創始人黃仁勛,江湖人稱「黃教主」,他多次為此次ChatGPT浪潮鼓風。
「我們正處於AI的iPhone時刻。」黃仁勛在3月2023年GTC大會上說,「初創公司正在競相打造顛覆性產品和商業模式,科技巨頭也在尋求突破。」
在此次大會上,黃仁勛發布了ChatGPT專用芯片H100,而且他宣布,將會把由八塊旗艦版A100或H100芯片集成的超級AI計算系統通過租賃的方式開放給企業。每月租金為37000美元,以加速推動這輪大語言模型引領的AI繁榮。
外媒一份數據顯示,英偉達占據了95%圖形處理器的市場份額。IDC數據顯示,國內GPU服務器在2021年占國內服務器市場規模的比例超過88.4%,的產品占比超80%。
聯想集團CTO芮勇說,目前來看,還是的天下,但未來不確定,因為大家對算力的需求只會越來越大。
行業人士說,未來GPU和算力的需求一定是多元的,或者說異構的。到了現在算力需求大爆發的時候,帶來的第一個變化就是在這個領域多元化的蓬勃發展。
水大魚大,但蝦米和浮游生物等也會有存活機會。多元帶來了更多的機會,但是最後誰能勝出,就看誰的戰略定力,能持續地投入。
(應採訪對象要求,文內王石為化名)-[鈦媒體註:文源公眾號中國企業家雜誌*作者:閆俊文*編輯:李薇,鈦媒體經授權發布。-鈦媒體]