變局!英偉達開始被圍攻
當ChatGPT在彼岸快速進化的同時,國內的大模型應用也如火如荼。
「我們最近剛購買了百度文心一言的標準通用接口服務,業內採購需求非常旺盛。」一家傳統企業的數字化負責人告訴21世紀經濟報道記者。
他介紹道:「標準接口之外,他們還提供雲端部署(公有雲)和本地化部署(私有雲)兩種服務。其中,雲端部署的基本費用是一年一個並發20萬,有需求的公司一年普遍會有10到20個並發,費用都是在百萬級別,本地化的私有雲部署則需要1000萬部署費用。」
可見,大規模地使用生成式AI依然成本高昂。背後的兩個事實是,AI訂單持續增加、核心的硬件成本GPU水漲船高。
一位AI領域資深從業者甚至向21世紀經濟報道記者直言:「你在為你沒有見過的顯卡付費。現在消費者使用的幾乎所有AI類服務,全部都是由算法提供的,比如短視頻的視頻編輯系統、推薦系統都是由算法進行驅動,這些算法的底層全部都需要調用GPU。這就意味着,只要你刷抖音,你就在直接或間接地使用GPU。」
借着新東風,GPU代表者英偉達一舉站上AI的「光明頂」。而AI江湖中的門派也在瘋狂迭代,「圍攻」光明頂。芯片巨頭們蓄勢待發,英特爾已經發布了Gaudi 2、即將推出Gaudi 3、正在研發Falcon Shores;AMD發布了MI300系列,MI400正在路上;國內的華為昇騰、以及AI芯片企業們也在提供算力新選擇。
互聯網大廠們也在加快自研步伐,亞馬遜有機器學習訓練芯片Trainium和推理芯片Inferentia;谷歌研發已久,今年發布了第五代定製張量處理器(TPU)芯片TPUv5e,用於大模型訓練和推理;近日傳微軟將在下月發布AI芯片,代號「Athena」;甚至有消息稱OpenAI也正在探索AI芯片的自研。
AI芯片的戰場上,繼續硝煙四起。
英特爾和AMD的猛攻
今年以來,英特爾和AMD帶頭「主攻」,在他們的年度大會,AI是絕對的主題詞。從各自布局來看,其實兩家都已有豐富的產品矩陣,AI芯片主要分為GPU、FPGA以及ASIC,英特爾和AMD通過收購和研發都覆蓋了三種類型的芯片,但是兩者側重點有所不同。
從英特爾的動作看,今年最受關注的莫過於Gaudi系列,Gaudi屬於ASIC類別。已經發布的Gaudi 2芯片是專為訓練大語言模型而構建,採用7納米製程,有24個張量處理器核心,並且英特爾還針對中國市場推出定製版的Gaudi 2,爭奪市場的野心可見一斑。
值得注意的是,Gaudi系列芯片是基於英特爾之前收購的AI公司Habana,而規劃中的AI新品Falcon Shores將在Habana的架構基礎上,和英特爾原有的GPU等技術進行融合,因此Falcon Shores也備受業內關注。
對於FPGA業務,英特爾則在10月初宣布將其拆分,此前英特爾斥巨資收購了FPGA龍頭Altera,數據中心一直是FPGA的重要發展市場,如今該業務即將「獨立」並IPO。而負責英特爾FPGA的部門就是PSG(可編程解決方案事業部),英特爾表示,PSG預計將於2024年1月1日開始獨立運營。
英特爾還預計,將在2024年第一季度財報中,將PSG作為一個獨立的業務部門進行報告。在未來兩到三年內,英特爾將保留多數股權,同時計劃對PSG進行首次公開募股,並可能與私人投資者探討加速業務增長的機會。
事實上,PSG的業績頗為穩定,PSG團隊預計在2023年推出15款新產品,目前已推出11款。FPGA產業也處於增長中,據第三方估計,FPGA市場將以複合年增長率(CAGR)超過9%的速度增長,從2023年的80億美元收入增至2027年的115億美元。剝離更多是因為英特爾在進行整體業務架構重組,欲通過此舉讓PSG更獨立靈活地運作,獲取更大的成長空間。
對於英特爾而言,其正在聚焦IDM新規劃,重新回到製程節奏中,並在AI新空間上精進。在今年的on技術創新大會上,英特爾公司高級副總裁、英特爾中國區董事長王銳在接受21世紀經濟報道記者等採訪時談道:「經常有人問我,誰是英特爾的競爭者?我一直說,英特爾的競爭對手是自己。任何一家大公司也都一樣,當你不斷前行的時候,經常就會自己把自己絆住。認識到問題後,然後找到一個策略去改變,到開始真正把這個引擎重新轉起來,這是一個艱難的歷程。」
她進一步表示:「Pat(英特爾CEO帕特·基辛格)回來之後,可以看到我們的里程碑說到做到,英特爾把自己的進度重新抓回了自己手中。外部的環境千變萬化,我們有這麼多的長處,只要把自己的執行力落實了,一定有機會。比如AI,我們希望跟自己的客戶和生態系統一起去優化。」
在王銳看來,從Gaudi2、Gaudi3到Falcon Shores,再加上至強的AI應用,是英特爾未來加速器與AI計算發展的路線圖,英特爾強調AI無所不在,就是在客戶端、邊緣端和雲端也有AI。「幾十年間大家都在推動AI發展,現在已經有很多到了夢已成真的時候。對於ChatGPT的熱潮,我認為其實ChatGPT目前的這些應用只是一個非常短暫的中間步驟,以後會看到越來越多的應用。」王銳告訴記者。
再看AMD,今年6月,AMD發布用於訓練大模型的GPU Instinct MI300系列,主要包括MI300A、MI300X兩個版本。AMD CEO蘇姿豐稱,這是全球首款針對AI和高性能計算(HPC)的加速處理器(APU)加速器。同時,AMD正積極研發更為先進的MI400系列加速器。此外,在FPGA方面,AMD已經收購了賽靈思進行整合,來拓展數據中心市場。
日前,天風國際分析師郭明錤在社交平台上表示,AMD的AI芯片出貨量預計在2024年、2025年快速增長。到2024年,AMD的AI芯片出貨量(主要是MI300A)預計將達到英偉達出貨量的約10%,微軟有望成為 AMD AI 芯片的最大客戶,緊隨其後的是亞馬遜。如果微軟與AMD的合作進展順利,AMD獲得Meta和谷歌的訂單,預計2025年AMD的AI芯片出貨量將達到英偉達(基於CoWoS封裝技術)的30%或更多。
同時,AMD也在積極布局AI領域,今年8月連續收購了兩家AI企業,分別是AI軟件公司Nod.ai與來自法國的AI初創公司Mipsology,以增強其人工智能軟件的開發能力。根據公開信息,Nod.ai主要為大型數據中心運營商和其他客戶提供優化的AI解決方案,已經開發了一個由開發者工具、庫和模型組成的軟件生態系統。而Mipsology是AMD的長期合作夥伴,此前一直為AMD開發AI推理與優化解決方案和工具,其旗艦產品為Zebra AI軟件。
AMD總裁Victor Peng在接受媒體採訪時表示,最新的收購是為了執行AMD「建立用AMD芯片開發的AI軟件集合」的戰略。在AMD計劃大力投資於將使用其人工智能芯片所需的關鍵軟件,這也被業內視為AMD追趕英偉達的策略之一。
互聯網自研芯片大軍
互聯網企業是GPU的核心用戶,但與此同時,巨頭們早已開啟自研AI芯片的道路。一方面是出於成本和多渠道供應的考量,另一方面也是針對自身業務需求定製從而強化競爭力,其AI芯片也基本用於公司業務,並不在公開市場銷售。
近期的熱點莫過於微軟和OpenAI。據媒體報道,微軟正在開發自己的AI芯片,該芯片最早將於下個月推出,芯片代號為「雅典娜(Athena)」,類似於英偉達的圖形處理器,旨在訓練和運行大型語言模型的數據中心服務器。若該芯片順利推出,將減少微軟對英偉達芯片的依賴並降低成本,據悉「Athena」的競爭目標劍指英偉達的H100 GPU。
早在今年5月,就已經有消息傳出微軟正在提供財務支持,以加強AMD研發AI芯片,並與之合作開發代號為「Athena」的自研AI芯片。報道還稱相關計劃從2019年已經開始進行,目前微軟內部至少有 300名員工在從事代號為「Athena」的芯片研究計劃。也可以看到,芯片廠商和互聯網廠商的合作模式更深入、也更多元化。
在英偉達一卡難求、一卡千金的情況下,特斯拉創始人馬斯克在財報會上直言,投資超過10億美元用於D1芯片的研發,是因為特斯拉無法得到足夠的英偉達GPU。如今,OpenAI都可能成為AI自研芯片的新晉者。
據媒體報道,OpenAI至少從去年開始討論各種解決方案,以解決AI芯片成本高昂、短缺等問題。包括自行研發AI芯片、與英偉達在內的芯片商更密切合作、也包括評估潛在收購目標來加速開發,從而使AI芯片供應來源更多元化,而不受限於英偉達。
從一組數據就能看出訓練大模型的GPU需求量之大。TrendForce集邦諮詢向21世紀經濟報道記者提供的數據顯示,由於生成式AI必須投入巨量數據進行訓練,為縮短訓練就得採用大量高效能GPU。以ChatGPT背後的GPT模型為例,其訓練參數從2018年約1.2億個到2020年已暴增至近1800億個,預估GPU需求量約2萬顆,未來邁向商用預計可達3萬顆(以英偉達A100為主)。
事實上,以亞馬遜和谷歌為代表的互聯網巨頭早已躬身入局。以谷歌為例,TPU的研發已久,最新推出的第五代芯片TPUv5e,用於大模型訓練和推理,與上一代芯片相比,TPUv5e每一美元的訓練性能提高2倍,每一美元的推理性能提高2.5倍。這一新品也被谷歌雲形容為「超級計算機」,強調將性能與成本降低相結合,使更多的組織能夠訓練和部署更大更複雜的AI模型。
而TPU也和谷歌的雲服務緊密結合,同時谷歌雲還將推出由英偉達 H100 GPU提供動力的A3 VM,能夠在前一代A2 上提供三倍的訓練性能。作為AI老將,谷歌從雲端、終端、芯片、大模型、平台工具等等,進行了全覆蓋。它和微軟一樣,既是雲計算的重要參與方,也是應用集大成者,在生成式AI的普及趨勢下,先行者谷歌還將如何落地AI也是關注焦點。
再看亞馬遜,作為全球的雲計算王者,其也在持續迭代自研芯片。此前,亞馬遜發布了基於自研的AI訓練芯片Trainium和推理芯片Inferentia。亞馬遜表示,採用了Trainium的雲服務器將大模型訓練成本降低了50%,最多可以將30000個Trainium芯片連接起來提供超過6 exaflops的算力集群,連接帶寬可高達1600Gbps,與之相較目前AI服務器之間連接帶寬最高水平約為3200Gbps,Inferentia2則針對大模型推理進行優化,將推理的性價比提高了40%。
亞馬遜雲科技全球產品副總裁Matt Wood在今年接受媒體採訪時曾談道,芯片僅是整個AI圖景的一部分,一方面,客戶可以在亞馬遜雲科技的雲上使用英偉達等公司的芯片;另一方面,自研AI訓練芯片Trainium在網絡互聯等領域仍有顯著優勢,並降低了成本。
再看國內,BAT等巨頭均已入場,比如百度旗下的崑崙芯片,瞄準的是雲端AI通用芯片;阿里已經推出高性能推理AI芯片含光系列;騰訊自研的AI推理芯片紫霄,已經量產並在多個頭部業務落地,目前在騰訊會議實時字幕上已實現全量上線;字節跳動此前也表示在組建相關團隊,在AI芯片領域做一些探索。
IDC亞太區研究總監郭俊麗向21世紀經濟報道記者表示,近日互聯網巨頭通過自研AI芯片,與包括英偉達在內的其他芯片製造商更密切地合作,想要在英偉達之外實現供應商多元化,同時獲得更好的控制權,提升產品適配性,更好匹配產品開發節奏。
她進一步分析道:「長期來看,這一趨勢對英偉達的業務會造成影響,但不會太大。因為對於互聯網企業來說,芯片設計生產將面臨一些挑戰。」
其一是芯片設計技術複雜,高算力芯片的結構非常複雜,計算單元、存儲訪問以及芯片互聯都需要豐富的經驗和慎重的考量;其二是軟件生態非常關鍵,英偉達長時間建設的CUDA生態,是迄今為止最發達、最廣泛的生態系統,也是深度學習庫最有力的支持。要想撼動其地位,具有一定難度;其三是芯片生產具有挑戰,獲得產能、保持良率、先進封裝技術等環節也是各大技術巨頭要解決的問題。
「總體而言,想要撼動英偉達的壟斷地位,並不是一朝一夕的事。各大科技巨頭要想在AI算力芯片上突圍,就必須在專利、核心技術、人才建設、生態建設等方面不斷積累,並獲得突破。採用自研+採購可能是一個更加合適的策略。」郭俊麗總結道。
英偉達的AI版圖
當前,英偉達仍穩坐GPU王座。近日英偉達的最新路線圖被曝光,Arm和x86架構的芯片都會更新。多位業內人士向記者表示,產品更加強大,代際的差距進一步拉大。
一方面,GPU的需求還在增加。集邦諮詢預估到2025年,全球若以等同ChatGPT的超大型AIGC產品5款、Midjourney的中型AIGC產品有25款,以及 80款小型AIGC產品估算,上述所需的運算資源至少為145600~233700顆英偉達的A100 GPU。
目前主要由搭載NVIDIA A100、H100、AMD MI300,以及大型CSP業者如Google、AWS等自主研發ASIC的AI服務器成長需求較為強勁,2023年AI服務器出貨量(包含搭載GPU、FPGA、ASIC等)出貨量預估近120萬台,年增率近38%,AI芯片出貨量同步看漲,可望成長突破五成。
另據研究機構Omdia透露,英偉達在2023年第二季度出貨了900噸 H100顯卡,據估算一塊 H100 顯卡的重量大約是3公斤。因此,可以推算出英偉達在第二季度賣出了大約30萬塊H100顯卡,這是一個巨大的數字。Omdia表示,預計英偉達在未來幾個季度將銷售大致相同數量的GPU,因此該公司預計今年將銷售約3600噸的H100 GPU,也就是每年大約有120萬個H100 GPU。
另一方面,除了硬件的供不應求,今年英偉達在AI領域的投資和雲計算方面的布局同樣矚目。
英偉達為了保證自身在AI領域內持續領先,除了要在技術方面更新算力更強的芯片外,也在參與人工智能生態領域的其他環節。今年英偉達強化了收購投資之路,據21世紀經濟報道記者不完全統計,今年以來英偉達已投資收購了十餘家人工智能方面的初創企業,試圖完善在AI領域產業鏈多個環節的布局。
隨後英偉達又展開了多項投資,整體來看,英偉達的投資主要分為四個類別,一是雲服務提供商,二是AI軟件與應用企業,三是AI芯片公司,四是與「AI+」合作的其他領域企業。
在雲服務商方面,英偉達在4月參與了CoreWeave公司2.21億美元的B輪融資,同時又在7月被媒體報道將以3億美元入股雲提供商Lambda Labs,此項交易接近達成。
而在AI軟件企業方面,英偉達的投資更是頻繁多元。早在今年2月,英偉達就宣布收購了人工智能初創公司OmniML,主要產品是Omnimizer,一個旨在快速、輕鬆地大規模進行AI優化的平台。通過OmniML所提供的技術與產品,機器學習模型能夠小型化,且能夠在邊緣設備上運行,而不是依賴雲計算。
在3月英偉達參與了專注人工智能模型開發領域的Adept公司3.5億美元的B輪融資;隨後在6月到7月先後投資了三家大語言模型開發企業Cohere、Inflection AI與來自德國的Aleph Alpha,分別參與了這三家公司2.7億美元的投資,13億美元的融資,以及1.12億美元的融資。
除此之外,英偉達也參與了AI視頻編輯器企業Runway1.41億美元的融資,OpenAI的知名對手以色列人工智能初創公司AI21 labs在今年1.55億美元的C輪融資,以及一家試圖構建AI代理工具平台的公司Imbue2億美元的投資。
近來英偉達的投資方向也越發多元,參與了AI芯片初創公司Enfabrica1.25億美元的融資之外,還投資了一家醫藥公司Recursion與一家機器人公司Recursion。可見在英偉達在AI生態中的布局積極關注軟件與應用方面的企業,但同時也將棋子下在了更廣闊的AI合作應用領域。
在原有的AI基礎上,英偉達進一步拓寬護城河。尤其是在雲計算領域,英偉達也在通過自己的方式進入到雲服務市場。今年英偉達提出了雲服務的解決方案NVIDIA AI foundations,企業可以通過在 NVIDIA DGX Cloud 快速採用生成式AI。英偉達創始人黃仁勛表示要做「AI界的台積電」。台積電為芯片設計公司大大降低了生產門檻,英偉達也要做代工廠的角色,通過和大模型廠商、雲廠商合作提供高性價比的雲服務。
英偉達在8月份的季度報告中表示,向開發人工智能或虛擬現實應用程序的公司出售軟件是一個潛在的3000億美元的收入機會。公司首席財務官Colette Kress也在季度財報電話會議上指出,軟件業務每年創造數億美元的收入,與芯片業務相比只是九牛一毛,但仍有望增長。
面對軟硬件同樣強大的英偉達,不論半導體還是互聯網巨頭,想要在短期內超越英偉達並非易事。
以英偉達和AMD的競爭為例,拓墣產業研究的報告就指出,2022年第四季以前英偉達、AMD Data Center營收趨勢相當一致,營收規模也基本保持同樣差距,然2023年英偉達顯著受惠AI熱潮,2023年第一季、第二季Data Center營收分別年增14%、171%,與AMD大幅拉開差距。
AMD在2023年第二季陷入衰退(-11%),主要原因為AMD Data Center營收主要來自於一般服務器(以CPU為主),反而受到A1服務器的排擠效應影響,若2023年第四季MI300系列產品能如期量產的話將有望改善。而2022年英偉達營收來源即以Data Center(數據中心)為主,2023年比重更進一步攀升至76%,2023下半年在AI芯片出貨量持續增加下比重將進一步上升。
一次又一次穿越歷史周期的英偉達,正在AI高峰上加固,AMD等多個陣營正在發起新攻勢,攀登中的挑戰者門派還在增加,AI變局也將繼續。
[SFC*本期編輯:黎雨桐*實習生:趙鳳鈴/作 者:倪雨晴*編 輯:張偉賢*圖 源:視覺中國/21世紀經濟報導]