大模型們背後的"小算盤"
厄爾尼諾指數快速增加,史上最熱夏天即將到來,但比氣候更「火熱」的是科技互聯網行業的大模型淘金潮。
今年年初,各方大佬下場創業打響了淘金熱的第一槍,緊接着的是3月開始的大廠扎堆布局,連高校與國家隊都爭取跑步入場,淘金熱愈演愈烈。5月6日,我們又迎來了一位玩家入場,科大訊飛發布旗下認知大模型星火。
興許是大眾與業界對於密集發布的大模型有些「脫敏」,訊飛星火發布的消息未能引起行業的熱烈反響。如今的局面其實並不意外,因為商業社會的發展總是需要新的故事。早在今年2月,ChatGPT的出圈就為AI板塊的科大訊飛狠狠地拉了一波股價,GPT概念股至今仍廣為投資者所關注。
據了解,「星火認知大模型」是純文本模型,僅支持文本內容的輸入和輸出,多模態交互需要自升級產品星火Pro獲取。而通過TTS(從文本到語音)實現語音提問功能可以說是意外之喜,也是科大訊飛有別於一眾大廠的特點之一。
此外,本次發布會與此前各家大模型發布會最大的不同在於,科大訊飛CEO劉慶峰為大家「畫了一張帶有時間線的大餅」:6月9日前,訊飛星火大模型將突破開放式問答,實現對話能力和數學能力的再升級;8月15日前代碼能力會上大台階,多模態交互能力再升級,在10月24日前,星火大模型將對標ChatGPT,在中文能力上超過ChatGPT,在英文能力上與ChatGPT相當。
這是一個管理預期的故事。
回顧近十年的商業新故事,其中既有智能手機、新能源、雲計算等光環(aura)加身的神話,也不乏元宇宙、NFT這類被祛魅後步入暗夜的案例。每一個故事在開始之時都宣稱將開啟一個新時代、新紀元,宏大的敘事為其披上克里斯瑪的外衣,等待其進入商業場景後被市場驗證。
反觀科大訊飛,大模型是它不得不抓住的光環。
大模型是AI賽道重新洗牌的機會已是共識。而且自科大訊飛近年來的業務發展路線看,其引以為傲的語音識別賽道受困於創新者窘境,視覺領域也有AI四小龍後來居上,嘗試拓展的智慧醫療、智慧金融業務的表現也只是不夠出彩,在2022年整體營收中占比均不足3%。
回歸大模型本身,隨着迄今為止人類歷史上用戶增長速度最快的ChatGPT不得不關閉付費渠道,一場屬於科技互聯網的「西進運動」儼然開始進入中場。
現在我們離GPT還有多遠?
LLM(大語言模型)、Token(文本單位)、參數,為4月內幾乎未曾間斷的大模型發布會所吸引的VC們一面接收這場寶貴的知識爆炸,一面搖身一變成為AI領域的深耕者。按本山大叔的話來說,就是「聰明的智商又占領高地了」。
先行的創業者們早早通過自身過硬的攢局能力拉來了數輪融資,後來的創業者們也在抓緊忽悠風投上車,勇立時代潮頭一起吃肉喝湯。
只是直到目前,無論是最早發布的大模型文心一言還是後續開放測試或在發布會上實機演示的大模型都距離ChatGPT存在一定距離,包括5月6日發布的科大訊飛星火。
星火發布會上,劉慶峰現場演示星火的能力並提出了評測大模型的覆蓋7大類481個細分任務類型。儘管真機實測勇氣可嘉,測試內容出錯較少且響應快速,整體的情感理解與邏輯線也都在線,但整體測試類別還是以簡單的文字生成為主。這一塊基本屬於科大訊飛的傳統藝能,並不能看出自去年12月起至今近6個月的數據投餵成果。
換句話說,目前的生成內容還無法看出星火達到了智能湧現的標準。不過考慮到科大訊飛的數據要素來源主要在於教育、醫療、汽車等細分領域,目前的表現也就不難理解了。
本次發布會上科大訊飛還展示了星火搭載下的學習機、虛擬人、汽車座艙域智能辦公演示,這既是亮點也是槽點。亮點在於星火大模型在誕生之初就已經找到了明確的商業化落地路徑,其中教育硬件與辦公硬件也是科大訊飛過去兩年內的營收主力;槽點在於這幾條路徑相對於大模型而言顯得過於狹窄,可能是星火在測試時所表現出的能力還尚未達到賦能千行百業的水平。
不過,學霸未嘗就是未來混得最好的。在大模型競爭劇烈的當下,率先占領垂直領域應用的高地並進入自我造血反哺大模型訓練的良性循環,未嘗不是一條可行的路徑。
更值得注意的是,劉慶峰在發布會結束後透露,星火大模型的算力硬件主要由華為提供,當前並未受到限制。
由此我們也不難看出,一是自身是否有算力儲備在大模型訓練中也許沒那麼重要,尤其是並不是所有人都將大模型定位於「通用」級別的時候。相反,數據要素的重要性更加凸顯,這在當初百度、阿里等坐擁多領域高質量語料的頭部大廠發布大模型時尚不明顯,如今科大訊飛在教育領域的演示成果與泛領域演示成果的鮮明對比足以說明數據的重要性。
二是「送水人」式的「技術商人」路徑在大模型井噴的當下切實可行。一方面送水人可以通過租售算力甚至訓練方法,在獲利的同時解決算力冗餘,另一方面收水人也可以節約大模型訓練的成本,杜絕內卷和重複基礎設施建設,讓大模型相對不再那麼「重資產」。
在劉慶峰的規劃中,星火將在10月24日達到中文能力超越ChatGPT,英文語料能力相當。且不論對標的是GPT3.5還是GPT4,我們不妨以此時間為節點,到時候再審視國內大模型與OpenAI的差距,是越來越小還是越來越大。
祛魅大模型
訊飛星火的發布從一方面也可以看做是從李開復理解的AI 1.0演進為AI 2.0,是從NPL(自然語言處理)、CV(計算機視覺)到海量數據餵養下具備跨領域知識與智能交互能力的大模型。這是在李開復萬字演講中廣為流傳的"AI 2.0"範式。
有能力者做通用大模型,稍有欠缺者如科大訊飛,也要根據自有業務線如醫療、教育等場景做規模稍小的大模型。這是一個足夠宏大的敘事,尤其是在國內多位大佬呼籲將所有應用接入大模型重做一遍的話術,充滿了即刻為一項技術突破迅速找到場景進行商業化落地的渴望。
如今的火熱場景我們並不陌生,近年來,我們為了便於傳播與理解,往往會以序列號化的話術來形容技術範式的迭代演進。意義建構理論的學者認為,這是將信息的尋求與使用視作一種溝通實踐模型,幫助人進行信息接收的做法。
從互聯網泡沫後提出的Web1.0和Web2.0到通信領域的4G和5G,以及AI領域,序列號給人以最直白的觀感,為我們帶來無限的想象空間,這個視角下的技術可以在草蛇灰線之中無限升維演進。越是這樣帶有技術革命色彩的故事,越是能吸引關注與投資,越具備商業化落地的可能性。
只是能否落地卻是未知數,就像大模型湧現現象的發生概率只有0%和100%。
在資深機器學習與應用開發者楊軍看來,市場上的「百模大戰」與投資圈的狂熱是在巨量資源投入後,廣譜性質的壓強效應所致,但是在這之中不可避免泡沫的存在。「我不太認可在介紹ChatGPT相關技術時引入的春秋筆法或過於PR的味道,總覺得這會把一個原本正常該由技術驅動的事物的演進節奏變得混亂了。關鍵的技術需要回歸到客觀層面理解,才更有利於這個方向的健康發展。」
春秋筆法對新生事物的揠苗助長在AIGC前一輪Web3風口中隨處可見,尤其是結合了VR、AR後誕生的元宇宙賽道。科技互聯網從業者必須銘記的案例是Facebook更名Meta,梭哈元宇宙後的窘境。反觀國內,一直以來商業化都是我們的強項,反之也遭到不少缺乏研發耐心、忽略底層技術的詬病。
楊軍透露:「我知道的一些這個行業里比較資深的模型從業人士,似乎很多都因為背負了投資方的壓力,更多考慮的是商業變現,而不是底層技術的創新和突破。」
在商業化變現前,大模型需要填滿的洞有多深?
由英偉達給出的GPT3訓練數據,參數規模為1750億,訓練語料為30億 tokens,那麼訓練一個周期需要26天,採用租賃方式以8卡A100訓練的成本超256萬美元/月,即使忽略人力成本,硬件成本最低也需要大約2億人民幣一年。楊軍稱,這已經是很保守的估計,系統故障、策略調整等因素也未曾考慮,人力成本更是在技術創新領域的大頭,如果希望提高效率,以並行方式實驗探索,那麼硬件成本還需追加一倍。
5年時間,25~30億不計回報的總投入,這是客觀技術視角下做好一個GPT4前兩代的大模型所需要的準備。這筆研發投入已經接近於半導體了。
楊軍對此憂慮頗多,尤其是在風投方面。「在我有限的閱歷里,看到了不少風投一開始說支持情懷,隨着時間推移,會對變現和尋求接盤退出越來越饑渴,最終以各種方式干預到項目執行層面。不確定性較強的技術攻關遭遇的問題,需要行業層面來克服」。
在技術革命後的第一次格局重構中,狂熱者往往被浪潮無情裹挾,重重拍在淺灘上。好比去年吸收了數千億美元的Web3,其大本營新加坡如今已有不少從業者租不起房,吃不起飯。
我們對大模型的暢想究竟是像APUS李濤所言「爭奪下一代操作系統的話語權」,還是針對某個具體場景和領域的賦能,亦或是在浪潮之中尋求資金、博取熱度,無論哪種都需要讓大模型褪去克里斯瑪,客觀地看待與探求。
大模型也可以小而美
在眾人一擁而上的時候,相對冷清的路徑反而更有可能成功。
比如在星火上被驗證的「送水人」路徑,除華為外,字節旗下火山引擎、騰訊雲等玩家已在4月這個節點對外明確了自身「送水人」的角色,通過提供算法優化、算力、數據飛輪等技術棧服務來做淘金熱中的服務商。路徑明晰競對少的同時還可以一定程度上「分攤」大模型的訓練成本。
這條商業路徑早在淘金運動中便已驗證,但成功故事的背後是淘金運動的「內卷」特性,才會誕生服務的需求空間,同時「送水人」還需要在這種上游配套式或衍生周邊式服務中占據壟斷地位。「送水人」亞默爾原本只是平平無奇的淘金者之一,直到他第一時間抓住了淘金者對水的需求並通過開挖水渠的方式打造了一個專屬於他自己的飲用水生產線。
在如今的大模型中局,時間問題無需考慮,也不存在有誰能在某項服務中能占據壟斷地位。那麼討論的重點便在於其提供的服務。
大模型的服務需求則可以用AI三要素來概括,分別是算力、算法與數據,其中算力是相對最缺乏競爭力的領域。因為算力在淘金者的視角下僅僅只是成本,而在送水人的視角下卻是商品,單純提供算力難免會陷入價格戰的怪圈,反過來掣肘自己的大模型訓練。
算法與數據則與此相反,兩者均可以提高大模型的訓練效率,甚至直接影響訓練成果。只是長遠看來,這兩項服務的前景也不甚樂觀。
算法方面,OpenAI就是最好的例子,被開發者戲稱為「CloseAI」的原因之一便是其堅持閉源。大模型訓練中的策略、算法是可以作為企業護城河的核心資產,「送水人」開放給外界使用的程度將直接關聯自家大模型的競爭強度,數據方面也是如此。反之,購買大模型服務的企業也會要求算法與數據的安全,爭取在「安全線」之下有限的互幫互助。
目前看來,「送水人」們除非退出通用大模型的競爭,否則送水的動作也很可能只是在成本控制上的錦上添花,真正的「送水人」還得是英偉達。這也意味着,我們需要另尋更切實的路徑。
日前,OpenAI關閉付費渠道已在業內引起不小的討論,最有可能的原因是GPT4在接入微軟全棧應用後算力吃緊,只能暫時放棄C端增長來穩住大金主。而OpenAI聯合創始人兼CEO Sam Altman更是公開表示OpenAI已接近LLM的極限,認為LLM的規模不再是衡量模型質量的重要指標,未來將有更多的方式來提升模型的能力和效用。
換句話說,大模型中場之際,OpenAI在否決了一昧追求規模的路徑同時為行業指出了大模型的迭代新路,即通過優化訓練策略、全局調度以減少投入成本,同時將笨重的大模型轉向小而美的方向發展。
楊軍對此頗有研究,並對此介紹了部分海外已經開始的創新案例。
關注系統優化並結合模型訓練策略進行全鏈路訓練優化的公司MosaicML提出,通過將參數降低至300億同時將Token數提升至61億,以256張40GB的A100為資源訓練一個周期,只需要36天即可得到與GPT3相同質量的訓練結果,而成本僅需要88萬美元,幾乎是GPT3原始訓練成本的三分之一。除了訓練策略的優化外,通過對CPU主存+磁盤外存+GPU顯存的使用進行全局調度優化,讓低端顯卡serve大模型成為可能。
「一款AI框架解決的其實是上層的業務模型需求到底層計算硬件執行的映射問題,在性能足夠的情況下,僅拼性能就可能陷入了『技術有深度但競爭呈紅海』的戰場。」
為了避免這樣的競爭,不少大模型在推出時便在宣傳上做了一定的區分,關鍵在於是否存在「通用」二字。這其中有源自NPL基底並在數個領域直接落地的星火、根植辦公場景的金山「WPS AI」、立足於問答社區生態的知乎「知海圖AI」等,其共同點在於針對具體場景,以對行業的縱深理解與數據支撐為基礎,以大模型的「湧現」能力為跳板,實際上卻是披着通用大模型外衣的中小模型。
送水人也可以參考這樣的「技術商人「的思維。在楊軍看來,與其參與無謂的hardcore「內卷」,不如去思考自己的技術點在可以在完整商業鏈中發揮什麼功能,完成什麼閉環,通過能力與方向的差異化發掘更多價值。
保持一個啃硬骨頭的決心,開闊技術商業化的視野,是大模型玩家們的必修課。相對追求規模,我們與海外在小而美方向上的研究反而在時間節點上更相近,這也意味着更大的機會。無論是預算與資源相對緊張的創業公司還是有底氣隨時掏出數千張A卡的大廠,都需要認識到這點。-[文:光子星球*作者:吳坤諺*編輯:王潘/鈦媒體]