陸奇的大模型世界觀
就連陸奇都說他跟不上大模型時代的狂飆速度了。他讓下屬做「大模型日報」,一方面便於他跟上論文和信息更新,另一方面給奇績生態創業者共享。他用了三個「實在」表達這一點。「我實在不行了,論文實在是跟不上,代碼實在是跟不上。Just too much(太多了)。」陸奇在近期一次分享活動上說。
這樣的時刻還從沒有過。奇績創壇創始人兼CEO陸奇是中國AI布道人,也是中國針對大模型最有發言權的人之一。他曾在全球巨頭身居要職,先後任職於IBM、雅虎、微軟、百度,曾是華人在美國科技公司最有權威的高層人士,位至雅虎和微軟執行副總裁,回國加盟百度出任集團總裁兼COO。陸奇以勤勉的工作為科技圈著稱——每天清晨4點起床,跑步5英里,6點準時到辦公室。
同時,他和OpenAI有着深厚淵源。陸奇所掌管的奇績前身是YC中國,是美國著名創業孵化器YC(Y Combinator)的中國分支。他也是YC全球研究院院長。而OpenAI首席執行官Sam Altman正是YC二代接班者、現任總裁。兩人雖相差24歲,卻是忘年交,相識已逾18年。當初正是Sam Altman屢次力邀陸奇加盟YC。所以,陸奇對YC、對Sam Altman和OpenAI都有長期的近距離觀察。
2023年4月22日,陸奇在上海舉行小規模演講,騰訊新聞作者參與了旁聽。陸奇希望幫助中國創業者認清這次歷史性的拐點時刻,定位今天的時代坐標、找准自己的位置。「這個時代跟淘金時代很像,」他說道,「如果你那個時候去加州淘金,一大堆人會死掉。但是賣勺子、賣鏟子的人永遠可以賺錢。」
陸奇很反感蹭熱點,他一再警示創業者蹭熱點只會浪費機會。到現在為止,你幾乎很難在公開渠道聽到陸奇的觀點。這也讓本次演講具有稀缺性。
事實上,在大模型快速達成社會共識之際,一部分人期待陸奇博士披甲上陣,做「中國的Sam Altman」——扮演可能比一名投資者、布道者更關鍵的角色。但據奇績內部人說:「Qi目前100%時間花在奇績。」
作者將這場分享進行了完整的整理——演講涵蓋他對大模型時代的宏觀思考,包括拐點的內在動因、技術演進、創業公司結構性機會點以及給創業者的建議。大家可以各取所需。
好了,讓我們來看看陸奇怎麼說。為了方便閱讀,作者做了一些字句修改和文本優化。
01 社會性拐點的核心是一項大型成本從邊際變成固定
我認識Sam Altman是2005年,他那時19歲不到,我已經40多歲了。
我們倆是忘年交。他是一個很善良也很奇怪的小孩,今天很高興他能這樣改變世界。前不久,我春節在美國3個月,也到OpenAI和Sam聊了一些。
首先,怎麼理解這個新範式?這張圖能把ChatGPT和OpenAI所帶來的一切講清楚。之後,基於第一性原理,你自然會推演出所在賽道的機會和挑戰。
這張圖是「三位一體結構演化模式」,本質是講任何複雜體系,包括一個人、一家公司、一個社會,甚至數字化本身的數字化體系,都是複雜體系。「三位一體」包括:
「信息」系統(subsystem of information),從環境當中獲得信息;
「模型」系統(subsystem of model),對信息做一種表達,進行推理和規劃;
「行動」系統(subsystem of action),我們最終和環境做交互,達到人類想達到的目的。
任何體系,都是這三個體系的組合,數字化系統尤其如此。數字化和人分不開。人也一樣,人要獲得信息、表達信息、行動解決問題或滿足需求。
基於此,我們可以得出一個簡單結論。今天大部分數字化產品和公司,包括Google、微軟、阿里、字節,本質是信息搬運公司。一定要記住,我們所做的一切,一切的一切,包括在座的大部分企業都在搬運信息。Nothing more than that,You just move bytes(僅此而已,你只是移動字節)。但它已經足夠好,改變了世界。
早在1995-1996年,通過PC互聯網迎來一個拐點。那時我剛從CMU(卡內基梅隆大學)畢業。大量公司層出不窮,其中誕生了一家偉大公司叫Google。為什麼會有這個拐點?為什麼會有爆炸式增長?把這個觀點講清楚,就能把今天的拐點講清楚。
原因是,獲取信息的邊際成本開始變成固定成本。
一定要記住,任何改變社會、改變產業的,永遠是結構性改變。這個結構性改變往往是一類大型成本,從邊際成本變成固定成本。
舉個例子,我在CMU念書開車離開匹茨堡出去,一張地圖3美元,獲取信息很貴。今天我要地圖,還是有價錢,但都變成固定價格。Google平均一年付10億美元做一張地圖,但每個用戶要獲得地圖的信息,基本上代價是0。也就是說,獲取信息成本變0的時候,它一定改變了所有產業。這就是過去20年發生的,今天基本是free information everywhere(免費的信息無處不在)。
Google為什麼偉大?它把邊際成本變成固定成本。Google固定成本很高,但它有個簡單商業模式叫廣告,它是世界上高盈利、改變世界的公司,這是拐點關鍵。
今天2022-2023年的拐點是什麼?它不可阻擋、勢不可擋,原因是什麼?一模一樣。模型的成本從邊際走向固定,因為有件事叫大模型。
模型的成本開始從邊際走向固定,大模型是技術核心、產業化基礎。OpenAI搭好了,發展速度爬升會很快。為什麼模型這麼重要、這個拐點這麼重要,因為模型和人有內在關係。我們每個人都是模型的組合。人有三種模型:
認知模型,我們能看、能聽、能思考、能規劃;
任務模型,我們能爬樓梯、搬椅子剝雞蛋;
領域模型,我們有些人是醫生,有些人是律師,有些人是碼農。
That’s all。我們對社會所有貢獻都是這三種模型的組合。每個人不是靠手和腿的力量賺錢,而是靠腦袋活。
簡單想一想,如果你沒有多大見解,你的模型能力大模型都有,或者大模型會逐步學會你所有的模型,那會怎樣?——未來,唯一有價值的是你有多大見解。
人類社會是技術驅動。從農業時代,人用工具做簡單勞動,最大問題是人和土地綁定,人缺少流通性,沒有自由。工業發展對人最大變化是人可以動了,可以到城市和工廠。早期工業體系以體力勞動為主、腦力勞動為輔,但隨着機械化、電氣化、電子化,人的體力勞動下降。信息化時代以後,人以腦力勞動為主,經濟從商品經濟轉向服務經濟——碼農、設計師、分析師成為我們時代的典型職業。
這一次大模型拐點會讓所有服務經濟中的人、藍領基本都受影響,因為他們是模型,除非有獨到見解,否則你今天所從事的服務大模型都有。下一時代典型的職業,我們認為是創業者和科學家。
所以,這次變革影響每個人。它影響整個社會。
02 我所看到的三個拐點
下個拐點是什麼?
下個拐點將是組合:「行動」無處不在(自動駕駛、機器人、空間計算)。也就是人需要在物理空間裡行動,它的代價也從邊際走向固定。20年後,這個房子裡所有一切都有機械臂,都有自動化的東西。我需要的任何東西,按個按鈕,軟件可以動,今天還需要找人。
那麼,哪些公司能走到下個拐點、站住下個拐點?我認為特斯拉有很高概率,它的自動駕駛、機器人現在很厲害。微軟今天跟着OpenAI爬坡,但怎麼站住下個拐點?
接下來講一下我們看到的三個拐點:
今天信息已經無處不在了,接下來15-20年,模型就是知識,將無處不在。以後手機上打開,任何聯網,模型就過來了。它教你怎麼去解答法律問題,怎麼去做醫學檢驗。不管什麼樣的模型都可以無處不在。
在未來,自動化、自主化的動作可以無處不在。
人和數字化的技術共同進化。Sam最近經常講,它必須要共同進化,才能達到通用智能(AGI)。通用智能四大要素是:湧現(emergence)+代理(agency)+功能可見性(affordence)+具象(embodiment)。
總結來說,我們從根本性的三位一體結構分析未來,從過去的歷史拐點能清晰看到今天所面臨的拐點,本質是模型成本從邊際走向固定,將有一家甚至多家偉大公司誕生。毫無疑問,OpenAI處於領先。
雖然講得有點早,但我個人認為,OpenAI未來肯定比Google大。只不過是大1倍、5倍還是10倍。
03 OpenAI核心就堅信兩件事,發展速度連Sam本人都驚訝
下面我從技術角度講OpenAI大事跡,它怎麼把大模型時代帶來的?
為什麼講OpenAI,不講Google、微軟。講真心話,因為我知道,微軟好幾千人也做這個,但不如OpenAI。一開始比爾·蓋茨根本不相信OpenAI,大概6個月前他還不相信。4個月前看到GPT-4的demo(產品原型),目瞪口呆。
他寫了文章說:It’s a shock,this thing is amazing(這太令人震驚了,這東西太神奇了)。谷歌內部也目瞪口呆。
OpenAI一路走下來的關鍵技術:
GPT-1是第一次使用預訓練方法來實現高效語言理解的訓練;
GPT-2主要採用了遷移學習技術,能在多種任務中高效應用預訓練信息,並進一步提高語言理解能力;
DALL·E是走到另外一個模態;
GPT-3主要注重泛化能力,few-shot(小樣本)的泛化;
GPT-3.5 instruction following(指令遵循)和tuning(微調)是最大突破;
GPT-4已經開始實現工程化;
2023年3月的Plugin是生態化。
OpenAI的融資結構為什麼這麼設計?和Sam早期目標和對未來的判斷分不開。他知道要融很多錢,但股權設計有一個很大挑戰——容易把回報和控制混在一起——所以他要設計一個結構,讓它不受任何股東的制約。於是,OpenAI的投資者沒有控制權,他們的協議是一種債的結構。如果賺完2萬億,接下來是non-profit(不再盈利了),一切回歸社會。這個時代需要新的結構。
它勢不可擋。Sam Altman自己都surprise,連他都沒想到會那麼快。
如果大家對技術感興趣,Ilya Sutskever(OpenAI聯合創始人兼首席科學家)很重要,他堅信兩件事。
第一是模型架構。它要足夠深,只要到了一定深度,bigness is betterness(大就是好)。只要有算力,只要有數據,越大越好。他們一開始是LSTN(long short term memory),後來看到Transformer就用Transformer。
第二個OpenAI相信的是,任何範式、改變一切的範式永遠有個引擎,這個引擎能不斷前進、不斷產生價值。
這個引擎基本是一個模型體系(model system),它的核心是模型架構Transformer,就是sequence model(序列模型):sequence in、sequence out、encode、decode後者decode only。但最終的核心是GPT,也就是預訓練之後的Transformer,它可以把信息高度壓縮。Ilya有個信念:如果你能高效壓縮信息,你一定已經得到知識,不然你沒法壓縮信息。所以,你把信息高效壓縮的話,you got to have some knowledge(你得有一些知識)。
Ilya堅信GPT3、3. 5,當然GPT-4更是,它已經有一個世界模型在裡面。雖然你做的事是predict next word(預測下一個關鍵詞),這只不過是優化手段,它已經表達了世界的信息,而且它能持續地提高模型能力,尤其是目前研究比較多的在子概念空間當中做泛化。知識圖譜真的不行。如果哪個同學做知識圖譜,我認真跟你講,你不要用知識圖譜。我自己也做知識圖譜20多年,just don’t do that。Just pretty bad。It does not work at all。You should use Transformer。(不要那樣做。很糟糕。它根本不起作用。你應該使用Transformer。)
更重要的是用增強學習,加上人的反饋,與人的價值對齊。因為GPT已經做了4年多,知識已經封裝在裡面了,過去真的是用不起來,也很難用。
最大的是對齊(alignment engineering),尤其是instruction following和自然語言對齊。當然也可以跟代碼、表格、圖表對齊。
做大模型是很難的,很大難度是infra(基礎設施)。我在微軟的時候,我們每個服務器都不用網卡,都放了FPGA。網絡的IO的帶寬速度都是無限帶寬技術(Infiniband),服務器和服務器之間是直接訪問內存。為什麼?因為Transformer是密度模型,它不光是算力問題,對帶寬要求極高,你就想GPT-4需要24000張到25000張卡訓練,試想世界上多少人能做這種系統。所有數據、data center網絡架構都不一樣。它不是一個三層的架構,必須是東西向的網絡架構。所以這裡要做大量的工作。
Token很重要。全世界可能有40-50個確定的token,就是語言的token和模態,現在有更多的token化。當然現在更多的模型的參數小型化、本地化,任務領域的專業知識可以融入這些大模型當中。它的可操縱性主要是靠提示和調試,尤其是根據指令來調,或者對齊來調試,或者in-context learning(上下文學習),這個已經貫徹比較清晰了。它的可操作性是越來越強。可拓展性基本上也足夠。
加在一起,這個引擎並不完美。足夠好、足夠強的引擎,我沒從沒有過。
以上是引擎,拐點是怎麼到的?ChatGPT能在歷史上第一次兩個月1億活躍用戶,擋都擋不住,為什麼?
它封裝了世界上所有知識。
它有足夠強的學習和推理能力,GPT-3能力在高中生和大學生之間,GPT-4不光是進斯坦福,而且是斯坦福排名很靠前的人。
它的領域足夠寬,知識足夠深,又足夠好用。自然語言最大的突破是好用。擴展性也足夠好。當然還是很貴,像2萬多張卡,訓練幾個月這麼大的工程。不過也沒貴到那麼離譜——Google可以做,微軟可以做,中國幾個大公司能做,創業公司融錢也能做。
加在一起,範式的臨界點到了。拐點已經到來。
稍微囉嗦幾句。我做自然語言20多年,原來的自然語言處理有14種任務,我能夠把動詞找出來、名詞找出來、句子分析清楚。即使分析清楚,你知道這是形容詞,這是動詞,這是名詞——那這個名詞是包香煙?還是你的舅舅?還是一個墳墓?還是個電影?No idea(不知道)。你需要的是知識。自然語言處理沒有知識永遠沒用。
The only way to make natural language work is you have knowledge(讓自然語言處理有效的唯一路徑是你有知識)。正好Transformer把這麼多知識壓縮在一起了,這是它的最大突破。
04 未來是一個模型無處不在的時代
OpenAI未來2-3年要做的——模型更稀疏一點,現在它對帶寬要求實在太高,要把attention window拉長一點,或者是recursion causality推理的功能,包括brainstorming等一些工作要做。當然有一些grounding的東西,包括亞符號、子概念的都可以做。更多的模態,更多的token空間,更多的模型穩定性,更多的潛在空間(例如Latent Space對齊),更多的計算,更多的基礎架構工具。2-3年基本排滿。也就是說,我們大概知道需要什麼去把這個引擎繼續做大。
不過這個飛輪啟動,主要是資本大量進來。美國2023年1月到3月,擋也擋不住,錢全進去了,每個月都在比上個月增長。中國基本也一樣,商業模式、盈利模式有初步規模,基礎設施、平台應用、生態在加速開發,初創公司、大型企業都在進入。
當然社會的安全、監管,一大堆問題——現在這些是OpenAI最頭痛的——Sam在美國花大量精力讓社會認可這個技術。現在OpenAI核心做的是,把推進速度變慢,每推進新版本,都有足夠時間讓用戶給他們足夠反饋,找到潛在風險點,有足夠時間彌補。但加在一起,增長飛輪的雛形基本上起來了。
有了飛輪,我認為發展路徑核心是模型的可延伸性和未來模型的生態。是一個模型無處不在的時代。
未來的模型世界會怎麼發展?首先是將有更多大模型會出來。更多更完整的模態和更完整的世界知識在這裡。你有大量的知識、更多的模態,學習能力、泛化能力和泛化機制一定會加強。
此外,會有更多的對齊工作要做。OpenAI目前會關注什麼呢?今天對齊基本上是做到,有一部分人能接受但你也得罪很多人,很多人每天罵GPT。他們想要做到是足夠寬的一個對齊,希望有個像美國憲章這樣一個結果,雖然ChatGPT不是大家都能夠認可,但它足夠平穩、綜合,大部分人能接受,這是對齊工程。自然語言也好,代碼也好,數學公式也好,表單也好,有大量對齊工作要做。
還有更多的模態對齊。這裡先講human scale的模態,它主要是對人的描述,以人的語言為主,它的模態目前是語言和圖形,以後有更多的模態會接入。這是大模型層面。
在大模型之上建立的模型更多了。我判斷主要是有兩類模型和他們的組合。第一是事情的模型,人類每一類需求都有領域/工作模型,其中有結構模型、流程模型、需求模型和任務模型,尤其是記憶和先驗。
第二,人的模型,包括認知/任務模型,它是個體的,其中有專業模型,有認知模型、運動模型和人的記憶先驗。人基本是這幾類模型的組合,律師也好,醫生也好,大量領域會有大量模型往前走。
人的模型和學的模型有本質區別,這是我過去1-2個月個人收穫較多的。
首先,人一直在建立模型。人的模型好處是泛化的時候更深、更專業,基本是用符號(例如數學公式)或結構(例如畫流程圖)。它具體用,說實話都不好用。人的模型要麼像物理公式解決很宏觀的問題,要麼解決很微觀的問題。我們日常生活的問題,物理一點用都沒有——沒法告訴我這個樹的葉子的形狀,狗的貓的顏色為什麼是這樣子?沒有任何模型可以解這個。很大問題是它的模型是靜態的,不會場景變化。
今天有很多模型,比方說數字孿生,很難用。因為物理世界一直在變,這個模型僵硬、不變,就用不起來。尤其是用知識圖譜建的模型,我做了幾十年,超級難算,函數結構差得一塌糊塗。所以人的模型有好處,專業性強,但有很大缺點。
學出來的模型,首先,它本質是場景化的,因為它的token是場景化的。其次,它適應性很強,環境變了,token也變了,模型自然會隨着環境變;第三,它的泛化拓展性有大量理論工作要做,但是目前子概念空間的泛化,看來是很有潛在發展空間的這樣一種模型的特性。它好用,因為它可以對齊人的使用傾向或人的自然語言、表格等等。它的計算性內在是過程性的。這裡有大的問題,就是人表達知識傾向運用結構,但真正能解決問題的是過程,人不適合用過程來表達。
ChatGPT代表的模型跟人的模型相輔相成,長期可以融在一起。我們看到的未來是更多模型的生態,新的領域、新的專業、新的結構、新的場景、新的適應能力,形成閉環,不斷加強認知和推理能力。當然,最終還是要所謂叫grounding,跟感知要ground,和接入行動的能力,形成真正的智能。
某種意義上20-30年後,這個模型世界跟生物世界有很多類似的地方。大模型我覺得像基因,有不同的種類,然後進化。我們目前能看到未來核心技術模型世界,它是用這個方法來向前驅動。
我們基本對這個時代的範式有了結構性的理解。那麼接下來,我們如何擁抱這個時代?
05 每周都有「HOLY SHIT」 moment,對每個人/行業都有結構性影響
我個人過去10個月,每天看東西是挺多的,但最近實在受不了。就真的是跟不上。發展速度非常非常快。最近我們開始發行「大模型日報」,是我實在不行了,論文實在是跟不上,代碼實在是跟不上——just too much(太多了)——基本上,每周都會有一兩個「HOLY SHIT」 moment。
Holy shit!You can do this now。
世界在嘩嘩嘩地變。我曾經說1995-1996年有這種感覺,但這個比1995-1996年還要強。為什麼?模型的成本從邊際轉向固定,知識創造就是模型和知識的獲取,它結構性做演變了。
生產資本從兩個層次全面提高。第一,所有動腦筋的工作,可以降低成本、提升產能。我們目前有一個基本假設,碼農成本會降低,但對碼農的需求會大量增加,碼農不用擔心。因為對軟件的需求會大量增加,就是這個東西便宜了,都買嘛。軟件永遠可以解決更多問題,但有些行業未必。這是生產資本的廣泛提高。
第二,生產資本深層提升。有一些行業的生產資本本質是模型驅動,比如醫療就是一個模型行業,一個好醫生是一個好模型,一個好護士是一種好模型。醫療這種產業,本質是強模型驅動。現在模型提高了,科學也隨之提高。在遊戲核心產業,我們的產能將本質性、深度提高。產業的發展速度會加快,因為科學的發展速度加快了,開發的速度加快了,每個行業的心跳都會加快。因此,我們認為下個拐點會加速。用大模型做機器人、自動化、自動駕駛,擋也擋不住。
它對每個人都將產生深遠和系統性影響。我們的假設是每個人很快將有副駕駛員,不光是1個,可能5個、6個。有些副駕駛員足夠強,變成正駕駛員,他自動可以去幫你做事。更長期,我們每個人都有一個駕駛員團隊服務。未來的人類組織是真人,加上他的副駕駛員和正駕駛員一起協同。
毫無疑問,每個行業也會有結構性影響,會系統性重組。這裡有一個簡單公式(【$X小時(人工)-$Y(硬件和規模化)】X數量=降本增效)。比如,今天動腦筋的人一天平均工資多少美元每小時,減掉ChatGPT的價格(現在大概平均是15美元/小時,再過3年可能不到1美元,再過5年可能幾十美分),然後就乘一下有多少數量。降本或者增效,讓碼農能變成super碼農,醫生變成super醫生。
大家可以按這個公式算一算。如果你是華爾街的對沖基金,你可以做空一大堆行業。
舉個簡單例子,律師在美國平均1500美元/小時,我在網上已經看到每天有這種信息——如果你想離婚,不要找離婚律師,ChatGPT離婚很便宜啊!(全場笑)
開發人員、設計師、碼農、研究人員都一樣,有些是更多需求,有些是成本下降。尤其是核心產業,科學、教育、醫療,這是OpenAI長期最關注的3個行業,也是整個社會最根本的。
尤其是醫療。在中國,需求遠遠大於供給。而且,中國是大政府驅動的市場經濟,政府可以扮演更大角色,因為固定成本政府可以承擔。
最為重要的是教育。如果你是大學,你第一擔心的是,考試怎麼考?沒法考了。他一問ChatGPT,什麼都知道。更重要的是,以後怎麼定義是好的大學生呢?假定說有個大學生什麼都不懂,物理也不懂、化學也不懂,但他懂怎麼問ChatGPT,他算不算一個好的大學生?機會與挑戰並存。
總結一下,整個這個時代在高速地進行,速度越來越快。它是結構上決定的。勢不可擋。
06 大模型的淘金時代,對機會點進行結構性拆解
現在,我給大家一個結構化思維框架。某種意義上你可以對號入座,知道我在這裡,我怎麼思考今天的機會點。
這張圖是整個人類技術驅動的創業創新,所有事情的機會都在這張圖上。
首先,底層是數字化的技術,因為數字化是人的延伸。數字化的基礎里有平台,有發展基礎,包括開源的代碼、開源的設計、開源的數據;平台有前端、後端等。這裡有大量機會。
第二波是用數字化的能力去解決人的需求。我們把數字化應用完整放在這張表上。
C端是把所有的人分成人群,每種人群24小時,他花時間幹什麼?有通訊、社交、內容、遊戲消費、旅遊、健身……C端有一類特殊的人,這類人是改變世界的,是碼農、設計師、研究員。他們創造未來。微軟這麼大的公司,是基於一個簡單理念:微軟我們就是要寫更多軟件、幫別人寫更多軟件,因為寫軟件是未來。
B端,企業需求也一樣,降本增效。它要生產,有供應鏈、銷售、客服……有了這些需求之後,數字化看得見的體驗結構有6種:給你信息的,二維就夠;給你三維交互體驗,在遊戲、元宇宙;人和人之間抽象的關係,包括信任關係、Web 3;人在物理世界環中自動駕駛、機器人等;人的內在的用碳機植入到裡面,今天是腦機接口,以後有更多,以後是可以用硅基;最後是給你模型。
最後,人類是挺奇怪的物種,不光要滿足這些需求,還要改變世界,我們在滿足世界時,也要獲得更多能源,所以需要有能源科技;需要轉化能源,用生命科學的形式,biological process轉化能源或者使用mechanical process,材料結構來轉化能源,或者是新的空間。這是第三波。
所以創業公司基本上有三類:數字化基礎,用數字化去解決人的需求,去改變物理世界。有了這個大的框架,我們可以系統性地來看對號入座:我在哪個位置?如果我在這個位置,需要關注哪些點?
首先講數字化基礎,它有一個穩定結構,不管再怎麼發展,結構永遠是這樣。過去30多年,大部分系統或多或少我都碰過,這個結構確實相當穩定。
核心是前端和後端——前端是完整可延伸的體驗,後端是完整可延伸的能力,有設備端,比方說電腦、手機、眼鏡、汽車等等,設備端裡面是芯片、模組加上操作系統。萬億美元的公司都在這一層。
其次是體驗的容器,二維的容器,三維的容器,內在嵌入的容器。
容器之上,寫代碼都知道畫布,畫布可以是文檔,可以是聊天,可以是代碼,可以是空間,可以是世界,可以是數字人,也可以是碳基里的蛋白質等等。這是前端。
後端也一樣,底層式設備,服務器、交換機、數據中心等等,也是芯片、模組、操作系統。
中間這一層非常重要,網絡數據堆棧,分布式系統,區塊鏈等等。
最上面是雲,是能力的供給。能力供給像自然水源,打開就是算力,有存儲和通訊能力。今天的模型時代,打開就是模型。
下面是數字化基礎。符號計算,或者所謂的深度學習,疊加向量的浮點計算,硅基的,碳基的。
如果你是這裡的創業者,機會點在哪裡?
首先搬運信息,這個時代還有很多可以做。
如果你是做模型的,我現在判斷什麼都要重做一遍。大模型為先。很多設備也要重做,你要支持大模型,容器要重做,這些都有機會。雲、中間的基礎設施、底層的硬件,包括數字化發展核心的基礎,尤其是開源的體系,這裡是真正意義上是有大量機會。
第三代系統,即已經開始做機器人、自動化、自主系統。孫正義今天all in。這個也能用大模型做。馬斯克也看到這種機會。都是在第三代下一個拐點,創業公司完全可以把握的機會。
同時並行的,我把它稱作「第三代++系統」,是碳基的生物計算,這一類公司有大量的量子計算,有很多機會。元宇宙和Web 3今天有點冷,但從歷史長河角度來講,只是時間問題,因為這些技術都能真正意義上帶來未來的人類價值。
所以如果是這個創業項目,基礎層機會就在這裡。這是最好的生意。為什麼?這個時代跟淘金時代很像。如果你那個時候去加州淘金,一大堆人會死掉,但是賣勺子的人、賣鏟子的人永遠可以賺錢。所謂的shove and pick business。
大模型是平台型機會。按照我們幾天的判斷,以模型為先的平台,將比以信息為先的平台體量更大。平台有以下幾個特徵:
它是開箱即用;要有一個足夠簡單和好的商業模式,平台是開發者可以活在上面,可以賺足夠的錢、養活自己,不然不叫平台;他有自己殺手級應用。ChatGPT本身是個殺手應用,今天平台公司就是你在蘋果生態上,你做得再好,只要做大蘋果就把你沒收了,因為它要用你底層的東西,所以你是平台。平台一般都有它的錨點,有很強的支撐點,長期OpenAI設備機會有很多——有可能這是歷史上第一個10萬億美元的公司。
這是一場激烈的競爭平台之戰,未來一個體量很大的公司。在這個領域競爭是無比激烈。The price is too big(代價實在太大),錯過太可惜。再怎麼也得試一試。
今天的模型魯棒性、脆弱性,還是問題。用這個模型,你一定要一開始稍微窄一點,限制要嚴一點,這樣的話體驗是穩定的,等到模型能力越來越強再把它放寬,找到適當的場景,循序漸進。質量和寬度之間的平衡很重要。另外發展路徑上,你要考慮今天產品要不要在這個上基礎上改,重啟爐灶,還是齊頭並進。把這個團隊給改了、重做,還到外面去買公司?
創新,尤其是創業公司落地,它永遠是技術推動和需求拉動的組合。在落地的過程中,對需求理解的把控,掌握和滿足需求的方法是一切當中最重要。長期一定是技術驅動為主,但在落地的時候對需求的拆解、分析、梳理,把控好需求,是一切的一切。
有一個機密大家今天都知道了——OpenAI是用GPT-4做GPT-5,每個碼農都是放大能力的碼農。它規模效應不一樣,馬太效應不一樣,從此壁壘和競爭格局不一樣,知識產權結果不一樣,國際化的格局也不一樣。中國顯然有機會。
07 我對創業者有幾點建議
創業公司的內在結構是人和事的組合。人,一開始是創始人/創始團隊;他有初心,內在驅動力、外在驅動力;他能獨立思考,判斷未來;他能行動導向,解決問題;他能需求導向,找到價值;最終通過溝通獲得資源。接下來是產品市場匹配,這部分就是研發技術、研發產品、交付產品。商業模式是收到錢、更多增長、觸達更多客戶、融更多錢、一直觸達到未來的價值。組織上,通過系統建設,開拓面向未來的人才、組織結構和文化價值觀等等。這一切就是一家公司的總和。
我們對每位同學的建議是,不要輕舉妄動,首先要思考。
不要浮誇,不能蹭熱。我個人最反對蹭熱,你要做大模型,想好到底做什麼,大模型真正是怎麼回事,跟你的創業方向在哪個或哪幾個維度有本質關係。蹭熱是最不好的行為,會浪費機會。
在這個階段要勤於學習。新範式有多個維度,有蠻大複雜性,該看到的論文要看,尤其現在發展實在太快,非確定性很大。我的判斷都有一定灰度,不能說看得很清楚,但大致是看到是這樣的結果。學習花時間,我強烈推薦。
想清楚之後要行動導向,要果斷、有規劃地採取行動。如果這一次變革對你所在的產業帶來結構性影響,不進則退。你不往前走沒退路的,今天的位置守不住。如果你所在的產業被直接影響到,你只能採取行動。
接下來我想講幾個維度——每個公司是一組能力的組合。
產品開發能力方面,如果你的公司以軟件為主,毫無疑問一定對你有影響,長期影響大得不得了。尤其是如果你是做C端,用戶體驗的設計一定有影響,你今天就要認真考慮未來怎麼辦。
如果你的公司是自己研發技術,短期有局部和間接影響,它可以幫助你思考技術的設計。長期核心技術的研發也會受影響。今天芯片的設計是大量的工具,以後大模型一定會影響芯片研發。類似的,蛋白質是蛋白質結構設計。不管你做什麼,未來的技術它都影響。短期不直接影響,長期可能有重大影響。
滿足需求能力,滿足需求基本就要觸達用戶,供應鏈或運維一定受影響。軟件的運維可以用GPT幫你做,硬件的供應鏈未必。長期來看有變革機會,因為上下游結構會變。你要判斷你在這個產業的結構會不會變。
商業價值的探索、觸達用戶、融資,這一切它可以幫你思考、迭代。
最後是關於人才和組織。
首先講創始人。今天創始人技術能力強,好像很牛、很重要,未來真的不重要。技術ChatGPT以後都能幫你做。你作為創始人,越來越重要、越來越值錢的是願力和心力。願力是對於未來的獨到的判斷和信念,堅持、有強的韌勁。這是未來的創始人越來越重要的核心素養。
其次,對初創團隊,工具能幫助探索方向,加速想法的迭代、產品的迭代,甚至資源獲取。
第三,對未來人才的培養,一方面學習工具,思考和探索機會,長期適當時候培養自己的prompt engineer(提示工程師)。
最後講到組織文化建設,要更深入思考,及早做準備,把握時代的機會。尤其是考慮有很多職能已經有副駕駛員,寫代碼也好,做設計也好,這之間怎麼協同?
我們面臨這樣一個時代的機會。它既是機會,也是挑戰。我們建議你就這個機會做全方位思考。
-[鈦媒體注:文源於微信公眾號:張小珺*作者:張小珺,鈦媒體經授權發布。-來源:鈦媒體]