OpenAI o1草莓模型:AI安全了,但看起來AI大模型公司更危險了
假設o1草莓模型最終表現和發布的信息完全一致,然後回發生什麽呢?
AI大模型更貴了
從披露的數據來看,我們可以認爲Scaling Law有效,不過這次不是堆數據而是堆機器和優化算法。
這意味著AI大模型顯然會更貴,也更難,先是需要更多的機器,這導致更貴,然後靠人來做畫龍點睛,這導致更難。
這可以和過去Sam Altman的言論結合起來看,Sam Altman發過的驚人言論包括需要募集七萬億美金等等,投資去解決電力問題等,兩者倒是匹配。
AI安全了,但AI大模型公司危險了
AI公司的風險有無數個,但AI作爲一個行業,其風險只有1個,就是AI不好用。
如果Scaling Law有效,那不管多貴,都意味著這個行業解決問題的價值在增加,所以這個行業安全了。大概率不會再變成80年代人人喊騙子的局面,行業的安全意味著AI大時代基本會確定打開。
但很多AI大模型公司是真的危險了。他們變成了應用不是應用,模型不是模型的一種公司。
跟進跟不起,不管是機器還是人才儲備,顯然的要想幹好模型不單下一步貴,並且一段時間會越來越貴。
不跟進,那自己的高估值拿什麽做支撐呢?定位是什麽呢?同時這種推理的進展覆蓋正是他們本來做的那部分工作。
沖擊波從專業人員開始
從報道看Level2確實能過去,那我們之前所有對Level2影響的預判將在短期成爲現實。之前我們這麽解讀五級模型:
上層應用實現的程度和先後可以參照OpenAI對後續AI進階劃分進行推測,下述爲參照OpenAI分階並補充系統型超級應用信息後整理而來。
階段1:聊天機器人。AI能夠與人對話,然後純粹看對話內容你不能分辨它是人還是AI。對話的時候AI可能有幻覺並胡說八道,但邏輯自洽。當前就處在這個階段。這個時候垂直型應用處于只能出現類似Copilot這類純粹的生産力工具,讓ERP等進入下一代這類事情只可能在極小的領域中出現,處于萌芽期。
階段2:推理並解決真實問題的機器人。當你給AI真實的問題,它能夠自行推理,甚至找你要它解決問題所欠缺的信息或者資源,然後真正的能夠代替人解決問題。到了這個階段,所有白領工作基本就不需要人了。在這個階段各種不牽涉現實物理世界的事情基本可以全部用AI來解決,大量系統型超級應用會在企業領域、部分行業比如律師出現。
階段3:AI智能體。全面感知物理世界並且能夠采取行動解決問題,相當于把階段2的能力從虛擬數字世界擴展到真實物理世界。到了這個階段所有體力工作就不需要人了,街道、家庭、公司隨處都是機器人。這個階段新式系統型超級應用擴展到物理空間,具身機器人會充斥在各個生成生活的環節。
階段4:創新者。AI能夠組合現有要素在特定的方向上完成創新,比如他會創造性的根據面條和動物捏合出來用各種栩栩如生的動物。到了這個階段,現在200人的公司估計只要不到10個人,像産品經理這樣需要創新能力去定義産品的角色AI也能夠承擔了。這個階段現有大部分可見的崗位全部完成AI對人的置換。系統型超級應用會遍布在各行各業。
階段5:組織者。這時候AI能夠負責組織協調的工作,承擔AI之上的AI角色(過去高管和CEO的角色)。到這裏每個我們現在看到的領域也都有了一個自己的AlphaGo,這個AlphaGo的專業性和能力遠超過去人類同時具有通用性,大多企業裏不需要管理人員,而是全部被AI接管。
這個五級分類可以看成是一種AI宏大敘事類比過去的大同社會等。
現在Level2眼看要實現了,那首先是Level2的影響會發生,其次在于後面的是不是也是靠譜的,而不是單純的想象?
推理這事的影響方向非常清楚:白領包括高級白領乃至科研人員受沖擊最大。
不過如果幻覺問題沒解決,那人類還能略有喘息。
智能飛輪看起來要轉起來了
如果說推理能力確實能破局(當前並非是大成,而是一種破局),那AI真的可以做積極的未來展望。不是因爲OpenAI多牛,關鍵是我們總說的智能飛輪要啓動了。
當年AlphaGo爲什麽後來水平進展極其快?
核心就在于它轉起來一個叫智能飛輪的東西。
形象講就是AI能夠伺候AI。
AlphaGo的領域太垂直了,圍棋太特殊了,所以過去幾乎只有AlphaGo能幹這事。
可如果推理能力搞定了,情況會有大變化。
在數據和算法兩個環節,AI逼近能夠伺候自己的邊緣。而這會解鎖AI的進化速度。
說起來是個有點悲傷的故事,從智能飛輪、從AI進化的角度看,人才是最大障礙,人負責的越少,AI負責的越多,那智能飛輪轉的越快。
而推理能力最關鍵的就在于削弱人在AI進展過程中的角色,這反倒是會加速AI的進展。
AI應用的黃金時代
琢磨事一直反複說個話題,AI會因爲計算模式的遷移導致大量的應用重做,過去我們把它總結成從功能中心式計算遷移到角色中心式計算。用老黃的圖就是:
但這種重做在過去有點像構思閃電戰缺內燃機,推理的窗口一打開,各種新現實就不是空想,而是需要更爲認真的構思了。
這種認真的構思關鍵是需要前瞻性,順著AI脈絡的前瞻性。
當年基于摩爾定律有這麽一種思維模式:
我先把程序按照未來的計算量開發好,那怕現在慢點,然後我就休假去了,什麽也不用幹,等我回來過去不怎麽好用的複雜圖形用戶界面就好用了。
現在AI的脈絡在呈現類似摩爾定律的確定性,所以認真思考是指基于這種脈絡的前瞻性思考。
小結 : 不管怎麽樣AI革命先革自己也是有點出乎意料的,過去大量AI的算法人員在這種進展下承壓可能比裝修人員大的多。
當年那些深度學習算法,是不是很快AI就可以幹的比人更好?當然這還只是發布會上的一些零散信息,它的真正潛力還需要一些先鋒應用來驗證。值得期待。--- [文 : 李智勇/來源 : 钛媒體]