To C大模型,將是字節跳動新「王牌」?
字節跳動,"放大招"了!
5月15日,火山引擎發布會上,字節正式對外發布豆包大模型,並宣布了0.0008元/千Tokens的超低定價。
火山引擎還做了個類比:一元錢就能買到豆包主力模型的125萬Tokens,大約200萬個漢字,相當於三本《三國演義》。
豆包大模型的上線,意味著字節正式加入今年全球最火熱的大模型戰局。
坊間有評論認為,作為國內最激進的互聯網公司,字節跳動在大模型的投入上是不夠的。但從去年11月開始,字節開始把越來越多的資源放到AI探索上:根據晚點LatePost報道,梁汝波不僅在OKR裏強調將調整公司組織配合AI戰略,新的研發也在組建。此前,抖音前任CEO張楠也宣布要聚焦剪映,尋求在AI輔助創作上的的突破。
內部多次大調整,似乎也意味著字節要拿出真正實力來決勝AIGC時代。
01. 大模型"價格戰"打響
豆包大模型的推出,正式打響了國內大模型價格戰。
近期,全球AIGC領域最熱議話題莫屬於OpenAI發布了最新旗艦生成AI模型GPT-4o,不僅擁有業內最前沿強悍的技術,還擁有更低的價格。
與GPT-4 Turbo相比,GPT-4o速度提升了兩倍,速率限製高出了5倍,價格還減半。值得註意的是,OpenAI還允許用戶無須註冊ChatGPT就可直接使用該服務,將使用條件限製取消。
OpenAI的這波操作,促使國內做大模型大廠們不得不思考接下來如何將技術提升上去,同時價格還得壓下來。
字節推出國內超低價的豆包大模型,也算是跟進OpenAI這波操作。
據了解,豆包大模型定價只有0.0008元/千Tokens(即0.8厘處理1500多個漢字),宣稱比行業便宜99.3%。同時豆包大模型應用場景也十分最豐富,目前日均處理1200億Tokens文本,生成3000萬張圖片。
除字節外,其他大模型廠商們也開始行動了。
近日,幻方量化旗下DeepSeek(深度求索)推出第二代MoE模型DeepSeek-V2,該模型API定價為每百萬Tokens輸入1元、輸出2元(32K上下文),價格為GPT-4 Turbo的近百分之一。
此外,智譜 AI 大模型開放平臺也推出全新價格體系,新註冊用戶可以獲得額度從500萬tokens 提升至2500萬tokens,同時個人版 GLM-3Turbo模型產品的價格從5元/百萬tokens降低至1元/百萬 tokens。
大家加快技術速率升級與降價,歸根結底是大模型要真正的"落地"。
據麥肯錫報告分析,到2030年,大模型有望在全球推動49萬億人民幣的經濟增量。市場是十分龐大的,但此前大模型處於一種"虛高"狀態中。
如今你隨機問10個人,可能9個都不清楚大模型究竟是什麽。
需要大模型的客戶端,又用不起。坊間傳聞,GPT-4的訓練成本高達10億美元;百度十多年間在AI上的投入超過1000億元。
研發成本過大決定著定價高,導致中小企業壓根用不起。
騰訊雲副總裁吳運聲接受媒體采訪曾表示,"為什麽騰訊雲在去年提行業大模型,是因為通用大模型很大,真正要在行業裏面用起來有很多門檻。客戶買不起,買了推理也推理不起,哪怕精調也太貴了。"
消費者不清楚,企業端用不起,自然而然"大模型也被傳出是『概念產品』"。不過,現在掀起的技術升級與降價風潮,勢必對大模型真正的"接地氣"利好。
02. To C再To B,全新大模型商業化路徑
回到字節,則早有AI大模型的野心。
發布豆包大模型前,字節就在AI應用上試水。
豆包,原名雲雀大模型在去年8月推出,是國內首批通過算法備案的大模型之一。同時字節近期接連推出AI產品,包括擁有AI生圖功能的"星繪"、AI角色互動的"話爐"以及對標小紅書的"可頌"等。
從雲雀大模型的研發到大模型服務平臺豆包的推出,再到產品應用,可以看出字節AIGC領域布局上進行了全方位覆蓋的打法。
豆包大模型的正式推出,字節做大模型真實意圖也展露出來:
依舊要做爆款應用,只是這次打造的是"系統型超級應用",面向的是C端市場。
目前國內大多大模型廠商是基於基礎模型再自研出自家通用大模型,比如百度文心一言,需要進行大量的學習訓練再展開實際應用,還是被定義為通用大語言模型,面對的客群也主要B端企業用戶。
豆包是一個大模型,但並不像通用大模型,其概念更像AGI即更全面的人工智能系統。
目前,豆包不單具備識別、語音合成等大模型基礎通用的功能,它還可以通過各種學習訓練成專有模型或者嵌入應用。
據透露,基於豆包大模型,字節不僅打造了AI對話助手"豆包",還有AI應用開發平臺"扣子"、互動娛樂應用"貓箱",以及星繪、即夢等AI創作工具,同時還把大模型接入抖音、番茄小說、飛書、巨量引擎等50余個業務。
訓練或是嵌入AI應用越多,這個大模型就有海量數據和場景可以做訓練支撐,功能與場景也更將全面,這也意味著大模型的自主訓練學習的能力會更強,這也更接近AGI的概念了。
超低價及嵌入應用這兩點,也表明是字節做大模型面向的是C端市場,其未來或許是想靠龐大的用戶量進一步驅動大模型的發展,進而再發展該領域B端客戶,這是典型的"用C端應用來做B端產品的思維"。
但這個靠大模型驅動的AI應用體系一旦形成,可預測的是字節未來或許將打造一個"系統型超級應用。"
試想一下,嵌入豆包大模型的應用或是衍生出的AI應用,在技能上是無邊界的,這也意味AI應用功能部分可能會重合,應用的差異性將會縮小,最後或許就合並形成一個系統型超級應用(可通過模型訓練學習後功能齊全的應用)
這也意味著,未來AI手機或許也只需要一個功能齊全的系統型超級應用了。那時候,就不是應用間的競爭,而是超級應用間的競爭,廠商們可能都需要自研大模型,要麽就要像有大模型的廠商去購買了。
字節這步大模型的"棋",布得很大。
03. 機遇與挑戰幾何?
野心縱然再大,也得有能力去實現。那麽,字節做大模型的優勢有哪些?
一是用戶;二是資金了。
作為國內爆款應用最多的大廠之一,字節旗下抖音國內就有超7億用戶,TikTok在全球也擁有超10億用戶,完全具備大模型訓練時所需的龐大用戶數據做支撐。
字節的資金儲備也充足。
4月,胡潤研究院發布了《2024全球獨角獸榜》,字節跳動以1.56萬億元人民幣的價值連續三年成為全球價值最高的獨角獸全球價值最高的獨角獸。另據市場消息,2023年,字節營收達到了1200億美元,這年息稅折舊攤銷前利潤就超過400億美元。
不過,大模型領域所需的資金投入是"無底洞"。
字節收入是多,但公司如今也再尋找"第二增長曲線"。
本身而言,字節旗下爆款應用是高度依賴用戶的,如今隨著互聯網用戶增長的見頂以及內容平臺的激烈競爭,字節業績增長也顯著放緩。挖增,同時也是所有內容平臺要破的困局。
布局AI領域,是提供給了字節收入的新路徑,但也加大了研發、營銷多方面的資金投入量。此外,字節訓練的又是一個功能性更全的大模型系統,資金投入更是龐大。
所以對於字節而言,要做好大模型,投入大也是其需要面對的第一大難關。
還有技術上的難關。
與GPT-4相比,國內的大模型整體都處於一個落後的狀況。 不過,豆包大模型要打造的模型概念更系統復雜,這也意味著其不僅需要海量數據支撐,還需豐富的場景支撐,而這背後需要更為龐大的算力支撐。
三是應用落地上的難關。
字節能不能打造出系統型超級應用先不說。
大家做出的大模型多為生成式AI,落地場景一般是嵌入AI應用中。
但如今AI應用都遠未普及,許多用戶可能都還分不清AI應用與普通應用間的區別,甚至還有都沒用過AI應用的。
可見,大模型在應用落地上任重而道遠。
豆包大模型目前又處於起步階段,用戶量反響都還不好拿來說。但將豆包大模型嵌入自家應用體系中,勢必會打破各個應用的邊界,應用的功能或將重合,這是字節可能先要面對的問題。
總的來看,字節入局大模型領域的姿勢是很新穎,但註定也是長路漫漫。然而一旦踏上正軌,字節或能迎來一個全新的"系統型超級應用"爆款時代。---[伯虎財經: 安曉/來源: 藍鯨財經]
參考資料:1、琢磨事:國內的AI大模型,為什麽應該做系統型超級應用?
2、互聯網怪盜團:字節跳動的AI野心