百度爲什麽要幫別人造AI應用 ? | ToB産業觀察
李彥宏對于百度的定位,在大模型時代有一個很大的變化。
11月12日,在百度世界2024大會上,百度創始人李彥宏以《應用來了》做主題演講,他表示,“百度不是要推出一個‘超級應用’,而是要不斷地幫助更多人、更多企業打造出數百萬‘超級有用’的應用。”
上一個時代的中國互聯網,普遍被認爲是互聯網應用公司,譬如百度的搜索、阿里的電商、騰訊的遊戲等,互聯網巨頭們的招牌都是應用,中國成爲互聯網應用最發達的地區之一。
大模型時代,這些企業也被視爲是殺手級AI應用的候選人,可能沒有人比他們更清楚需求在哪、應用如何打造,以及具備充足的人才和資本,而李彥宏卻說要幫其他人和企業造數百萬應用。
這透露出李彥宏對于大模型的認知和態度。大模型帶來了技術範式轉換,百度已經不再是上一個時代只需考慮應用層的互聯網公司,若要成就于大模型時代,百度自己得先入局做硬件、生態以及基礎設施,某種程度上這才是當下大模型企業最應該關心的事。
這並不代表百度不做應用了,李彥宏也表示,“我們(百度)做的應用,同時做十款應用或者最多一百款應用,外界可能有一萬個創業公司在試各種各樣不同的賽道。”
只是在當下的時間節點,百度需要扮演一個垂直整合的角色。OpenAI和微軟聯手,AWS投資衆多大模型創業企業,Meta做開源生態,谷歌將自家大模型與雲做垂直整合,終極目的都是讓更多AI應用根植于自己的平台和生態上,百度也不例外。
AI應用,走到哪了?
“我們正處在AI的iPhone時刻!”去年,英偉達CEO黃仁勳做出這一著名預判。對于英偉達來說可能的確如此,英偉達面向的是芯片客戶,ChatGPT現象級熱度之後,AI芯片行業迎來了大爆發。
對于C端消費者應用和B端企業應用客戶而言,還未達到同樣的階段。作爲對比,2010年是移動互聯網的“iPhone時刻”,當時iPhone4正式推出,雖然黑莓手機在美國還占據43%的市場,iPhone只超過10%,但是AppStore的應用數量達到了13萬,並且在未來幾年走出了一條陡峭的曲線,移動互聯網應用極大繁榮,如今我們使用的微信、頭條、快手等,都誕生于這條曲線。
有意思的是,李彥宏在會上也給出了一條陡峭的曲線——文心大模型的日均調用量變化曲線圖。
李彥宏表示,到今天這個數字已經超過了15億次,代表著過去兩年中國大模型應用爆發。6個月之前,當文心大模型日均調用量達到兩億的時候,他還在思考,如果日均調用量一年之內漲10倍,也就是從2億漲到20億,我認爲就成了,就說明大家是真需要大模型。
爲何大家願意用大模型了?一言以蔽之,支撐大模型應用發生的前提條件越來越成熟。據Gartner預測,到2027年,企業使用的AI 模型中將有一半以上具有特定行業或業務功能,而在2023年這一比例僅爲不到1%。
大語言模型的能力已經基本滿足應用場景的需求,同時精調和推理等成本在急速下降,加之衆多企業分工構成的大模型生態也正在快速演進,加速了大模型不同層級的創新和融合,大模型應用生態朝著健康的方向發展。
李彥宏就提到,過去24個月,行業最大的變化是大模型基本消除了幻覺,它回答問題的准確性大幅提升,這讓AI從“一本正經的胡說八道”,變得可用、可被信賴,采用RAG技術後,大模型會利用檢索到的信息來指導文本或答案的生成,從而極大地提高了內容的質量和准確性。
針對大模型落地成本高的問題,百度智能雲今年將文心主力大模型ERNIE Speed、ERNIE Lite全面免費開放,對文心旗艦大模型ERNIE 4.0、ERNIE 3.5進行了大幅降價,大幅降低大模型使用門檻和試錯成本。
造大模型應用,難在何處?
盡管大模型應用的基礎設施和生態演進加速,但大模型畢竟是一次革命級的更新,我們還處在應用繁榮的早期階段,不少企業還沒有適應新的大模型應用開發模式。
李彥宏認爲,開發者可能已經逐步適應了怎麽在大語言模型上開發應用,突然搞出來一個新的方向(比如o1),又得適應一遍。百度也很希望大家趕緊適應這種新的思維邏輯,怎樣慢思考,調用工具,大家有學習和適應的過程。
“今天雖然我們發了多智能體協作這些東西,但讓一個開發者開發一個多智能體協作的應用,其實難度還是很高的,成本很高,反應速度很慢,各種各樣的能力怎麽調用,有一個接受的過程。我們得逐步逐步得讓大家學習這種新的能力,接受然後再把它利用好。”他說。
過去,傳統應用開發流程複雜,需要先進行高層設計,再分解爲子模塊開發,最後集成到一起,這一過程耗時不少且風險高。在大模型時代,AI原生應用在産品形態上顯著變化,依托大語言模型的理解、生成、邏輯、記憶四大核心能力,應用交互從傳統的表單和按鈕,轉變爲自然語言對話。
目前,通過工具進行大模型應用開發主要有三大類 :
第一類是原來有一套 APP 或者一套應用系統,能夠將大模型作爲 Copilot 優化交互體驗。這是最常見的形式;
第二類是原來的業務流程還在,能夠用大模型降低成本提升效率、節省時間;
第三類是能夠做到原來做不到的事情,比方說用大模型去生成一個 CAD 的圖紙,産生更大的創新生産力。
同時,各行各業的企業在應用大模型落地過程中,在準確可靠性、與內部系統關聯性、安全性、使用門檻上仍有許多問題。
具體來看,百度智能雲總結了大模型應用落地的問題,第一,用戶怎麽選模型;第二,如何優化模型在應用場景的效果;第三,基于大模型怎麽低成本做應用開發。
結合實際情況看,企業意識到不是尺寸越大、越先進、參數量越大,模型就適合自己的需求,既要有效果,也要成本低,才能夠規模落地。同時,在很多應用場景當中,企業不止一個大語言模型,需要多個大小模型協同,另外,僅有大模型本身無法構建應用,企業還需要一些周邊的人工智能能力與大模型匹配。
百度集團執行副總裁、百度智能雲事業群總裁沈抖表示,AI應用正率先在B端爆發。由企業級大模型工程平台、異構算力平台組成的新型AI基礎設施,將替代傳統雲計算,爲大模型應用在企業生産力場景中的規模落地提供關鍵支撐。
大模型時代的“應用工程化”
如果說文心大模型的目標是追求大模型的技術革新,百度智能雲就要做大模型的應用工程化,李彥宏的原話是“百度智能雲是我們構建智能産業生態的主要依托”。
沈抖表示,過去一年余,企業大模型應用已經深入到“研産供銷服”的各個環節,傳統的雲計算已經無法支撐大模型應用的快速發展,百度智能雲在做的,就是打造一套全新的基礎設施,圍繞大模型及其應用,幫助企業加速實現智能化升級。
據介紹,百度智能雲目前擁有中國最大的大模型産業落地規模。超過六成的央企和大量的民營企業,正在聯合百度智能雲進行AI創新。百度智能雲千帆大模型平台已經幫助客戶精調了3.3萬個模型、開發了77萬個企業應用。
千帆和百舸即是百度智能雲提供的工程化平台,千帆平台幫客戶做大模型和應用的開發和服務;百舸平台爲客戶提供大模型相關的算力服務。
首先看千帆,可以從三個方面優化大模型應用效果,一是直接調用模型,也就是模型推理;第二種是模型應用效果優化,包含了提示詞優化、模型精調以及模型能力增強;第三種則是大模型應用開發。
千帆大模型平台提供了大量模型服務,包括ERNIE 4.0、ERNIE Speed、ERINIE Lite等主力模型,適用于不同垂直場景定制訓練、構建行業模型、垂直場景調用。
提示詞優化方面,千帆大模型平台還優化了Prompt,並預置了近300個行業場景的prompt模版;模型精調方面,千帆提供了數據洞察、清洗和回流能力,獨家的高質通用語料數據以及量化壓縮工具鏈,內置了最佳實踐精調樣板間;模型能力增強方面,千帆提供了RAG以及各類工具的使用結合能力。
在本次大會上,千帆還發布“工作流Agent”功能,可幫助企業快速開發出面向複雜對話場景的AI應用,快速擁有專業水平的“數字員工”。
再看百舸,百度表示,目前百舸已具備了成熟的10萬卡集群部署和管理能力,客戶包括中國石化、中海石油、長安汽車、上海交通大學、地平線等,主要解決從集群創建、開發實驗,到模型訓練、模型推理的全程算力需求。
百舸平台可兼容昆侖芯、昇騰、海光DCU、英偉達、英特爾等國內外主流AI芯片,支持同一智算集群中混合使用同一廠商不同代際芯片、不同廠商芯片,屏蔽硬件差異,幫助中國企業擺脫單一芯片帶來的高溢價和供應鏈風險。
據了解,在萬卡規模集群上,百舸能夠將兩種芯片混合訓練大模型的效率折損控制在5%以內,另外,通過設計高效的網絡拓撲結構,結合模型切分優化和跨地域無擁塞高性能網絡方案,百舸能夠在橫跨幾十公里的多機房組成的萬卡規模的集群上,將單一模型訓練任務的性能折損控制在4%以內,達到業界最領先水平。
大模型的科學創新固然重要,但要規模應用于現實場景,做好大模型應用工程是必經之路,在基礎設施和産業生態相互促進的過程中,企業可以選擇做“2011年的微信”,也可以選擇做“2016年的抖音”。
“很多美國同行,他們做法是當做一個Science(科學),我有一個終極目標,就想盡各種辦法解決它,這個問題可能用工程的方法也可能用其他的方法、用數據驅動,最後解決下來。
現在諾貝爾獎都授給公司CEO了,很多非常有意義的,即使是從science的角度很有意義的事,最後是靠工程的方法解決出來。
所以做工程不丟人,做工程很有可能是比科學更早發現機會、發現規律的。”李彥宏在對談中表示。---(钛媒體/作者 : 張帥,編輯 : 蓋虹達)