01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

AI末日?ChatGPT、Claude和Perplexity同時癱瘓

2024060514:11

當地時間6月5日周三淩晨,OpenAI的ChatGPT聊天機器人出現系統故障,導致全球用戶無法正常使用。在ChatGPT服務中斷的期間,大量用戶轉向了Anthropic公司的Claude和Perplexity,結果流量激增也使這兩個服務器出現了中斷。

此外,盡管有用戶報告說谷歌的Gemini也可能曾短暫下線。(以下為ChatGPT故障界面)

具體來說,在ChatGPT的主頁面,提交按鈕顯示為灰色,用戶無法給AI聊天機器人發送消息。隨後,ChatGPT網站表示,服務已經滿負荷,會在恢復服務時通知用戶。(以下為官網回復)

值得注意的是,ChatGPT昨日以來接連出現兩次故障。當地時間6月4日下午3點21分,OpenAI開始處理首個故障,並在當日晚上7點19分宣布首個故障已解決。然而,當日晚10點33分,OpenAI報告正在調查第二次故障的原因,並於6月5日淩晨1點17分宣布所有系統已恢復正常運行。



在ChatGPT系統崩潰後,Anthropic公司的Claude和Perplexity也遭遇了系統癱瘓,不過這些問題在幾小時內迅速得到了解決。

期間,Claude網站持續顯示一條提示信息:「服務器組件渲染時出現錯誤」,提醒用戶系統正在處理中。據悉,北京時間淩晨12:10之後,Claude又開始正常工作了。(以下為Claude的錯誤提示)



Perplexity的網站因為接收到太多請求,一度顯示超出服務容量的信息,Perplexity提示用戶:「我們很快回來」和「我們現在收到很多問題,已經達到我們的處理能力,請稍後再來。」 Claude恢復正常工作後不久,Perplexity的網站也重新開始正常服務了。(以下為Perplexity的溫馨提示)



AI日益深入人類生活的同時,AI服務器的穩定性逐漸成為用戶的焦點。網友在社交媒體X上發帖警告道:

「ChatGPT最近發生的2.5小時全球中斷,為我們所有依賴AI工具來支持業務的人敲響了警鐘。

想象一下,在產品發布或客戶支持危機期間失去對關鍵工具的訪問權。這可能是毀滅性的!

這就是為什麽製定備用計劃和訪問多個LLM至關重要的原因。

不要把所有的雞蛋都放在一個籃子裏,無論這個籃子有多大。即使一個工具出現故障,多樣化AI工具包可確保人們能夠繼續創新和發展業務。」

「AI服務的停機導致數百萬人陷入困境,無法完成日常工作。」

 "這幾個大模型同時宕機,讓我感覺回到了原始社會,啥也做不了。」



對於此次AI服務器集體「罷工」的原因,有網友猜測是否有黑客攻擊,還有網友表示這就像多米諾骨牌效應,一家公司算力不夠導致其他公司訪問量激增,從而集體癱瘓。

更有甚者,有網友擔憂不僅僅是算力,未來AI數據中心運營需要巨量電力,如果美國老停電,也會影響AI服務器的正常使用,未來AI服務器的穩定性至關重要。---[作者:房家瑤*來源:硬AI/華爾街見聞官方]

*大模型「免費」送,廠商們圖什麽?*

2024年618,傳統電商行業不再喧囂,但大模型市場卻開啟了慘烈的「價格戰」,甚至部分企業直接免費送大模型服務。

5月15日,字節跳動宣布,豆包主力模型企業市場定價為0.0008元/千Tokens,0.8厘可處理1500多個漢字,比行業便宜99.3%。

一周後,阿里雲也對外宣布,通義千問GPT-4級主力模型Qwen-Long的API輸入價格降至0.0005元/千Tokens,直降97%。



阿里云官微

阿里云卷入「價格戰」後,百度、騰訊雲、科大訊飛等企業也接連宣布自家的大模型降價。其中百度甚至宣布,兩款基礎模型可免費調用。

不可否認的是,隨著技術逐漸成熟,大模型的成本正不斷下探。為了盡快俘獲更多企業客戶,拓寬市場影響力,上遊算力提供商確實需要盡力降價。

然而需要註意的是,盡管大模型成本正逐步下探,但目前大部分企業的大模型業務依然面臨算力、人力成本高企的挑戰,沒能盈利。在此背景下,上遊算力提供商不斷降價,甚至免費送大模型,顯得十分反常。

這種非理性的價格戰,其實凸顯出了上遊企業亟待通過讓利,打通大模型商業閉環的內在焦慮。

01 價格戰背後,大模型商業困局難解

2023年以來,隨著ChatGPT爆火,諸多科技公司都看到了AI大模型蘊含著巨大的商業價值,因而加碼相關業務。2024年3月,國家數據局局長劉烈宏透露,中國10億參數規模以上大模型數量已超100個。

然而隨著越來越多企業入局相關產業,大模型商業模式不健全,成本高、落地難、下遊企業持觀望態度等問題愈發凸顯。

由於需要采購高性能計算機,並且需要進行模型訓練,大模型的成本異常高昂。以OpenAI為例,其訓練GPT-4的FLOPS約為2.15e25,一次訓練成本為6300萬美元。The Information報道,2022年,OpenAI虧損約為5.4億美元左右,約擴大一倍。

目前,大部分企業都意識到了大模型的參數越多,商業想象力越大,因而持續加碼模型訓練。不過問題也隨之而來,那就是大模型僅僅問世兩年時間,下遊創收手段十分有限。

整體而言,大模型有兩種創收模式,一是直接向用戶收取訂閱費,二是向開發者收取API調用費。比如,2023年初,OpenAI推出了會員訂閱服務ChatGPT Plus,費用為20美元/月,可使用基於GPT-4的模型,並且提供更快的響應時間、優先訪問等權限。

不過,據Reddot聯合創始人Pierre Herubel測算,即使以每月擁有100萬訂戶估計,ChatGPT Plus每年或只能為OpenAI帶來2.4億美元左右收入,很難幫助公司扭虧為盈。

因此,目前以OpenAI為代表企業的發力重點,是向企業收取API調用費。參照雲計算的經驗,外部的企業從零開始訓練大語言模型非常困難,傾向於采購成熟的AI大模型技術,一旦這些企業探索出具備想象力的商業模式,即可反哺上遊算力提供商,進而實現多方共贏。

對此,2023年11月,百度創始人兼CEO李彥宏曾表示,不斷地重複開發基礎大模型是對社會資源的極大浪費,「AI原生時代,我們需要100萬量級的AI原生應用,但是不需要100個大模型。」

02 算力提供商作出表率,但B端企業仍持觀望態度

由於大部分大模型算力提供商都是平臺型企業,推出大模型技術後,這些企業紛紛在內部試水相關技術的商業化,以圖給下遊客戶做出商業化表率。

比如,2023年阿里云峰會上,時任阿里巴巴集團董事會主席兼CEO、阿里云智能集團CEO張勇表示:「阿里巴巴所有產品未來將接入『通義千問』大模型,進行全面改造。」

以釘釘為例,接入大模型後,其支持AI生成推廣文案、繪圖方式創建應用、視頻會議中生成摘要等功能。釘釘總裁葉軍認為,大模型將會讓釘釘的收入增長百分之幾十。

無獨有偶,過去一段時間,騰訊也積極探索AI技術的商業化應用。2023年財報中,騰訊對外表示:「廣告AI模型的改進顯著提升了精準投放的效果…… 這些發展帶動了高質量的收入來源,推動毛利增長 23%。」

自有業務挖掘出AI的商業價值後,上遊算力提供商正致力於針對垂直行業的細分需求,提供定製大模型能力。

比如,2023年6月,騰訊雲宣布開啟「騰訊雲行業大模型生態計劃」,致力於推進大模型在產業領域的創新和落地。據悉,騰訊雲已為傳媒、文旅、政務等10余個行業提供了超50個大模型行業解決方案。

然而需要註意的是,平臺型企業大多擁有自研大模型技術,無論是試錯還是使用成本都更低,往往只會對外宣傳商業路徑清晰的大模型落地案例。

反觀外部的企業需要采購上遊的大模型技術,探索成本相對更高,並且商業模式不清晰,很難擁有足夠的積極性。見實團隊披露的《AI應用需求與付費意願調研報告》顯示,46.2%的企業AI預算在1萬元以下,另有22.2%和24%的企業預算分別為1萬-5萬元以及5萬元-10萬元,這些中腰部企業沒有足夠的預算探索AI。

此前,大部分主力模型產品的API輸入價格不菲,比如,Qwen-Long為0.02元/千tokens,1萬元只可以購買5億個tokens。如果一個產品有500萬月活,1萬元的預算,一個月平均只能供每個用戶使用100個tokens,顯然不夠。

03 成本雖屢屢下探,但算力提供商已急不可耐

顯而易見,當下限制大模型B端商業化落地的主要障礙,就是API成本過高,限制了B端企業探索相應的商業閉環。因此,目前算力提供商的發力方向,就是致力於通過技術手段,壓低大模型的成本,降低B端企業的使用成本。

開頭提到,字節跳動旗下豆包主力模型企業市場定價為0.0008元/千Tokens,比行業便宜99.3%。對此,火山引擎總裁譚待表示:「豆包模型的超低定價,來源於我們有信心用技術手段優化成本,而不是補貼或是打價格戰爭奪市場份額。」

無獨有偶,2024年5月6日,深度求索開源了第二代MoE模型DeepSeek-V2,性能更強,訓練成本更低。據悉,DeepSeek可節省42.5%訓練成本,減少93.3%的KV緩存,最大吞吐量提高5.76倍。整體而言,DeepSeek-V2消耗的顯存(KV Cache)只有同級別Dense模型的1/5-1/100。

不過,這並不意味著當下大模型行業的價格戰十分正常。

2024年5月,談及大模型的發展趨勢時,零一萬物CEO李開復接受采訪時表示:「未來整個行業的推理成本每年降低10倍是可以期待的,而且這個趨勢是必然的。」

未來,大模型的成本將呈階梯狀下探,但目前大模型的價格卻斷崖式下探,甚至部分企業免費送,降價幅度遠超上遊成本降幅。

上遊算力提供商之所以如此內卷,很大程度上都是希望俘獲更多的B端企業,一方面實現規模效應,另一方面,讓B端企業無負擔地探索良性的商業模式。

對此,譚待表示:「大的使用量,才能打磨出好模型,也能大幅降低模型推理的單位成本……大模型從以分計價到以厘計價,將助力企業以更低成本加速業務創新。」

盡管激烈的價格戰之下,大模型已經進入「免費時代」,但其實大部分上遊算力提供商為了後續創收,都留有更為隱晦的收費手段。

目前,大部分大模型僅推理用的token降價,而訓練和部署成本依然不低。比如,阿里的qwen-turbo 模型百萬個token推理只要2元,若是訓練,就需要30元,部署時,每月需要2萬元。

由此來看,大模型進入「免費時代」,很大程度上其實只是一個宣傳意義上的噱頭。如果下遊企業想要用上成套大模型服務,那麽不能不付出更高的使用成本。

而之所以上遊算力提供商僅僅降低推理用的token成本,主要是因為通過內部應用,其對於大模型的商業價值足夠自信,希望降價的噱頭起到引流的作用。

參照雲計算價格戰的經驗,此番大模型價格戰或許可以吸引更多下遊企業認真審視大模型,有望基於相關技術探索出更多良性的商業模式。---[文:壹度Pro/來源: 鈦媒體]