01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

2024年,生成式AI的"炒作"要結束了?

2023101814:41



「用ChatGPT-4寫一封電子郵件,就好比讓蘭博基尼送披薩。」這句話聽上去有點誇張,卻一語道破了當前生成式AI在應用層上遇到的巨大難題:成本過高,尤其是在AI產品和市場契合度(PMF)不那麼高的情況下。

近期,分析公司CCS Insight發布預測報告稱:生成式人工智能領域將在明年接受現實的檢驗,具體表現在:技術炒作逐漸消退,運行成本不斷上升,監管呼聲越來越多。種種跡象表明:生成式AI的增長即將放緩。

就在報告發布的前一天,華爾街日報的一篇文章《Big Tech Struggles to Turn AI Hype Into Profits》(Tom Dotan & Deepa Seetharaman)在副標題中指出,包括微軟、谷歌在內的一些公司,正在努力嘗試各種策略,只為讓AI產品真正能賺到錢。

01 每月倒貼3000萬美元,150萬用戶致成本失控

GitHub Copilot是微軟基於ChatGPT推出的一款AI編程產品,被程序員們稱為「開發者神器」,目前用戶超過150萬人。如果按照互聯網時代的商業邏輯,GitHub Copilot以10美元/月的會員費,早就能賺到盆滿缽滿。但據文章作者所言,這款爆火的AI應用讓微軟虧到吐血。

今年的前幾個月,GitHub Copilot平均每月要給每個用戶倒貼20美元,給有些用戶最多能倒貼80美元。算下來,自從推出GitHub Copilot,微軟一個月就能虧3000萬美元,如果情況不變,一年下來虧損直接過億。不知道的以為微軟轉行做慈善了。

生成式AI 「冤種」聯盟的成員還有谷歌、亞馬遜、Adobe、Zoom等。

為了避免血虧,Adobe公司直接對用戶的每月使用量設置了上限。谷歌除了收取每月6美元起的常規會員費,將對一款AI助手的用戶收取30美元/月的額外費用;微軟則是在13美元/月的基礎費用之上,對AI版Microsoft 365的用戶多收30美元/月。另外,知情人透露,這兩家巨頭還會「偷梁換柱」,採用更便宜的小模型。

繁榮之下,為什麼生成式AI會還能虧錢呢?

最主要的問題是成本失控。

首先,買硬件需要錢。AI算力芯片是大模型的發動機,早期微軟向OpenAI投資的150多億美元,大多數都用在了搭建AI超級計算機和購買AI芯片的硬件支出上。據悉GPT-4模型需要超過3萬枚A100芯片。不然怎麼說英偉達是當前AI時代當之無愧的最大贏家,也難怪MAAMA都開始捲起了芯片。

其次,大模型越聰明的代價是所需的算力越多。作者指出:企業要花費數年時間和數億美元,才能訓練出一個成熟的AI產品。a16z曾發布報告稱,單次GPT-3訓練的成本在50萬美元到460萬美元之間。就連電費都是一筆天文數字,據估算,2023年1月平均每天約有1300萬獨立訪客使用ChatGPT,對應芯片需求為3萬多片英偉達A100 GPU,每日電費在5萬美元左右。

最重要的是,AI應用不具備互聯網應用的規模經濟。算力有成本,每計算一次要多花一次的錢。SemiAnalysis首席分析師Dylan Patel統計,OpenAI光是運行ChatGPT,每天投入的成本就可能高達70萬美元。這導致使用AI產品的用戶越多,或用戶的使用次數越多,提供服務的企業就要支付更高的成本費用。如果只向用戶收取一筆固定的月費,那麼企業就會面臨潛在的成本損失,正如微軟在GitHub Copilot遭遇的血虧。

02 用戶找不到為生成式AI付費的理由

當然,錢是賺來的,不是省來的。畢竟, 「日虧70萬美元」的吞金獸OpenAI,如今也能估值高達900億美元。近期,The Information還爆出,OpenAI預計在未來一年內,通過銷售AI軟件及其計算能力,獲得超過10億美元的收入。

但OpenAI在商業模式上的巨大成功並不具備普遍性。就目前來看,不少生成式AI產品的吸金能力顯然有限。

Insight的傑出工程師Carm Taglienti指出:人工智能項目失敗的原因99%與客戶過高的期望值有關。但這句話也揭示了一點:現在的人工智能沒有聰明到能解決用戶希望解決的問題。

而根據紅杉資本的判斷,當前AI市場已經從「第一幕」——從技術出發,進入了 「第二幕」——從客戶開始。這個階段要求生成式AI必須具備解決人類問題的能力。也就是說,當人們對新興技術的熱情退散時,他們會思考自己到底需要何種AI服務,並質疑自己為什麼要為AI付費?

這正如文章中Amazon Web Services的首席執行官Adam Selipsky所指出的:目前,許多用戶開始對運行AI模型的高昂費用感到不滿。

事實上,紅杉資本的報告《Generative AI’s Act Two》也顯示,無論是首月用戶留存率,還是目前用戶的日常使用情況,以大模型為代表的生成式AI使用情況都不容樂觀。相比普通產品最高85%的留存和日/月活,用戶體驗過ChatGPT後還願意繼續用比例為56%,每天打開的比例僅為14%。

這或許意味着,至少很多用戶還沒找到自己必須使用生成式AI產品的理由。

從to B的層面來講,大模型也不是萬金油。你所構建的AI產品必須與你試圖解決的任務強相關。甚至OpenAI的首席技術官 Mira Murati也指出:企業用戶並不是總需要最強大的模型,有時候他們只需要適合其特定用例且更經濟實惠的模型。

而從解決問題的角度看,目前通用大模型存在使用成本高、推理延遲較大,數據泄漏、專業任務上不夠準確等問題。與之相比,一些更小型、專業化的長尾模型具有更準確、更便宜、更快速的優點,剛好能夠滿足客戶企業的需求。

總而言之,早期初創公司投資人在去年砸進了22億美元資金,如果AI的實際應用確實達不到預期效果,隨之而來的失望將導致投資縮減。

為企業打造生成式AI工具的公司Writer的首席執行官梅·哈比卜(May Habib)說,估值不斷上升反映了人們對AI前景的熱情,不過高管們很快就會更仔細地關注成本問題。他認為,明年投資者對於生成式AI就不會如此趨之若鶩了。

03 生成式AI最大的問題是向用戶證明其價值

高昂的開發成本,再加上難以盈利的應用,反正不會讓投資人高興,可能只有英偉達和一些雲服務提供商開心。

但情況真就如此糟糕嗎?也不一定。文章指出:預計隨着時間的推移,生成式AI會變得更便宜,就像雲存儲和3D動畫等許多技術一樣。同時,新芯片和其他創新可能也會降低處理成本。

可是即便事實如CCS Insight所預測的:2024年生成式AI的增長即將放緩,但從長遠來看,生成式AI也一定會增長。正如Amara定律:我們傾向於在短期內高估一項技術的效果,在長期內低估其效果的現象。

這讓人想到互聯網發展初期的1998年,一位著名經濟學家宣稱:到2005年,一切將變得清晰,互聯網對經濟的影響不會超過傳真機。」

或許,生成式AI目前只是處在「尷尬的青春期」,它最大的問題不是尋找使用案例、需求或分發,而是證明其在解決用戶問題上產生的真正價值。正如福特汽車公司創始人的經典名言:如果我問客戶他們想要什麼,他們的回答一定是一輛更快的馬」。無論如何,技術一定要走在市場前面,因為消費者看不到那麼遠。-(文:適道/鈦媒體)