01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

AI硬件暴漲的一晚

2024030314:00

DELL +31% 引爆AI,都在尋找catch-up plays

軟件和雲都沒咋動,硬件尤其是Semi全在漲。NVDA+4%,AMD+5%,MRVL+8%,西部數據+8%,博通+7%(Oppenheimer、BofA提目標價),台積電+4%,鎂光+5%,超威盤後+14%(納入指數)。除了PMI數據和美債,美聯儲今天都提了AI:"AI could improve labor outcomes, reduce inequality”

感受下來自sell side們的熱情:


這些都是反光鏡,不得不提一下海通國際Jeff 10天前的print,事實證明,市場的確就是在找AI catchup plays

大摩對DELL訂單做的流水圖,非常清晰,說到底,新增訂單增速遠快于業績確認速度(交付速度),導致到今天Backlog(在手訂單)已經是6個月前的3.5倍...上個季度擔心的GPU lead time耽誤收入確認,現在H100 lead time縮短成利好



最關鍵的,公司跟TSMC AMD也學會了,出來上調一把行業TAM,2027年AI服務器1520億美元(之前1240億美元)。2027幾顆衛星開始腳踩腳了。負面也有,PC市場疲軟和傳統服務器的競爭激烈定價壓力,複蘇要到下半年出現,整體毛利率也有壓力(成本上升和AI稀釋)。不過看市場基本選擇了look through,都在找lagger,已知的傳統疲軟似乎基本price in了。估值便宜+分紅又提升了20%...

citi也發了業績會後的callback,要點:

指引:對于2025財年(24CY)的指引好于預期,預計全年大幅增長,對服務器中AI勢頭的樂觀,傳統服務器的反彈,以及下半年PC和存儲的複蘇持樂觀態度。

服務器:積壓訂單中GPU mix(H100/H200/MI300X),以及他們lead time mix的不同,將導致AI服務器在季度間收入確認上的不均勻(H100確認加速,新産品確認估計又受交付限制)。29億美元的積壓訂單中H200和MI300x占比在提升。管理層希望在第一季度盡可能多地出貨H100,H100的交貨時間已經從第三季度的39周下降。

毛利率:預計2025財年的毛利率將下降,這是由于存儲mix比例下降、大宗商品成本增加、更多價格競爭(PC、傳統服務器),以及預計將出貨更多的AI服務器(AI服務器會稀釋毛利率)。

此外NTAP(美國網存)業績超預期,其實beat幅度不大,但股價+18%,因爲也在提AI...NTAP在業績會上重點強調進了英偉達DGX PODs中的“多個”項目...

AMD除了傳的小段子,看下來 1)YTD英偉達65%,AMD 35%,可能就是追一追;2)8bn是否得到默許了不確定,但如果推理真的要引爆,那就水漲船高陽光普照了...

總之現在市場對AI的追逐,或者說尋找“AI新標的”的熱情極其高漲。MS搞了個AI股票坐標系,橫軸AI收入占比%,縱軸是25年PE multiple。靜態去看的話,當然是越處于東南方向的越好。動態去看的話,大家都會往右邊走,誰能保持在趨勢線下方就是價格更劃算。其實這種坐標系,潛台詞就是AI占比越高市場給與更多追逐從而會帶來更高估值溢價。那處于趨勢線下方的且偏離較遠的,都是“潛力股”。



標的不夠?MS給了另一張圖,IDC裏面各個公司的AI收入占比:

推理需求到了70%?

上周末 The wire對Jensen的采訪廣泛傳播,但其中一個細節被修改了(來自讀者Dai的提醒),很微妙。原文中Jensen表示 “如果我猜的話,Nvidia 今天的業務可能是 70% 的推理,30% 的訓練。” 之後似乎是被公關修改了:


言之鑿鑿的70%,再考慮上下文,不像是口誤,更像是說漏了。被公關也合理,畢竟和財報披露口徑差別太大。而且Dai分析很有道理,全年40%,年初很低的話,年末到了70%也很合理。

Alchip世芯業績會上要點

ASIC市占率已經是純ASIC公司第一名,就算跟MTK、AVGO、MRVL比,也只輸給AVGO;來自最大客戶(亞馬遜)的PO持續上升,相比之前要上修了,且這顆新的chip生命周期和需求都比之前預期的要大。客戶給的5nm新産品的forecast "too good to be true"

國産HBM的一份紀要

國內良率50-60%對比海外85%(但國內是中試線,做成量産線良率會提升很多);國內兩派,一個大家知道的XXXX,一個是H+XX+XX(具體放星球了)。項目定義是3,可能要到26年出産品,也可能比這個更早。

馬斯克除了起訴OpenAI,今天還有個發言,增量:

我從未見過任何技術進步得像AI這麽快,目前AI的增長接近每六個月增加十倍(我理解是計算量)。這就是爲什麽英偉達的市值如此巨大,他們擁有最好的AI芯片,它的市值還可能會更高,AI芯片熱潮會比任何曾經的淘金熱都要大。我認爲我們真的處于可能是有史以來最大的技術革命的邊緣。

我們離完全自動駕駛非常接近;乘用車的平均使用時間大約是每周10小時,但如果實現了自動駕駛,每周使用時間可以達到50到60小時,這意味著乘用車的效用將增加五倍

張忠謀:“有人跟我要10個fabs”

最近在日本一個會議上表示,有人跟他說,需要10個fab來生産AI芯片,“他們談論的不是wafers,而是fabs” 張忠謀認爲10 fabs過于驚人,真實的需求可能在 幾萬片晶圓~10個fabs之間,更爲合理(但這個範圍也很大,也就是幾萬~百萬片量級之間,參考英偉達2024需求可能也在10萬片以上了)

月之暗面楊植麟訪談長文,乾貨滿滿,省流:

Scaling law爲什麽能成爲第一性原理?你只要能找到一個結構,滿足兩個條件:一是足夠通用,二是可規模化。通用是你把所有問題放到這個框架建模,可規模化是只要你投入足夠多算力,它就能變好。這是我在Google學到的思維:如果能被更底層的東西解釋,就不應該在上層過度雕花。有一句重要的話我很認同:如果你能用scale解決的問題,就不要用新的算法解決。新算法最大價值是讓它怎麽更好的scale。當你把自己從雕花的事中釋放出來,可以看到更多。

長文本是登月第一步,因爲足夠本質,它是新的計算機內存。老的計算機內存,在過去幾十年漲了好幾個數量級,一樣的事會發生在新的計算機上。它能解決很多現在的問題。比如,現在多模態架構還需要tokenizer(標記器),但當你有一個無損壓縮的long context就不需要了,可以把原始的放進去。

進一步講,它是把新計算範式變成更通用的基礎。舊的計算機可以0、1表示所有,所有東西可被數字化。但今天新計算機還不行,context不夠多,沒那麽通用。要變成通用的世界模型,是需要long context的。

第二,能夠做到個性化。AI最核心的價值是個性化互動,價值落腳點還是個性化,AGI會比上一代推薦引擎更加個性化。但個性化過程不是通過微調實現,而是它能支持很長的context(上下文)。你跟機器所有的曆史都是context,這個context定義了個性化過程,而且無法被複刻,它會是更直接的對話,對話産生信息。

scaling law走到最後發現根本走不通的概率幾乎爲0。模型可擴展的空間還非常大,一方面是本身窗口的提升,有很長路要走,會有幾個數量級。另一方面是,在這個窗口下能實現的推理能力、the faithfulness的能力(對原始信息的忠實度)、the instruction following的能力(遵循指令的能力)。

如果這兩個維度都持續提升,能做非常多事。可能可以follow(執行)一個幾萬字的instruction(指令),instruction本身會定義很多agent(智能體),高度個性化。

AI不是我在接下來一兩年找到什麽PMF,而是接下來十到二十年如何改變世界——這是兩種不同思維

開源的開發方式跟以前不一樣了,以前是所有人都可以contribute(貢獻)到開源,現在開源本身還是中心化的。開源的貢獻可能很多都沒有經過算力驗證。

閉源會有人才聚集和資本聚集,最後一定是閉源更好,是一個consolidation(對市場的整合)。

如果我今天有一個領先的模型,開源出來,大概率不合理。反而是落後者可能會這麽做,或者開源小模型,攪局嘛,反正不開源也沒價值。

從GPT-3.5到GPT-4,解鎖了很多應用;從GPT-4到GPT-4.5再到GPT-5,大概率會持續解鎖更多,甚至是指數型的應用。所謂“場景摩爾定律”,就是你能用的場景數量會隨著時間指數級上升。我們需要邊提升模型能力,邊找更多場景,需要這樣的平衡。它是個螺旋。

可以理解成有兩種不同壓縮。一種是壓縮原始世界,這是視頻模型在做的。另一種是壓縮人類産生的行爲,因爲人類産生的行爲經過了人的大腦,這是世界上唯一能産生智能的東西。你可以認爲視頻模型在做第一種,文本模型在做第二種,當然視頻模型也一定程度包含了第二種。它最終可能會是mix,來建立世界模型。

矽谷一直有一個爭論:one model rules all還是many specialized smaller models(一個通用模型來處理各種任務,還是采用許多專門的較小模型來處理特定任務),我認爲是前者。

---[作者:Jason,來源:信息平權,原文標題:AI硬件暴漲的一晚/來源: 華爾街見聞官方]