馬斯克新 AI 破解千年難題卻被緊急喊停 ?這個「玩笑」怎麽讓 AI 圈一夜未眠
Grok-3 證明了「黎曼猜想」了?
xAI 研究員 Hieu Pham 周末發布的一條推文在 AI 圈掀起軒然大波,推文原話是這麽說的 :
Grok-3 AI 系統剛剛證明了黎曼猜想(Riemann’s hypothesis)。爲了驗證這一證明的正確性,我們決定暫停該系統的訓練。如果證明被確認無誤,我們將不再繼續其訓練,因爲這樣的AI 被認爲過于智能,可能對人類構成威脅。
老規矩,先說結論,這單純就是玩梗而已。
然而,隨著推文的不斷發酵,還是迅速引發了超過兩百萬網友的關注與討論,甚至輻射到海內外的 AI 輿論圈。
事情的源頭大概要追溯到網友 Andrew Curran 更早些時候的一則「爆料」,其聲稱 Grok-3 在訓練過程中發生了災難性事件。
隨後,各種離奇的傳言紛至沓來。
網友起哄說,OpenAI CEO Sam Altman 用巨大的激光器對准了 xAI 的最大訓練集群,導致數據嚴重損壞;也有人煞有介事地暗示有人蓄意破壞下一代 LLM 訓練運行。
更有調侃稱,AI 似乎獲得了自我意識,並解決了黎曼猜想,但在證明代碼中「故意省略了15個分號」,使人類無法驗證。
連 Runway 創始人 Cristóbal Valenzuela 也來湊熱鬧 :Gen-4 剛剛榮獲了包括最佳影片在內的所有奧斯卡獎項。
爲了深入研究其在藝術領域的創新成果,我們決定暫停對其進行的訓練。
如果這部電影確實如早期評論家所言具有革命性,我們將不會恢複訓練,因爲這表明 AI 在藝術方面已經達到如此高的水平,以至于可能威脅到人類的創造力。
謠言就這麽越傳越邪乎。
多位 xAI 研究人員也紛紛轉發 Andrew Curran 推文,加入這場集體「大團建」。
比如我們的老熟人 xAI 聯創 Greg Yang 率先調侃道,Grok-3 在訓練過程中突然毆打辦公室裏年長的保安。
另一位研究人員 Heinrich Kuttler 則表示 :「是的,情況非常糟糕!我們後來用nan(Not a Number,非數)把所有異常的權重都替換了一遍,才恢複。」
當然,更理性的網友直接在 X 上詢問當前版本的 Grok 對黎曼猜想的理解,不出所料, Grok 的表現十分「瑪卡巴卡」。
最終,這場鬧劇由始作俑者——xAI 研究員Hieu Pham親自畫上句號 :
好的,《周六夜現場》結束了。至于爲什麽證明黎曼假設是危險的,我強烈推薦馬特·海格(@matthaig1)的精彩小說《人類》。
那麽問題來了,爲什麽這則 Grok-3 證明黎曼猜想的消息能引起廣泛的關注呢?首先是黎曼猜想本身的重要性。
黎曼猜想(Riemann Hypothesis)是數學中一個關于素數分布的重要猜想,由德國數學家伯恩哈德·黎曼于 1859 年提出,該猜想被列爲克雷數學研究所(Clay Mathematics Institute)的「千年難題」之一。
它涉及到黎曼ζ函數(Riemann zeta function),這個函數定義爲:
ζ(s)=1+12s+13s+14s+⋯\zeta(s) = 1 + \frac{1}{2^s} + \frac{1}{3^s} + \frac{1}{4^s} + \cdotsζ(s)=1+2s1+3s1+4s1+⋯
黎曼猜想的核心內容是:所有非平凡的黎曼ζ函數零點的實部都等于1/2。換句話說,如果 ss 是黎曼ζ函數的一個非平凡零點,即 ζ(s)=0ζ(s)=0,那麽其實部必定是 ℜ(s)=1/2ℜ(s)=1/2。
克雷數學研究所說了,如果有人能夠成功證明黎曼猜想,將獎勵 100 萬美元的獎金。但這個猜想至今沒有被證明或反駁,也被廣泛認爲是現代數論中的一個未解之謎。
這個猜想的證明對于數論(數學的一個分支)有著深遠的影響。
目前,很多現代加密技術(比如保護網上支付、數據隱私等)都依賴于素數的性質。證明黎曼猜想或將會讓人類更好地理解這些技術的基礎,並且可能影響到未來的安全算法。
假如 Grok-3 能證明黎曼猜想,這不僅將推動理論數學、物理學、密碼學等領域的大幅進展,同時將標志著 AI 在推理和解決複雜問題方面的巨大進步。
甚至可以說,這將成爲人工智能超越人類智能的一個標志性事件。
月之暗面創始人楊植麟曾表示,數學場景是鍛煉 AI 思考能力最理想的場景。
數學是一個極其嚴謹的邏輯體系,而 AI 的推理能力往往建立在嚴密的邏輯推導之上。
AI 解決數學問題的過程實質上是一個持續思考的曆程,在這個過程中,它會不斷嘗試不同思路,通過反複試錯來尋找正確答案。即便計算過程中出現錯誤,AI 也能通過驗證和校對來糾正結果。
類似的理念也體現在 OpenAI o1 的強化學習訓練上。
如果說以前的大模型是學習數據,o1 更像在學習思維。就像我們解題,不僅要寫出答案,也要寫出推理過程。一道題目可以死記硬背,但學會了推理,才能舉一反三。
所以在今年美國針對優秀高中生的 AIME 測驗當中,GPT-4o 僅完成了百分之十三的題目。相比之下,o1 的正確率高達 83 個百分點。
就博士水准的 GPQA Diamond 科研測評而言,GPT-4o 獲得了 56.1% 的成績,而 o1 的表現更爲出色。不僅勝過了人類博士的 69.7%,更是達到了 78% 的正確率。
在國際信息學奧賽(IOI)的評測中,當每道題允許 50 次嘗試時,模型達到了 49% 的得分率,即 213 分,而當每題提交機會增至一萬次時,其最終得分提升至 362 分。
拿打敗圍棋世界冠軍的 AlphaGo 類比,就更加容易理解了。
AlphaGo 就是通過強化學習訓練的,先使用大量人類棋譜進行監督學習,然後與自己對弈,每局對弈根據輸贏得到獎勵或者懲罰,不斷提升棋藝,甚至掌握人類棋手想不到的方法。
o1 和 AlphaGo 有相似之處,不過 AlphaGo 只能下圍棋,o1 則是一個通用的大語言模型。
o1 學習的材料,可能是數學題庫、高質量的代碼等,然後 o1 被訓練生成解題的思維鏈,並在獎勵或懲罰的機制下,生成和優化自己的思維鏈,不斷提高推理的能力。
這其實也解釋了,爲什麽 OpenAI 強調 o1 的數學、代碼能力強,因爲對錯比較容易驗證,強化學習機制能夠提供明確的反饋,從而提升模型的性能。
當然,更重要的是如何將這種推理能力拓展應用到更廣泛的領域中。
所以我們會看到不少海外網友爲 Grok-3 證明黎曼猜想歡呼,「如果是這樣的話,我們真的在見證一個巨大的突破。」
馬斯克曾多次在公開場合渲染 Grok-3 的強大,他聲稱 Grok-3 預計在年底前問世,並將成爲「世界上最強大的 AI」。
實際上,Grok-3 是由上面提到的 AI 初創公司 xAI 開發的第三代大型語言模型,並預計在性能上預期將超越現有的所有 AI 大模型。
原因在于 Grok-3 訓練背後依托的是目前世界上最大的 AI 訓練集群——Colossus。
這個集群由 10 萬個液冷英偉達 H100 GPU 組成,采用單一的 RDMA 網絡互連架構。這個集群的規模已經超越了目前世界上任何其他的超級計算機,而且未來還將持續擴充 GPU 數量。
根據 The Information 的報道,Colossus 的出現甚至引起了 Altman 的密切關注,後者派飛機飛越 Colossus 訓練基地,試圖窺探其開發進展和能源供應情況。
所以說,當「最強 AI」、「千年數學難題」和以及長盛不衰的「AI 威脅論」這三重元素疊加,一場完美的「謠言風暴」就此形成。
甚至我們可以認爲,Grok-3 證明黎曼猜想的謠言,與其說是一場鬧劇,不如說是整個 AI 行業的一面照妖鏡:
其一是折射出人們對 AI 的深層態度,大量技術樂觀派堅信 AI 終將無所不能,既擔心它發展得太快會失控,又害怕它發展得不夠快無法實現突破。
其二是自 GPT-4 問世以來,盡管 AI 領域不斷有新産品湧現,卻鮮有真正的突破性進展。
人類既是 AI 的創造者,卻又成了它最焦慮的觀衆。
每一個 AI 謠言的背後,都藏著整個行業的焦慮與期待。
加之最近鬧得沸沸揚揚的 Scaling Law 發展撞牆論,相比去年的井噴期,今年的「創新疲勞」讓人們對模型的小步改進已然失去耐心。
在這個意義上,Grok-3 證明黎曼猜想的謠言也成了人們對未來的一次集體想象。哪怕作爲普通用戶,我們也越來越期待下一個從 GPT-3.5 到 GPT-4 的質變時刻。
當然,真正的 AI 突破,往往發生在所有人都不看好的時候。
但我們都希望這個謎底能在年底前揭開。---來源 : 愛範兒 -