01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

省心更要省錢,MIT親自下場,拒絕「參數內耗」

2024041714:34

在人工智能領域,大模型因其在理解和生成自然語言方面的卓越能力而備受關註。通過捕捉和再現人類語言的復雜性和微妙性,為使用者提供了與機器進行自然對話的可能性。

不過,這些模型背後的訓練過程卻因其成本之高而備受爭議,這不僅涉及巨額的資金投入,還包括了龐大的計算資源和時間消耗。並且,有研究指出,訓練一個先進的模型可能需要數周時間,並且需要數千甚至數萬個GPU的並行計算。加之昂貴的硬件支持,僅高性能GPU和其他專用硬件的成本可能就高達數十萬甚至數百萬美元。種規模的計算資源對於大多數研究機構和個人來說是難以承受的。


這種資源密集型的發展趨勢導致了資源獲取的不平等。大型科技公司由於其雄厚的資本和資源,能夠更容易地獲取和維護這些高性能計算資源。相比之下,小型研究機構和個人由於資金和資源的限製,往往難以參與到大模型的研究和開發中。因此,如何降低大模型的資源門檻,使其更加普及和可持續,成為當前研究和實踐中的一個重要議題。

近日,MIT、普林斯頓等研究機構的全華班團隊帶來意向全新的解決方案——JetMoE-8B,該模型使用不到10萬美元的預算完成了訓練,並且包括了1.25萬億個token和30,000個H100 GPU小時。

多管齊下,成本效益原地起飛

JetMoE-8B的核心特性在於其采用了Sparsely-gated Mixture-of-Experts (SMoE)架構。這種架構通過稀疏激活機製,使得模型在處理輸入時只激活必要的參數,從而大幅降低了計算成本。據了解,JetMoE-8B擁有80億個參數,但在推理時只為每個輸入令牌激活20億個參數,這使得模型在保持性能的同時,將計算成本減少了約70%。

此外,JetMoE-8B的訓練策略也頗具創新。JetMoE-8B的訓練遵循了一個兩階段策略,包括使用大規模開源預訓練數據集的1萬億個token進行訓練,以及使用指數學習率衰減進行第二階段訓練。

其中:第一階段:預訓練

在預訓練階段,JetMoE-8B使用了來自多個高質量開源數據集的1萬億(1.25T)個token。這些數據集包括了從CommonCrawl中提取並通過MacroData Refinement (MDR) 管道處理的RefinedWeb數據集、StarCoder訓練數據、Dolma大型英文文本語料庫、The Pile以及其他數學和編程相關的數據集。這些數據集為模型提供了豐富多樣的語言和知識背景,有助於模型學習到更廣泛的語言模式和知識。


第二階段:學習率衰減

在第二階段,模型的訓練采用了指數學習率衰減策略。這意味著隨著訓練的進行,模型的學習率會按照一定的指數函數進行調整,從而逐漸減小。這種策略有助於在訓練初期快速學習並調整模型的權重,而在訓練後期則通過減小學習率來細化模型的參數,使得模型能夠更穩定地收斂到最優解。


具體來說,JetMoE-8B模型使用了Warmup-Stable-Decay (WSD) 學習率調度器,這個調度器將訓練過程分為三個階段:預熱階段(warmup stage)、穩定訓練階段(stable training stage)和衰減階段(annealing stage)。在預熱階段,學習率會逐漸增加至最大值,以幫助模型快速適應訓練數據。在穩定階段,學習率保持不變,以便模型在較高水平上進行學習。最後,在衰減階段,學習率會根據預定的指數函數進行衰減,以便模型在訓練的後期進行細致的權重調整。

此外,研發團隊針對JetMoE-8B模型使用了96個NVIDIA H100 GPU組成的集群進行訓練。H100 GPU是專為AI和深度學習任務設計的高性能計算卡,具有強大的並行處理能力。通過將這些GPU組合成一個集群,JetMoE-8B能夠同時處理大量的數據和計算任務,從而加快訓練速度。

JetMoE-8B的另一個顯著特點是其開放性和易訪問性通過公開的數據集和開源的訓練代碼,使得任何有興趣的研究者都能夠訪問和使用這個模型。這種開放性不僅促進了知識的共享,也為未來的研究和合作提供了基礎。

得益於其高效的模型架構、精心挑選的數據集、兩階段訓練策略以及強大的計算資源和開源社區的支持。這些因素共同使得JetMoE-8B能夠在兩周內完成訓練,為控製成本帶來新的思路和方向。這同樣降低了進入大模型研究領域的門檻,使得更多的研究機構和個人能夠參與到這一領域的研究中來。

*「卷」大小的時代已經過去,滿足需求才是王道

作為一款參數量較小的模型,JetMoE-8B充分發揮其高效率和速度優勢,為技術創新提供了強有力的支持。開發者可以在有限的資源下,快速叠代和測試新的想法,這不僅加速了新技術的研發進程,也為市場上的創新應用提供了更多可能性。小型企業和初創公司尤其受益於這種成本效益高的研發環境,它們能夠以更低的風險和成本,探索和實現自己的創新理念。

在大模型主導的市場趨勢下,參數規模並非衡量模型價值的唯一標準。實際上,隨著物聯網設備的廣泛部署,對於能夠在資源受限環境中高效運行的小參數量模型的需求日益增長。這些設備往往對計算能力和存儲空間有著嚴格的限製,而小參數量模型恰好能夠滿足這些條件,實現快速響應和實時數據處理的能力。

據了解,Meta已經在去年底推出了Llama 2模型的小型版本Llama 2 7B。此外,谷歌也在二月份推出了Gemma系列模型,法國AI公司Mistral也推出了Mistral 7B模型。

針對特定應用場景的定製化小參數量模型,正在成為研究和開發的新趨勢。研究者們專註於為特定任務量身定製輕量級模型,這些模型在保持高效能的同時,還能夠針對自然語言處理、圖像識別等特定領域進行優化。這種針對性的設計,不僅提升了模型的性能,也使得它們能夠更好地適應多樣化的應用需求。

值得註意的是,小參數量模型不僅在技術創新領域掀起了波瀾,更在商業模式和市場策略上引發的深刻變革。對於中小企業,通過使用這些模型來增強自身的產品和服務,而無需投入巨額的資金。這種成本效益高的解決方案,使得其商業應用變得更加廣泛和多樣化。

在市場策略方面,小模型的推出也反映了企業對消費者需求的深刻理解。隨著消費者對人工智能技術的理解和接受程度不斷提高,開始尋求更加實用、經濟的AI解決方案。而小模型正好滿足了這一需求,在保持性能的同時,提供了更加經濟實惠的選擇。

大模型之家認為,AI技術正在變得更加普及和可訪問,同時也意味著AI的應用範圍正在不斷擴大。隨著技術的進步和模型的優化,未來將會有更多的輕巧、高效模型出現在市場上,為用戶提供更多的選擇和便利。---來源:鈦媒體-

*IMF「點名」英國:AI有望提振經濟 生產力將大幅提高!*

[財聯社4月17日訊*編輯:黃君芝] 國際貨幣基金組織(IMF)預計,英國經濟將成為人工智能(AI)革命的大贏家之一,有可能改變其疲軟的增長前景,並提振國內薪資。

IMF在周二發布的《世界經濟展望》(World Economic Outlook)中預測,人工智能將使英國生產力每年提高0.9%至1.5%,這將有助於該國經濟擺脫長期低迷。這比人工智能在全球經濟中每年0.1%至0.8%的生產力增長要強勁得多。

報告指出,由於人工智能的興起,英國的經濟規模可能會增長16%,其中大部分增長將發生在第一個十年。然而,這將導致更嚴重的收入不平等,因為人工智能將使低收入工人的工資上漲2%,而高收入工人的工資將上漲14%。

目前,英國正遭遇發達國家近幾十年來最嚴重之一的生產力放緩,當地經濟增長遇阻。生產力的放緩對經濟有著巨大的影響,它減少了政府的支出,阻礙了企業的成長,抑製了工人的工資增長。因此,恢復生產力至關重要。

國際貨幣基金組織表示,英國經濟嚴重依賴服務業,由於其「強大的數字基礎設施、熟練的勞動力、創新生態系統和監管框架」,使其能夠從快速發展的技術中受益。在其《世界經濟展望》的分析中,IMF重點關註了英國在人工智能方面的潛在利益。

「相反,許多新興市場和發展中經濟體在人工智能準備方面落後,潛在效益不到英國估計的一半。」報告稱。

長期以來,英國政府對AI技術可謂是寄予了全方位的支持。2017年,英國《產業戰略白皮書》就提出將該國打造為全球人工智能中心的願景。2018年4月,英國發布了《人工智能行業協議》,在政策層面支持AI產業生態的發展。此後,英國政府又陸續成立了人工智能委員會、人工智能辦公室等。

然後時間快進至2021年,英國政府發布了《人工智能路線圖》;2022年推出國家層面《人工智能戰略》;2023年3月,英國又公布了首部《人工智能監管白皮書》。

而英國AI產業也終不負眾望、高速發展。根據英國新聞網站Tortoise Media去年發布的報告,英國人工智能領域的綜合情況目前在全球排名第四,前三名分別是美國、中國和新加坡。

數據顯示,目前英國有3000多家人工智能公司,總收入超過100億英鎊,有超過5萬人從事人工智能相關工作,經濟貢獻規模達到37億英鎊。---來源:科創板日報-