01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

模型合並就進化,直接拿下SOTA!Transformer作者創業新成果火了

2024032616:26
 
把Huggingface上的現成模型拿來“攢一攢”——

直接就能組合出新的強大模型?!

日本大模型公司sakana.ai腦洞大開(正是“Transformer八子”之一所創辦的公司),想出了這麽一個進化合並模型的妙招。


該方法不僅能自動生成新的基礎模型,而且性能絕不賴:

他們得到的一個70億參數的日語數學大模型,直接在相關基准測試上取得了SOTA,打敗了700億參數的Llama-2等前輩。

最重要的是,得出這樣的模型不需要任何梯度訓練,因此需要的計算資源大大減少。

英偉達科學家Jim Fan看完大贊:這是我最近讀過的最有想象力的論文之一。



合並進化,自動生成新基礎模型

從開源大模型排行榜上表現最好的模型,大多不再是LLaMA或Mistral這種“原始”模型,而是一些微調或合並模型之後,我們就能看出:

一種新的趨勢出現了。

Sakana.ai介紹,開源基礎模型很容易在數百個不同的方向上進行擴展和微調,然後産生在新的領域表現出色的新模型。

而在這之中,模型合並顯現出了巨大前景。



但,它可能是一種“黑魔法”,嚴重依賴直覺和專業知識。

因此,我們需要更爲系統性的方法。

受自然界的自然選擇啓發,Sakana.ai盯上了進化算法,引入“進化模型合並”(Evolutionary Model Merge)的概念,提出一種可以發現最佳模型組合的通用方法。

該方法結合了兩種不同的思路:

(1)合並數據流空間(層)中的模型,以及(2)合並參數空間(權重)中的模型。

具體而言,第一種數據流空間方法是通過進化來發現不同模型層的最佳組合,以此形成新模型。

在社區以往的做法中,都是靠直覺來確定如何以及模型哪些層可以與另一個模型的層結合。

但其實,Sakana.ai介紹,這個問題有一個組合數量巨大的搜索空間,最適合由優化算法如進化算法來搜索。

其操作示例如下:


至于第二個參數空間方法則混合多個模型權重來形成新模型。

這種方法其實很無數種實現,再加上混合的每一層原則上可以使用不同的混合比例,就更多了。

而這,利用進化方法就可以有效地找出更爲新穎的混合策略。

以下是將兩個不同模型的權重進行混合得到新模型的操作示例:



將以上這兩種方法合並,就是這樣的:



作者介紹,他們希望在相距較遠的領域,例如數學和非英語語言、視覺和非英語語言,來組成之前大家不曾探索過的新興組合。

結果,還真有點讓人驚喜。

新模型輕松拿下SOTA

用以上進化合並方法,團隊得到了3個基礎模型:

    大語言模型EvoLLM-JP

由日語大模型Shisa-Gamma和數學大模型WizardMath/Abel合並而成,擅長解決日語數學問題,進化了100-150代。

    視覺語言模型EvoVLM-JP

日語大模型Shisa Gamma 7B v1+LLaVa-1.6-Mistral-7B,是具有日語能力的VLM。

    圖像生成模型EvoSDXL-JP

支持日語的SDXL擴散模型。

前兩個已在Hugging Face和GitHub上發布,最後一個也即將推出。

具體來看。

1、EvoLLM-JP

它在GSM8K數據集的多語言版本——MGSM的日語評估集上取得成績如下:



可以看到,EvoLLM-JP用日語解決數學問題的表現超過了它們的原始模型,也超過了Llama-2、GPT-3.5等高性能模型。

其中模型4是僅在參數空間進行了優化,模型6是使用模型4在數據流空間中進一步優化的結果。

在既評估數據能力也評估一般日語能力的日語lm-evaluation-harness基准上,EvoLLM-JP則在9個任務上的平均得分最高達到了70.5——只用70億參數,它就打敗了700億的Llama-2等模型。



團隊表示,EvoLLM-JP已經足夠優秀,可以作爲通用日語大模型,並解決一些有趣的例子:

比如需要特定日本文化知識的數學問題,或者用關西方言講日本笑話。

2、EvoVLM-JP

在以下兩個圖像問答的基准數據集上,分數越高,代表模型用日語回答的描述越准確。

結果,它不僅比其所基于的英語VLM LLaVa-1.6-Mistral-7B更出色,也比現有的日語VLM更厲害。



如下圖所示,在回答圖中的信號燈爲什麽顔色之時,只有EvoVLM-JP答對:藍色。(日本的習俗就是把紅綠燈稱爲紅藍燈)



3、EvoSDXL-JP

這個支持日語的SDXL模型只需4個擴散模型即可執行推理,生成速度相當快。

具體跑分還沒出來,但團隊透露也是“相當有希望的”。

可以欣賞一些示例:提示詞包括:味噌ラーメン、最高品質の浮世絵、葛飾北斎、江戸時代。



對于以上3個新模型,團隊指出:

原則上,我們可以采用基于梯度的反向傳播來進一步提高以上這些模型的性能。

但我們不用,因爲現在的目的就是表明,即使沒有反向傳播,我們仍然可以得到足夠先進的基礎模型,挑戰當前的“昂貴範式”。

對此,網友們紛紛點贊。

Jim Fan也補充:在基礎模型領域,目前社區幾乎完全專注于讓模型去學習,而不太重視搜索,但後者在訓練(也就是本文提出的進化算法)和推理階段其實都有巨大的潛力。



△馬斯克點贊

所以,如網友所說:我們現在已經處于模型的寒武紀大爆發時代了嗎?---[豐色 發自 : 凹非寺*量子位 : 公衆號 QbitAI/來源: 量子位 ]



論文地址:https://arxiv.org/abs/2403.13187
參考鏈接:
[1]https://sakana.ai/evolutionary-model-merge/
[2]https://twitter.com/DrJimFan/status/1771927650883522899?s=20
[3]https://twitter.com/SakanaAILabs/status/1770613032198279663

*英偉達Jim Fan:如何構建開放世界中的通用智能體?*

從AlphaGo、MineCLIP,到Voyager、Eureka、Groot,從具身化(Embodiment)和技能(Skill),從單一形態到多形態,英偉達在“具身智能”和 AI 智能體方面進行了多年的布局研究,希望能在 AI 通用體方面有所成果。

目前,英偉達擁有多模態具身智能系統Nvidia VIMA,其能在視覺文本提示的指導下,執行複雜任務、獲取概念、理解邊界、甚至模擬物理學——這也標志著 AI 能力的顯著進步。

“我相信,訓練這種基礎智能體的過程將和 ChatGPT 非常相似。所有的語言任務都可以被歸類爲文本輸入和輸出,無論是寫詩、翻譯,還是做數學。訓練 ChatGPT 就是在大量的文本數據上進行擴大。同樣的,基礎智能體會接受一個實體化提示詞和指令提示詞作爲輸入,然後輸出行動指令。我們只需在大量環境中大規模擴大它。

基礎智能體是 GearLab 的下一章。昨天,老黃在他的主題演講中宣布了我們路線圖上的一項重要倡議,即 Groot 項目。我們的目標是爲人形機器人構建一個基礎模型。爲什麽要選擇人形呢?因爲這是最通用的形式。我們所生活的世界是爲了適應人類和人類的習慣而形成的。

理論上,我們在日常生活中可以做到的所有事情,都可以在足夠先進的人形機器人硬件上實現。因此,我非常興奮能與全球多家領先的人形機器人公司合作,使得 Groot 能夠在不同的實體之間進行遷移。在一個更高的層面上,Groot 可以接受包括語言、視頻和示範等多模態指令,並在模擬以及真實世界中開發技能。”Jim Fan表示。



Jim Fan指出,如今Groot項目的目標,是爲最通用的人形機器人打造基礎模型,通過海量環境訓練獲得通用性,並與各種基礎設施共建生態。而且,未來新的人形機器人不僅會搭載Jensen Thor芯片,並有望在邊緣計算設備上驅動Groot。

“Groot 是在 OSPO 上誕生的,這是一個新的計算調度系統,用于在 DGX 上提升模型的規模,以及在 OVX 上進行模擬。我們在 Isaac 實驗室爲人形機器人運行了許多不同的環境,期望模型能適應各種技能和環境,並能在模擬與真實的場景間無縫遷移,以便我們可以大規模擴展訓練,利用 GPU 加速的模擬環境。”Jim Fan在演講中指出。

Jim Fan強調,GEAR 實驗室是一項以使命爲驅動的研究。“通用 AI 之路任重道遠,GEAR 實驗室正朝著這一使命不懈努力。”---(钛媒體/作者 : 林志佳|钛媒體AGI)