01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

OpenAI大重啓:新模型想讓你相信ChatGPT像人思考...

2024091314:50
*OpenAI大重啓:新模型想讓你相信ChatGPT像人思考*

9月13日消息,經過數周的猜測與期待,OpenAI終于推出了其首個“推理模型”o1。這款産品被認爲是該公司迄今最強大的人工智能産品之一,其解決問題的能力表現出前所未有的類人思維特質。至少,這是該公司對外的宣傳。

不過,和OpenAI以往的研究和産品發布一樣,o1目前仍有些“吊胃口”。OpenAI聲稱,這個模型在處理複雜任務時表現更加出色,但卻幾乎未透露模型訓練的細節。目前,o1僅向付費ChatGPT用戶和特定程序員提供有限預覽。

OpenAI信心滿滿地表示,o1在物理、化學和生物等領域已經展示出類似博士生的思維深度。這一進展被認爲如此重要,以至于OpenAI決定從現有的GPT-4重新開始,將模型的編號重置爲“1”,甚至考慮舍棄已被廣泛認可的“GPT”品牌。這一品牌不僅定義了其聊天機器人,還標志著整個生成式人工智能領域的騰飛。

OpenAI今天發布的研究報告和博客文章,展示了許多o1在應對複雜推理任務上的驚人能力。這些任務涵蓋高等數學、編程難題、密碼解密,甚至包括來自遺傳學、經濟學和量子物理學領域的專業問題。大量圖表顯示,o1在公司內部評估中,已顯著超越了其頂尖的語言模型GPT-4o,在編程、數學及科學領域表現尤爲突出。

這些進步的關鍵源自對兒童教育的深刻洞察——“三思而後行”。OpenAI稱,OpenAI o1在作答前會花費更多時間進行“深思熟慮”,類似于人類的思考過程。公司將這一過程稱爲“思維鏈”,這是一個AI研究中的術語,指將問題分解爲多個中間步驟的解決策略。這個“思維鏈”機制使模型能夠逐步解決小任務、自我修正並優化解決方案。當用戶向o1提出問題時,模型會顯示“思考中”,隨後展示其推理過程中的一些步驟,如“追溯曆史演變”或“整合證據片段”。最終,它會標注思考的時長,例如“思考9秒”,然後給出答案。

盡管o1在生成答案時的完整“思維鏈”對用戶不可見,以簡化用戶體驗,但這也犧牲了部分透明度,使得用戶難以了解模型如何得出最終的結論。這同時也是爲了保護模型的核心技術不被競爭對手掌握。關于o1的構建細節,OpenAI透露甚少,僅表示其訓練基于“全新的優化算法和訓練數據集”。

盡管OpenAI的營銷力度空前,但o1是否會爲ChatGPT帶來革命性體驗,或僅是對現有模型的漸進式改進,仍不確定。不過,從公司展示的研究成果和我的初步測試來看,o1的輸出結果確實更爲全面且富有邏輯。這反映了OpenAI對規模效應的信心:更大的AI模型、更多的數據以及更強大的計算能力,將推動AI性能的飛躍。訓練時間越長,o1的表現越出色。

然而,長時間的思考也伴隨著更高的成本。OpenAI允許程序員支付使用其技術,而o1的每個詞輸出費用大約是GPT-4o的四倍。生成式AI所需的高性能芯片、電力及冷卻系統都極爲昂貴。爲了滿足這些龐大的計算需求,科技公司、能源企業和其他行業預計將投入數萬億美元。這引發了人們的擔憂:AI是否會像加密貨幣或互聯網泡沫時代一樣,成爲新的泡沫。由于o1響應問題所需的時間更長,其消耗的資源也隨之增加,這進一步加劇了AI技術何時能盈利的不確定性。

這延長的處理時間,最顯著的影響或許並不是技術或財務方面的負擔,而是對品牌的重塑。相比過去AI模型中那些晦澀的術語如“轉換器”和“擴散”,OpenAI的“推理模型”以及“思維鏈”聽起來更貼近日常語言,帶有一種“人類化”的色彩。

這種語言策略並非OpenAI獨有。初創公司Anthropic將其主打模型Claude形容爲擁有“性格”和“頭腦”,谷歌大肆宣傳其AI的“推理”能力,AI搜索初創公司Perplexity則宣稱其産品“理解你”。OpenAI的博客直接指出,o1“像人類一樣思考”,“如同真正的軟件工程師一般工作”,並且“具備類似人類的推理能力”。盡管研究負責人強調,OpenAI並不認爲其産品等同于人類大腦,但他也承認,o1在某些方面確實比之前的模型顯得更“人性化”。

對于一個産品定位尚不清晰的行業來說,“人性化”的表達方式無疑是一種有力的營銷手段。智能的定義本來就模糊不清,而語言模型的實際價值也難以確切評估。“GPT”這個名稱看似簡單,卻難以傳達任何實際含義。盡管OpenAI的首席研究官鮑勃·麥克格羅(Bob McGrew)認爲,OpenAI o1是邁向“更合理命名”的第一步,旨在更清晰地表達其産品,但這些字母和數字組合的微妙差異對普通人來說往往無關緊要。

然而,推銷一種能夠“像你一樣思考”的工具,與科學實驗室的術語完全不同,它更像是文學中的概念。這樣的描述固然不比其他AI術語更精確,甚至可能更模糊,但也正因此賦予了其獨特的魅力。一個聲稱“像人類思考”的AI模型,爲人們留下了想象的空間,讓每個用戶都能填補其中的空白,構想出一台“像我一樣運作”的機器。或許,銷售生成式AI的關鍵就在于此——讓客戶自己去構築和填補這其中的“魔法”。---(小小/來源 :  易科技報導)

*OpenAI發布新模型o1,更像理科生,不會多模態但推理能力超強*

9月13日消息,去年,OpenAI通過推出GPT-4,實現了人工智能領域的一次重大突破。周四,該公司宣布了一個標志著其研究方向轉變的全新模型:OpenAI o1。

OpenAI o1具備獨特的邏輯“推理”能力,能夠解決許多現有模型(包括OpenAI目前最強大的模型GPT-4o)無法處理的複雜問題。與傳統大語言模型通常一步給出答案不同,OpenAI o1像人類一樣,通過逐步推理,最終得出正確的結論。

OpenAI首席技術官米拉·穆拉蒂(Mira Murati)在接受采訪時表示:“我們將其視爲人工智能模型發展的新範式,特別是在處理複雜推理任務時,展現出了前所未有的優勢。”

OpenAI o1的內部代號爲“草莓”,並非旨在取代GPT-4,而是對其的補充。

穆拉蒂還透露,OpenAI目前正在構建下一代主模型GPT-5,其規模將遠超前代。盡管公司依然認爲擴大模型規模能帶來新的突破,GPT-5預計將融合本次展示的推理技術。“我們有兩個發展方向,一個是規模擴展,另一個是推理能力提升,我們希望最終將兩者結合,”穆拉蒂說道。

大語言模型通常依賴龐大的神經網絡和海量數據進行訓練,展現出卓越的語言和邏輯能力,但在處理基本推理問題(如簡單的數學題)時,表現不佳。

穆拉蒂指出,OpenAI o1采用了強化學習技術,通過對正確答案給出正反饋、錯誤答案給出負反饋,逐步提升模型的推理策略。她補充說:“這個模型不僅提升了思維的敏銳度,還微調了它用于解決問題的策略。”強化學習已經幫助計算機在遊戲和複雜任務(如芯片設計)中取得了超凡表現,同時也是開發高效、友好的聊天機器人的關鍵技術。

OpenAI研究副總裁陳信翰(Mark Chen)展示了OpenAI o1的能力,解決了GPT-4o無法處理的多個問題,包括複雜的化學題和一個棘手的數學推理題。陳信翰表示:“新模型不再只是模仿人類思維方式,而是學會了獨立思考。”

OpenAI稱,新模型在多個領域(如編程、數學、物理、生物和化學)的測試中表現出色。在美國數學邀請賽(AIME)中,GPT-4o平均解答率爲12%,而OpenAI o1的解答率則高達83%。

不過,OpenAI o1的速度不如GPT-4o,且其優勢並非在所有情況下都明顯,部分原因在于它無法搜索網絡,也不具備多模態功能,無法處理圖像或音頻數據。

近年來,提升大語言模型的推理能力一直是研究熱點,競爭對手也在積極探索。谷歌今年7月宣布了AlphaProof項目,結合了語言模型和強化學習,專注于解決複雜的數學問題。盡管AlphaProof能夠通過正確答案學習數學推理,但面臨的挑戰在于現實問題並非總有明確答案。

OpenAI表示,其新推理系統具備更廣泛的適用性。陳信翰認爲:“我們在這一領域取得了突破,這也是我們的優勢所在。該系統在各個領域的推理任務中表現出色。”

斯坦福大學教授諾亞·古德曼(Noah Goodman)曾發表過關于提高大語言模型推理能力的研究,他認爲,通過精心設計的提示性語言模型結合手工優化數據,可能是實現推理能力提升的關鍵。古德曼還表示,如果能在速度和准確性之間取得平衡,將是“意義重大的進步”。

麻省理工學院助理教授Yoon Kim指出,大型語言模型的推理機制仍顯得神秘,盡管它們能夠逐步推理,但與人類思維或存在本質差異。這種差異在技術被廣泛應用時可能會變得至關重要。他說:“這些系統可能會做出影響衆多人的決策。更大的問題是,我們能否信賴它們的決策機制?”

OpenAI新技術或許還有助于確保AI模型的“良性行爲”。穆拉蒂表示,新的推理模型可以通過對結果的推理,避免産生不良或有害的輸出。她說:“就像教育孩子一樣,一旦他們理解爲什麽要做某件事,他們就能更好地遵守規範、行爲准則和價值觀。”

華盛頓大學名譽教授、人工智能專家奧倫·埃齊奧尼(Oren Etzioni)指出:“讓大語言模型具備多步驟推理、使用工具和解決複雜問題的能力至關重要,單靠規模擴展難以達成這一目標。”他補充說,即使推理能力得到提升,幻覺和事實驗證問題依然存在。

陳信翰透露,該公司開發的新推理方法表明,人工智能的發展並不一定需要龐大的算力支撐。“這一變革令人振奮。我們相信它能以更低的成本實現智能輸出,而這正是我們公司核心願景的一部分。”---[文源:易科技報導/責任編輯 : 王鳳枝*文 :   小小]