01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

ChatGPT掀智力革命!OpenAI發布AGI路線圖,最終通向超級智能世界

2023022613:45



【新智元導讀】ChatGPT爆火出圈讓人們開始重新思考人工智能的未來在哪?恰在昨日,OpenAI發布了通用人工智能路線圖,分享了其對AGI的短期和長期規劃。

繼ChatGPT成當紅炸子雞後,微軟、谷歌、Meta等大廠紛紛入局。

隨之而來的是,人們對其廣泛應用也産生了擔憂。

前Alphabet執行董事Eric Schmidt和其他合著者在WSJ發表的文章中稱,

    生成式人工智能提出了自啓蒙運動以來從未經曆過的哲學挑戰和實踐挑戰。


就在昨日,OpenAI首席執行官Sam Altman發文,分享了OpenAI對通用人工智能(AGI)的當前和後續規劃。

文章強調,OpenAI的使命是確保AGI造福全人類。


OpenAI願景:確保AGI造福全人類

文中,提出了OpenAI最關心的三原則。

如果AGI最終成功構建,這項技術不僅可以帶來更多可能性,推動全球經濟發展,還能改變新興科學知識的發現,從方方面面幫助人類提升生活水平。

AGI可以賦予每個人不可思議的新能力。

在AGI觸手可及的世界,所有人都可以獲得幾乎所有認知能力的幫助,AGI或許能成爲人類才智和創造力的巨大力量增幅器。



但另壹方面,正如壹些人所擔心的,通用人工智能也會造成嚴重的濫用、意外和社會混亂。

然而,AGI的益處令人驚歎,我們不能諱疾忌醫,讓社會永遠停止發展;相反,社會和AGI開發者必須要想辦法把它做好。

與通用人工智能共同生活的未來圖景難以預測,當前AI的進展可能會遭遇新的挑戰,但在ChatGPT獲得成功的當下,我們列出了公司最關心的幾項原則:

1. 希望AGI可以爲人類賦能,使人類能夠在宇宙中實現最大程度的繁榮。我們不希望未來成爲壹個虛假的烏托邦,但我們希望將技術好的壹面最大化,壞的壹面最小化,讓AGI成爲人類善意的放大器。

2. 希望以公平的方式,更廣泛地分享AGI的益處、獲取和治理。

3. 要正確應對潛在風險。在面對這些風險時,理論上似乎正確的事情在實踐中往往比預期更難以控制。我們必須通過部署功能較弱的技術版本來不斷學習和適應,以最大程度地減少「無可挽回」的情況。

短期目標:爲AGI做好三項准備

因此在短期內,OpenAI計劃做到以下幾件事。

首先,隨著公司不斷構建出更爲強大的AI系統,我們希望快速部署AGI,以積累在相應的應用經驗。

在OpenAI看來,謹慎管理AGI的最佳方式應該是逐漸過渡到AGI普及的世界。我們期望的未來,強大的人工智能技術能夠加快世界進步的速度,

漸進的方式讓大衆、政策制定者和研究機構有時間了解AGI技術帶來的改變,親身體驗這些系統的好處和缺點,調整經濟組織形式,並實施有效監管。



同時,漸進的發展方式還能促使社會和AI共同進步,讓人們在風險相對較低的情況下了解自身。

OpenAI認爲,成功解決AI應用挑戰的最佳方法是采用快速學習和謹慎叠代的緊密反饋循環。在新技術的沖擊下,社會將面臨「人工智能系統被允許做什麽、如何消除偏見、如何處理工作崗位流失」等重大問題。

增加AI技術的使用大有脾益,OpenAI希望成爲推廣該技術的壹員,通過將模型放入服務API中,將它們開源等方式實現。

OpenAI表示,隨著其開發的系統越來越接近AGI,該機構在模型的創建和部署方面都變得越來越謹慎。

OpenAI需要權衡使用大模型的利弊。壹方面,使用先進的大模型標志著重要的科技進展;另壹方面,使用模型之後,公司和機構也需要考慮如何限制惡意行爲者、避免對社會和經濟造成不良影響等問題。



其次,OpenAI正在努力創建更加壹致和可控的模型。從GPT-3的第壹個版本到InstructGPT和ChatGPT,這壹步步的轉變都彰顯OpenAI在AI安全性方面所做的努力。

值得注意的是,人類社會需要就如何使用人工智能達成極其廣泛的界限。隨著模型變得更強大,OpenAI將需要開發新的對齊技術。



OpenAI的短期計劃是使用AI來幫助人類評估更複雜模型的輸出並監控複雜系統,而從長遠來看,OpenAI將會使用AI來幫助獲得更好的對齊技術。

OpenAI認爲,人工智能安全和能力同樣重要,二者不應該分開談論。OpenAI表示其最安全的工作出自其最有能力的模型之手。也就是說,提高人工智能的安全性對AI研究進步非常重要。

第三,OpenAI 希望全球範圍內解決三個關鍵問題:人工智能系統的治理問題,AI系統産生的收益的分配問題,以及訪問權限的共享問題。

此外,根據OpenAI公司章程,OpenAI需協助其他組織提高安全性,不能在後期AGI開發中與對手競爭。

OpenAI投資規則中對股東可以獲得的回報設定了上限,這樣研究機構本身就不會被引誘去嘗試無限制地獲取價值,也不會冒險使用具有災難性危險的技術。

OpenAI由非營利組織管理,以保證該機構是爲人類的利益而運行,並且可以淩駕于任何營利利益之上。

最後,OpenAI認爲全球政府應對超過壹定規模的機器學習訓練保持監管。

長遠目標:更加繁榮的超級智能世界

相比于短期計劃,OpenAI的AGI長遠發展顯得更爲宏大。

OpenAI相信人類的未來應該由人類自己決定,與公衆分享有關進步的信息至關重要。因此,應該對所有AGI發展項目進行嚴格審查,並在重大決策上面向公衆進行咨詢。

在OpenAI看來,第壹個AGI只會是人工智能持續發展中的壹個小節點,然後從這個節點開始不斷衍生出新的進展。公司預測,AI的未來發展可能會在很長壹段時間內和我們過去十年的進展速度類似。

也許有壹天,世界會發生翻天覆地的變化,科技的進步也可能帶給人類很大的風險。壹個「錯位的」超級智能AGI可能會對世界造成嚴重的傷害。



因此,OpenAI認爲放緩AGI的發展速度更容易確保安全。即使技術的進展讓我們有迅速發展AGI的能力,但保持減速能讓社會有足夠的時間來適應。

成功過渡到壹個擁有超級智能的世界可能是人類曆史上最重要、最有希望,但也最可怕的項目。沒人能保證這壹天何時到來,但人們已經探明的利害關系有助于將所有人團結起來。

無論如何,那將是壹個繁榮到超乎想象的世界。而OpenAI希望爲世界貢獻壹個與這種繁榮相壹致的通用人工智能。

ChatGPT預示著壹場智力革命

近日,前美國務卿Henry Kissinger、前Alphabet執行董事Eric Schmidt、麻省理工蘇世民計算機學院首任院長Daniel Huttenlocher撰寫了壹篇「ChatGPT預示著壹場智力革命」的文章。

文章中透露了他們對當前生成式人工智能的擔憂:

生成式人工智能提出了自啓蒙運動以來從未經曆過的哲學和實踐挑戰。



文章開頭便闡述了當前ChatGPT對人類的影響。

壹項新技術旨在改變人類的認知過程,因爲它自印刷術發明以來從未動搖過。

1455年印刷古騰堡聖經的技術使抽象的人類思想得以普遍而迅速地傳播。但今天的這項新技術逆轉了這壹過程。

印刷機造成了現代人類思想的大量湧現,而新技術則實現了對它的提煉和闡述。

在這壹過程中,它在人類知識和人類理解之間造成了差距。

如果我們要成功地駕馭這種轉變,就需要發明人類思想和與機器交互的新概念。這就是人工智能時代的基本挑戰。

這項新技術被稱爲生成性人工智能,最具代表性的便是OpenAI研究實驗室開發的ChatGPT。



隨著它的能力變得變得更加廣泛,它們將重新定義人類的知識,加速我們現實結構的變化,並重組政治和社會。

生成式人工智能同樣將爲人類理性開辟革命性的道路,爲鞏固知識開辟新的視野。

但兩者之間也存在著明顯的區別。啓蒙知識是逐步實現的,每壹步都是可測和可教的。

AI系統,如ChatGPT,可以存儲和提煉大量現有信息,並能夠在不解釋其過程情況下輸出結果,這是人類無法做到的。

此外,人工智能的能力不是壹成不變的,而是隨著技術的進步呈指數級增長。

我們迫切需要開發壹種複雜的辯證法,使人們能夠挑戰生成式人工智能的交互性,不僅要證明或解釋人工智能的答案,還要對其進行審問。

帶著壹致的懷疑態度,我們應該學會有條不紊地探索人工智能,並評估它的答案是否值得信任,以及在何種程度上值得信任。這將需要有意識地減少我們無意識的偏見,進行嚴格的訓練和大量的實踐。

問題仍然存在:我們能不能足夠快地學會挑戰而不是服從?還是我們最終將不得不服從?我們所認爲的錯誤是故意設計的壹部分嗎?如果人工智能中出現了惡意的因素怎麽辦?


另壹個關鍵任務是,反思哪些問題必須留給人類思考,哪些問題可以冒險交給自動化系統。

然而,即使有了強化的懷疑主義和審問技巧,ChatGPT也證明了生成技術的精靈已經離開了瓶子。我們必須對我們所問的問題進行深思熟慮。

隨著該技術得到更廣泛的理解,它將對國際關系産生深遠的影響。除非知識的技術是普遍共享的,否則帝國主義可能專注于獲取和壟斷數據,以達到人工智能的最新進展。

模型可能會根據收集的數據産生不同的結果。社會的不同演變可能會在日益不同的知識基礎的基礎上演變,從而對挑戰的認識也會不同。

文末提出了讓人們值得深思的兩個問題:

如果不能完全控制這項技術會怎樣?

如果總是有辦法編造謊言、制作虛假圖片和視頻,而人們永遠無法學會不相信他們的所見所聞,那該怎麽辦?


Meta首席AI科學家LeCun回答道,

-人們將學會更好地追蹤來源,並評估他們所見所聞的可靠性,這很可能是在新技術的幫助下。

-當前的自回歸LLM是出了名的不可控,但新的AI系統在需要時是可控的、真實的並且無毒的。


還有網友引用了Andy Grove的話「有兩種選擇:適應或死亡」。


要是妳會怎麽做?-[新智元報導*編輯:桃子 昕朋/來源: 新智元]

參考資料:

https://openai.com/blog/planning-for-agi-and-beyond/

https://www.wsj.com/articles/chatgpt-heralds-an-intellectual-revolution-enlightenment-artificial-intelligence-homo-technicus-technology-cognition-morality-philosophy-774331c6

https://twitter.com/ericschmidt/status/1629361652574621701