01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

OpenAI「超級對齊」團隊解散後 誰還能為AI失控負責?

2024052216:21

OpenAI內部不同陣營對AI的安全性分歧正在逐步暴露。

在OpenAI宣布向公眾免費提供迄今為止最強大的人工智能模型GPT-4o後,OpenAI首席科學家蘇茨克維爾(Ilya Sutskever)及「超級對齊」團隊負責人Jan Leike於上周相繼宣布辭職,理由是不認可OpenAI領導層的「核心優先事項」,且近幾個月來,團隊「資源不足」,完成研究變得越來越困難。

「建造比人類更聰明的機器本質上是一項危險的工作,但在過去的幾年裏,安全文化和流程已經讓位於閃亮的產品。」Leike在社交平臺X上寫道。「對齊」或「超級對齊」是人工智能領域中使用的術語,指訓練人工智能系統在人類需求和優先事項範圍內運行的工作。

在Leike辭職前,蘇茨克維爾已經宣布離職,這也宣告OpenAI的「對齊」團隊正式解散。OpenAI表示,團隊成員將被整合進其他研究小組,以更好地幫助OpenAI實現其超級對齊目標。

構建AI本質上是一項「危險工作」

去年11月,OpenAI上演「宮鬥劇」時,就曾傳出罷免CEO奧爾特曼(Sam Altman)的人正是蘇茨克維爾。



當時雙方的矛盾在於,以奧爾特曼為代表的一群「激進派」人士認為人工智能的快速發展,尤其是公共部署對於AI的壓力測試和完善技術至關重要;而以蘇茨克維爾為代表的另一方則認為,最安全的前進道路是先在實驗室裏全面開發和測試人工智能,以確保它對人類來說是安全的。

這樣的爭論在自動駕駛誕生時已經存在。人們究竟應該讓自動駕駛在密集的城市道路上釋放能力,以便充分掌握自動駕駛汽車的功能和缺陷,還是應該謹慎測試自動駕駛汽車,以防範不可知風險,這一分歧至今尚無答案。

蘇茨克維爾曾被奧爾特曼稱為「世界上最受尊敬的研究人員之一」。特斯拉CEO馬斯克評價蘇茨克維爾,說他是一個正直的人,而且心地善良。

蘇茨克維爾不像奧爾特曼有那麽高的曝光率,他更內向,沈浸在自己的世界裏。他說自己的生活很簡單,除了工作幾乎很少幹別的,不是呆在家裏就是在辦公室。

英偉達創始人CEO黃仁勛也與蘇茨克維爾認識有十年之久。他稱,蘇茨克維爾十幾年前經常開車從多倫多越過邊境到紐約去買一種叫做GTX 580的GPU芯片,英偉達有嚴格的政策,每人只能買一塊,但不知為何蘇茨克維爾獲得了一個後備箱的芯片。「他用裝滿了GPU的後備箱改變了世界。」黃仁勛表示。

但蘇茨克維爾謙虛地表示:「我想只要取得哪怕一點點的真正進步,我就會認為這是成功的。」

* 尋求阻止「超級智能」失控的方法

在OpenAI,蘇茨克維爾稱他的優先事項不是「構建下一個GPT版本」,而是找出如何阻止超級人工智能「失控」的方法。他認為,ChatGPT可能是有「意識」的。他認為,世界需要認識到這種技術的真正力量,因為有一天,一些人類可能會選擇與機器融合。

這些看似瘋狂的話,現在聽起來並不像一兩年前那麽瘋狂。ChatGPT已經改變了很多人對即將發生的事情的期望,將「永遠不會發生」變成「會比你想象的更快發生」。

蘇茨克維爾師從人工智能「教父」、計算機科學家傑弗裏·辛頓(Geoffrey Hinton)。辛頓是圖靈獎得主,他在過去的十多年裏幫助谷歌開發AI技術。

2012年,蘇茨克維爾與辛頓等人構建了一個名為AlexNet的神經網絡,他們訓練該網絡來識別照片中的物體,其效果遠遠好於當時的任何其他軟件,甚至超過人類。這項研究被視為「深度學習的大爆炸時刻」。

後來,谷歌收購了辛頓的公司DNNresearch,蘇茨克維爾與辛頓一同加入谷歌。一年多後,蘇茨克維爾離開谷歌,與奧爾特曼一起創立了OpenAI。

辛頓去年也離開谷歌,轉而成為AI技術的「吹哨人」,拋出「AI末日言論」的觀點。他擔心人工智能技術的「未來版本」會對人類構成威脅,因為「它們經常從分析的大量數據中學習到意想不到的行為」。例如,AI系統被允許不僅可以生成自己的計算機代碼,而且實際上可以自己運行該代碼,這就會變得非常可怕。

在談到關於「超級智能」時,蘇茨克維爾認為,具備超級智能的通用人工智能(AGI)可能會變得無法控製,從而導致災難。這也是關註「有效利他主義」社會運動的科技工作者的擔憂,他們認為,人工智能的進步應該造福人類。

在蘇茨克維爾看來,AGI可以幫助人類做很多令人感到不可思議的事情,比如自動化醫療保健,成本可以便宜一千倍,效果可以提升一千倍。他認為,「超級人工智能」會更深入地看待事物,會看到人類看不到的東西,但人類並不確定這到底意味著什麽。

為了讓人工智能模型做人類希望它完成的事情,蘇茨克維爾與OpenAI的科學家Jan Leike等人領導團隊,致力於人工智能的「超級對齊」,目標是提出一套用於構建和控製這種未來技術故障的安全程序。Leike與蘇茨克維爾一起辭職,並稱「OpenAI將閃耀的產品置於安全性之上」。

* 盈利和安全風險如何平衡?

大部分人工智能科學家認為,AI大模型尚未對人類產生即刻的風險,但人類必須從現在開始就要做好準備。谷歌首席科學家傑夫·迪恩(Jeff Dean)就表示:「不僅要關註大型語言模型的潛在機遇,還要關註其風險和缺點,這一點非常重要。」

牛津大學互聯網研究院(OII)互聯網研究教授、貝利奧爾學院研究員威廉·達頓(William Dutton)接受第一財經專訪時表示:「關於人工智能潛在風險的炒作非常多,但人們必須搞清楚到底何為風險、何為機會。這意味著我們需要更多的國際協同來了解人們對AI的想法。」

貝恩公司全球總裁曼尼·馬瑟達(Manny Maceda)近日在復旦管理學院管理大師論壇上表示:「新的經濟模式正在出現,凸顯了監管和政策協調的重要性,以確保技術能夠被安全、負責任地部署,從而造福社會。」

他認為,無論是什麽領域的企業,想要用好生成式人工智能技術並從中受益,需要進行兩手抓:一方面,要確定用例的優先順序,企業要充分考慮實施的復雜性和成本以及潛在影響;另一方面,企業要註重安全、隱私和知識產權。

清華大學國強教授、智能產業研究院首席研究員聶再清對記者表示:「感覺大模型技術的發展比想象中快,現階段AI沒有對人類造成即刻威脅,但確實需要更多關註如何保證機器能夠一直服務於人,而不會反過來被壞人利用。」

聶再清表示,相關工作和討論應該關註大模型安全機製設計,同時關註如何在資本和商業化過程中確保這些安全機製的執行。「學界和工業界都需要開始投入部分精力到相應的工作中,最後達成某種共識且有效的方式。」他說道,「底線是確保大模型服務於人類。但他同時強調,在設計好AI的安全機製之後,繼續開發AI的能力還是非常重要的。

為應對人工智能的倫理和挑戰,目前全球監管機構都在針對由ChatGPT引爆的生成式AI設立監管標準,其中歐盟議會已經批準了首個全面的人工智能法案,而中國也已經發布了《生成式人工智能服務管理辦法(征求意見稿)》。

上海交通大學行業研究院「人工智能+」行業團隊負責人史占中教授對第一財經記者表示:「生成式AI的安全性和倫理規範值得高度關註,需要建立和完善監管製度。如果相關監管製度逐步跟上,相信生成式AI會造福更多人類。」

史占中認為,從政府的層面來講,要加快AI相關領域的立法,特別在金融、安全、健康等領域嚴格監管,厘清AI的設計者、使用者、內容生成者的權責關系,完善AI決策的問責機製,保護大眾合法權益;而從社會層面來講,應加強AI技術的監管,推進AI研發者遵守倫理準則與規範AI的發展。

* 隱私保護問題正在發生

比起擔憂未來,AI大模型帶來的安全問題正在發生。

中國科學院院士何積豐公開表示,大模型當前面臨的安全問題主要涵蓋兩方面,分別是隱私保護和價值觀對齊兩大難題。

亞信安全高級副總裁陳奮表示,AGI工具將黑客生成新威脅的時間由之前的「數個月」縮減至幾小時甚至幾分鐘;同時,攻擊者開始利用大模型迅速發現軟件與服務中存在的漏洞;通過人臉深度偽造來實施網絡詐騙犯罪的案例也越來越多。更嚴重地,攻擊者的目標正由傳統的數字資產轉向AI算力基礎設施和大模型。

「在安全監測中,短短一年時間,針對大模型的攻擊手段已湧現出數十種不同的類型。」陳奮表示,攻擊者的步伐總是快防禦者一步,他們可以快速通過AGI工具生成病毒代碼,挖掘漏洞。未來防禦檢測需要由AI原生驅動,也許現在沒有做到百分之百,但會盡力實現全面集成。

大模型時代的安全攻擊目標範圍也相應發生了變化,攻擊者已經在慢慢增加或轉移攻擊目標,如攻擊AI算力基礎設施,2024年便有一處美國幾千萬算力集群被黑客攻擊,攻破之後算力被用來挖掘比特幣。

同時,可能受攻擊的群體也包括了家庭個人用戶,從傳統個人桌面、手機逐漸演化到智能家居、智能汽車,甚至未來每個家庭都有一個人工智能,這些人工智能該如何進行保護,也是需要提前防護的範圍。

對於AI倫理,陳奮對記者表示,AI safety更多是大模型算法公司,以及產業界共同努力的成果,不是單靠一家公司能夠實現的。對該領域更多是技術發展規範的思考,對技術底層的要求,而不是單一商業化的事情。

不論是AI技術防護還是AI倫理問題,都需要產業鏈上下遊的共同努力。亞信安全高級副總裁兼CDO吳湘寧對記者表示,大模型產業鏈非常長,最終落地過程中會發現有更多企業參與進來,尤其是以大模型為基礎的周邊業態會更加豐富。

真正做大模型的主要集中在幾個頭部,但整個利用大模型的企業或行業會越來越多,這就對整個AI安全生態提出新的要求,僅把大模型安全做得好沒有用。

但在當下的節點,建立全產業鏈針對AI安全的聯盟組織在吳湘寧看來難度有點大,行業目前也暫時沒有想清楚究竟該如何落地,各個位置均有自身的落地思路與探索過程,但參與方會盡力參與相關標準的制訂規劃。---來源: 第一財經資訊-