01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

AI讓全球GDP翻10倍!但風險比核問題還嚴峻,三大圖靈獎大佬對話,WAIC乾貨看盡

2024070417:06



智東西7月4日報導,今天上午,2024世界人工智能大會(WAIC)在上海開幕!作為國內最高規格的AI領域行業大會之一,WAIC 2024開幕主論壇不僅有高層參與,同時匯聚了眾多產學研領域大佬。

開幕式請到了三大圖靈獎得主姚期智、羅傑·瑞迪(Raj Reddy)和曼紐爾·布盧姆(Manuel Blum)共同進行圓桌論壇交鋒,原微軟執行副總裁、美國國家工程院外籍院士沈向洋擔任圓桌主持人。

更有IEEE主席托馬斯·考夫林(Thomas Coughlin),清華大學蘇世民書院院長、清華大學人工智能國際治理硏究院院長薛瀾,上海人工智能實驗室主任兼首席科學家、清華大學惠妍講席教授周伯文,新思科技總裁兼首席執行官蓋思新(Sassine Ghazi)等重磅大咖演講。

開幕式上,沈向洋向三位圖靈獎拋出了關於「AI發展及風險」、「有意識的AI」、「AI教育和人才培養」等眾多產學研關註的問題。

圖靈獎得主羅傑·瑞迪談道,AI風險確實應該得到高度關註,同時我們也不能因噎廢食。同時他認為當下的教育體系沒法培養了解AI的未來一代人。如果AI讓每個人的工作效率提升10倍,全球GDP將從100萬億美元增長到1000萬億美元。

圖靈獎得主曼紐爾·布盧姆解讀了其團隊意識圖靈機(CTM)成果,1000萬個處理器都是類似於意識模型,沒有一個中央決策者,而是讓每一個處理器參與決策。

圖靈獎得主姚期智談及了AI發展的網絡、社會和生存三大方面的風險,認為AI的風險比核問題更嚴峻,我們創造了比我們強大很多倍的新物種,需要探討如何用AI控製AI避免重大破壞。



                                                 ▲沈向洋對話三位圖靈獎得主

同樣談及AI治理的重要議題,薛瀾談道,巨量的基礎設施已經使得全球25億人受益,但AI發展仍面臨AI技術鴻溝、治理鴻溝,阻礙全球AI的發展,需要多方一起攻克。

此外,黑石集團董事長、首席執行宮兼聯合創始人蘇世民(Stephen A. Schwarzman),索奈顧問及投資公司董事長、首席執行官喬舒亞·雷默(Joshua Ramo)也做了精彩分享。

此次WAIC 2024展覽面積超5.2萬平方米,共有500余家企業參展,展品數量超1500項,覆蓋核心技術、智能終端、應用賦能等三大板塊。

大會還公布了「鎮館之寶」名單,商湯科技首個面向C端用戶的可控人物視頻生成大模型Vimi、阿裏雲A編程助手通義靈碼、支付寶智能助理、智譜A基座大模型、特斯拉賽博越野旅行車等入選。

一、沈向洋對話三大圖靈獎得主:AI風險比核更嚴峻,但不能因噎廢食

在開幕式上,三位圖靈獎得主羅傑·瑞迪、曼紐爾·布盧姆和姚期智進行了精彩的圓桌對話,原微軟執行副總裁、美國國家工程院外籍院士沈向洋擔任主持人。

沈向洋向三位圖靈獎得主提出了多個問題,包括:如何看待AI發展及擔憂?為什麽我們緊迫關註AI治理問題?如何看待有意識的AI等等。

▲原微軟執行副總裁、美國國家工程院外籍院士沈向洋

1、靈獎得主羅杰·瑞迪:教育體系落後於AI時代,發展AI不能因噎廢食

羅傑在當年獲得圖靈獎時就提到要建立大型AI系統,他在圓桌中談道,很開心看到會場大家對AI治理和風險的探討,沒有只是去探討怎麽去用AI。大家沒有花太多時間,探討我們如何來用AI,需要做哪些研究和投資?我們現在還沒做到這一點。

在能力建設方面,羅傑認為,目前我們的教育體系沒辦法培養未來了解AI的一代人,他們需要用AI做好自己的工作,我們怎麽讓每個人把自己的工作做好?這個問題很關鍵。

談及接下來推進的研究,羅傑談道,每個領域都會出現新機會,也會出現新問題,比如汽車剛出現時,為人們出行帶來便利,但交通事故也帶來很多傷亡。因此對於AI我們也不能因噎廢食。

每個工程師都能做更好的事,如何讓他們效率更高?這意味著要做很多投資和研究工作,我希望不要只想著負面,要想著未來的機會很多。他覺得最大的機會,以後每個人的工作效率會提升10倍,全球GDP將從100萬億到1000萬億美元。



▲圖靈獎得主羅杰·瑞迪

2、圖靈獎得主曼紐爾·布盧姆:解讀圖靈機CTM意識模型,模擬人腦決策

曼紐爾在現場解讀了有意識的AI。他談道,年少時他的父親曾告訴他:「如果你知道你的這個大腦裏在發生什麽,那麽你就會變得更加聰明一些。」很幸運,他的工作是跟意識有關的。意識可以給我們想法,讓我們去建立AGI。

曼紐爾的團隊已經創立了一個意識模型——圖靈機CTM,以此向大家解釋大腦裏在發生什麽。如果我們將大腦裏發生的事情想成一個劇場,有一些演講者在劇場中央講話,我們可以讓很多處理器同時工作,相當於大腦裏的神經元,這些處理器會聽現場發生了什麽,告訴我們怎麽去做各種各樣的事情。

CTM意識模型特別有意思,1000萬個處理器都是類似於意識模型,沒有一個中央決策者,而是讓每一個處理器參與決策。

曼紐爾的學生眾多學生也拿到了圖靈獎,當沈向洋問及他有什麽為師之道?曼紐爾謙虛地稱:「我的學生都比我聰明,我從他們身上學到了很多。有時候我不懂什麽,我就直接說我不懂。」



▲圖靈獎得主曼紐爾·布盧姆

3、圖靈獎得主姚期智:AI治理警惕三大風險,比核風險更嚴峻

姚期智談及的自己對AI治理的關註,從風險方面講解到自己作為計算機科學家對AI治理的見解。

他認為,AI風險主要來自三個方面:(1)它是網絡風險的延伸和擴大,AI能力的出現使得傳統的網絡風險被放大。我們已經覺得管理數據很困難,現在難度會放大100倍。(2)社會風險,人們可以用很多方式使用強大的AI,可能對某些領域帶來顛覆式風險,也可能帶來新的失業問題。(3)生存和存在的風險,AI風向相比於核風險可能更嚴峻,這都需要很多的專家來一起解決,包括科學家、政府人士、律師及經濟學家都需要參與進來。

從計算機科學教角度,姚期智更關註第一類和第三類風險。

面對第一類風險,AI有時無法解釋一些問題,使得研究新的密碼學比較困難,我們對網絡風險的應對還處在很早的階段。

而面向第三類風險,這個和計算性有關,更大的算力可以帶來更多的知識和智慧,解決很多以前解決不了的問題,這也是讓人很恐懼的。現在,我們就是突然發現了一個方式,能創造比我們強大很多倍的新物種,我們需要確定能不能與它共存。

所以作為計算機科學家,姚期智看到最有深度的問題,就是我們怎麽把AI控制好,避免它帶來重大破壞,這是很難預測的。



▲圖靈獎得主姚期智

二、清華大學蘇世民書院院長薛瀾:降低AI風險,縮小全球AI技術鴻溝

清華大學蘇世民書院院長、清華大學人工智能國際治理硏究院院長薛瀾探討了AI治理的重要議題。

AI能為我們做什麽?薛瀾談道,大家對AI給予了很高的期望,根據SDG(可持續發展目標)最新分析,AI總體來看會對可持續發展的134個(79%)具體目標產生促進作用,對59個(35%)目標產生阻礙作用。



▲清華大學蘇世民書院院長、清華大學人工智能國際治理硏究院院長薛瀾

AI對這些目標的阻礙作用,代表AI可能帶來風險。這些風險包括基於技術本身的風險、基於技術開發的風險和基於技術應用/濫用的風險等多個方面,都是不可忽視的。

如何推動AI收益最大化、風險降到最低?

薛瀾談道,首先在底層,我國在產業應用安全方面推出了一系列法律法規,推動AI的合理發展。我們針對算法、算力、數據推出了一系列的治理規則,針對風險推出了一系列準則。針對一些專項問題,包括具體場景的應用,我們也出臺了相應的一些治理規則。此外,我國也在采取措施推動全民數字素養的提升。

從全球角度來講,AI發展也還面臨很多挑戰。一方面,巨量的基礎設施已經使得25億人受益,但AI發展仍面臨技術鴻溝、治理鴻溝,阻礙全球AI的發展。當今社會,一個國家帶來的風險就是全球風險。國際對安全問題日益重視,同時對AI數智鴻溝關註仍不夠,需要全球社會一起努力攻克。

三、上海AI實驗室周伯文:AI性能與安全失衡,99%算力用在預訓練

以大模型為代表的深層次AI快速發展,也帶來數據泄露、虛假信息、倫理問題等一系列風險、社會挑戰,如何建立一個全面的AI安全治理體系,成為全球範圍內的優先議題。

為此,上海人工智能實驗室主任、首席科學家、清華大學慧妍講席教授周伯文提出了一個新的技術主張——AI的45度平衡律。



▲上海人工智能實驗室主任、首席科學家、清華大學慧妍講席教授周伯文

這一定律指的是,從長期視角來看,AI安全與性能要大體沿著45度的路線平衡發展。

現在AI發展的路線整體是低於45度的,也就是性能發展快於安全治理,也就帶來了各種風險;而如果長期高於45度,則會阻礙技術和產業應用的發展。如何找到兩者之間的平衡,是亟待解決的難題。

為了實現這一定律,上海人工智能實驗室提出了一條以因果為核心的路徑,即可信AGI的「因果之梯」。這一路徑將可信AGI的發展劃分為三個遞進階段,從「泛對齊」,到「可幹預」,再到「能反思」。

「泛對齊」包含當前最前沿的人類偏好技術,如機器反學習、監管式對齊、基於人類反饋對齊等。這些對齊技術目前僅依賴統一的相關性而非真正的因果關系,因此可能導致錯誤的推理和潛在危險。

「可幹預」是第二層AI對齊技術,包含AI系統的對抗訓練、機械可解釋性等,其通過高可解釋性和泛化性來提高安全性能,同時也提升AI能力。

「能反思」則要求AI系統不僅要追求高效的執行任務,還要審視自身行為的外在影響和潛在風險,從而保證在高性能的前提下安全和道德邊界不被突破。這個階段的技術包括基於價值的訓練、因果可解釋性、反事實推理等。



▲可信AGI的「因果之梯」

周伯文談道,目前全球AI安全和性能技術發展主要停留在第一階段,一部分開發者在嘗試第二階段。但要真正實現AI的安全與性能平衡,必須完善第二階段,並勇於攀登第三階段。

最後,他呼籲全球開發者加強國際合作,這對於推動AI技術健康發展至關重要,我們的共同目標是構建一個開放安全的AI創新生態系統和人才培養環境。

四、新思科技CEO蓋思新:能耗減少30%,緩解人才緊缺

新思科技總裁兼首席執行官蓋思新認為,從商業和企業的角度來看,我們要了解AI產業鏈是從半導體開始的,同時也離不開上層軟件。

回顧半導體行業歷史,行業花了60年才實現5000億美美元的銷售額,2020年翻了1倍到1萬億美元,幾乎所有的這些增量都是由AI的增長所驅動的。



▲新思科技總裁兼首席執行官蓋思新

AI是一個非常大的轉折點。蓋思新談道,新思公司為此提供軟件,幫工程師使用復雜的半導體芯片,盡可能用軟件實現自動化。AI能幫我們改進芯片開發的過程,從而實現更快的速度,在各方面實現優化。

「我們在AI上面有很多共同的原則。」包括政府合規問題,芯片中每個部分的材料都要保證安全,確保芯片沒有不合規成分且監管高效。同時,如何使得半導體能耗消耗更高效,也是我們在半導體設計中需要考慮的問題。

新思科技有2萬多名工程師,如何用AI來助力業務?

新思科技創辦了一個AI卓越中心,以此教育自己的工作人員,讓他們知道AI的價值、倫理及風險等,並幫他們教育客戶來使用AI來開發芯片。

同時,新思科技也對AI進行商業化,2017年開始就在投資AI,在提供客戶的方案裏涉及AI,目前也已經包含很多生成式AI內容,比如用用生成式AI作為知識基礎,提升工程師的效率,緩解工程師人才緊缺問題,從而提高整個行業的工作效率。

在耗能方面,基於AI技術服務,能耗減少30%,涉及更復雜的問題時效率還能增長15倍。

五、全球治理高端對話:擁抱新技術,建立學術界新扶持方式

AI的快速發展,對企業運營模式、價值評估以及投資決策過程也產生了深遠影響,深刻改變了投資格局。

黑石集團董事長、首席執行官兼聯合創始人蘇世民與索奈顧問及投資公司董事長、首席執行官喬舒亞·雷默就這一系列問題,展開了全球治理高端對話。



▲蘇世民與喬舒亞·雷默

從商業的角度來看,AI是怎麽改變一家企業現有的價值認定的?

蘇世民談道,自己在剛入行的時候並不擅長做模型,而現在出現了新的AI應用,可以幫助自己起草會議備忘錄等,帶來了很多驚喜。

在他看來,雖然對新的技術仍需保持一定警惕性,但不能「像鴕鳥一樣把頭埋在沙子裏」充耳不聞,也不能完全不關註技術風險。

在AI領域中,蘇世民是在學術研究方面慈善捐贈規模最大的人之一。當雷默問及為什麽突然選擇AI這個領域時,蘇世民有些感慨地回答:「我想並不是我選擇了AI,而是AI選擇了我。」

早些時候,他曾作為投資新人資助了牛津大學的一個AI倫理運營項目。之所以這麽做,是因為當時每個人都湧向純理科投資的時候,他覺得需要將理科研究和人類情感上的一些事情相結合,去進行思考和研究,因為「這將會影響和改變人類未來10-20年之後的一些行為」。

同時他也十分關註監管方面的項目,在他看來,從事硬核技術、理科技術的人,在有可能出錯的地方應心存敬畏。

相比於商業界,高校等學術機構現在在AI競爭方面處於劣勢,一些突破性的進展大多出現在商業領域。這是算力等開發成本所導致的結構性變化。蘇世民談道,隨著AI的持續發展,必須對學術界建立一種更有價值的扶持方式,要做一些比僅僅資助一位教授的研究項目來說,更有意義的事情。

結語 :生成式AI狂飆,風險管控成為重要議題

在去年的WAIC上,產學研大佬們暢談大模型浪潮,對下一階段發展方向、應用爆發領域展開深入探討和積極展望。

而到了今年,AI風險與安全已成為最受關註的話題之一,無論是性能與安全的平衡,還是教育體系的落後,都是全球範圍內共同探討的重要議題。

總的來看,AGI仍是科技行業共同期待的目標。我們期待看到各行各業能在安全可信的指導下,為AGI的發展注入新的生命力。---[智東西/作者: 李水青 香草*編輯: 雲鵬]

*AI發展有哪些挑戰?第一條是25億人"脫線"*

7月4日,2024世界人工智能大會暨人工智能全球治理高級別會議全體會議在上海舉行。會上,清華大學人工智能國際治理研究院院長薛瀾分享了關於人工智能的見解。

首先,薛瀾從宏觀角度分析了人工智能未來的收益和風險。他提到,2015年全世界193個國家在聯合國共同簽署了人類可持續發展目標(SDG),其中包括17個目標和169個具體指標。去年聯合國召開會議,發現SDG執行情況不容樂觀,很多目標不僅沒有實現,反而出現倒退,所以大家對人工智能賦予了很高期望。

近期有分析顯示,人工智能會對SDG169個指標中的134個帶來積極促進作用,但也可能對其中的59個指標產生不利影響,從宏觀角度看,人工智能既有潛在的積極影響,也有不利方面。



分析顯示,人工智能對可持續發展目標中約79%的指標有積極影響,約35%的指標有負面影響《自然-通訊》期刊

薛瀾歸納了人工智能不可忽視的三點風險:第一,技術內在問題,包括人工智能「幻覺」,以及從長遠來看,人工智能系統自主發展對人類社會的潛在威脅;第二,技術開發帶來的風險,包括數據安全、算法歧視、能源環境等問題;第三,技術應用,包括誤用或者濫用,對社會就業帶來的長遠影響。

隨後,薛瀾介紹了中國在人工智能治理方面的實踐。他表示,關於如何推動人工智能健康發展,盡可能讓其收益最大化,同時把風險降到最低,中國在過去的實踐中已經建立了相對比較完整的體系。

首先,在底層產業應用方面,中國有一系列法律法規推動人工智能的合理發展,針對算法、算力、數據也有一系列治理規則,同時針對其風險也有很多基本規則,其中以2019年發布的《新一代人工智能治理原則》作為底層。另外,針對相關很多問題的法律也出臺,針對專項及具體場景應用都出臺了相應治理規則。構建了多維度、多層次、多領域、多舉措的整體治理體系。

他提到,同時,中國也特別強調人工智能發展和風險防控,要讓廣大社會能對人工智能有更好的了解。很多研究顯示,中國社會積極擁抱人工智能的發展,但對人工智能認識也仍有不足。所以,今年2月,四部門印發《2024年提升全民數字素養與技能工作要點》,部署了這方面任務。

最後,關於人工智能的國際治理問題,薛瀾指出,從全球角度來講,人工智能的發展面臨著很多挑戰。



在蘇丹賈巴蘭的一家電子學習中心,女孩們正在使用太陽能平板電腦。聯合國網站

薛瀾表示,首先是基礎設施鴻溝,目前全球25億人仍在「脫線狀態」,同時世界範圍內還存在公民數字素養鴻溝,以及人工智能發展素養鴻溝。這些問題不但阻礙全球發展,也對全球治理帶來很大影響,且一個國家帶來的風險就是全球風險,國際社會必須共同努力解決這些問題。

他指出,應通過多途徑建立國際交流及防控體系,加強政府間的多邊對話機製,同時希望能通過科學共同體的力量助力國際機製全面完善,全球科技力量可以跟政府、跟企業共同推動人工智能的健康發展。

他還談到,希望聯合國等國際組織能真正起到綜合全面協調的作用,打破各種壁壘,加強國際合作協議,同時在產業、科學界共同努力下推動人工智能合理發展。

「最後,希望大家共同努力推動人工智能健康發展,為人類和平與發展作出更大的貢獻。」薛瀾說道。
---來源: 觀察者網-