01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

揭開黑盒子:探索人工智能背後的科學原理與風險

2023060514:38



人工智能作為當下最熱門的話題,我們一邊為技術取得的重大進步歡欣鼓舞,一邊又為它過於強大的能力感到不安。它不只是計算機學家的課題,而是涉及到科學、政治、社會的方方面面。

北京時間2023年5月24日,美國加州理工學院電氣工程與計算機科學Yaser Abu-Mostafa教授帶來了該校「沃森講座」百年紀念日系列的壓軸報告「Artificial Intelligence: The Good, The Bad, And The Ugly」。他用通俗易懂的語言解釋了人工智能的科學原理,並探討了其風險和益處。

在「AI會殺死我們所有人」和「AI會解決我們所有問題」的極端觀點之間,教授帶領我們用科學的觀點識別現實和推測,並指導我們在規劃、立法和投資中對AI進行決策。

本文對此次講座進行了整理精簡,以饗讀者。

揭開人工智能的神秘面紗

如今我們身處在一個人人都在談論人工智能的時代,但當提起它時,我們有時抱着興奮與激動,有時卻又為它惴惴不安。一方面,人工智能的性能一次又一次的令我們驚艷,另一方面我們並不理解它是如何表現得如此像人類,更不知道它未來會發展到何種程度。為了針對人工智能帶來的社會現象制定有意義的政策,我們需要揭開它的神秘面紗,了解其背後的科學原理。

提到人工智能的科學原理,最核心的問題是機器是如何表現智能特徵的(symptoms of intelligence)。在神經網絡時代到來之前,人工智能領域占主導地位的是依靠暴力算法的專家系統,採用「查找表」的形式,幫助機器迅速的查詢到想要的信息。當被問到一個問題時,機器可以迅速的找到答案,表現得十分「聰明」。僅僅依靠暴力算法這樣簡單的原理,機器便可以輕易在智力競賽和象棋比賽中擊敗最強大的人類選手,我們似乎已經取得了智能甚至是超級智能。但這類人工智能需要花費巨大的人力物力來把合適的信息放到合適的位置,只能發揮僅僅一次作用,這顯然不是我們所想要的智能的模式。

自1980年以來,人工智能領域發生的最巨大的改變,便是從暴力算法演變成了學習算法。想要理解「學習」和「智能」的關係,我們可以看看自己的大腦,我們擁有一套內置的學習算法:大腦靠神經元傳遞信息,而在兩個神經元之間存在的突觸,會依據發生的情況上調或下降連接強度。人類大腦中存在100萬億甚至更多的突觸,因此我們的大腦可以存儲不勝其數的信息並組織成一種方便回憶和學習的形式。

但我們如何模擬大腦實現學習功能呢?參考我們模仿鳥類製造飛機的發展歷程,我們只需要提取出「翅膀」和其背後最核心的特徵即可:我們現在的飛機可以完美的實現飛行功能,但並不像真正的鳥類一樣扇動翅膀。

因此真正重要的事情是針對不同功能提取出本質核心。那麼,從上世紀八十年代發展至今,我們已經提取出了生物神經系統中反映智能的核心了嗎?看看人工智能領域的最新進展,我們可以毫不猶豫地回答:是的。

▷圖片來源:沃森講座

在理解了人工智能的智能表徵後,我們再來理解人工智能會容易許多。例如在最基本的神經網絡結構中,便是多個神經元通過突觸相互連接的形式。我們需要注意的正是這些突觸——也可以稱它們為參數。理解這些參數最好的方式是把它們看作旋扭——我們學習一個函數的過程其實就是通過調節大量的旋鈕,儘量讓輸入的數據在我們構造的神經網絡中實現我們期待的功能。這是一個巨大的工作,但好消息是我們擁有學習算法,可以告訴我們在數據輸入時如何調節。而一旦調節完成後,旋鈕的狀態就被固定住了,以完成我們希望網絡完成的工作。

除了基本神經網絡模型之外,還有許多別的神經網絡模型,例如ChatGPT採用的便是「轉換器」模型(Transformer),它有着靈活的注意力機制。理解這些不同模型最好的方式是:在我們的大腦中不同腦區的構建單元都是神經元和突觸,但它們有不同的結構來實現不同的功能——同樣的,當我們想完成不同的任務時,我們應該構建不同的模型。

現在我們可以從信息存儲的角度比較一下人工智能的新舊兩種形式。以一個具體的例子來說,假設我們現在同時有專家系統和神經網絡兩個系統來回答同一個問題。

專家系統的工作方式是這樣的:它已經提前設定好了並一直保持固定,它所需要做的就是搜尋數據庫以便找到正確答案並輸出。而對於神經網絡來說,問題輸入後,它需要多個突觸相互交互,經過不斷的處理後才能生成最終答案,也就是說,它採取的是一種分布式的編碼方式。這樣的編碼方式使得網絡可以柔性地處理每一段信息,讓它們相互交互來探索我們從未遇到過的問題。

理解了神經網絡的信息存儲方式後,我們再來看看人工智能備受爭議的一個問題:我們都聽說過人工智能是一個黑盒子的說法——我們不能理解它做的事情,我們也就很難相信它。

「可解釋性人工智能」的問題其實可以類比人類做決定的過程:你最開始只是有一種直覺,接着你依靠這種直覺做出相應的選擇。如果現在請你分析為什麼做出了那樣的決定,你很可能會解釋說有哪些因素影響了你,但如果我纏着你十分精細地闡述你究竟為什麼這樣做,很可能你也會束手無策。事實上,我們靠直覺做的決策依賴於我們過去人生中不斷積累的觀察與經驗,而這些都是我們無法按照順序詳細記錄下來的。這和可解釋性人工智能的情形十分相似。當我們想要「理解」人工智能時,你只需要知道它的功能是內嵌在結構中的,而不需糾結於每一個參數的含義。

在討論人工智能的政策前,我們還需要知道神經網絡是如何建成接着發揮功能的。一個網絡發揮作用總是要經過構造網絡和應用網絡兩個階段。構造網絡,或者我們常說的訓練網絡的階段,正是我們之前所說的調節旋鈕的過程,調節旋鈕可以使得原本不針對任何任務的網絡變成具有一定功能的特定的網絡。簡單的估算一下,假設我們有一台擁有極大內存的電腦,一個ChatGPT模型需要1.5千億的參數,想要讓一台電腦得到一個ChatGPT模型需要計算200000年。訓練網絡時網絡本身不帶有任何「偏見」或目的,它完全由我們設置的訓練過程決定。相比訓練過程,網絡的使用階段要來得簡單得多。一旦訓練完成,參數值就已經凍結了,我們只需輸入查詢語句,模型便會生成答案。

當我們提到管控人工智能時,其實涉及兩類管控:第一類是管控人工智能的部署——當一個人訓練人工智能時,我們如何確保得到的網絡是無害的?如同藥監局對上市的藥物都要進行核查一樣,我們對人工智能也需要設定類似的機構。例如想要檢查網絡是否帶有偏見,我們只需輸入一組標準的檢測數據,觀察輸出的結果是否帶有偏見,一旦發現不合格的回答,便拒絕推行這類網絡。

第二類管控則是管理人工智能的發展,我們常常將人工智能類比為核武器。我們已經有了一套相對成熟的核武器國際管控機制——我們對於核武器的原料「濃縮鈾」設定數量上的限制,這樣便無法生成安全範圍以上的核武器——我們可以對人工智能做類似的事情嗎?可惜的是,人工智能所需要的GPU芯片,保守估計已經有一百億已投入使用。利用計算機領域開源社區的特徵,世界上任何一個機構,或者即使最窮的一個國家,也可以製造出他們想要的任何人工智能模型。我們需要看到,在人工智能領域,這裡沒有「濃縮鈾」,人工智能必將實現自己完全的潛力,即使你不做這件事,總有別人來做。

人工智能將去往何處

在人工智能領域,最諷刺的事情便是,即使是最智能的網絡,也無法預測人工智能的發展將走向何處。我們承諾人工智能能達到什麼時,我們不用擔心我們虛誇了它的未來,我們擔心的是它會遠超於我們的預期。為什麼會這樣呢?因為在我們發展人工智能的過程中,我們十分幸運發展出了「局部最優解」與「過表達」理論,目前有許多相關研究和結論,但是還沒有一個概括性的結論。

▷圖片來源:沃森講座

局部最優解的算法使得我們需要耗費相對極少的計算過程,而過表達的訓練方式則使我們只需投入遠少於參數量的訓練數據來得到網絡。目前對於各自背後的原理都還沒有徹底弄清楚,但這些「運氣」使得現在的模型成為可能,這些「運氣」還將保證日後的人工智能走得更遠更好。

這份運氣延續至今的表現具體體現為「湧現」現象:在訓練網絡過程中,我們不斷增加網絡中的參數數量,這個過程中網絡的性能不是線性增加的。事實上,隨着數據量增大,它一開始只是平緩地上升,但到了某一個臨界點,網絡性能會取得突然的增加。這也正是人工智能不可預測的原因,我們猜測也許在現有基礎上繼續增加訓練數據量,網絡將會發生新的湧現,達到現在難以想象的水平,但我們無法預測它將在何時到來,或者也許我們不夠幸運,這一天永遠不會發生。

人工智能可以「為我們」又可以「對我們」做什麼

當我們談論人工智能帶來的好處時,往往會包含兩個方面:人類可以做的事情和人類無法做的事情。

醫學領域人工智能實現了許多人類無法做的事情,但卻沒有得到足夠的報道,但它們是真正影響我們生命的應用。對於顯微鏡下的活體切片,想要找出腫瘤是否在該組織中擴散。這個任務對人類來說已經超過了視覺系統檢測圖像的極限,即使技術最精湛的醫生判斷時的準確率也不會超過50%。但如果訓練一個網絡來做這個任務,它的準確率可以達到90%。這是一個很正面的例子,將人工智能應用到醫學領域,來拓寬我們的能力,並提高我們的生活質量。

而在我們能做的領域我們也正在被人工智能超越,與工業革命時期比較,當時機器的出現取代了手動生產,解放了人類的體力勞動;而人工智能革命,則是解放了人類的腦力勞動。數字革命與工業革命相比的重要區別在於其發展速度。工業革命花了大約80年的時間,約等於一代人的壽命,因此也提供了下一代人適應的時間。而據預測,人工智能革命產生顯著影響只需要短短20年,甚至可能15年(以2012年為起點)。事情發生的如此之快,我們需要做什麼呢?我們無法要求所有人停下對人工智能的開發,大範圍的失業和混亂是無法避免的:人工智能發展會為我們帶來諸多紅利,但同樣也伴隨着生長痛,對當代生活的人來說,他們能感受到的痛苦會大於人工智能帶來的便利,我們能做的便是構建合適的安全網,來照顧、重新培訓可能面臨失業的人。

最後我們討論一下人工智能的風險,可以分為惡意使用AI、流氓AI系統和社會影響三類。我們都清楚惡意使用人工智能可以實施的犯罪,包括竊取信息、詐騙、非法侵入……立法者和罪犯之間的關係就像貓和老鼠,立法者無法預測有什麼樣的犯罪行為可能發生,永遠只能追在後面跑。因此我建議將「使用AI」作為加重刑罰的因素,而不需要創造新的犯罪條款。我們只需要告訴人們,如果你實施了一項犯罪,並在過程中使用了AI,你的刑罰將變得更嚴重。這是一個全局的法規,至少可以剎住立馬襲來的大範圍犯罪的車。

另一個更有意思的話題是流氓AI系統,我們擔心人工智能過於聰明,會使我們人類變得低等;甚至有人認為情形將更為複雜:除了我們自己創造的人工智能,AI還會自己來創造更為聰明的AI系統並迅速進化,最終將人類完全邊緣化。這顯然是一個人類生存上的威脅——如果你相信它的話。但對我來說,我很難贊同這樣的觀點。我們從來沒有和除了人類以外的智能系統打過交道,當我們忽然與ChatGPT交流時,我們往往把其想象為一個人類,一個擁有感受和意識的人類——我們在其身上附加了許多人類的屬性,但我們需要看到,智能是一種能力,而支配則是一種欲望,對於純粹的智能系統來說它們真的有支配的欲望嗎?即使真的有,我們也不能忽視AI背後的邏輯——AI訓練網絡時離不開海量的資源和巨大的能量。我們觀察到網絡在花費巨大的資源進行自我訓練,我們會眼睜睜地看着它在兩個月內進行我們沒有安排的任務嗎?抱歉,我無法相信這樣的事情會發生。

▷圖片來源:沃森講座

因此,如果你擔心AI可能被人類用於實施犯罪,我完全同意你的觀點,但我並不會擔心AI自身會變得邪惡。我真正擔心的,是AI會造成的社會影響。我們都看到了社交媒體對於青少年的心理健康造成的影響,我們也都體會過新冠時期社交隔離進一步讓我們依賴於手機,因此我們可以想象,如果我們的手機變得愈發智能,甚至成為了我們最好的朋友,我們便會變得越來越孤立。但我想強調的是,作為人類,我們有與人接觸的本性,即使與刻意設計的人工智能相比,我們身邊的人不那麼富有同情心、不那麼擅長合作、不那麼樂於助人。我們需要意識到無論我們的技術發展到何種程度,人工智能只是一個人造的產物,在它的接收端沒有任何的人類。

譯者按:

人工智能發展如此迅猛,我們沒有辦法阻止其發展的腳步,但可以選擇是否跟上它的浪潮而不被時代淘汰。走出個人的視角,人工智能需要諸多領域的協作來發揮更大的潛能,和實現更穩健而良性的發展。

從人工智能的原理來說,它下一步的發展方向是朝着人腦的數量級前進,因此需要計算機領域和神經科學領域的相互合作與促進。從人工智能的應用角度來看,我們需要制定合理的法律規範其應用,需要合適的社會保障制度來應對它可能帶來的衝擊……

Abu-Mostafa教授在長達九十分鐘的講座中,向我們介紹了人工智能的前世今生,和即將可能發生的未來,提出了許多懇切並有建設性的建議。他用充滿智慧又風趣的講解帶來頭腦風暴的同時又引發了每個人對自身領域獨特的思考,是一場十分精彩的講座。-(文:追問NextQuestion/鈦媒體)