01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

深度學習不是AI的終極答案

2023031114:05



「一天清晨,你的AI助理給我發出了一份訪談邀約,於是我讓我的AI助理處理它。後面的事情則是由兩個AI系統來完成了,在它們之間經歷多輪對話,最終敲定日期,並預定了會議室,全程沒有人類參與。」

這是邁克爾·伍爾德里奇(Michael Wooldridge)描繪的未來圖景。他是英國AI科學家,現任牛津大學計算機科學系教授。

當人工智能可以互相交流時,我們的社會將發生怎樣的變化?

在1個小時的對談過程中,伍德里奇對這個話題興趣盎然,他是多智能體系統(Multi Agent System)研究的全球頂尖學者之一,「AI之間的協作」是他的重點研究方向。

在伍爾德里奇看來,無論是打敗人類的AlphaGO,還是對答如流的ChatGPT,雖然人工智能變得越來越像人類,甚至在一些領域開始超越人類,但我們離真正的人工智能仍有一段很長的距離。

當大多數人沉浸在OpenAI創造的現象級創新時,伍爾德里奇顯得冷靜許多。ChatGPT在展現神經網絡的強大時,也展示了它的瓶頸——其無法解決巨大的功耗和算力問題、無法解決的AI「黑盒」問題,「深度神經網絡雖然經常能完美回答我們的問題,但我們並不真正理解它為什麼會這樣回答。」

超過人類的AI常被稱為「強人工智能」,而具有普遍人類智能水平的AI則稱為通用人工智能(Artificial general intelligence,AGI)。伍爾德里奇在他的著作《人工智能全傳》中這樣描述AGI:AGI大致等同於一台擁有一個普通人所擁有的全部智慧能力的計算機,包括使用自然語言交流、解決問題、推理、感知環境等能力,與一個普通人處於同等或者更高等級的智能水準。關於AGI的文獻通常不涉及自我意識或者自主意識之類,因此AGI被認為是弱人工智能的弱版本。

然而再「弱」的AGI也與當代的人工智能研究相去甚遠。

「ChatGPT是一款成功的AI產品,它非常擅長涉及語言的任務,但僅此而已。我們離AGI還有很長的路要走。」在與虎嗅的對談中,伍德里奇說,深度學習使我們有能力構建一些幾年前無法想象的AI程序。但這些取得非凡成就的AI程序,遠算不上推動AI朝着宏偉夢想前進的魔法,也並不是當前AGI發展難題的答案。



邁克爾·伍爾德里奇(Michael Wooldridge)是國際人工智能學界領軍人物,現任牛津大學計算機學院院長,投身人工智能研究30餘年。曾擔任2015年-2017年國際人工智能聯合會議(IJCAI)主席(該會議是人工智能界頂級會議之一),2020年獲頒英國計算機領域至高榮譽——洛芙萊斯獎章,被譽為英國計算機領域具有重要影響力的三位學者之一。

ChatGPT並不是構建AGI的答案

在ChatGPT出現之前多數人認為通用人工智能非常遙遠,2018年出版的一本名為《智能架構》的書中,對23位AI領域專家進行了調研,在回答「哪一年能夠有50%的機會實現通用人工智能」時,谷歌工程總監Ray Kurzweil認為是2029年,而iRobot聯合創始人Rodney Brooks給出的時間則是2200年。所有回答了這個問題的18位專家預測的平均時間點是2099年。

不過Elon Musk在2022年也發表了關於2029年實現AGI的觀點,他在Twitter中表示,「2029 feels like a pivotal year. I'd be surprised if we don't have AGI by then.(感覺2029年是關鍵的一年。如果那時我們還沒有AGI,我會很驚訝)」

對此,知名AI學者Gary Marcus提出了五個檢驗AGI是否實現的標準,包括:看懂電影、讀懂小說、當廚師、根據自然語言規範或通過與非專業用戶的交互,可靠地便攜超過10000行無bug代碼,以及用自然語言編寫的數學文獻中任意提取證明,並將其轉換為適合於符號驗證的符號形式。

現在看來,ChatGPT代表的通用大模型似乎朝AGI邁出了一大步。讀懂小說和看懂電影的任務,似乎指日可待了。對此,邁克爾·伍爾德里奇教授認為,目前來看,人類仍然很難在2029年實現AGI。

虎嗅:像AlphaGo一樣的AI專家雖然打敗了人類,但它們的能力在實際應用方面存在很大的局限性,今天的通用大模型似乎正在打破這樣的局面。您對專家型AI和AGI未來的發展有怎樣的看法?

邁克爾·伍爾德里奇:「符號人工智能」是早期人工智能的一種模式,即假設「智能」是一個關於「知識」的問題,如果你想要一個智能系統,只需要給它足夠多的知識就可以了。

這種模式相當於對人的「思維」進行建模,主導了從二十世紀五十年代到八十年代末的人工智能發展,並最終演變成了「專家系統」。如果你想讓人工智能系統做一件事,比如將英語翻譯成中文,你需要先掌握人類翻譯家的專業知識,再使用編程語言,將這些知識傳遞給計算機。

這種方法存在很大的局限性,它不能解決與「感知」相關的問題。感知是指你理解周圍世界、解釋周圍事物的能力。比如,我現在正看着電腦屏幕,我旁邊有一個書架,有一盞燈。我的人類智能可以理解這些事物、環境,也可以把它們描述出來。但是,讓計算機進行這個過程非常困難。這就是符號人工智能的局限,它在知識積累型的問題上表現良好,但在理解問題上表現不佳。


AI把貓識別成狗

另一種方法是基於心智模型的人工智能。如果你在顯微鏡下觀察動物的大腦或神經系統,你會發現大量的神經元互連接。研究人員從這種龐大的網絡和神經結構中汲取了靈感,嘗試給動物大腦中的結構建模,設計了一種與動物大腦相似的神經網絡。在這個過程中我們不是在建模思維,而是在建模大腦。

「建模思維」的符號人工智能和「建模大腦」的神經網絡,是兩種主要的人工智能模式。在今天大數據和大算力的支持下,神經網絡的發展速度更快,OpenAI的ChatGPT就是神經網絡的一個典型例子。

ChatGPT的成功更增強了人們對深度神經網絡的期待,甚至有一些人認為AGI就要來了。的確,AGI是很多人工智能研究者的目標,但我認為我們離AGI還有很長的路要走。雖然ChatGPT在涉及語言問題時表現的通用能力很強,但它並不是AGI,它不存在於現實世界中,也無法理解我們的世界。

舉個例子,如果你現在開始與ChatGPT進行對話,說完一句之後就去度假了。當你出遊一周回來時,ChatGPT仍然在那裡耐心地等待你輸入下一個內容,它不會意識到時間已經過去或者世界發生了哪些變化。

虎嗅:你認為2029年實現AGI的預言會成真嗎?

邁克爾·伍爾德里奇:雖然ChatGPT在某種程度上可以被視為通用AI的一部分,但它並不是構建AGI的答案。它只是為了執行特定的、狹隘領域的任務而構建和優化的軟件組合。我們需要更多的研究和技術進步才能實現AGI。

我對2029年實現AGI這個觀點持懷疑態度。人類智能的基礎是「能夠生活在物質世界和社交世界中」。比如,我可以用手感知到我的咖啡杯,我可以吃早餐,我也可以和任何人互動交流。但很遺憾,AI不僅做不到這些,而且也不能理解其中任何一項的含義。在AI能夠感知現實世界之前,AGI還有很長的路要走。

雖然計算機的感知和理解能力有限,但是它仍在經驗中學習,並成為人類決策的助手。目前來看,只要AI能像「真人助手」一樣解決問題,那爭辯一個計算機系統是否能夠「感知和理解」,又有什麼意義呢?

我們終將看到一個完全由AI構建的世界

從無人駕駛汽車,到人臉識別攝像頭,從AI繪畫、AI數字人,到AI寫代碼、寫論文,用不了多久,只要是涉及技術的領域,不論是教育、科學、工業、醫療還是藝術,每個行業都會看到人工智能的身影。

在談到是否經常使用ChatGPT時,伍爾德里奇教授表示,ChatGPT是他研究的一部分,所以肯定會經常使用。不過在使用過程中,他發現ChatGPT確實是基礎工作的好幫手,在很多重複工作方面可以節省大量時間。

虎嗅:您在工作中會使用ChatGPT嗎?對於ChatGPT Plus的訂閱模式怎麼看?

邁克爾·伍爾德里奇:我經常使用ChatGPT。我認為在未來幾年中,ChatGPT以及通用大模型可能還會湧現出上千種不同的用途,甚至逐漸成為通用工具,就像網絡瀏覽器和電子郵件客戶端一樣。

我也是ChatGPT Plus的訂閱用戶。不過對於25美元的價格,我認為仁者見仁,智者見智。每個用戶只有親自嘗試之後,才知道ChatGPT是否適合他們,是否有必要付費訂閱增強版。對於一些人來說,他們可能只是覺得有趣,而在工作中他們更願意自己做事情。對於我來說,我發現它非常有用,可以處理很多日常重複的案頭工作。不過,目前我更多地是將其作為我研究的一部分。

虎嗅:今天的AI市場上正在形成一種以大模型能力為核心的新型PaaS商業模式。OpenAI的GPT-3催生了Jasper,ChatGPT則吸引了Buzzfeed。您認為圍繞通用大模型是否會形成新的AI生態?

邁克爾·伍爾德里奇:ChatGPT現在已有很多應用層面的創新,而且很快可能就會迎來創意的「大爆炸」。我認為一兩年內,ChatGPT及類似應用就會大規模落地,在商業化軟件中完成文字校對、語句潤色、歸納總結等簡單的重複性文案工作。

此外,在多模態人工智能中,我們可能會看到更多新的應用場景。例如與圖像識別、圖像生成相結合的大型語言模型,可能會在AR領域發揮作用;基於大模型的視頻內容理解,可以利用AI快速給視頻、影視劇生成摘要等。不過,多模態場景的商業化可能還需要一段時間,但我們最終將看到由AI生成的各種各樣的內容,甚至是完全由AI創建的虛擬世界。

虎嗅:要從頭開始打造一家如OpenAI一樣的公司,您認為需要具備哪些條件?

邁克爾·伍爾德里奇:我想要從頭開始創立一家OpenAI這樣的公司非常困難。首先你需要龐大的計算資源,採購數萬個昂貴的頂級GPU,組建專門用於AI的超級計算機,僅電費可能就耗資巨大。你也可以選擇雲服務,但目前雲計算的價格並不便宜。因此,每次訓練AI可能都要花費數百萬美元,且需要運行幾個月甚至更長的時間。

此外,還需要海量的數據,其規模可能是整個互聯網的數據,如何獲得這些數據也是一個難題。而數據和算力,都還只是基礎,更重要的是要聚攏一群高精尖的AI研發人才。

虎嗅:在AI研發上哪家公司更有實力?您對AI研發方面,各國之間的技術差異怎麼看?

邁克爾·伍爾德里奇:在這條賽道上的玩家可能包括互聯網公司、研究機構,也許還有政府,只是他們沒有公開。目前,公開宣布具備大模型實力的玩家並不多,甚至一隻手就能數得過來。大型科技公司目前都在研發自己的大型語言模型,他們的技術也相對領先。

因此我不想評價誰更強,我認為各家模型之間沒有明顯可比性,他們的區別主要在於投入市場的節奏,以及用戶數量。OpenAI的技術並不一定是最先進的,但他們在市場化方面領先了一年,而這一年的優勢給他積攢了數億用戶,這也使他在用戶數據反饋方面遙遙領先。

目前,美國在人工智能領域一直占主導地位,無論是谷歌還是微軟,甚至創立於英國的DeepMind,如今也屬於美國的Alphabet(谷歌母公司)。

不過,在過去的40年中,中國在AI領域的發展也相當快。1980年的AAAI conference(American Association for AI conference,美國人工智能協會會議),只有一篇來自中國香港的論文。但到今天,來自中國的論文數量已經與美國相當。

當然,英國也擁有優秀的人工智能團隊,但我們沒有中國那樣的規模,我們是一個相對較小的國家,但我們絕對擁有世界領先的研究團隊。

這是一個有趣的時代,很多國家都擁有極強的人工智能團隊。

深度學習進入瓶頸

當人們探討ChatGPT是否能夠代替搜索引擎時,很多人認為ChatGPT的數據只覆蓋到2021年以前,無法獲取實時數據,因此沒法勝任搜索任務。但也有人認為,其實我們日常搜索的內容,在很大程度上都是2021年以前的已有知識,即便此後生成的數據量再大,實際使用需求也並不高。

事實上,ChatGPT使用的數據量已經非常龐大了,它的前輩GPT-2模型是在40GB的文本數據上進行預訓練的,GPT-3模型則是在45TB的文本數據上進行預訓練的。這些預訓練數據集,包括了各種類型的文本,如新聞文章、小說、社交媒體帖子等,大模型能夠學習到不同領域和風格的語言知識。很多實踐證明,即便只有2021年以前的數據,ChatGPT仍是一個上知天文下知地理的「博士」。

而這也引發了人們對大模型訓練的數據憂慮,當我們要訓練一個比ChatGPT更大的模型時,我們這個世界的數據還夠用嗎?未來的互聯網上,會不會充斥着AI生成的數據,從而在AI訓練過程中,形成一條數據的「銜尾蛇」?

銜尾蛇被認為「寓意着無限」

虎嗅:您曾在書中提到神經網絡是機器學習中最耀眼的技術。如今,神經網絡引導我們在算法、數據尤其是算力上不斷前行,隨着技術進步,您是否看到了神經網絡發展的瓶頸?

邁克爾·伍爾德里奇:我認為神經網絡目前面臨三個主要的挑戰。第一是數據,像ChatGPT這樣的工具是通過大量語料數據構建的,其中很多來自互聯網。如果你想構建比ChatGPT大10倍的系統,可能需要10倍的數據量。但我們的世界上有那麼多數據嗎?這些數據從哪裡來?如何創建這些數據?

例如,當我們訓練一個大型語言模型時,我們有大量的英文數據、中文數據。但當我們想訓練小語種時,比如,像冰島這樣人口不到100萬的小國家,他們的語種數據量明顯小得多,這就會出現數據量不足的問題。

同時,當ChatGPT這樣強大的生成式AI被大規模應用以後,可能會發生一個令人擔憂的現象。未來互聯網上的很多數據可能是由AI生成的。當我們需要用互聯網數據來訓練下一代AI工具時,可能使用的都是由AI創造的數據。

下一個問題是關於算力。如果你要訓練一個比ChatGPT大10倍的系統,就需要10倍的算力資源。在訓練和使用的過程中,會消耗大量能源,產生大量二氧化碳,這也是人們廣泛擔憂的問題。

第三個重大挑戰涉及科學進步,我們需要基礎科學進步來推動這項技術的發展。僅僅增加數據和計算資源確實能推動我們在人工智能的研發上走得更遠,但這都不及科學創新帶來的進步。就像是學會用火或是發明計算機,才能真正使人類的進步發生質的飛躍。在科學創新方面,未來深度學習面臨的主要挑戰是,如何研發出更加高效的神經網絡。

除了以上三個挑戰,AI還需要「可解釋」。目前人類尚不能完全理解神經網絡背後的邏輯,很多問題的計算過程藏在AI的「黑盒」中。雖然神經網絡已經能夠給出很好的答案,但我們並不真正理解它們為什麼會給出這些答案,這不僅阻礙了神經網絡的研發,也使得人類無法完全相信AI提供的答案。這其中還包括AI的魯棒性問題(Robust),而要這種使用AI,我們需要確保神經網絡不會崩潰,不會以不可預測的方式失控。

雖然發展瓶頸擺在面前,但短期內我認為不會看到神經網絡的顛覆。我們現在甚至還不知道它是如何工作的,所以距離顛覆還很遠。不過我認為神經網絡並不是人工智能的答案。我認為它只是「完整的人工智能」的一個組成部分,肯定還有其他組成部分,但我們還不太清楚它們是什麼。

虎嗅:如果說算力是AI發展的重要因素之一,那麼在AI芯片的研發方面您看到了哪些創新性研究?

邁克爾·伍爾德里奇:算力在未來很可能是AI技術發展的一個瓶頸。人類大腦的能效比很高,人腦在思考時的功率只有20W,相當於一個燈泡的能量消耗,這樣的能量消耗相對於計算機,可以說是微乎其微。

需要大量算力和數據資源構建的AI系統與自然智能之間,存在天然的巨大鴻溝。人類可以更加高效地學習,但人類的這隻「燈泡」始終只有20W,不是一枚很亮的燈泡。

因此,我們面對的挑戰是如何讓神經網絡和機器學習技術(如ChatGPT)更加高效。目前無論從軟件還是硬件角度,我們都不知道如何使神經網絡在學習方面像人腦一樣高效,在這方面還有很長的路要走。

當系統與系統直接對話

多智能體系統是AI領域的一個重要分支,指由多個智能體組成的系統,這些智能體可以相互交互、協作或競爭,以實現某種目標。在多智能體系統中,每個智能體都具有自己的知識、能力和行為,並且可以通過與其他智能體通信和協作來完成任務。

多智能體系統在許多領域都有應用,例如機器人控制、智能交通系統、電力系統管理等。它的優點在於可以實現分布式決策和任務分配,提高系統的效率和魯棒性。

如今,在AI大模型的加持下,很多場景的多智能體系統與LLM可以嘗試結合應用,從而大幅拓展AI能力的邊界。

虎嗅:當下大火的AI大模型與多智能體系統有哪些可以結合的點?

邁克爾·伍爾德里奇:我的研究關注「人工智能系統相互交流時會發生什麼」。大多數人都有智能手機以及智能手機的AI助手,比如Siri、Alexa或Cortana,我們稱之為「代理」。

舉個例子,當我想在餐廳訂座位時,我會直接打電話給餐廳。但在不遠的將來,Siri或是其他智能助手可以幫我完成這個任務。Siri會給餐廳打電話,代表我進行預訂。而多智能體系統的理念是,為什麼Siri不能直接與另一個Siri交流?為什麼不讓這些AI程序相互通信?多智能體系統關注的是,這些AI程序相互交流時所涉及的問題。

多智能體系統和大模型的結合是我們正在研究的項目。我認為,在構建多智能體+大語言模型方面,有一個非常有趣的工作要做。通過讓大語言模型相互交流,我們能否獲得更高的智能?我認為這是一個非常有趣的挑戰。

比如說,我們現在要預約一場會議,你我都是用Siri代為溝通,但是你喜歡早上開會,而我喜歡下午開會。當我們之間存在爭議時,代表你我的Siri如何協作解決這個問題?他們會協商嗎?當AI不僅與人交談,還與其他AI系統交談時,會產生很多新的問題。這就是我正在研究的領域,我相信多智能體系統是未來的方向。

另一個關於多智能體和大型語言模型的有趣問題是,如果AI系統只是相互交流,它們是不是就不需要人類語言了?我們是否能為這些AI系統設計更有效的語言?

然而這又會引發了另一些問題,我們需要給這些代理、AI程序的交流制定規則,人類該如何管理由AI構成的人工智能社會?

Siri的問答

AI無法代替人類坐牢

英國科學家邁克爾·法拉第(Michael Faraday)於1831年發明了電動機,他也沒預料到會產生電椅這種刑具。1886年獲得汽車專利的卡爾·本茨(Karl Benz)肯定無法預言,他的發明在未來的一個世紀裡會造成數百萬人的死亡。人工智能是一門通用技術:它的應用僅僅受限於我們的想象。

在人工智能跨越式發展的同時,我們也需要注意人工智能可能帶來的潛在風險和挑戰,如數據隱私、就業崗位流失等問題。因此,在推動人工智能技術發展的同時,我們也需要謹慎地考慮其社會和倫理影響,並採取相應的措施。

如果我們真的能構建具有人類智力和能力的AI,那麼它們是否應該被視為與人類平等的存在?它們是否應該擁有自己的權利和自由?這些問題需要我們認真思考和探討。

虎嗅:中文互聯網有一個有趣的觀點,「AI永遠不可能從事會計、審計工作。因為AI不能坐牢。」AIGC在版權方面同樣存在這樣的問題,AI可以輕易抄襲人類的繪畫、寫作風格,同時人類利用AI進行的創作也存在權屬不明的問題。那麼您對人工智能在法律、道德方面面臨的風險怎麼看?

邁克爾·伍爾德里奇:「AI不能坐牢」這個想法非常妙。有些人認為AI能成為他們的「道德代理人」,對其行為負責。然而這種想法明顯曲解了人類對於「對、錯」的界定。我們不該去考慮怎麼製造「有道德責任」的AI,而是應該以負責任的方式研究AI。

AI本身無法負責,一旦AI出了問題,擁有AI、構建AI和部署AI的人就要負責。如果他們使用的AI觸犯了法律,或者他們將AI用於犯罪,那麼應該被送進監獄的一定是人類。

此外,ChatGPT在隱私保護方面需要加強監管。如果ChatGPT收集了整個互聯網的信息,那麼他一定也讀到了關於我們每個人的信息。例如,我的社交媒體、我的書籍、我的論文,以及其他人在社交媒體上對我發表的評論等,甚至是已經刪除了的信息。AI可能還能根據這些信息描繪每個人的畫像,從而進一步侵犯或傷害我們的隱私。

目前有很多關於人工智能法律方面的討論,並不只針對ChatGPT,人工智能的法律問題一直存在,且日趨重要,但目前社會各界對此還仍在討論和摸索階段。

我認為ChatGPT或是其他的AI技術在未來幾年中將會變得越來越普遍。但是,我也認為我們需要謹慎地使用它,確保我們不會失去人類的關鍵技能,例如閱讀和寫作。AI無疑可以幫助人類提高生產效率、生活質量,但它不能完全取代人類的思維和創造力。

-[出品:虎嗅科技組*作者:齊健*編輯:陳伊凡*頭圖:FlagStudio/來源:虎嗅]