A.I.教父 Geoff Hinton:當AI有制定目標的能力,我們的麻煩就來了
Geoff Hinton speaking by video at MIT Technology Review's EmTech Digital conference in Boston
鈦媒體註:近日,鈦媒體特約作者、"Eye on AI"播主Craig Smith參加了由《麻省理工技術評論》雜誌主辦的EmTech Digital 2023會議。在會議上,作為人工智能發展的開創性人物,傑弗里·埃弗里斯特·辛頓(Geoffrey Everest Hinton)一改往日對待AI的態度,描述了他所參與創造的技術給人們帶來的可怕景象,這讓科學界感到震驚。
「我敲響的警鐘與強大AI帶來的生存威脅有關,它們可能會掌控一切。我曾經認為這種情況還遙不可及,但現在我認為這是一個嚴重且相當迫切的問題。」辛頓通過視頻在大會上發言時表示。
自半個世紀前嘗試從事木匠工作失敗以來,辛頓一直走在機器學習研究的最前沿。在經歷了這段短暫的彎路之後,他又回到了與傑出祖輩們,喬治·布爾(George Boole,布爾邏輯之父)和喬治·埃弗里斯特(George Everest,英國印度測量總督以及世界最高峰的命名者)相一致的道路上。
辛頓與同事 Yoshua Bengio、Yann LeCun 共同獲得了2018年圖靈獎,他們發展了一種基於多層神經網絡的人工智能,這些連接的算法模仿了大腦中的信息處理。這項被辛頓稱為「深度學習」的技術正在改變全球經濟。然而,正是這樣的成功讓他對其超越人類智能的潛力感到恐懼。
在短短20多年的時間裡,深度學習從能識別圖像的簡單模型發展為像 OpenAI 的GPT-4這樣高度複雜的大型語言模型,這些模型吸收了大量的人類文本知識。上個月,正是GPT-4的強大促使成千上萬名關注AI的科學家簽署了一封公開信,呼籲暫停開發更強大的AI。然而,辛頓並未在這封公開信上簽名。
辛頓表示,阻止人工智能的進一步發展幾乎是不可能的。
「如果你像我現在一樣重視人類的生存風險,那麼停止繼續發展這些東西或許是明智的。但我認為,這樣做太天真了。」
在辛頓看來,沒有有什麼方法能阻止這些AI的發展。我們不應該停止開發它們,因為它們實在太有用了。
他認為公開信呼籲暫停AI開發是荒謬的。
深度學習基於誤差反向傳播算法,幾十年前,辛頓就意識到這種算法可以用來讓計算機學習。諷刺的是,他在該算法上取得的第一個成功是在一個語言模型中,儘管這個模型比他現在所擔憂的要小得多。
他回憶說:「我們證明了它可以形成良好的內部表徵,奇怪的是,我們是通過實現一個微型語言模型做到這一點的。它有着僅包含六個成分的嵌入向量,訓練集有112個樣本,但它是一個語言模型,試圖預測一串符號中的下一個術語。」
辛頓指出,GPT-4擁有約一萬億個神經連接,儘管人腦擁有大約100萬億個連接,但它所掌握的知識仍然超過任何一個人類。「它在僅僅一萬億個連接中獲取大量知識的能力遠遠超過我們所擁有的。反向傳播算法可能比我們現有的學習算法更為優越。」
辛頓一生的主要追求就是揭示大腦的工作原理,儘管他在這個領域取得了突破,但仍未達到自己的目標。他將在這個過程中開發的強大算法和架構稱為「有益的副產品」。然而,隨着最近大型語言模型的飛速發展,他擔憂這些副產品可能會失控。
「過去我一直認為,我們所研發的計算機模型不如大腦,目標是通過觀察改進計算機模型所需的條件來更深入地了解大腦。」辛頓在英國的家中表示,「但在過去的幾個月里,我的看法徹底改變了。」
就在本周早些時候,辛頓從谷歌辭職,他自2013年起在那裡工作,此前一年他取得了深度學習的重大突破。他表示,自己辭職的部分原因是因為到了退休的年紀——辛頓已經75歲了,但他還想自由地表達自己的擔憂。
辛頓分享了他最近與GPT-4的一段互動經歷。
「我告訴它,我希望兩年後家裡所有的房間都是白色。目前我有一些白色房間,一些藍色房間和一些黃色房間,而黃色油漆會在一年內逐漸褪成白色。那麼,我應該怎麼做?它回答說,你應該把藍色房間塗成黃色。」
「這種常識推理非常令人印象深刻,在AI領域實現這一點一直非常困難。」他繼續說道,該模型正確理解了在這種情境下「褪色」的含義,並且明白了時間維度的概念。
這些模型的推理能力相當於智商80或90的人類,但如果它們的智商達到210,會發生什麼呢?
辛頓認為,像GPT-4這樣的大型語言模型「會通過閱讀所有人寫過的小說,以及馬基雅維利關於如何操縱人的全部著作,從我們身上學習。結果,它們會變得非常擅長操縱我們,而我們卻察覺不到這一點。」
「如果你能操縱別人,你甚至可以在不親自去華盛頓的情況下,入侵那裡的建築,」這是在提及2021年1月6日發生在美國國會大廈的騷亂事件,當時有人錯誤地聲稱民主黨「竊取」了2020年的大選。「聰明的事物可能會愈發聰明,以至於我們無法應對,」
辛頓表示,我們需要進行更多研究,以了解如何控制AI,而非讓AI控制我們。
「我們希望找到一種方法,確保即使AI比我們更聰明,它們也能為我們帶來好處——這就是所謂的對齊問題,」他說,「我希望能找到一個簡單的解決方案來應對這個問題,但實際上我沒有。」
辛頓表示,設置「防護欄」和其他安全措施聽起來可行,但一旦AI系統遠比人類更聰明,這些措施是否還有效。「想象一下你兩歲的孩子說,我爸爸做了我不喜歡的事情,所以我要給他制定一些規矩。」他暗示了人類和AI之間可能存在的智力差距。「你可能會設法在遵守這些規則的同時,依然實現自己想要的目標。」
「我們是經過演化的生物,我們有一些內在的目標,我們很難擺脫。比如,我們會儘量避免傷害自己的身體,這就是痛苦存在的意義。但這些數字智能並沒有經歷演化,而是由我們創造,所以它們並沒有這些內在目標。如果我們能將這些目標植入其中,也許一切都會好起來。但我最大的擔憂是,遲早有人會把制定子目標的能力植入到這些AI中……如果你賦予某個AI為實現其他目標而制定子目標的能力,它們很快就會意識到,獲得更多的控制權是一個非常好的子目標,因為這有助於實現其他目標。」
他說,如果真的發生這種情況,「我們將面臨巨大的麻煩。」
「我認為人們團結起來,深入思考這個問題並尋找解決方案是非常重要的,」但對此,他並不樂觀。事實上,我們還不能確定是否存在解決方案。
「我覺得,人類有可能僅僅是智能演化過程中的一個過渡階段。」他表示。
辛頓指出,谷歌率先研發了大型語言模型,並對這項技術非常謹慎,因為該公司知道它可能導致嚴重的後果。但是,當OpenAI和微軟決定推出這項技術時,谷歌實際上別無選擇,「你無法阻止谷歌與微軟展開競爭。」
辛頓在講話最後呼籲在控制這項技術方面進行國際合作。
「我的一個希望是,由於我們放任AI控制一切對所有人都不利,我們可以讓美國和中國在這個問題上達成一致,就像我們在核武器問題上達成共識一樣,因為核武器對所有人都是危險的。在這個生存威脅問題上,我們都同處於一個戰船上。」-(鈦媒體/作者:Craig S. Smith)