力挺馬斯克的前OpenAI科學家放話:AGI將導致失業潮,預言大規模AI安全危機
[智東西6月28日消息],彭博社在今日報道了一則與AI安全有關的采訪,采訪對象是來自美國AI安全中心(CAIS)的主任,也是xAI的安全顧問——丹·亨德裏克斯(Dan hendricks),采訪內容圍繞他對全球AI潛在風險的認識和應對策略展開。
在采訪中他談論到了埃隆·馬斯克(Elon Musk)對於AI的看法,並預估在2026年前後會發生一次關鍵基礎設施被惡意攻擊的事件,他表示,未來十年,如果人類實現通用人工智能(AGI),那麽將面臨大規模的勞動力中斷。
以下是對話的編譯:
我們采訪了AI政策領域的後起之星丹·亨德裏克斯(Dan hendricks),了解他為什麽認為我們需要更多地關註AI帶來的災難性風險。
幾年前,丹·亨德里克斯(Dan hendricks)還是加州大學伯克利分校(University of California at Berkeley)的一名學生,正在攻讀計算機科學博士學位。現在,他是AI安全和政策領域最有影響力的新人物之一。
▲丹·亨德里克斯(圖源:丹·亨德里克斯)
就在過去的幾個月裏,亨德裏克斯一直在為埃隆·馬斯克提供咨詢;與阿根廷總統共進晚餐,並幫助起草了一項備受爭議的加州新立法,名為《SB-1047前沿AI大模型安全創新法案》。
亨德里克斯第一次登上頭條是在2023年5月,當時他參與創始的非營利組織——AI安全中心(CAIS)撰寫了一封只有一句話的公開信,呼籲將「減輕AI帶來的滅絕風險」作為全球優先事項,就像防止流行病或是核戰爭一樣。多名AI領域的知名人士參與簽署了這份聲明,包括OpenAI的山姆·奧特曼(Sam Altman)和Anthropic的達裏奧·阿莫代(Dario Amodei)。
「自那以後,人們對AI可能會終結世界的擔憂有所減弱,但這並不意味著我們不應該擔心。」亨德里克斯說。
「如果我們在未來10年內實現AGI,這將徹底改變人類的狀況:至少會造成大規模的勞動力中斷。」亨德里克斯告訴我,「所以這並不是說,『哦,現在我們有電動牙刷了。』它不像其他小的外圍技術創新。」
CAIS已經籌集了數百萬美元,下一步目標是擴大在華盛頓的業務。
亨德里克對AI安全的重視和提倡使他在一些圈子裏並不受歡迎,尤其是他在加州法案SB 1047上所做的工作,一些技術專家說,這項法案可能會阻礙創新。他說,很多批評都是虛假的。他說:「不管法案內容如何,很多風投公司都會反對它。」
我們采訪了亨德里克斯,談到了該法案引發的憤怒、他與馬斯克的合作,以及我們將會以何種方式感知到觸達AGI的那一天。
為了篇幅和清晰度,這篇采訪經過了編輯。
彭博社:你是埃隆·馬斯克的AI安全顧問,和他一起工作是什麽感覺?
亨德里克斯:他是一名非常棒的管理者,在每周與他的會議上,我笑得比在其他任何會議上都多。
彭博社:我很想聽聽馬斯克對AI安全的看法,他顯然非常關心AI的長期風險。另一方面,他一直直言不諱地表示,不希望監管機構或監管者侵犯言論自由。
亨德里克斯:這是有區別的。所以埃隆絕對是支持監管的。過去,他在AI安全問題上一直是卡桑德拉(Cassandra),耗費了他大量的社會資本。
(*卡桑德拉:通常用來形容那些發出警告或預言危險,但被忽視或不被信任的情況。)
他當然會反對妨礙言論自由,但這種問題並不全是政府的事情。這更多的關乎社會規範,例如「你會指示AI去說一些特定的意識形態的事情嗎?」
彭博社:你在xAI安全方面的任務是什麽?
亨德里克斯:我認為現在的主要事情是遵守行政命令,並策劃一些好的測試,例如:「模型是否可以被不懷好意的恐怖分子用於研究化學、生物、放射性或核武器或網絡武器?」為此,我們需要好的測試,這些任務都和我的背景相關。
之後,會有類似的問題,「如果我們在系統中遇到這種危險,公司的政策是什麽,我們會怎麽做?」我們需要進行協商並且弄清楚那些應該是什麽。
彭博社:我覺得在OpenAI或Anthropic,可能至少有幾十個人在做類似的工作。你們會增加人員編製嗎,還是只有你一個人在做?
亨德里克斯:幸運的是,我在AI安全中心(CAIS)可以做一些工作。例如,我們與Scale AI合作製作了一個大規模殺傷性武器代理基準測試。然後我們可以將其發布出來,而在xAI,他們可以使用這個基準測試。這樣,我可以以間接的方式提供幫助,並且隨著組織擴展,更多專註於安全的人員加入,這個問題就不會那麽嚴重了。
彭博社:您在CAIS更關注什麽?
亨德里克斯:目前,我感興趣的是提出一種人類可以認同的衡量標準,用以判斷「如果跨越了這個門檻,那麽我們就達到了AGI。」因為我認為現在要協調出一個一致的標準來判定我們何時達到了超高能力的水平是相當困難的,並且在達到這種超高能力水平時我們應該做些什麽。關於能力測量方面,現在一片混亂。
我們的另一個關注點是出口管製和國家安全,確保我們對像英偉達 H100這樣的東西進行控製,並試圖更多地監督計算的情況,以確保它不會落入像朝鮮這樣的地方。
還有就是關註加州立法SB 1047。
彭博社:大約一年前,您說AI可能協助製造生物武器或執行大規模黑客攻擊。我們有看到過這樣的事情嗎?您是否改變了您的預判?
亨德里克斯:我想我是在2021年寫下了我的預估。在2026年左右會發生一次對關鍵基礎設施的大規模攻擊,這個方向目前來看差不多是對的,甚至會稍微提前。
但我想非常明確地講,我最擔心的兩種惡意使用形式——那些影響國家安全的——就是針對關鍵基礎設施的網絡攻擊和AI生物武器。
我現在並不擔心模型。目前我們還停留在GPT4模型階段,GPT4模型對我來說並不令人擔憂。
彭博社:您如何看待許多科技行業的人士強烈反對SB 1047?
亨德里克斯:我和一些人交流過,他們會說,「不應該對模型進行任何測試。政府不應該測試模型或評估它們是否會造成危害。」我的反應是,「好吧,我看不出這裏有什麽可以協商的余地。」因為在發布之前,我們會對iPhone進行測試。
還有很多完全站不住腳的論點,比如,「哦,這違反了第一修正案」——我想問他們有沒有咨詢過律師事務所?他們還對其他一些事情非常不滿:例如,有人說法案裏有偽證條款。是的,如果你故意對政府撒謊,說你進行了安全測試,而實際並沒有,如果你對政府撒謊,那你可能會遇到麻煩。這並不是什麽不尋常的事情。
很多風險投資人和其他人不管法案內容如何,都會反對它。但我認為我們在做出權衡時做得很好。我們主要針對的是影響國家安全的事情。比如在涉及網絡和傳統的大規模殺傷性武器時,我們特別關註關鍵基礎設施。我認為他們已經在執行命令的情況下進行了很多這種安全測試。我們只是將其變成法律,而不是某個未來政府可以撤銷的行政命令。
彭博社:你認為最近對有效利他主義(EA)的批評是否被用來針對你,或針對整個AI安全工作?
亨德里克斯:這是一種過時的區分。我認為人們普遍認為SB 1047是合理的。我們委托了一項獨立的民意調查,以了解全國對它的支持情況。
這不是一個EA的問題。非常不幸的是,在ChatGPT之前,主要關心AI風險的群體是EA。
我們中的一些人不得不與EA們共存,因為他們實在是一個壓倒性的力量。但是在GPT之後,他們只是大海中的一滴水,我認為他們可能不再是影響故事情節發展的關鍵人物。
埃隆(Elon)不是EA。薩姆(Sam)也不是EA。我認為他們非常關心AI安全。
彭博社:你認為在這方面有聯邦監管的希望嗎?
亨德里克斯:當然。我是說,我們已經有出口管製了,例如,對GPU的出口管製。那些管製有很多漏洞。我們不能指望工業與安全局(Bureau of Industry and Security)自己處理所有問題。我認為世界終於開始意識到:這不僅僅是關於AI開發者的故事,而是關於計算能力和GPU的故事。計算能力的流動非常重要,我們應該確保如果芯片是未來的鈾,我們要跟蹤「鈾去哪裏了?有沒有被走私?」
我還預計AI能力的發展將會出現飛躍。自從GPT-4以來,我們還沒有看到實質性的飛躍,因為還沒有一個模型使用比GPT-4多十倍的計算能力進行訓練。但當這種情況發生時,我認為人們會說:「哦,AI的發展比預期的要快得多。」到那時,就會有政治力量參與從而推動新的措施。
彭博社:我看到一張阿根廷總統哈維爾·米萊在科技晚宴上的照片,在照片中我看到了您,對嗎?如果是的話,你們討論了什麽?
亨德里克斯:是的,沒錯。顯然(米萊總統)的人正在看我製作的教科書,或者他的顧問正在看它。我認為他們正在做一些事情很有趣。我認為評論其他國家的舉動不太好,但顯然他們在經濟上做得很好。我的意思是,我認為他們意識到AI在經濟上是非常重要的。所以我們可以看看他們未來的表現。
我坐在OpenAI的格雷格·布羅克曼(Greg Brockman)和安德森·霍洛維茨(Andreessen Horowitz)公司的一些人旁邊,玩得很開心,跟他們相處的也很愉快。
結語:AI安全仍是全世界範圍內值得關注的問題
在這篇深入探討AI安全和政策的采訪中,我們可以了解到亨德裏克斯對全球AI潛在風險的認識和應對策略。從與Elon Musk的合作到加州立法SB 1047的辯論,他不僅在技術層面上推動了安全標準的製定,更在政策層面上促進了對AI監管的深入討論。隨著AI技術的不斷進步,其對社會的影響日益深遠,必須要在創新與安全之間找到平衡點,確保技術的發展不會以犧牲人類福祉為代價。
隨著全球對AI的監管和政策製定越來越重視,我們期待一個更加完善的框架,既能促進技術的健康發展,也能保護社會免受其潛在威脅。這不僅是技術專家的責任,也是每一個社會成員的共同使命。
---[來源:彭博社/智東西/編譯: 羅添瑾*編輯: 雲鵬]