「AI教父」楊立昆獨家回應鈦媒體:辛頓錯了,AI不是核彈
AI教父、Meta首席科學家Yann LeCun
近日,同作為「深度學習」三巨頭的兩位著名AI教父之爭引發了行業巨大關註。其中傑弗裏·辛頓 (Geoffrey Hinton)直接點名批評楊立昆(Yann LeCun)稱,「他讓AI大模型開源的危害性,相當於讓原子彈開源」。
楊立昆是圖靈獎得主、Meta AI首席科學家,此前也是Google首席科學家,與辛頓一樣,在行業裏享有盛譽。
北京時間5月23日淩晨,鈦媒體App編輯在巴黎見到了楊立昆,針對相關問題,楊立昆對鈦媒體App直接回應稱,辛頓錯了,AI 並不是「核彈」。
「它(AI)不是炸彈,它不是用來殺人的,AI 是為了讓他們(人類)更聰明。所以,我根本不明白這個類比。而且,AI 也沒那麽危險。我認為這些系統比實際情況要聰明得多。現在 AI 的問題是,未來的力量是否足夠,你認為它是否也會破壞一些東西?我們可以觸及到人類智能的系統,我們可以考慮如何讓它更加安全。」楊立昆對鈦媒體App表示。
當鈦媒體App問他當AI未來力量達到足夠強大能影響人類時,還會堅持開源嗎,楊立昆也非常堅定的回答是的。
楊立昆強調,開源(AI 技術)很重要,是非常有意義的。
5月23日上午,楊立昆在推文中再次強調,大型語言模型(LLMs)無法達到人類智能。如果你是一名對構建下一代 AI 系統感興趣的學生,請不要攻讀大模型相關專業。
「我自己正在研究下一代 AI 系統,而不是LLM。 所以從技術上講,我告訴你『與我競爭』,或者更確切地說,『與我做同樣的事情,因為這是正確的做法,而且理論上更快樂』。」楊立昆稱。
公開信息顯示,楊立昆出生於1960年,是一名法國計算機科學家,2018年圖靈獎得主。他曾在巴黎電子工程師高等學校獲得了工程師學位,1987年在巴黎第六大學獲得計算機科學博士學位。博士就讀期間,他提出了神經網絡的反向傳播算法學習算法的原型。隨後到多倫多大學在傑弗裏·辛頓的指導下完成了博士後工作。
楊立昆在機器學習、計算機視覺、移動機器人和計算神經科學等領域都有很多貢獻。他最著名的工作是在光學字符識別和計算機視覺上使用卷積神經網絡,他也被稱為卷積網絡之父。他共同創建了DjVu圖像壓縮技術,以及聯合開發Lush語言。2019年,他同約書亞·本希奧、傑弗裏·辛頓共同獲得計算機學界最高獎項——圖靈獎。
隨著生成式 AI 的迅猛發展,楊立昆所在的Meta公司已經投入數十億美元來開發Llama等多模態模型,旨在迎頭趕上微軟、OpenAI、谷歌等其他競爭對手。
目前,楊立昆在Meta的基礎人工智能研究(Fair)實驗室管理著一個約500人的團隊。致力於創造下一代 AI 技術,這種 AI 可以發展常識,並以與人類類似的方式學習世界是如何運作的,這種方法被稱為「世界建模」(World Models)。
一直以來,楊立昆與另一位「深度學習」教父 辛頓對於 AI 未來的看法恰恰相反。辛頓近日對外表示,盡管ChatGPT將使 AI 研究變得更加高效,影響 AI 研究過程,但長期來看,AI 發展太快了,容易超越人類,人類需要把控好 AI 技術帶來的風險。而且他認為,模型實際上必須執行一定程度的推理,而不是像很多人所說的大模型並不具備推理能力。隨著模型規模的增加,這種推理能力也將變得越來越強。這是一個值得全力以赴的方向。
楊立昆卻始終否定辛頓的這種看法。
楊立昆認為,大模型不是 AI 技術真正的發展方向。ChatGPT等生成式 AI 產品永遠無法實現像人類一樣的推理和計劃能力,而是認為在機器中創造「超級智能」,才是真正的通用人工智能(AGI)。
但他也坦言,這一技術願景可能需要十年的時間才能實現。
楊立昆指出,他反對依靠提升大模型來製造人類水平的智能,因為這些模型只有在獲得正確的訓練數據後才能準確回答提示,因此「本質上是不安全的」。
「不要學習大模型,這些技術掌握在大公司的手中,你沒有什麽可以做的。你應該研究下一代 AI 系統,以突破大模型的局限性。」楊立昆在對話中表示。
楊立昆表示,大模型的這種進化是膚淺和有限的,只有當人類工程師介入並根據這些信息進行訓練時,模型才會學習,而不是像人類那樣自然地得出結論。
楊立昆曾於2022年首次發表一篇關於他的「世界建模」願景論文,此後,Meta基於該方法發布了兩個研究模型。他稱,實驗室正在測試不同的想法,以實現人類級別的智能,因為「這其中有很多不確定性和探索,(所以)我們無法判斷哪一個會成功或最終被采納」。
「我們正處於下一代 AI 系統的風口浪尖。」楊立昆指出。
楊立昆認為,從長遠來看,「世界建模」技術將為用戶通過可穿戴技術、肌電「手環」等與之互動的AI Agent(代理)應用場景提供動力。
「要想讓 AI 真正有用,就需要具備類似人類水平的智能。」楊立昆表示。
---(鈦媒體/采訪:趙何娟*作者:林誌佳*編輯:胡潤峰)