01-神魔宇宙 ***宇宙天國首部曲 彌勒天書閣 https://maitreya-books.com/ 神話從來就不是怪力亂神,而是原始先民在日常生活情況的觀察之中,所建立的真實認知。唯有相信神話中的真實,才能感受到神話的詩意隱喻背後,所具有的神聖力量。打開你的想像,打開你的相信,你才能知道神話告訴了你什麼宇宙生命的資訊。 生命起源於宇宙之中,生長於宇宙之中,結束於宇宙之中,因此,宇宙的起源就是生命背景的起源。生命形成的每一個階段,其實都在述說著生命的本能,也就是生命本就存在的一種力量,在此雖是說明一種狀況,然而將這狀況投射在生命的生活行動之中,你就會明白自己究竟有哪些不可思議的本能!

GPT-4壓根不會編程?有人讓它露餡了

2023040813:51



ChatGPT 代替程序員,是我們想多了?

在 OpenAI 發布 GPT-4 之後,一場有關「AI 取代人類勞動力」的討論正變得越來越激烈。該模型的強大能力及其可能帶來的潛在社會影響引發了很多人的擔憂,馬斯克、Bengio 等人甚至聯名寫了一封公開信,呼籲所有 AI 機構暫停訓練比 GPT-4 更強的 AI 模型,為期至少 6 個月。

但另一方面,對於 GPT-4 能力的質疑也是此起彼伏。前幾天,圖靈獎得主 Yann LeCun 在一場辯論中直接指出,GPT 家族所採用的自回歸路線存在天然的缺陷,繼續往前走是沒有前途的。

與此同時,一些研究者、從業者也表示,GPT-4 可能並沒有 OpenAI 所展示的那麼強大,尤其是在編程方面:它可能只是記住了之前的題目,OpenAI 用來測試該模型編程能力的題目可能早就存在於它的訓練集中,這違反了機器學習的基本規則。另外,還有人指出,看到 GPT-4 在各種考試中名列前茅就判定 AI 將取代部分職業的想法是不嚴謹的,畢竟這些考試和人類的實際工作還是有差距的。

近期的一篇博客詳細地闡述了上述想法。

問題一:訓練數據污染

為了對 GPT-4 的編程能力進行基準測試,OpenAI 使用編程競賽網站 Codeforces 上的問題對其進行了評估。令人驚訝的是,GPT-4 解決了 10/10 的 2021 年前的問題和 0/10 的近期 easy 類問題。要知道,GPT-4 的訓練數據截止日期是 2021 年 9 月。這有力地表明該模型能夠從其訓練集中記住解決方案 —— 或者至少部分記住它們,這足以讓它填補它不記得的東西。



圖源:https://twitter.com/cHHillee/status/1635790330854526981

為了進一步證明這一假設,博客作者 Arvind Narayanan 和 Sayash Kapoor 在 2021 年不同時間的 Codeforces 問題上對 GPT-4 進行了測試,發現它可以解決 9 月 5 日之前的簡單類別的問題,無法解決 9 月 12 日之後的問題。

作者表示,事實上,他們可以明確地表明 GPT-4 已經記住了訓練集中的問題:當把 Codeforces 問題的標題加入 prompt 中時,GPT-4 的回答會包含指向出現該問題的確切比賽的鏈接(並且輪數幾乎是正確的:它差了一個)。注意,當時的 GPT-4 不能上網,所以記憶是唯一的解釋。



GPT-4 記住了訓練截止日期之前的 Codeforces 問題。

論文中的 Codeforces 結果並沒有受此影響,因為 OpenAI 使用的是最近的問題(果然,GPT-4 表現很差)。對於編程以外的基準,作者不知道有什麼乾淨的方法可以按時間段分開問題,所以他們認為 OpenAI 不太可能避免污染。但出於同樣的原因,他們也無法做實驗來測試性能在不同日期的變化情況。

不過,他們還是可以尋找一些提示性的跡象。記憶的另一個徵兆是:GPT 對問題的措辭高度敏感。Melanie Mitchell 舉了一個 MBA 測試題的例子,她改變了這個例子的一些細節,這一改變騙不到人,但卻成功欺騙了(運行 GPT-3.5 的)ChatGPT。沿着這個思路做一個更詳細的實驗會很有價值。

由於 OpenAI 缺乏透明度,作者無法肯定地回答污染問題。但可以肯定的是,OpenAI 檢測污染的方法是膚淺和草率的:

我們使用子串匹配來衡量我們的評估數據集和預訓練數據之間的交叉污染。評估和訓練數據都是通過去除所有的空格和符號來處理的,只保留字符(包括數字)。對於每個評估實例,我們隨機選擇三個 50 個字符的子串(如果少於 50 個字符,則使用整個實例)。如果三個被抽中的評估子串中的任何一個是被處理過的訓練例子的子串,那麼就可以識別出一個匹配。這就產生了一個被污染的例子的列表。我們丟棄這些,並重新運行以獲得未受污染的分數。

這是一個脆弱的方法。如果一個測試問題出現在訓練集中,但名稱和數字被改變了,它就不會被發現。不那麼脆弱的方法是現成的,比如說嵌入距離。

如果 OpenAI 要使用基於距離的方法,多大程度的相似才是太相似?這個問題沒有客觀的答案。因此,即使是像選擇題標準化測試中的表現這樣看似簡單的事情,也充滿了主觀的決定。

但我們可以通過詢問 OpenAI 試圖用這些考試來衡量什麼來明確一些東西。如果目標是預測語言模型在現實世界任務中的表現,那就有一個問題。從某種意義上說,任何兩個律師考試或醫學考試的問題都比現實世界中專業人士所面臨的兩個類似任務更相似,因為它們是從這樣一個受限的空間中提取的。因此,在訓練語料庫中加入任何考試問題,都有可能導致對模型在現實世界中的有用性的誇大估計。

從現實世界的有用性角度來闡述這個問題,突出了另一個更深層次的問題(問題二)。

問題二:專業考試不是比較人類和機器人能力的有效方法

記憶是一個光譜。即使一個語言模型在訓練集上沒有見過某個確切的問題,它也不可避免地看到了非常接近的例子,因為訓練語料庫的規模太大了。這意味着它可以用更淺顯的推理水平來逃避。因此,基準結果並沒有給我們提供證據,證明語言模型正在獲得人類考生所需要的那種深入的推理技能,而這些考生隨後會在現實世界中應用這些技能。

在一些現實世界的任務中,淺層推理可能是足夠的,但並不總是如此。世界是不斷變化的,所以如果一個機器人被要求分析一項新技術或一個新的司法判決的法律後果,它就沒有什麼可借鑑的。總之,正如 Emily Bender 所指出的,為人類設計的測試在應用於機器人時缺乏結構效度。



除此之外,專業考試,尤其是律師資格考試,過度強調學科知識,而對現實世界的技能強調不足,而這些技能在標準化的計算機管理方式下更難衡量。換句話說,這些考試不僅強調了錯誤的東西,而且過度強調了語言模型所擅長的東西。

在 AI 領域,基準被過度地用於比較不同的模型。這些基準因將多維評價壓縮成一個單一數字而飽受批評。當它們被用於比較人類和機器人時,得到的結果是錯誤的信息。不幸的是,OpenAI 在對 GPT-4 的評估中選擇大量使用這些類型的測試,而且沒有充分嘗試解決污染問題。

有更好的方法來評估 AI 模型對職業的影響

人們在工作期間可以上網,但在標準化考試期間卻不能上網。因此,如果語言模型的表現能夠媲美可以上網的專業人士,這在某種程度上將能更好地檢驗它們的實際效能。

但這仍然是個錯誤的問題。與其用獨立的基準,我們或許更應該衡量語言模型能在多大程度上完成專業人員必須完成的所有現實任務。例如,在學術界,我們經常會遇到一些我們不熟悉的領域的論文,其中充滿了專業術語;如果 ChatGPT 能夠以一種更容易理解的方式準確地總結這樣的論文,那就很有用了。有些人甚至還測試過這些工具是否能做同行評議。但即使是這個場景,你也很難確保用來測試的題目沒有包含在訓練集裡。

ChatGPT 可以取代專業人員的想法仍然很牽強。在 1950 年的普查中,270 個工作員中僅有 1 個被自動化淘汰了,那就是電梯操作員。當下,我們需要評估的是那些利用人工智能工具來幫助自己完成工作的專業人員。兩項早期的研究是有希望的:一項是 GitHub 用於編程的 copilot,另一項是 ChatGPT 的寫作協助。

在這個階段,我們更需要定性研究而不是定量研究,因為這些工具太新了,我們甚至不知道該問什么正確的定量問題。例如,微軟的 Scott Guthrie 報告了一個醒目的數字:GitHub Copilot 用戶檢查的代碼中有 40% 是人工智能生成的,沒有經過修改。但任何程序員都會告訴你,很大一部分代碼由模板和其他通常可以複製粘貼的平凡邏輯組成,特別是在企業應用程序中。如果這就是 Copilot 自動化的一部分,那麼生產力的提高將是微不足道的。

作者表示,明確地說,我們不是說 Copilot 沒有用,只是說如果沒有對專業人士如何使用人工智能的定性理解,現有的衡量標準將是沒有意義的。此外,人工智能輔助編碼的主要好處甚至可能不是生產力的提高。

結論

下圖總結了這篇文章,並解釋了我們為什麼要以及如何擺脫 OpenAI 報告的那種度量標準。



GPT-4 確實令人興奮,它可以通過多種方式解決專業人士的痛點,例如通過自動化,代替我們做簡單、低風險但費力的任務。目前,專注於實現這些好處並降低語言模型的許多風險可能是更好的做法。

-[選自AI Snake Oil*作者:Arvind Narayanan、Sayash Kapoor/來源:機器之心Pro編譯]

https://aisnakeoil.substack.com/p/gpt-4-and-professional-benchmarks