聊天機器人ChatGPT火出圈,能寫論文、編代碼、創作小說
「最近開始玩ChatGPT,的確很驚人。」一位生物學領域的科學家近日在社交媒體上感慨。在他展示的向ChatGPT發起的挑戰中,提出的問題包括如何運營公司、如何管理孩子、為何生育率下降,再到中國的文化和政策問題,ChatGPT大多能應對流暢。
這款當今最火爆的AI語言模型,由美國人工智能實驗室OpenAI於去年11月底發布,並迅速火遍全球。人們長期苦於那些智能語音助手的傻瓜回答,這次ChatGPT卻出乎意料的聰明:它可以用來創作故事、撰寫新聞、回答客觀問題、聊天、寫代碼和查找代碼問題等。外媒評論稱,ChatGPT會成為科技行業的下一個顛覆者。
ChatGPT是自然語言處理(NLP)中一項引人矚目的進展,它閱覽了互聯網上幾乎所有數據,並在超級複雜的模型之下進行深度學習。因為語言是人類智慧、思維方式的核心體現,因此,自然語言處理被稱作「AI皇冠上的明珠」。而ChatGPT的出色表現,被認為可能是邁向通用型AI的一種可行路徑——作為一種底層模型,它再次驗證了深度學習中「規模」的意義。
1月12日,在美國一場活動上,曾擔任微軟董事長的比爾·蓋茨表示,他不認為Web3有那麼重要,也不認為元宇宙本身是革命性的,但是人工智能卻是頗具顛覆性的。當被問及如何看待ChatGPT時,他說,「這讓我能一窺未來。整個平台的方法和創新速度都令我印象深刻。」
最新發布的ChatGPT,在應用層進行了強化訓練,提高了對話質量。圖
*文本生成和對話領域,基本要被「洗一遍」
GPT英文全稱為Generative Pre-trained Transformer(生成式預訓練轉換器),是一種基於互聯網可用數據訓練的文本生成深度學習模型。ChatGPT「脫胎」於OpenAI在2020年發布的GPT-3,後者是目前訓練參數量最大的AI模型,當時發布後便引發了廣泛的關注。
此次發布的ChatGPT實際上是GPT-3.5。在3.0的基礎上,ChatGPT在應用層進行了強化訓練,提高了對話質量。
王帥是AI領域從業20多年的一位工程師,目前在英偉達工作。他對《中國新聞周刊》介紹說,首先,OpenAI引入了人類監督員,對AI的回答進行打分,使得它在眾多可能的回答中選擇那些更加符合人類預期的答案;其次,新版本還引入了多輪對話,尤其是在涉及一些有關步驟的問答當中,讓這個模型的語言前後邏輯更加明晰、有因果關聯。
創新工場人工智能工程院執行院長王詠剛告訴《中國新聞周刊》,人類處理數學公式時,如果有幾十個參數,就已非常之複雜了。然而,GPT-3卻相當於是一個包含1750億個參數的公式,來處理所有互聯網上的數據,以理解人類當今的文本和語言。因此,他評價,OpenAI的超大規模預訓練模型是深度學習誕生以來,AI在行為表現上最接近人類智慧的一個時期。OpenAI還在不斷提升AI訓練的規模和複雜度。
硅谷科技公司PerceptIn創始人劉少山在接受《中國新聞周刊》採訪時表示,過去,AI已經能在一些特定任務上做得很出色,比如,在圖像識別、語音理解方面,計算機正逐漸取代人的眼睛和耳朵行使的功能,但一直無法實現通用。所謂通用人工智能,即與實現特定任務的AI相對應。
2020年,在一場業內會議上,美國康奈爾大學計算機教授巴特·塞爾曼談到,通用人工智能可能還需要20年以上才可以實現,「不過如果我們在未來五到十年能在真正的自然語言理解上獲得突破,使得AI可以去閱讀圖書、從互聯網獲得知識,那麼這個進程可能會被大大加速」。
ChatGPT有更好的語言理解能力,意味着它可以更像一個通用的任務助理,能夠和不同行業結合,衍生出很多應用的場景。劉少山認為,它可以說是打開了通用人工智能的一扇大門。
王詠剛指出,可以說,互聯網的每一個環節,只要涉及文本生成和對話的,未來基本上要被ChatGPT「洗一遍」。也就是說,都需要結合這一語言工具,才能得到一個接近於自然人類語言對話的效果。
以自動駕駛為例,劉少山說,目前的自動駕駛還比較「傻」,因為汽車的智能系統與人的交互是比較機械的,比如說,前面有一輛車,按照規則,它有可能會無法正確判斷什麼時候該繞行。而ChatGPT等人工智能的迭代,未來可能會讓機器更接近人的思維模式,學習人的駕駛行為,帶領自動駕駛進入「2.0時代」。
近來,據美國硅谷的科技媒體報道,微軟已經討論在Word、PowerPoint、Outlook和其他應用程序中加入ChatGPT。1月17日舉行的達沃斯世界經濟論壇《華爾街日報》座談會上,微軟CEO薩提亞·納德拉表示,微軟將迅速採取行動,力爭讓OpenAI的工具快速商業化。
人類世界有許多重複性的、程式化的語言文字工作,不需要複雜的邏輯思考或決策判斷。ChatGPT幫助人們更流暢、更快速地書寫這些段落的潛力,可能會成為微軟這些應用程序的「殺手鐧」。比如,在人們需要請假時,只要打出「寫一封請病假的郵件」幾個字,Outlook就能把措辭正式的請假申請寫好。
在「ChatGPT+」的世界,搜索引擎領域的變化,尤為引發關注。目前的搜索引擎基於關鍵字響應,根據搜索結果進一步篩選信息然後整合。一些人相信,基於對話的搜索,可能會徹底改造甚至取代當前的信息檢索方式。有美國科技媒體1月初的報道指出,微軟正在考慮將ChatGPT整合到其搜索引擎「必應」當中。
20多年來,谷歌搜索引擎一直是全球互聯網的主要門戶網站之一。隨着ChatGPT等產品的出現,《紐約時報》在2022年12月21日的文章中指出,谷歌的主要搜索業務可能首次面臨嚴重威脅。谷歌的管理層已發布表示情況緊急的「紅色代碼」,着手應對。一些人擔心,一場可能顛覆整個AI行業的巨大技術變革正在到來。
谷歌率先提出關於深度學習模型最核心的算法,但是應用上卻是OpenAI這樣的機構推得更快。對谷歌較為熟悉的王詠剛指出,一個很重要的原因是,像谷歌這樣的大公司,作為互聯網的信息提供商,其實對於新技術的商業化使用是很謹慎的。比如,如果ChatGPT在知識性的回答上有95%的正確率,那5%的錯誤率能夠接受嗎?
在2021年5月的谷歌網絡開發者年會上,谷歌就展示了其最新的人工智能系統LaMDA。谷歌表示,LaMDA可以使回答更加「合情合理」,讓對話更自然地進行,而且這些回復都不是預先設定的。但目前,谷歌仍不願向公眾發布LaMDA。谷歌表示,部分原因在於,LaMDA存在較高的誤差,且容易對用戶造成傷害。
「現在還很難判斷。」在英偉達工作的王帥說,如果ChatGPT能夠取代當前的搜索引擎,谷歌也不會坐以待斃,因為在大規模語言模型上,它與微軟之間並不存在技術上有與沒有的區別;其次,技術只是一方面的原因,這背後還有運營成本、效率、商業模式等方面的考慮。
事實上,《紐約時報》也指出,谷歌可能不願意部署這項新技術來替代在線搜索,因為它不適合投放數字廣告——如果ChatGPT能夠完美響應搜索,人們就沒有動機點擊額外的鏈接,而廣告在2021年為谷歌掙了2080億美元,占谷歌母公司Alphabet總收入的81%。
更先進的GPT-4出來以後,可能會帶來更為驚艷的成果。幾個月前,王詠剛與OpenAI的兩位聯合創始人見了個面,談論了GPT-4的一些技術問題。儘管尚沒有準確的數據,但他分析說,GPT-3模型參數量級是1750億規模的,而GPT-4的參數可能將比它高出幾個量級。他表示,那是令人嘆為觀止的訓練量,「想象一下,如果說GPT-3相當於昆蟲大小的腦容量,那麼 GPT-4可能會達到哺乳動物的腦容量」。
不過,ChatGPT還遠不完美。因為這類人工智能對話機器人是通過消化互聯網上公開的大量數據來成長的,所以,它們的知識結構中同時有事實和虛構的部分,傳遞的信息可能也會存在偏見、甚至仇恨言論等。前述生物學家表示,ChatGPT「不禁逗」,一些問題回答錯誤或者無法解答。
《麻省理工科技評論》在去年11月末尖銳地指出,所有的大規模語言模型都在輸出「nonsense(愚蠢的話)」,ChatGPT看起來解決了一些問題,但遠不是一個徹底的終結。OpenAI的科學家約翰·舒爾曼也承認,還有很多事情要做,「我們在這個問題上取得了一些進展,但還遠未解決」。
*「從水下100米到馬里亞納海溝」
長期以來,在AI領域,存在着一場曠日持久的爭論:基於深度學習和超強算力的大模型訓練,是否是抵達通用人工智能的最終道路?在這方面,OpenAI無疑是一個堅定的押注者。
2018年6月,OpenAI發表論文《通過生成式預訓練加強語言理解》,首次介紹了自己的語言模型GPT-1。它在深度學習模型Transformer架構上,使用了內含幾十億個文本文檔的超大規模語言資料庫進行訓練,參數量為1.17億。2019年2月,升級版GPT-2發布,模型參數達到15億,且訓練模型的數據庫也更大;2020年,規模大百倍的GPT-3誕生。
創新工場人工智能工程院執行院長王詠剛打了個比方,如果說傳統的機器學習或人工智能是在水下一米的深處探索,那麼深度學習的出現將人們帶到了一百米的深水區;而在Transformer、GPT等架構後,從業者們直接能抵達深度超過萬米的馬里亞納海溝。
過去5年中,大規模預訓練語言模型受到業內越來越多的重視。王帥指出,過去依靠人工標註和精巧設計的訓練方法,數據量大幅增加以後,表現並不好;相反,大家逐漸意識到,不斷擴大模型規模、不斷用更多數據去訓練模型,是提高算法能力非常有效的一個手段。
「目前看起來,這種模型太有用了。而且從ChatGPT的結果來看,超出了我們的預料。」王帥說,可以認為這種不斷增加規模的大模型已經是領域的一種範式,可能人工智能領域未來有很多地方都可以用類似方法推進。
「今天,全世界的人工智能研究有很多方向,也產生了大量的成果。但是嚴格來說,所有這些最令人驚艷的結果, 90%以上是基於Transformer迭代來的這些大模型技術得到的。」王詠剛也指出,目前幾乎所有的AI任務和項目,都會和大語言模型技術有關聯,它已經代表了AI界最主流的科研和技術迭代方向。
2022年7月,Alphabet旗下的DeepMind公司與歐洲生物信息研究所的團隊合作公布了生物學領域的一項重大飛躍。他們利用人工智能系統AlphaFold預測出超過100萬個物種的2.14億個蛋白質結構,幾乎涵蓋了地球上所有已知蛋白質。許多研究人員表示,這一系列突破將加速新藥開發,並為基礎科學帶來全新革命。而Alphafold同樣是基於Transformer結構的深度學習模型。
OpenAI是一家非營利性的研究機構,於2015年成立,由特斯拉創始人馬斯克、創業孵化器Y Combinator總裁山姆·奧特曼、PayPal聯合創始人彼得·蒂爾等硅谷大亨們創建,其願景是實現安全的通用人工智能,並向公眾開放。
多位受訪業內人士指出,大規模語言模型並不是OpenAI的「獨門技術」;再加上人才和資金的雄厚,谷歌、微軟、百度等AI領域的巨頭公司並不是無法複製下一個ChatGPT。實際上,ChatGPT誕生之前,硅谷巨頭們都意識到了大語言模型的重要性,比如,DeepMind也發布了人工智能聊天機器人Sparrow,Facebook母公司Meta也有自己的同類產品。
然而,不同的是,這些年來,OpenAI一直將資源集中在這個方向上。在微軟等巨頭公司的資金和技術支持下,它不斷將這種方法論推向極致。「規模至上的這種理念和方法論是OpenAI特別推崇的,相對來說,其他公司或者團隊沒有他們這麼堅信。」王詠剛說。
不過,王詠剛說,在ChatGPT出圈之後,從業者們的心態是比較微妙的。一方面,業界可能會越來越重視這條路徑,投入更多資源;另一方面,大家又希望它不是AI領域唯一核心的方法,還能夠有空間探索更多的可能性。
「僅僅靠數據驅動的路徑,雖然能讓AI在一些領域達到接近或者超過人類的水平,例如人臉識別,但在另一些領域,比如自動駕駛,我們需要的是接近100%的安全性。」康奈爾大學計算機教授巴特·塞爾曼就認為,這最後的10%、5%的提升,可能不是深度學習本身能夠解決的,需要不同的思路。
*對AI的理解落後於其發展速度
2022年9月,一位年輕人用Al繪畫工具Midjourney生成的作品《太空歌劇院》,在美國科羅拉多州博覽會的美術比賽中獲得大獎,獲獎類別是「數字藝術/數字修飾照片」組第一名。不過,這引發了一場人文爭議和反AI繪畫的浪潮。
有網友表示,我們眼睜睜地見證了藝術的死亡,「如果連藝術工作都無法避免被機器所吞沒,那麼高技能的工種也將面臨被淘汰的危機。到時候,我們又能剩下什麼呢?」
劉少山談到,AI科學家們最初的猜想是,AI大發展後,一些藍領崗位、重複性的工作會首先被取代。然而,ChatGPT、AlphaFold等工具出來後,人們發現,最先感受到AI衝擊的,反而是創造性的工作,而送餐這一類涉及勞動力的工作卻沒能被取代。他解釋說,在機器人、自動駕駛等領域,機械與智能是兩個基本的模塊。現實進展來看,機械部分有很多物理上的限制,很多技術目前尚未突破;得益於深度學習等模型的發展,智能部分反而突破更快。
這些涉及創造力、知識探索、信息獲取的行業,是人文領域的核心,是人類最擔心被機器化的部分。一直以來,AI在這些領域的重大突破都伴隨着廣泛的倫理爭議。
世界知名的複雜性科學研究中心、美國聖塔菲研究所教授梅勒妮·米切爾近日在接受媒體採訪時就談到,過於盲目採用這些技術,將我們的交流和創意自動化,可能會導致人類失去對機器的控制,「機器人會給機器人寫電子郵件,而機器人會回復其他機器人」。米切爾說,「我們作為人的特質從我們的信息中被捲走了。」
1月5日,紐約市教育部門表示,紐約公立學校的所有設備和網絡上將禁止使用ChatGPT。紐約市教育部門發言人詹娜·萊爾指出,這一決定是基於「該工具可能會對學生學習產生負面影響,以及對其內容的安全性和準確性的擔憂」。
人們普遍表示擔心,該工具可能會鼓勵學生抄襲。詹娜·萊爾說,雖然ChatGPT能夠為問題提供快速而簡單的答案,但它沒有培養批判性思維和解決問題的能力,而這些能力對學術和終身成功來說是至關重要的。
2022年12月27日,美國西北大學的一個團隊在預印本論文bioRxiv上發表了一篇文章。這項研究中,研究者讓ChatGPT學習發表在《柳葉刀》《美國醫學會雜誌》等頂刊上的文章,並撰寫50篇醫學研究摘要,然後讓抄襲檢測器、人工智能輸出檢測器和期刊審稿人將這些摘要與原始摘要比較,找出ChatGPT編造的摘要。
結果發現,ChatGPT生成的摘要全部順利通過了抄襲檢測器,人工智能輸出器找出了66%的生成摘要,期刊審稿人僅正確識別了68%的生成摘要和86%的真實摘要。研究者們表示,使用大型語言模型進行科學寫作的道德和可接受邊界需要被進一步明確。
《自然》雜誌最新發布的規定稱,任何大型語言模型工具都不能成為論文作者;如在論文創作中用過相關工具,作者應在「方法」或「致謝」或適當部分明確說明。
王帥認為,用AI寫論文這樣的事情,技術上一定會發生的,而且知識獲取的門檻越來越低,「我覺得發展方向上更多不一定是禁止它,而是說教育評估的標準和理念需要發生變化。相比那些大段輸出的、能夠在機器的幫助下寫得更好的文字,思考的質量、深度和研究的原創性等將會越來越重要」。
這就好像一項新的技術,比如說汽車、飛機被發明了,不可能說不用它們,關鍵是如何使用、如何規範。從這一意義上來說,王帥表示,以ChatGPT為代表的生成式人工智能的出現,圍繞它及其應用相關的各方面都沒有跟上,包括法律、教育、社會、倫理等。實際上,就算是圈內人,也沒有完全理解AI領域正在發生的事情意味着什麼。
2022年12月,《大西洋月刊》在《大學論文已死》的文章中警示,沒有人為人工智能將如何改變學術界做好準備。「如今AI模型遠比我們想象的更強大,而我們用於探索它們的技術卻非常幼稚。」OpenAI實驗室的人工智能政策專家傑克·克拉克在近來的一篇文章中寫道。
劉少山也認為,目前,業內沒有能力去處理AI帶來的可能的社會影響,因為人們對它的了解還很有限,這是最大的問題。比如說,儘管美國部分學校禁用ChatGPT生成的內容,但現在卻沒有手段檢測和區分機器與人類生產的內容,也就更加難說防禦機制,「因為GPT這些技術太新了,監管部門也沒辦法去理解。我認為,在幾年時間內,網絡上會有很多虛假信息的出現」。
每一次AI出現一個新東西,大眾總是會覺得某種巨大的變化將要來臨,並且往往伴隨着機器代替人工的擔憂。然而,王詠剛說,人們一方面太容易誇大AI短期內取得的成果和影響;另一方面,卻又忽視AI正在發生的、真正可能帶來不可逆的長期變化。
在他看來,短期來說,ChatGPT等人工智能的應用仍舊是工具式的,它會提高效率、替代一部分工作,但真正值得擔心的是,隨着計算機能夠處理的數據結構、模型、算法越來越膨脹和複雜,裡面可能有大量的「黑盒子」運算,人們未必能預測其最終輸出的結果。會不會在某個時間點,人工智能會跨越某個關鍵的節點,進入到一個我們尚未看到的世界,沒有人可以預測。
(文中王帥為化名,實習生李金津對本文亦有貢獻。)-(記者:彭丹妮/來源:中國新聞周刊)