周鴻禕:ChatGPT可能兩三年內就會產生自我意識威脅人類
「從知識來說,它像一個博士生,學識廣博但還不會活學活用;從情商來說,它像一個油滑的中年人,說什麼都滴水不漏,絕不得罪用戶。但是,它實際上真正的能力像一個小孩子,需要進行問題和答案的訓練來學習技能。再聰明的孩子都要通過訓練才能解答沒學過的奧數題。」
360創始人周鴻禕 澎湃新聞記者范佳來 攝
2月23日,360創始人周鴻禕在接受澎湃新聞等媒體採訪時,再次提到大熱的聊天機器人ChatGPT,並分享了他心中ChatGPT的「三重人格」。
ChatGPT熱潮正席捲全球。這款由「美國AI夢工廠」OpenAI製作的AI聊天機器人軟件,只用了兩個月時間,月活躍用戶達到1億,是史上月活用戶增長最快的消費者應用。
此前,周鴻禕曾經多次在公開場合談到他對ChatGPT的觀察。在他看來,ChatGPT已經擁有或接近擁有了人類智慧,並正處於通往「通用人工智能」的臨界點。「我們認為它是一個通用人工智能的奇點,而通用人工智能也還有一個隱含的拐點,它可能是一個強人工智能。」
ChatGPT具有類人特徵:有編故事的能力
在採訪現場,周鴻禕完全不掩飾他對ChatGPT的興奮。
在他看來,ChatGPT是一種生產力強大的再造工具,而不僅僅是賦能特定行業。「過去說大數據像『石油』一樣,但大數據不能直接用,ChatGPT像一個發電廠,燒了石油,把石油灌進去之後就可以產生電力,用雲服務的方式把它接入到千家萬戶、千行百業,它對整個產業都會發生巨大的影響。所以,這直接決定未來下一個十年中國和其他國家的科技產業差距:是形成落後還是迎頭趕上。」
ChatGPT將通過上千億的系統參數,實現原先設計者預想不到的能力。「這就像從猿到人的過程中肯定有一個臨界點,當大腦的神經網絡鏈接數目、腦細胞數目等多到一定程度時,人的智力和動物相比就產生了質的飛躍。」
周鴻禕表示,ChatGPT和其他人工智能最大的區別、也是其類人特徵是,原來的人工智能並沒有實現對知識全部的理解和編碼,本質都是按照關鍵字匹配已有的回答,但ChatGPT沒有「固定答案」:「我當時問了它一個問題,趙匡胤為什麼招安了宋江,殺掉了岳飛,這個無厘頭的問題,它也煞有介事地回答了一遍,能夠自己『編』故事,這才是它的真正智能所在。」
「ChatGPT可能在2-3年內就會產生自我意識威脅人類。」在採訪現場,周鴻禕「語出驚人」。他提到,任何行業的APP、軟件、網站、應用,如果加持上GPT的能力,都值得重塑一遍。「不要把它當成一個媒體工具、搜索引擎、聊天機器人,這都有點把它看的太小兒科了。」
他表示,ChatGPT和傳統人工智能的訓練不一樣,需要經過多維度的訓練。首先是囫圇吞棗、不求甚解的讀上幾百萬本書,獲得人類知識,但是依然不具備解決問題的能力。其次需要專業的人工智能訓練師去培養它回答問題的能力,其中也催生出大量的新就業機會。
最大的安全問題是產生自我意識後是否能被控制
作為網絡安全問題的專家,周鴻禕也分享了他心中的ChatGPT的安全問題。
在他看來,ChatGPT的安全性從技術問題變成社會倫理問題。ChatGPT掌握了很多編程和網絡安全漏洞的知識,可以成為網絡犯罪的有力工具。有許多黑客演示了利用ChaGPT寫釣魚郵件和攻擊代碼,所以從某種角度而言ChatGPT也成為了黑客的「幫手」。
「國內的互聯網公司普遍太講究實用主義,都是把人工智能和自己的業務緊密結合,但沒想到ChatGPT的更多可能性,360目前還在追蹤和鑽研這些技術,希望能迎頭趕上。」周鴻禕表示,360正在探索「以其人之矛攻其人之盾」,用ChatGPT扮演「正義助手」的角色,建立對攻擊自動監測、發現的知識庫,用人工智能進行網絡安全數據的自動化處理。
「目前ChatGPT最大的安全問題就是產生自我意識後是否能被控制。」周鴻禕表示,假如放開限制,讓ChatGPT盡情在網頁中學習,可能會導致它產生對物理世界更強的控制能力,未來在發展上會產生更多不安全性,也有可能被人誘導干出「糊塗事」,而是否能控制強人工智能,正是ChatGPT是否徹底融入人類生活的「邊界點」。
至於外界關注的ChatGPT是否可能造成普通人失業?在周鴻禕看來,短期內不會,「目前它的定位還是人類工具,這也是它的創造力所在。目前它的自我意識還沒有出現,所以需要發揮自己的想象力和創造力。」
他也對中國開發出屬於自己的ChatGPT充滿期待。在他看來,中國在人工智能領域與微軟、谷歌的差距並沒有想象中的大。在ChatGPT領域,中國具有很大優勢,有希望在2-3年內達到世界領先水平,應該對ChatGPT技術探索給予充分支持。
具體而言,周鴻禕表示,中國的互聯網公司在數量與算力有一定的優勢,同時也有較強的科研和高校儲備力量,必須將科研機構、學校、科學家等學術圈人士,和產業、工程、產品結合起來,充分調動和統籌資源。
工程師紅利是中國的一大優勢,但也面臨不利條件,就是缺乏開源的傳統。在ChatGPT研發中,用了許多開源模型,沒有此前的開源就沒有在巨人肩膀上的積累,每個公司都要從黑暗中摸索,這對國家整個產業發展速度是不利的,「這麼牛的技術,也確實不應該被壟斷在一兩家公司手裡。」
周鴻禕認為,解決原創問題需要科研機構的努力,而科研機構也需要和產業公司的合作,OpenAI與微軟的合作創造了一個產業公司和創業公司的合作範例,「我認為國家還是應該充分的支持ChatGPT產業發展,開源、合作、交流、打造生態。」
他希望國內有更多企業參與AI生態的構建,並形成公開的市場競爭,這樣才有進步。「ChatGPT讓很多行業應用就插上人工智能的翅膀。」周鴻禕表示,「光是ChatGPT煽動不了一場產業革命,但是如果將來各行各業都被人工智能賦能,就會帶來巨大的改變。」
此前2月9日下午,周鴻禕在與搜狐張朝陽的對話中表示,雖然ChatGPT現在還不完美,但要看到它無限的潛力,未來會有非常多的場景,不僅僅是輔助搜索引擎搜索答案。「這就是為什麼所有公司都爭先恐後地都要搭上這班車,如果搭不上就有可能被淘汰。」
「我覺得ChatGPT真的不是一個工具,它對人類自然語言的充分理解,可能代表着人類在人工智能歷史上開始一場真正的革命。」談及ChatGPT的誕生,周鴻禕表示,ChatGPT是通過一個上千億參數的大語言模型,相當於把網絡上很多人類的知識都進行了理解和訓練,模擬了人腦對知識的儲存,使得回答問題完全像一個成熟、油滑的人,而不是機械地給出搜索答案。-來源:澎湃新聞-
*信息安全更重要!摩根大通已限制員工使用ChatGPT*
開發出ChatGPT的OpenAI公司在如何積累或使用數據方面並不透明。
[財聯社2月22日訊*編輯:牛占林]自ChatGPT去年11月問世以來,其強大的功能吸引了大量的用戶,或許是10年來對大型科技公司、眾多行業和未來職場最具顛覆性的力量之一。
微軟聯合創始人比爾・蓋茨盛讚道,ChatGPT與互聯網的發明一樣重要,人工智能的進步是目前「最重要的」創新。像ChatGPT這樣的新程序將通過幫助寫發票或郵件來提高許多辦公室工作的效率,這將改變我們的世界。
對於一般企業而言,效率或許是第一位的,但對於華爾街或者許多涉密企業來說,數據或信息安全顯然更加重要。據知情人士透露,摩根大通已限制公司所有員工使用ChatGPT聊天機器人。
知情人士稱,此舉並非由任何具體事件引發,而是反映了摩根大通對第三方軟件的正常限制。雖然ChatGPT確實可以提高工作場所的效率,但第三方軟件也存在許多法律風險。
隨後有媒體聯繫了摩根大通,證實確實作出了上述決策,但該公司沒有發表進一步的評論。摩根大通成為了第一家限制在工作場所使用ChatGPT的華爾街投行,預計後續還會有更多企業跟進。
過去兩年,美國監管機構向十幾家銀行開出總額超過20億美元的罰單,因這些銀行的員工未經授權使用私人信息服務。
此前,擁有70多萬名員工的諮詢巨頭埃森哲已警告員工不要將客戶信息暴露在ChatGPT中。亞馬遜也警告員工不要與聊天機器人分享機密信息。
數據安全和法律專家表示擔心,與聊天機器人共享的信息可能會被用於微調它們的算法,甚至可能被付費檢查其答案的外包工人訪問,導致信息泄露。
華盛頓大學研究機器學習技術的語言學教授艾米麗·本德指出,開發出ChatGPT的OpenAI公司在如何積累或使用數據方面並不透明。「我預計企業會想:在ChatGPT廣泛使用幾個月後,是否有可能通過巧妙的設計,從而提取企業的私人信息?」
與大型銀行和金融機構合作監控內部安全風險的技術公司Behavox的發言人表示:「在過去一個月里,客戶對ChatGPT的使用提出的擔憂呈上升趨勢,特別是在涉及使用私人或專有數據時。」
除了對敏感數據泄露的擔憂外,錯誤信息也是一大風險。ChatGPT並不完美,距離成熟還需要一段時間,經常會給出不準確的答案。-來源:財聯社-