AI會說謊?專家:相比技術失控,更要防止利用人工智能作惡
上海市人工智能行業協會秘書長鍾俊浩向《科創板日報》表示,比起失控的技術,更有可能失控的是用技術來為非作歹的『人』。 防止人工智能作惡,關鍵在於控制背後的人。
[科創板日報4月15日訊*實習記者:譚海燕] 國家互聯網信息辦公室近日起草了《生成式人工智能服務管理辦法(徵求意見稿)》(下稱《徵求意見稿》),旨在促進生成式人工智能技術健康發展和規範應用。《徵求意見稿》出台的背景,ChatGPT出圈後,以大模型為底座的人工智能在全球範圍的爆火,由此引發了社會各界對於生成式人工智能安全與倫理隱私風險的擔憂。
上海市人工智能行業協會秘書長鍾俊浩向《科創板日報》表示,比起失控的技術,更有可能失控的是用技術來為非作歹的『人』。 防止人工智能作惡,關鍵在於控制背後的人。
能夠像人類一樣對話的AI,會給社會帶來什麼風險,是否將取代人類?當賽博朋克電影中老生常談的命題急風驟雨般映入現實,科技革命加速正在進行時,我們是否準備好迎接以ChatGPT為首的強大人工智能系統帶來的挑戰?
▍AI可能會「說謊」,還會「傳染」?
據外媒報導,在一份讓ChatGPT生成曾有過性騷擾他人歷史的法律學者名單中,法學教授喬納森·特利 (Jonathan Turley) 位列榜上。ChatGPT援引媒體2018年3月的一篇文章作為信源,並且給出了引文詳盡細節,指出「喬治城大學法律中心教授喬納森·特利被一名以前的學生指控性騷擾」。最後,被援引的媒體現身闢謠:這篇文章根本不存在,特利本人也並未在ChatGPT所說的大學工作過。
在人類社會,面臨這樣的「謠言」,常見的處理方式是要求對方停止散播謠言,運用法律手段等手段維權,但在AI世界,處理人工智能「造謠」並不那麼容易,這樣的「謠言」還可能出現「機傳機」現象,信息溯源難加之傳播速度快,帶來了潛藏的風險。
在由GPT-4提供支持的微軟Bing上重複了「有性騷擾歷史的法律學者」問題,Bing重複了對於特利的錯誤論述,但在消息來源中引用了相關媒體的報道,概述了特利被ChatGPT「誣告」的過程。有評論認為,這表明了錯誤信息會由一個人工智能傳遞至另一個人工智能。
幾乎在同一時期,澳大利亞一區市長向OpenAI「宣戰」——稱如果ChatGPT不糾正對他的虛假指控,他將起訴OpenAI公司,如果他提起訴訟,那麼這將是全球首例針對生成式AI誹謗訴訟。澳大利亞墨爾本西部赫本郡的市長布賴恩•胡德(Brian Hood)並未真的遭到任何指控,但在ChatGPT的論述中,他「曾因賄賂入獄服刑」。胡德的律師團隊與3月21日向OpenAI發出關注信,讓對方在28天修改對於胡德的錯誤描述,否則將提起訴訟。
▍人工智能「造謠」完全可以避免
針對人工智能侵權追責,上海市人工智能行業協會秘書長鍾俊浩在接受《科創板日報》採訪時指出,追責大概率會成功,從技術層面而言,人工智能「造謠」完全可以避免,大型語言模型(LLM)不光能通過模型、基於過去的經驗自動生成內容,也能基於靠譜的互聯網文本源,重新整理並生成新的內容,「無非是後者的響應時間會長一點,運算的過程要多繞一些彎路,但是更靠譜。類比自動駕駛,技術上其實早已基本實現L5了,但是目前只允許低於L3的上路,技術應該在可控範圍逐步推廣。」
實際上,3月15日,OpenAI正式發布了升級後的GPT-4,官網於4月5日公布了安全地構建、部署和使用 AI 系統的策略,內容安全測試顯示,GPT-4的得分比此前的模型GPT-3.5高40%。實際上,在OpenAI官網使用條款中就有對於ChatGPT準確性的論述,「在某些情況下使用我們的服務可能會導致輸出不正確,無法準確反映真實的人物、地點或事實。您應該根據您的情況評估任何輸出的準確性,包括對輸出進行人工審查。」官網4月5日公布的AI安全策略提到,當用戶註冊使用ChatGPT時,官網關於準確性的論述儘可能做到透明,以避免 ChatGPT 可能給出錯誤回復。
兩起「謠言」並非ChatGPT及其所有者OpenAI第一次陷入輿論風暴中,3月20日起,陸續有用戶反映在聊天記錄中顯示了其他人的 ChatGPT 聊天對話。針對事件,OpenAI於3月25日在推特上發文解釋,稱「數據被泄露給其他人的用戶數量極少,已經聯繫可能受到影響的用戶」,表明了積極處理問題的態度。
生成式人工智能加速中,社會各界表示了對高速發展的AI2.0的擔憂。3月底,未來生命研究所發表題為「暫停巨型AI實驗」的公開信,呼籲所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統至少6個月,包括辛頓、馬庫斯和馬斯克在內的上千位知名企業家、學者簽署了這封公開信。
▍重點要防止利用人工智能作惡
在國內,人工智能技術的使用與管理更是「謹小慎微」。《網絡安全法》《數據安全法》《個人信息保護法》《互聯網信息服務深度合成管理規定》《互聯網信息服務深度合成管理規定》等法律、法規均有針對信息技術管理相關規定,如《互聯網信息服務深度合成管理規定》規定,AI合成平台必須要求內容創作者實名認證,監督創作者標明「這是由AI合成」類標識,以免誤導公眾;在提供「換臉」技術前,應該徵得「被換臉」者的同意;完善數據管理、保障個人信息安全等。
上海市人工智能行業協會秘書長鍾俊浩解釋了目前可能由大模型人工智能系統帶來的風險,包括知識產權風險、數據安全風險、內容濫用風險等,馬斯克等人的聯名信更是「一石激起千層浪」,目前針對人工智能2.0的態度整體上可以分為「暫停半年派」、「擁抱未來派」和「徹底封禁派」等。4月11日國家網信辦公布的《徵求意見稿》是國內有關生成式人工智能的第一個管理條例。在他看來,《徵求意見稿》最大的意義在於通過規章確定「生成式人工智能」的規範名稱,並強調了國家對人工智能技術和產業持鼓勵的態度。
鍾俊浩向《科創板日報》記者表示,《徵求意見稿》並不是簡單叫停,而是通過科技風險的認知和研判,建立更良性健康的發展路途和管控方式,探尋可以接受的研究和創新,「比起失控的技術,更有可能失控的是用技術來為非作歹的『人』。比如,惡意使用者可能會利用ChatGPT來製造虛假信息、實施欺詐活動或進行其他不道德行為。防止人工智能作惡,關鍵在於控制背後的人。 」**
目前,國內各個大廠正在鋪設自家AI大模型上「開卷」,百度的「文心一言」、阿里的「通義千問」、王小川的「百川智能」、商湯科技的日日新SenseNova大模型、崑崙萬維的大語言模型「天工」3.5紛紛加入人工智能賽道。
「(針對人工智能的規範)需要不停追趕AI發展的腳步,掌握行之有效的監管能力」,鍾俊浩提到。-來源:財聯社-
*攤牌了!馬斯克成立人工智能公司X.AI,對抗ChatGPT*
馬斯克的大動作來了!
據財聯社,根據美國內達華州的備案文件,馬斯克在該州新成立了一家名為X.AI的人工智能公司。近期,馬斯克創建了一家叫做「X」的空殼公司,將自己擁有的推特、SpaceX、特斯拉、Neuralink等所有公司打包加入其中。如今,「X」公司再添新丁X.AI,並且要與OpenAI展開競爭。
值得注意的是,前不久馬斯克曾與千名科技人士聯名呼籲暫停更強大的AI開發。然而,轉頭便投入AI大戰......
悄悄買下1萬個GPU
據Business Insider援引知情人士消息報道,馬斯克去年收購推特之後,在多方面作出了大刀闊斧的改革,其中一項便是計劃提高推特算力,加入AI競賽。
科技公司通常使用GPU來處理大型AI模型數據,而馬斯克已為推特購買了大約1萬個GPU。這一AI項目仍處於早期階段,但報道指出,一舉購置如此龐大的算力,也表明馬斯克對該項目的雄心壯志。
GPU價格並不便宜。以英偉達為例,其為大型AI模型生產的GPU價格高達1萬美元。知情人士透露,馬斯克為了這1萬個GPU「極有可能」花費了幾千萬美元,還多次抱怨推特財務狀況不穩定。
推特目前剩下兩個數據中心,這些GPU或將裝在其中的亞特蘭大數據中心。
曾聯名呼籲暫停更強大的AI開發
當地時間3月29日,美國非營利組織未來生命研究所(Future of Life Institute)發布了一封名為「暫停巨型AI實驗」的公開信。上千名人工智能專家和行業高管在信中呼籲,所有人工智能實驗室應當暫停對更強大的人工智能系統的開發和訓練。至少,暫停半年。他們建議,如果不能迅速實施這種暫停,「政府應介入並實行暫停」。
人工智能對社會和人類的潛在風險,已經成為不少科技人士的共識,其中包括「人工智能教父」傑弗里·辛頓、特斯拉和推特CEO埃隆·馬斯克、圖靈獎得主約書亞·本希奧。為此,他們在這封公開信上籤下了自己的名字。
「只有當我們能夠確信,AI體系的有利因素都是積極的,且風險都可控,一個強大的AI體系才能成熟。」公開信中這樣寫道。
因理念不合離開Open AI
這次馬斯克的對手,和他淵源頗深。
馬斯克是Open AI的聯合創始人之一,這家公司是他與Open AI首席執行官薩姆·奧爾特曼等人於2015年創立的。
Open AI成立之初是一家非營利組織,其任務是建立一個安全的人工智能環境,並確保這種普及的人工智能儘可能廣泛而平均地分布,使得多數人一同受益。
不過,馬斯克在2018年離開了Open AI,他公開層面的解釋是想專注於特斯拉的運營。
然而,有媒體報道稱,馬斯克與Open AI其他管理層發生了衝突,包括在對待AI安全的立場上,最終促使他離開了該公司。
Open AI在2019年轉為一家營利性初創企業,並從微軟獲得了10億美元的投資。微軟在今年1月又向Open AI提供了第二筆多年投資,據報道,這筆投資高達100億美元,用於獨家訪問GPT-4,為微軟自己的Bing Prometheus 模型提供支持。
-(來源:財聯社、公開信息;整理:李雲鵬*編輯:方鳳嬌/來源:華夏時報)