誰在反ChatGPT?
科技突破不止會帶來變革,往往也會帶來一些潛在的風險。
自ChatGPT發布後,無數的用戶和企業仿佛看到了「未來」,投入到了狂熱的擁抱。然而在硬幣的另一面,ChatGPT也在經歷一場「圍剿」。
在國家層面,繼意大利宣布禁用ChatGPT後,多國政府和企業開始調查或採取措施限制使用該軟件。在領域層面,包括喬治華盛頓大學、巴黎政治學院在內的全球多所高校,都已宣布禁止學生在其學校的設備和網絡上使用ChatGPT,以預防學生作弊的行為。
相比國家和某一領域,全球範圍內的不少大型企業,對於ChatGPT表現的更為「敏感」。
科技企業里,三星、軟銀、松下、LG、台積電、SK海力士等均已宣布對員工使用ChatGPT的限制。金融企業里,摩根大通已禁止其員工使用 ChatGPT。電商領域裡,亞馬遜也曾禁止團隊成員將機密客戶數據輸入ChatGPT......
多家企業之所以對ChatGPT保持非常謹慎的態度,甚至是限用,並非不明白生成式AI所意味着的時代機遇,而是在意ChatGPT對企業「隱私安全」造成的威脅。
企業越大, 數據安全 和隱私枷鎖余也會越重越牢固,自然也會更加謹慎地去對待類似ChatGPT的工具。
*大廠「禁用」ChatGPT
不久之前,三星推出了一項新政策,要求員工不得在工作場所使用OpenAI的ChatGPT和谷歌Bard等生成式人工智能。
目前,三星員工被禁止在公司設備上使用人工智能工具,包括電腦、平板電腦、手機等。但員工仍可以在個人設備上使用人工智能工具,不過僅限於與工作無關的事情。備忘錄中還強調,要求員工認真遵守安全準則,若違規並導致公司信息或數據泄露的話,員工將得到紀律處分,情節嚴重者將被解僱。
事實上,在三星這項「嚴厲」的新政策之前,全球範圍內,不少企業便陸續發布了「限制」自家員工使用ChatGPT的公告。
首先對ChatGPT發出「不友好」聲音的企業,來自金融行業。
ChatGPT掀起熱潮不久後,今年2月,JP 摩根大通 、 美國銀行 、花旗、 富國銀行 等華爾街巨頭陸續表示將禁止或限制使用ChatGPT。據了解, 摩根大通 不准員工在辦公室使用ChatGPT,其表示,有關禁令並非源自任何特定事件,而是基於公司對第三方軟件的正常管控。
美國銀行 例行提醒員工切勿使用未經授權軟件時,也特別點名提到ChatGPT。 德意志銀行 更是表明,嚴禁員工在公司內用ChatGPT,並從內部阻斷連接OpenAI網站。而儘管 高盛 鼓勵編程人員採用AI來輔助編程,但禁止旗下交易員使用ChatGPT。
日本方面,軟銀、日立、富士通、日本瑞穗金融集團等企業也開始限制ChatGPT等交互式人工智能服務在商業運作中的使用。
相比金融行業,科技行業的動作絲毫不慢。
今年3月初,台積電發布了一系列內部公告,提醒員工謹慎使用網絡工具如ChatGPT或Bing AI Chat等。除三星外,同屬韓國企業的全球第二大 存儲芯片 巨頭SK海力士亦稱「除必要時刻外」,禁止公司內網使用ChatGPT。
不可否認,ChatGPT這樣的生成式AI對提高工作效率很有幫助,但對於這樣一個還不足夠成熟的AI工具來說,它所展現出的負面效應,並不小於它的正面效應。就如同一把雙刃劍,在沒有「劍鞘」作為一種保護機制出現之前,對於ChatGPT的「圍剿」絕對不會停止。
能夠預料的是,禁用ChatGPT的企業,仍然會持續增加。
*數據安全是核心原因
ChatGPT的火爆,實際上是「深度學習」大模型的成功。
生成式AI工具,離不開大數據的幫助。它的進化,需要海量的數據來訓練,通過感應器採集數據,進行信息存儲、加工,通過算力進行計算,最後形成決策機制,進行反饋。龐大的數據訓練,造就了ChatGPT強大功能,但這也意味着,ChatGPT實際上在不斷地接觸各種對話,其中可能包含相關的敏感信息。
無論是個人、企業,還是國家層面,機密數據、文件隱私,都有可能在使用過程中被ChatGPT採集到,從而被大規模地擴散。這些數據的泄露,也很有可能會對個人、企業,甚至是國家造成重大的損失。
三星無疑是一個典型的「受害者」。
據了解,今年3月三星的半導體事業暨裝置解決方案事業部(DS)部門允許員工使用ChatGPT,隨後20天內就發生了三起將公司內部半導體數據上傳到ChatGPT的事件。
其中,員工A用ChatGPT幫自己查一段代碼的bug;員工B想用ChatGPT幫自己優化一段代碼;員工C想先用AI語音助手Naver Clova將自己的會議錄音轉成文字,再用ChatGPT幫他總結一下會議內容,做成摘要。
前兩起案件已分別導致三星公司的半導體設備測量資料、產品良率等機密內容錄入到ChatGPT的學習資料庫中,這讓三星很是擔憂其數據將通過人工智能平台最終落入其他用戶手中。
不止三星,數據安全服務Cyberhaven曾檢測到並阻止了其客戶公司160萬名員工中,4.2%的人將數據輸入ChatGPT的請求,因為存在泄露機密信息、客戶數據、源代碼或監管信息的風險。
Cyberhaven還發現,隨着ChatGPT的應用率越來越高,給它上傳企業數據的打工人數量也越來越多。一天之內(3月14日),每10萬名員工就平均給ChatGPT發送了5267次次企業數據。
來源:Cyberhaven
Cyberhaven數據顯示,在員工直接發給ChatGPT的企業數據中,有11%都是敏感數據。例如在一周內,10萬名員工給ChatGPT上傳了199份機密文件、173份客戶數據和159次源代碼。
和三星一樣,所有「限用」ChatGPT的企業,無論處於什麼領域,基本都是出於數據保護的考量,都非常擔憂第三方軟件訪問敏感信息帶來的風險。畢竟ChatGPT所處理的數據通常具有多樣性和複雜性,其數據的收集、存儲、傳輸、處理等各個環節,都存在「合法性」問題。
隨着ChatGPT在自然語言處理領域的廣泛應用,人們面臨數據安全和隱私保護的挑戰,正變得越來越巨大。
*機遇與風險並存
技術發展史,也是人類的一部恐懼史。
15世紀的德國學者面對剛剛發明的古騰堡印刷機非常擔憂,認為這會讓他們有永遠也無法讀完的文獻,而他們的作品也不再稀缺,而且會導致大量抄寫員失業。
再到 工業革命 時期的「盧德運動」,工人們拆除編織機的關鍵零件,襲擊倉庫,並威脅採取更多的暴力行動。實際上這些操作機器的工人非常清楚設備的生產效率,他們採取行動並非針對機器,而是針對廠方降低工資、裁撤崗位和忽視生產安全的做法。
新技術問世後總會有一段過渡期,這也是社會對它關注最密切的時期。ChatGPT展現出的能力很強大,讓很多企業開始積極擁抱,也讓很多企業感到「害怕」。
數據安全問題的確是不得不提防的一點。越是大公司,或者越是有着 數據安全 和隱私枷鎖的公司,越會謹慎地去對待類似的工具。三星的做法算是「穩妥」的,畢竟大型企業除了內部數據,更重要的是掌握着很多客戶數據,一旦發生了數據泄露事件,後果不堪設想。
只是,有時候提防和運用並不衝突。
如何才能既能擁抱機遇,又能化解風險?對於這些大企業們來說,目前似乎只有一條路可選,即研發出自己ChatGPT。這樣不僅解決了風險,還能提高企業員工的工作效率。以三星來說,雖然「限用」ChatGPT,但並沒有完全禁止使用。
為了避免內部信息泄露,三星計劃開發自己的內部AI工具,供員工完成軟件開發和翻譯等工作。此外,三星還向旗下所有的手機以及平板電腦產品推送了微軟Bing AI更新,在這一更新完成後,三星用戶可直接通過手機或者平板使用微軟Bing AI。
圖:三星手機內嵌微軟Bing AI (語氣使用)
除了企業的主動防範,ChatGPT無疑也需要加強對用戶隱私的保護,包括匿名化處理、數據去標識化、隱私保護算法等。特別是在數據共享和開放研究方面,ChatGPT需要遵循相關法律法規和倫理準則,採取有效的隱私保護措施,保障用戶的隱私權益。
此外,ChatGPT需要積極參與到數據安全和隱私保護的標準制定和監管政策建設中。通過制定統一的數據安全和隱私保護標準,加強監管和法律保障,促進數據共享和合作,從而更好地保護用戶的隱私和數據安全。-(來源:鋅財經/金融界)