從ChatGPT數據泄露事件,看組織安全穩定自動化的重要性
有圖有真相的時代,徹底一去不復返。
荷蘭的一個AI繪圖玩家,用幾張「特朗普被捕」照片生動演繹了什麼叫作AI生萬物。那些清晰到毛孔可見的照片,告訴我們沒有圖片是AI不能生成的。
有了這些圖片的啟發,很快馬斯克就擺起了地攤,愛因斯坦也站在了印度街頭。
這些圖片的背後是沒有繪畫功底的玩家,玩家的背後則是正在顛覆設計界的生成式AI繪圖工具Midjouney。
整個圖片生成的過程都與繪畫沒有任何關係,生成的圖片卻比各種人工繪圖更加真實。整個創作圖片的遊戲規則,都被基於AI大模型的生成式AI改變了。
新的遊戲規則不只改變了創作過程,更改變了很多企業的設計業務流程,現在砍掉原畫團隊的遊戲公司比比皆是。僥倖留下的設計師們,一邊在隨時被裁員的恐懼中瑟瑟發抖,一邊廢寢忘食學習AI繪圖。
企業同樣感受到了遊戲規則改變帶來的恐懼。他們不只使用Midjourney、Stable Diffusion等繪圖工具,更是積極地引入名聲更響亮的ChatGPT。
ChatGPT所帶來的效率提升與成本下降顯而易見,只是很多企業現在更加恐懼了。恐懼的原因,不只是因為ChatGPT發現了數據安全漏洞,更在於很多企業的員工在與ChatGPT交互時泄露了大量的敏感數據。
這些數據,都已經上傳到ChatGPT的服務器,並且有很大可能被用於模型訓練。
三星公司就正在為此頭痛不已。他們已經擁有三次敏感數據泄露的先進經驗。「用ChatGPT學習先進芯片製造技術」也已經成為一個梗,用來表述使用ChatGPT所付出的代價。
有了三星的前車之鑑,現在已經有很多公司開始禁用ChatGPT。大型公司的集體舉動,讓對數據敏感的金融機構迅速跟進,美國、日本等多地的多家金融機構都已禁用ChatGPT。連鎖反應更是影響了多個國家,意大利、德國等都在禁止和調查ChatGPT。
目前廣大組織對於ChatGPT所帶來的安全風險,主要集中在與之交互後所造成的敏感信息泄露方面。交互得越多泄露數據的可能性也就越大,而想要生成更符合需求的內容就需要更多的信息。更高效率與更大風險的矛盾,成了廣大組織為之撓頭的問題。
從自動化角度而言,ChatGPT等生成式AI的優勢之一,便在於其所帶來的更加直接與顛覆的業務自動化。但近期ChatGPT的大量封號、安全漏洞、數據泄露以及被各國封禁,對引入ChatGPT的組織運營帶來了很大的不穩定性,嚴重者上甚至影響企業正常運營。
可見,在流程自動化已經成為企業標配的當下,安全穩定的自動化真的太重要了。
出現這麼多問題,是不是意味着ChatGPT以後就不能使用了?又該如何實現安全穩定的自動化?本文,王吉偉頻道就跟大家聊聊這些。
*ChatGPT負面消息不斷
3月底,網上流傳了一份似是而非的針對GPT-5研發的請願信。
大體內容是,未來生命研究所(Future of Life Institute)公布了一封請願信,呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。同時,該公開信寫道,廣泛的研究表明,具有與人類競爭智能的人工智能系統可能對社會和人類構成深遠的風險。
據說,這封信有一千多名科技人員簽名,除了馬斯克、谷歌副總裁兼工程研究員辛頓和Robust.AI首席執行官兼創始人馬庫斯之外,還包括蘋果公司聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)等人。
之所以說它似是而非,是因為這封信發出後便引發質疑,被指簽名造假、誤導公眾以及推動AI炒作。甚至有消息說這封信是由AI生成的,用AI生成勸阻AI研發的請願信,是不是有些諷刺?
或許為了給此事推波助瀾,還有人在設置一定條件後,詢問ChatGPT想對人類做的第一件事情是什麼,得到的答案是:毀滅人類。
當然,這個問題也很有可能是由AI生成的。特朗普和馬斯克出現在各地街頭的圖片告訴我們,AI時代大家圍觀的再也不可能是真相,因為用AI造假的成本比學習P圖技術低太多。
但不管真假與否,似乎是「請願信」起了作用,美國相關部門還是召開了專項會議。
據美聯社報道,美國總統拜登於當地時間4月4日在白宮與科技顧問舉行會議,討論人工智能給人類、社會和國家安全帶來的「風險和機遇」。會議上,拜登重點討論了保護權利和安全的重要性,以確保負責任的創新和適當的保障措施,並呼籲國會通過兩黨隱私法以保護孩子,以限制科技公司收集所有人的個人數據。
這個會議,意味着在OpenAI激進的商業化推進之下,以ChatGPT為代表的生成式AI的野蠻發展受到了高層重視,當然也預示着各種監管、整頓和改進也將落到這些AI企業的頭上。
所以,不只是國內在整頓ChatGPT等生成式AI爆發後引起的各種亂象,各國都在數據安全層面發布了不同程度的法規政策。
3月31日,意大利個人數據保護局宣布,即日起暫時禁止使用聊天機器人ChatGPT,並表示已對ChatGPT背後的OpenAI公司展開調查。
意大利封禁ChatGPT所援引的法律工具是歐盟《通用數據保護條例》(GDPR),除了大型互聯網公司,GDPR也能拿來監管新出現的人工智能公司。需要說明的是,歐洲的隱私監管機構往往獨立於政府,在隱私保護上權力很大。
歐洲對於數據安全有很高的敏感性,對於涉及到的相關技術及產品如果有很大的爭議,一些國家便會快速跟進。
法國和愛爾蘭的隱私監管機構已經與意大利的同行聯繫,以了解更多關于禁令的依據。西班牙的監管機構也表示,不排除未來會對ChatGPT進行調查。
德國政府發言人曾對媒體表示,沒有必要禁止ChatGPT,但很快德國聯邦數據部門就表示可能會效仿意大利,出於對數據安全保護的考量而選擇禁止ChatGPT。
相信有三星半導體數據泄露的前車之鑑,有奔馳等大型企業的德國不可能對此視而不見。
還有一些國家尚未公布相應的法規政策,但廣大企業都開始謹慎對待ChatGPT。生成式AI尤其是ChatGPT所帶來的數據安全等問題正在引起他們的擔憂,甚至已到了禁用ChatGPT的地步。
*危害比預想的大
3月23日,ChatGPT首次遭遇了重大個人數據泄露。
不少推特網友爆料,在ChatGPT網頁左側的聊天記錄欄中出現了他人的聊天記錄內容,一些用戶甚至可以看到活躍用戶的姓名、電子郵件地址、支付地址、信用卡號等信息。
即便OpenAI很快就修復了漏洞,並在第二天發布了聲明向用戶和整個ChatGPT社區致歉,但這個事件也讓很多人開始擔心隱私泄露。尤其是那些把ChatGPT當作情感陪護的用戶,不知道對ChatGPT傾訴了多少隱私,怕是目前仍在瑟瑟發抖。
此事件更讓用戶意識到,OpenAI的安全係數並沒有那麼高。聊得越多,發送到OpenAI服務器上隱私數據也就越多,這些數據有可能被拿去用於訓練AI模型。一些人看在ChatGPT能夠帶來極大方便的份上也就忍了,但如果哪一天ChatGPT被黑客入侵,自己隱私數據也將被盜走,後果可想而知。
同樣在為數據泄露發愁的,還有三星公司。
三星因使用ChatGPT造成數據泄露的事情,現在已經成了典型案例。該公司從3月11日起向其半導體部門的員工授予ChatGPT的使用權限(其他部門仍被禁止),三星的員工向 ChatGPT 提問各種問題以提升工作效率。
由此,三星的機密數據就不知不覺地泄露了,短短幾周就發生了三起。這三起事件分別是:用ChatGPT優化測試序列以識別芯片中的錯誤;用ChatGPT 將公司有關硬件的會議記錄轉換成演示文稿;用ChatGPT修復專有程序的源代碼錯誤。
每個事件,都涉及了不少企業經營的敏感數據。
三星員工與ChatGPT交互的問題都要上傳到OpenAI的服務器,由於ChatGPT保留了用戶的輸入數據來進一步訓練自己,也就是說三星的這些商業機密現在實際上掌握在了OpenAI的手中。
網友調侃,三星再發生幾次數據泄露事件,大家就可以用ChatGPT學習製造高端芯片了。
ChatGPT提升工作效率的效果是顯著的,但是所造成的商業損失也可能是巨大的。所以企業在使用ChatGPT之前一定要制定使用規範,並對員工進行充分的提醒和培訓,讓其知曉哪些信息不能與ChatGPT進行交互。
目前三星部門仍在使用ChatGPT,並開發出內部AI工具將能夠輸入的prompts限制在 1024。只是,被限制的ChatGPT又能發揮多少效能?
對於是否繼續使用這樣一個「殺敵一千可能自傷一萬」的超級AI工具,三星應該已經心有定計。該公司已經再三聲明若未來再發生類似事件,將禁止使用ChatGPT。
*生成式AI躲不開的安全問題
嚴重警告或者禁止使用ChatGPT的大型企業,已經不止一家。
亞馬遜律師曾警告員工,不要與ChatGPT分享任何亞馬遜的機密信息包括正在編寫的代碼,因為這可能會將其用於訓練未來的模型。
在金融領域,美國銀行、花旗集團、德意志銀行、高盛集團、富國銀行、摩根大通和Verizon等多家機構,均已經禁止員工使用ChatGPT處理工作任務。
日本的軟銀、富士通、瑞穗金融集團、三菱日聯銀行、三井住友銀行等,也限制了ChatGPT的商業用途。
終究是搞金融的企業對數據更加敏感,在可能的損失與高效率之間,集體選擇了前者。
目前的很多事件已經對外昭示,ChatGPT給企業帶來的風險比想象中的高很多。
除了個人隱私和企業敏感數據泄露,上線不到5個月的ChatGPT,已經成功讓全球很多用戶已經對它產生了很大的依賴。
一些人已經對ChatGPT產生了依賴症,主要表現為ChatGPT崩潰24小時期間全球用戶的叫苦不迭,以及Plus用戶瘋漲和更大API調取需求所帶來的OpeanAI算力吃緊以至暫停1天時間的Plus會員升級與充值服務。
雖然這種依賴已造就了巨大的市場,但它同時也意味着更多的數據被上傳到OpenAI服務器。比如讓ChatGPT進行代碼修復、表格生成、PPT製作等操作時,相關數據可能就會泄露企業的各種數據與隱私,有些企業甚至並未察覺。
還有一種可能在於,雖然AI只是一種輔助工具,但當更多的人更加依賴這些更加智能的AI工具時,人們的創造性思維或許也將停步不前。而相對於人類的止步,AI卻在大步前行。
一直有傳聞OpenAI的GPT-5沒有快速發布,是因為他們還在對它的快速進化做更多的限制性功能設置,就連OpenAI的CEO都在擔心它可能會產生自我意識。
但最近又有消息透露GPT-5會在12月完成訓練,OpenAI的激進做法,讓很多人和組織感覺似乎留給人類的時間真的不多了,所以一些組織要求GPT-4推遲GPT-4商業版的發布還是有道理的。至少,要留給人類一些時間能夠跟上並管控AI的時間,不然它就會像一頭脫韁的野獸,變得難以控制。
關於AI的未來發展的人文與倫理,我會在另一篇文章中跟大家探討,這裡就不展開敘述。
生成式AI的數據泄露再度引起了人們對隱私計算和數據安全的探討。目前而言解決隱私泄露的方法有兩個:一是加強數據安全保護防患於未然,二是通過合成數據從根本上解決數據隱私問題。
其中合成數據算是一個新的思路,它是由計算機人工生產的數據,來替代現實世界中採集的真實數據,以保證真實數據的安全,不存在法律約束的敏感內容和個人用戶的隱私。
目前廣大廠商已經在布局這一領域,合成數據數量也正在以指數級的速度向上增長。Gartner數據顯示,2030年合成數據將遠超真實數據體量,成為AI數據的主力軍。
但即便合成數據發展再快,卻解決不了眼下ChatGPT所帶來的安全問題。所以,穩定且安全的智能自動化就顯得更加重要。
*穩定安全自動化的重要性
從企業經營角度來看,人工智能所帶來的最大優勢體現在自動化上。或者說藉助AI技術,可以讓自動化進行得更加徹底。不管是更好的處理數據還是助力運營決策,給予大家最切實的反應就是很多業務可以自動化運行,帶來可觀的效率與成本。
所以,自動化是企業剛需,AI則可以賦能自動化在不同階段更好地服務企業。在兩者技術的發展進程中,AI技術每實現一定突破,都可以大幅提升自動化在穩定性、適應性、易用性、安全性等各方面的能力。
RPA與AI技術的融合就是一個典型,現在所有RPA產品都已經演變成為深度融合AI技術的智能自動化或者超自動化,在更多業務場景的流程自動化中扮演着越發重要的角色。
所有AI技術,都會通過直接或者間接的方式為組織經營提供不同程度的自動化。現在而言,以ChatGPT、Midjourney等為代表的基於大模型的AI應用,對企業最大的影響也是通過自動化生成各種內容和應用快速變革一些應用場景的業務流程,直接替代一些複雜流程,或者讓流程自動化變得更加簡單和純粹。
同時生成式AI與智能自動化相互協同,也讓企業打造的人機交互自動化層的運行效率更高。
生成式AI所帶來的企業運營變革是巨大的,但潛在的安全因素也是目前其所遇到的最大挑戰。
這個挑戰說起來挺嚇人,但在王吉偉頻道看來將之放到業務流程之中,並不是說數據泄露讓企業如何忌憚,而是這種風險所造就的不穩定自動化,開始讓大家重估引入生成式AI技術的必要性。
這裡所說的穩定自動化,不只是軟件系統的穩定運行,還包括數據安全、環境影響、政治因素、地域限制、代理應用等各種可能影響穩定運行的因素。
對於一項新技術的引入與應用,如果不考慮各種風險,就會出現很多問題。比如最近有個創業公司就因為引入了ChatGPT而大刀闊斧的裁員,結果前幾天ChatGPT大面積封號,以至於公司不能正常運轉了,重新開始招聘。
在這一波封號潮中,很多正規公司的賬號都難以倖免,或多或少會影響企業的經營。
*通過自動化系統控制生成式AI
相對於ChatGPT在數據泄露等方面的不穩定,目前正在流行的基於RPA、低代碼、流程挖掘、NLP、OCR、DPI、ChatGPT等的智能自動化和超自動化解決方案就穩定的多。
在生成式AI之前,智能自動化已經實現了對話式流程創建,通過關鍵詞指令觸發去創建流程。現在很多RPA產品都已經集成了GPT,主要應用是通過自然語言交互生成各種流程創建和執行各種命令。
用生成式AI驅動部署在本地或者雲服務上的智能自動化執行業務操作,比如讓RPA執行表格創建等,遠比直接用ChatGPT在雲端生成相關內容再返回要安全得多。
一定程度上,這種模式也算是應用生成式AI但把數據泄露風險降到最低的解決方案。如果企業能夠像三星一樣開發內部AI工具對交互內容做一定的限制,安全係數可以做到更高。
人為因素導致數據泄露在數據安全中占了很高的比重,生成式AI則把這個因素進一步放大了。畢竟要生成更符合需求的內容就要給他一定的數據,有人甚至會給它餵十幾本書。給他的數據越多,泄露數據的風險也就越大。因此把操作人員的行為規範做好並進行一定的監管,可能比想盡辦法限制技術更重要。
王吉偉頻道認為,現階段如RPA集成ChatGPT這樣,基於已有自動化系統和相應的技術限制並間接使用生成式AI,對於穩定的自動化有着一定的必要性。三星SDS早已集成了GPT,如果推廣使用的是RPA+GPT的解決方案,相當於在員工與ChatGPT之間加入了一個中間隔離層,數據泄露問題可能也要小得多。
在企業數據安全方面,很多企業服務領域的廠商都會引入相應的安全標準及認證,通過外部審查、內部自查等方式完善自身以及所提供的服務的安全體系。大型廠商以及融資到C輪以後頗具規模的創業公司,也會引入相應的安全規範。
以RPA廠商而言,像來也科技、弘璣Cyclone等已在安全方面會引入SOC 2、ISO 27001等多項安全相關的認證。
這些認證,可以保證企業在運營中能夠遵守相關規範,也保障了他們對外輸出的產品和服務的安全性。而在這個基礎上打造的智能自動化+生成式AI的解決方案,可以讓自動化更加穩定。
所以從這個角度而言,「軟件系統+生成式AI+數據安全」的自動化解決方案,或許更容易被廣大企業所接受。
後記:技術應用適當取捨
說到最後,上述種種情況,似乎就是一個軟件或者解決方案的全生命周期問題。你要為企業提供服務,就要為用戶進行全方位的考慮。既然大家想要應用生成式AI,自然要解決用戶的所有顧慮。
相信過不了多久,OpenAI或者微軟也將會解決這個問題,生態商家們也會推出完善的解決方案。不然,ChatGPT在領域的落地與應用將是一個大問題。
同時除了直接調用API,OpenAI還可以與廣大企業合作進行模型部署與微調業務,讓大型企業能夠在本地或者自有雲系統上部署自己的模型,否則在數據安全隱患的影響下大部分企業都會望ChatGPT生嘆了。
所以相對ChatGPT,百度文心一言幫助企業構建自己的模型和應用的模式,將會更受廣大組織的歡迎。
事實上,這個世界本來就沒有絕對的安全,使用什麼樣的技術、工具乃至於人,都會伴隨着一定的風險。這個前提下,大家要做的,也就是在價值或者利益思考之後的取捨,僅此而已。
這樣想的話,是不是就簡單多了。-(文:王吉偉/鈦媒體)