微軟、OpenAI 阻止俄羅斯、朝鮮的黑客使用 AI 大模型
(圖片來源:The Verge)
隨著 AI 技術迅速發展,黑客已經開始使用大模型來升級網絡攻擊技術。
钛媒體App 2月15日消息,美國科技巨頭微軟公司(Microsoft)昨夜在官網發布了一篇題爲“在人工智能時代領先于威脅參與者”(Staying ahead of threat actors in the age of AI)的研究文章。
微軟聲稱,他們與OpenAI 團隊共同研究發現,俄羅斯、朝鮮、伊朗等多國的黑客組織正使用ChatGPT等生成式 AI 工具進行目標研究、改進腳本和幫助構建社交工程技巧,從而改進和完善現有的網絡攻擊技術。
“網絡犯罪團體、國家威脅行爲者和其他對手正在探索和測試不同的 AI 技術,試圖了解它們對操作的潛在價值,以及可能需要規避的安全控制。”微軟在文章中稱。
微軟強調,AI 技術的進步使網絡安全和安全措施的需求增加。微軟要持續與OpenAI合作,不斷改進防禦措施,識別、檢測和阻止黑客的潛在惡意使用或濫用,並保護客戶的數據安全。
據悉,自2019年微軟向OpenAI投資數十億美元之後,兩家公司開始密切合作。尤其當ChatGPT發布之後,微軟成爲新一輪 AI 熱潮的重要受益者,該公司市值已超過蘋果公司,達3.01萬億美元,成爲全球市值最高的科技公司。
微軟透露,其與OpenAI對于這項研究的合作目標是確保安全、負責任地使用ChatGPT等 AI 技術,堅持道德應用的最高標准,以保護用戶免受潛在的濫用。
作爲研究的一部分,2023年,微軟研發了一種叫“Microsoft 威脅情報”産品,跟蹤300多個網絡攻擊行爲者,涵蓋160個國家/地區的行動者、50個勒索軟件組織等,每秒收集超過7500億個信號,使用複雜的數據分析和 AI 算法進行合成,以了解和防範網絡威脅和犯罪活動。
同時,截至2023年底,微軟招聘了全球超過10000名安全和威脅情報專家,包括工程師、研究人員、數據科學家、網絡安全專家、威脅搜尋者、分析師、調查員和一線響應人員等,有超過1.5萬個合作夥伴提供專業解決方案。在過去的2023年裏,微軟威脅情報平均每秒阻止4000個身份信息驗證的黑客入侵威脅,1.35億台托管設備提供安全方法服務反饋。
此次微軟和OpenAI的研究當中,主要提到以下四個黑客組織利用 AI 模型技術對網絡攻擊進行改進和升級,認爲這有可能會對國家造成一定威脅。
* Forest Blizzard (STRONTIUM),這是與GRU 26165部隊有聯系的俄羅斯軍事情報技術(組織),威脅活動涉及國防、運輸/物流、政府、能源、非政府組織 (NGO) 和信息技術等多個領域。研究發現,他們使用大模型(LLMs)“了解衛星通信協議、雷達成像技術和特定技術參數”。
* Emerald Sleet (THALLIUM) ,這是一個來自朝鮮的黑客技術(團體),在2023年一直保持高度活躍。他們使用大模型公開的研究報告漏洞,針對相關信息幫助和起草網絡釣魚活動內容,包括冒充知名學術機構和非政府組織引誘受害者回複有關朝鮮外交政策的專家見解和評論等。
*Crimson Sandstorm (CURIUM) 是一個來自伊朗的黑客組織,自2017年以來一直活躍在多個領域,涉及包括國防、海運、交通、醫療保健和技術。微軟稱,他們使用大模型生成網絡釣魚郵件甚至用于規避防病毒軟件檢測的代碼。
*Charcoal Typhoon (CHROMIUM) ,其組織也利用模型進行研究、腳本編寫、翻譯和改進現有工具。
具體到案例當中,微軟透露,有些黑客使用“聲音模仿”等方式,讓 AI 進行語音合成,三秒鍾的聲音樣本可以訓練一個聽起來像人的模型,從而攻擊和惡意騙取用戶重要隱私信息,“甚至你的聲音郵件問候語也可以被用來獲取足夠的采樣。”
事實上,隨著ChatGPT等多個文字、音視頻等多模態 AI 模型工具的出現,除了幫助更多人提升生産力之外,它還被一些不法分子創建惡意郵件、破解工具,利用 AI 技術進行網絡攻擊。美國國家安全局的官員曾警告稱,黑客正在使用 AI 使他們的網絡釣魚郵件看起來更可信。
不過,OpenAI 也強調,其發現GPT模型僅爲黑客組織提供“有限的增量”功能。微軟則強調,他們尚未檢測到使用大模型進行任何“重大攻擊”的方案。目前,微軟和OpenAI已經將相關黑客團體的賬戶和資産進行了關閉或凍結。
事實上,最近關于 AI 技術的詐騙案例呈現上升趨勢。
今年2月初,香港警方披露當地一公司財務職員遭遇DeepFake(深度僞造技術)詐騙,對方聲稱要進行機密交易,邀請參與多人視頻會議,最終接受假冒首席財務官(CFO)指示,當事人分15次彙款了2億港元,轉賬至5個本地賬戶。而當事人5天後向總公司求證,才發現被騙,並向警方報案。
據不完全統計,2020-2022年,國內 AI 詐騙案件數量共計 5 起,2023年全年 AI 詐騙案件增長到 16 起;同時,個案金額方面,用 AI 詐騙的涉案金額從2020年的最少3000元,到2023年達到430萬元。而香港警方此次披露的這起詐騙案,涉案金額提升至2億港元(約合人民幣1.82億元)。
*那麽,我們如何防範並解決 AI 詐騙問題?
微軟主要總結了兩個方面:一是該公司使用 AI 來應對 AI 攻擊,比如讓防護牆(網絡攻擊)技術更加複雜,用 AI 加強信息保護、檢測和反饋;二是通過“微軟Security Copilot”等的基于 AI 的網絡安全工具,檢測和幫助用戶識別漏洞,最終用軟件方式阻擋黑客攻擊。
多位國內安全方面專家曾總結了四個方法:首先,用戶可以在視頻時可有意識地引導對方做一些動作,如大幅度的搖頭或張嘴,以此發現對方面部邊緣或者牙齒的瑕疵;同時,你可以問幾個只有你們二人知道的私密信息,來核實對方身份;再次,盡量避免在公開平台大量曬自己或家人的照片和視頻,給不法分子提供便利;最後,及時更新和安裝安全軟件,進一步加強源頭的網絡安全管控。
“我們認爲這是一項重要的研究,以揭露黑客組織試圖通過 AI 進行早期、漸進的行動,並與客戶分享我們如何阻止和反擊他們的網絡攻擊。”微軟表示,未來將進一步增強 AI 大模型技術能力,從而幫助他們利用模型收集有關技術和潛在漏洞情報、尋找規避網絡攻擊的方法等。---(钛媒體/作者 : 林志佳|钛媒體AGI)