不堪忍受AI技術性犯罪,韓國女性求援中國互聯網?
利用“深度僞造(Deepfake)”技術所實施的性犯罪日趨猖獗,成爲當前韓國國內輿論風暴的中心,被視爲“N號房”醜聞的翻版。據報道,目前海外通信軟件“電報(Telegram)”中,傳播著無數女性被AI生成“換臉”的“性影像”,其中參與犯案者多達22萬人,引發韓國民衆恐慌。
韓國受害者們爲尋求該事件的能見度最大化,在海外平台上不斷上傳帖文求助,部分受害者也來到中國的社交媒體軟件“發聲”,呼籲更多人關注此事件。
“深度僞造”AI換臉示意圖。---圖源:光明網
* 每個人都可能淪爲受害者 :“深度僞造”技術泛濫、擁有“私密”性的社交平台成翻版“N號房”
今年5月,韓國的一則報導,揭開了“深度僞造”性犯罪事件的冰山一角。
首爾大學畢業生樸某和姜某,從2021年7月至2024年4月的3年多裏,盜用女性同學、熟人的照片,用“深度僞造”技術換臉合成色情制品,在“電報”上建立了近200個網絡聊天室進行傳播,警方稱,樸某共參與制作、傳播約1700份非法照片和視頻,受害女性多達61人。這則報道,將“深度僞造”性犯罪,拉進韓國民衆的視線。
什麽是“深度僞造(Deepfake)”技術?
“深度僞造(Deepfake)”是一個合成詞,是人工智能(AI)領域由“深度學習”(deep learning)和僞造(fake)合成的一個詞彙。該技術使用人工智能生成技術,將個人的聲音、面部表情及身體動作拼接合成虛假內容。用該技術形成的圖像與視頻,看起來非常逼真,難以識別其真僞。
事實上,“深度僞造”技術(Deepfake)的泛濫使得韓國女性的受害者數量以及受害者性影像的傳播力度較“N號房”事件更上了一個台階。“深度僞造”技術的特性,意味著每一個個體都有可能成爲受害者。只需要上傳受害者照片,就能夠輕易將其“換臉”制造一段不堪入目的性影像。
值得注意的是,該事件中性影像的傳播平台與“N號房”事件一樣,仍然是海外社交媒體平台“電報”。該平台可以提供加密消息傳遞、“閱後即焚”等功能,擁有較爲“私密”的特性,也因此成爲犯罪行爲的溫床。
在“電報”平台中,存在一些付費的“深度僞造”頻道,男性訂閱用戶提供女性照片,付費後便能夠獲得由“深度僞造”技術制成的性影像。某些群組甚至要求參與者通過向受害者發送僞造照片,以及分享受害者的反應,來換取群組的“入場券”。相關群組參與人數不等,少的幾百上千人,多的超過十萬人。
在此過程中,加害者還毫不猶豫地公布受害女性的身份,威脅受害者,索要錢財。
* “深度僞造”性犯罪像 “遊戲” 那般---在韓國青少年間蔓延
如此涉及性犯罪的行爲,卻在韓國青少年中像“遊戲”那般蔓延。
* 其中,不乏青少年因爲“只是覺得有趣”“只是在開玩笑”“用熟人的照片P圖更真實”等原因,使用“深度僞造”技術制造、傳播甚至是販賣性影像。加之“電報”等社交媒體的匿名性,犯罪者更加有恃無恐,甚至出現了“只有傻瓜才會被警察逮住”的言論。
許多“電報”群組都是按學校名稱或地區分類,以便用戶輕松識別共同的熟人並制作可以分享的“深度僞造”性影像。若想要進入這些組群,不少用戶被要求提供一名女性的照片,這些照片通常是從女同學的社交媒體賬戶中截取。
8月27日,韓國總統尹錫悅就“深度僞造”犯罪行爲發表講話稱:“最近,在社交媒體上,針對不明人數的‘深度僞造’視頻迅速傳播。受害者通常是未成年人,而施暴者大多是青少年。”尹錫悅還表示:“雖然‘深度僞造’犯罪的托詞是單純的惡作劇,但這是在匿名的遮羞布之下惡意利用技術的明確的犯罪行爲……任何人都可能成爲受害者。”
韓國總統尹錫悅。---圖源:《環球時報》
韓國警方稱,今年前七個月共報告了297起色情相關的“深度僞造”犯罪案件,高于去年的180起,幾乎是2021年數據首次整理時的兩倍。在178名被指控的人中,青少年涉案者超六成(113人)。
首爾警察廳官員表示,許多青少年因過度依賴信息技術,缺乏相關法律意識,參與制作和傳播“深度僞造”內容,導致校園內此類犯罪行爲泛濫。警方計劃與教育部門合作,強化學校的數字性犯罪預防教育,包括告知學生分發非法合成材料是嚴重犯罪,以加深學生對數字性犯罪的認識。
* “深度僞造” 性犯罪引恐慌---韓國女性求援中國互聯網
連日來,有幾位韓國女性在中國社交平台發文求助。有微博用戶發布帖文指出:“在韓國發生‘N號房’事件時,幾乎沒有加害者被捕,也沒有披露加害者的名單。”因爲害怕此次事件也會安靜地過去,這名用戶因此發帖,希望中國朋友把這件事傳播出去。
部分韓國女性網友在微博發出帖文後,“N號房2.0”“韓國deepfake”等詞條沖上微博熱搜榜。
針對“深度僞造”犯罪在韓國引起恐慌,中科院女工程師張欣怡表示:經團隊同意,已將近期參加在上海舉辦的外灘大會AI創新賽·全球deepfake(深度僞造技術)攻防挑戰賽的AI模型向全球開源,讓所有有需要的人都可以免費使用模型來對抗deepfake,希望通過技術手段,爲每一個可能受到傷害的人提供保護。
“我們不會停止對這類行爲的追究,更不會放棄對技術的探索和完善。”張欣怡還表示:“既然有人利用技術造假,那麽我們也要利用技術去阻止他們得逞。”--[作者 : 程淩宇,深圳衛視直新聞主筆/來源: 直新聞 ]
*韓國再現“N號房”事件,大量Deepfake性犯罪引恐慌,超500所學校受影響*
智東西9月4日消息,據BBC 9月3日報導,近期即時通訊軟件Telegram出現了大量使用深度僞造技術的性犯罪事件,這些事件已經影響到了韓國500多所學校。目前,受影響的具體人數尚未確定。據悉,許多涉案的犯罪嫌疑人是青少年。
上周,韓國政界人士和警方承諾將對這些罪行進行徹底調查,並確保將肇事者繩之以法,以做出強有力的回應。
周一,韓國首爾國家警察廳宣布,將調查Telegram在允許分發非法使用深度僞造技術制作的兒童色情圖片方面的責任。
據《環球時報》援引韓媒報道,針對女性的深度僞造犯罪在韓國日趨猖獗,不僅大學校園中出現此類案件,甚至連中小學、軍隊等場所也成爲高發地。社交媒體上,特別是Telegram群組中不斷有受害學校及被害者信息流出。
韓國男性頻頻使用AI技術,將熟人女性的照片換臉到現有的色情視頻中,並在Telegram上進行傳播和戲弄。
此前震驚世界的韓國“N號房”事件,正在頻繁“更新”2.0乃至3.0版本。
一、用戶利用Deepfake AI制造虛假露骨視頻,女性肖像權受到侵犯
上周六,大學生Heejin(化名)收到了一個匿名Telegram消息,聲稱她的照片和個人信息被泄露。對方發送了一張她的照片和一張經過深度僞造技術處理的不雅圖片,後者將她的臉非法合成在了一張具有性暗示的圖片上。
在接受BBC采訪時,Heejin表現的很自責:“我一直在想,是不是因爲我把照片上傳到了社交媒體,才導致了這樣的事情。”
事實上,Heejin並不是唯一的受害者。
韓國記者Ko Narin在此前的調查中就在Telegram上發現了數十個聊天群組。
在這些群組中,用戶分享他們認識的女性的照片,並使用AI軟件在幾秒鍾內將這些照片轉換成虛假的色情圖片。
Ko告訴我們:“每時每刻都有人上傳他們認識的女孩的照片,並要求將她們變成深度僞造的照片。”
▲深度僞造聊天群組的說明,“如果你要求羞辱某人(進行深度僞造),我們會這樣做。”(圖源:BBC)
此外,Ko還發現,這些群組的目標不僅限于大學生,還包括特定高中甚至初中的學生。
如果很多內容是使用特定學生的圖像創建的,該學生甚至可能擁有自己的“專屬房間”。
這些房間通常被稱爲“羞辱室”,它們往往設有嚴格的進入條件。
Ko說:“我對這一過程的系統化和組織性感到震驚。”
她發現的最可怕的事情是,一所學校的未成年學生群組竟然擁有2000多名成員。
截至上周末,已經有500多所學校被確定受到影響。受影響的實際人數仍有待確定,但據悉許多人的年齡都在16歲以下。
▲截至1日,據信發生了深度僞造性犯罪的韓國學校(圖源:《韓民族日報》)
二、深度僞造犯罪涉案人數約達22萬,民衆擔心受害者規模繼續擴大
Heejin事件後,韓國全國各地的許多女性出于對自己可能成爲下一個被利用對象的恐懼,已經從社交媒體上刪除了自己的照片或完全停用了賬戶。
早在此次事件之前,ACOSAV(韓國網絡性虐待受害者維權中心)就已經注意到,深度僞造色情內容的未成年受害者人數急劇上升。
2023年,他們輔導了86名青少年受害者。而今年才到8月份,這一數字就躍升至238人。上周,在一周內就出現了64名青少年受害者。
對此,ACOSAV呼籲加強立法和公衆教育,以保護未成年人免受此類AI技術的侵害。
據《韓民族日報》報導,截至目前,韓國全國涉及深度僞造犯罪的人數估計可能達到22萬。這種情況導致許多女性感到不安和恐懼。
據悉,深度僞造技術的核心過程主要包括四個步驟:數據收集、模型訓練、Deepfake合成和渲染。
創造深度僞造的核心是生成對抗網絡(GAN),它由兩個神經網絡組成:生成器負責創建虛假圖像或視頻,而鑒別器則評估它們的真實性。
隨著生成器和鑒別器的持續優化,深度僞造越來越難以被肉眼識別。
ACOSAV負責人Park Seonghye表示:“對我們來說,這是一場全面的緊急事件,其緊迫性堪比戰爭時期。隨著最新深度僞造技術的出現,現在僞造的錄像數量遠遠超過了以往,我們擔心這種情況只會愈演愈烈。”
《福布斯》稱,深度僞造技術常將真實人臉疊加在僞造或真實的色情材料上,導致許多年輕女性和女孩成爲受害者,這已成爲韓國公衆極爲憤怒的焦點話題。
▲Deepfake醜聞曝光後,韓國民衆上街表示憤怒---(圖源:BBC)
大學生Ah-eun說:“我現在無法確定,是否會有人在我不知情的情況下對我做出不當行爲。因此,我在與人交往時變得高度警惕,這並不是一個好現象。”
三、韓國將加大對深度僞造性犯罪的監管力度
韓國女權組織承認,新的AI技術使得剝削受害者變得更加容易。但他們認爲,這不過是韓國網絡上最新形式的厭女症的體現。
由84個婦女組織共同簽署的一份聲明中寫道:“造成這一現象的根本原因是結構性性別歧視,而解決之道則是性別平等。”
這是對該國總統尹錫悅的直接批評,他否認結構性性別歧視的存在,削減了對受害者支持團體的資助,並正在廢除政府的性別平等部。
此前,也有人批評韓國對深度僞造犯罪者的懲罰力度不足。
其中一個主要問題是,大多數犯罪者爲青少年,他們在青少年法庭受審,而那裏的判決通常較爲寬松。
《韓民族日報》稱,韓國性暴力救助中心主任認爲,在學校、家庭等日常生活場所,非法拍攝、傳播、合成、性侮辱等現象頻繁發生,嚴重影響了女性的安全感。他強調:“現在是需要通過教育和平台監管等措施,加強組織合作來解決問題的時候了。”
與此同時,韓國政府表示將加強對創建和分享深度僞造圖像行爲的刑事處罰,並計劃對那些觀看非法色情內容的人實施懲罰。
* 結語:深度僞造圖像日趨逼真,業界積極開發檢測工具以提升識別能力
Deepfake技術在近年來得到了迅速發展,從最初的簡單換臉到能夠生成百萬像素級別的深度僞造圖像,技術的進步使得僞造圖像和視頻變得越來越逼真。
不止在韓國,深度僞造性犯罪在全球範圍內都頻繁發生。
用戶利用深度僞造技術生成的圖像絕大多數是針對年輕女性和未成年女孩,其內容涉及性侮辱、兒童性虐待等。
爲了應對深度僞造技術帶來的威脅,AI社區正在開發更高級的檢測工具,以降低用戶使用深度僞造技術犯罪的可能性。
這些檢測工具運用機器學習算法分析視頻和圖像,以尋找僞造內容的迹象,包括不自然的面部動作、異常的光照模式,以及背景中的不一致性。
---[ 來源 :BBC、《韓民族日報》、《福布斯》、《環球時報》---智東西/ 編譯 : 楊蕊伃*編輯 : 漠影]