網(wǎng)絡(luò)上“AI名人”泛濫 深度偽造之惡何解?
“張文宏”深夜帶貨,女孩照片被熟人“換臉”
本報記者 朱高祥
張文宏開始直播帶貨了?
近日,不少網(wǎng)友發(fā)文稱,短視頻平臺上,疑似知名醫(yī)生張文宏正在售賣一種蛋白棒,家中老人信以為真而大量下單。但仔細辨認可以發(fā)現(xiàn),帶貨視頻為AI合成。張文宏本人回應(yīng)稱,這些假的AI合成信息就像蝗災(zāi)一樣,一次又一次發(fā)生,像漫天飛過來的蝗蟲一樣害人。
不僅是張文宏,網(wǎng)絡(luò)上的“AI名人”已成泛濫趨勢:“假靳東”迷倒一眾大媽、“假雷軍”辣評世間百態(tài)、“假拜登”宣布第三次世界大戰(zhàn)開始、“假馬克龍”直播回答“政府聘用滅霸”……
而更早之前的韓國Deepfake(深度偽造)性犯罪事件,不僅讓韓國全體女性陷入“換臉恐慌”,更是引發(fā)全球關(guān)注,大眾擔心一種更廣泛的、充滿敵意的網(wǎng)絡(luò)環(huán)境開始滲入真實世界。
人工智能方興未艾,公眾該如何面對新一代的“施虐者”?
女孩照片被盜成色情視頻
群組內(nèi)容不堪入目
河北保定女孩欣欣(化名)從未想過Deepfake會發(fā)生在自己身上。
今年7月9日,正在刷抖音的欣欣突然收到了一條私信,被網(wǎng)友告知有自稱其男友的人在外網(wǎng)盜用她的照片后進行AI換臉并傳播。
“我聽到這個消息之后有些震驚且不敢相信,但真的看到這些照片后,我感到無比憤怒?!毙佬栏嬖V記者,對方不僅制作大量AI換臉的不良照片與視頻,還隨意泄露了自己的個人信息,包括網(wǎng)名、真名、年紀、學(xué)校、專業(yè)等等。
欣欣隨后通過多個途徑進行了查證,這些照片和視頻均是對方從自己的小紅書搬運,經(jīng)加工處理,制作出不堪入目的色情影像。欣欣第一時間選擇報警并咨詢律師,開始固定更多證據(jù)。
“當天晚上8點多,我報警備案,當時我沒有排除熟人或者陌生人的各種可能性。后續(xù)我經(jīng)過各種賬號套話,得知對方了解我的家屬關(guān)系等更隱私的信息,我就逐步縮小了嫌疑人范圍,心中也有了懷疑的對象?!毙佬离S后發(fā)布了一條僅對方可見的朋友圈,且把內(nèi)容做了特殊標記,很快這條內(nèi)容出現(xiàn)在外網(wǎng)。
欣欣把這條直接證據(jù)交給了警方,不久后警方給出處理結(jié)果:對方因傳播淫穢物品,被處以行政拘留十日。
“沒想到Deepfake離自己如此之近,更沒想到施害者就是身邊的熟人?!毙佬勒f,在處理這件事情的過程中,她了解到身邊有很多女孩子在遭受類似的事件,甚至更嚴重。她們被泄露個人隱私、被造謠、被AI換臉、被性騷擾等等。
欣欣告訴記者,因為這段經(jīng)歷,短暫接觸過幾個軟件,上面有成百上千的群組,群組里多的有上萬人,里面內(nèi)容不堪入目,充斥著各種女生的AI換臉照片與視頻,以及污蔑、詆毀、造謠的話,惡心程度超出想象。
“由于造謠成本低,他們甚至不需要完整圖片,只需要一張臉部圖片就能完成所有,而且很難被抓到,這使得他們更加肆意妄為。”欣欣說。
普通人難識別深度偽造內(nèi)容
專家:請勇敢舉報
正如欣欣所言,發(fā)生在身邊的Deepfake犯罪事件并非個案。
由英文“deep machine learning”(深度機器學(xué)習(xí))和“fake photo”(假照片)組合而成的Deepfake(深度偽造),能基于人類行為特征如面部、聲音等合成圖像、視頻、音頻。當前這一技術(shù),正被濫用成為針對婦女暴力、詐騙犯罪的新前沿。
據(jù)新華社報道,韓國教育部9月9日說,韓國今年已發(fā)生400多起涉及中小學(xué)生的相關(guān)案件,受害者累計超過600人。
與此同時,韓國用戶使用的社交媒體Telegram上,被發(fā)現(xiàn)存在多個傳播和分享該類型色情內(nèi)容的群聊,其中已知最大的一個聊天室成員超過22萬人。這類性犯罪事件的受害者人數(shù)尚難以統(tǒng)計。已知的被波及群體,包括女學(xué)生、女教師等,其中包含大量未成年人。
近段時間,在一些國內(nèi)的短視頻平臺上,除了“AI名人”,“AI接吻視頻”也十分流行。有博主宣稱只需要下載一個軟件,花費9.9元就可以完成??粗鴥蓚€毫無關(guān)系的照片人物“活生生”親吻擁抱在一起,不少網(wǎng)友直呼可怕。
融力天聞律師事務(wù)所高級合伙人劉赤軍律師告訴記者,Deepfake之于視頻,就像Photoshop之于圖片,兩者都直觀沖擊了真實和虛擬之間的界限。但Deepfake能夠?qū)崿F(xiàn)以極低的成本,制作出完全虛構(gòu)又極其逼真的視頻。
奇安信行業(yè)安全研究中心主任裴智勇表示,深度偽造,一般是指利用人工智能技術(shù),生成高度逼真的視頻、音頻、圖片、文案等內(nèi)容。這些內(nèi)容多被用于網(wǎng)絡(luò)欺詐、制造謠言、擾亂公共秩序和生成各類色情內(nèi)容。這些偽造內(nèi)容大多使用了人工智能技術(shù)中的深度計算技術(shù),識別難度很大。
“讓普通人用肉眼或耳朵來識別深度偽造的視頻、音頻內(nèi)容是不現(xiàn)實的,因為深度偽造本身就意味著難以識別,沒有經(jīng)過專業(yè)訓(xùn)練的普通人很難從技術(shù)角度識破深度偽造內(nèi)容?!迸嶂怯抡f。
在他看來,雖然想要阻止人們使用AI生成偽造視頻或圖片不現(xiàn)實,但這并不意味著對惡意造假者無計可施:“國內(nèi)對于網(wǎng)絡(luò)色情視頻和圖片都有非常成熟的治理方法,即便不能用技術(shù)鑒別真?zhèn)?,也可以從平臺一側(cè)阻止色情內(nèi)容的傳播,定位色情內(nèi)容的傳播源頭并實施打擊。”
裴智勇提醒,在自拍、短視頻盛行的時代,當公眾遇到有人使用偽造視頻、音頻等內(nèi)容對財產(chǎn)侵害、名譽損害時,最好的辦法還是及時報警或向平臺進行舉報,減少深度偽造內(nèi)容帶來的影響。
社會新聞精選:
- 2024年12月22日 19:28:23
- 2024年12月22日 18:26:01
- 2024年12月22日 17:05:36
- 2024年12月22日 16:58:29
- 2024年12月22日 16:51:33
- 2024年12月22日 13:38:29
- 2024年12月22日 12:19:32
- 2024年12月22日 10:11:46
- 2024年12月22日 09:21:13
- 2024年12月22日 09:17:16