“PS摧毀大眾對圖片的信任后,Deepfake也在摧毀大眾對視頻的信任。
”
作為人工智能領域的新實踐,近年來,利用深度學習、虛擬現(xiàn)實等生成合成類算法制作圖像、音頻、視頻、虛擬場景等信息的深度合成技術,已在多個領域大量應用,伴隨著不斷涌現(xiàn)的使用需求,深度合成內容數(shù)量和關注度呈現(xiàn)快速增長態(tài)勢。
另一方面,每一次技術變革,在造福社會的同時,也不可避免地會帶來安全風險。惡意使用該技術生成的音視頻,也顯現(xiàn)出了巨大的破壞力,給個人、企業(yè)造成了聲譽損害和財產(chǎn)損失,也對社會、國家安全造成威脅。
一、“眼見不再為實”,換人臉詐騙在全國相繼出現(xiàn)
一段視頻、一段語音,未必是真人拍攝或錄制,在你不知道的手機App后臺、支付界面、門禁閘機,或許有人正在盜刷你的臉。隨著人工智能(AI)深度合成技術日益精湛,合成的音頻、視頻等偽造內容越來越能以假亂真。毫無疑問,我們生活的現(xiàn)實世界正在面臨技術濫用的風險與挑戰(zhàn)。
公開資料顯示,在人臉生成、語音合成等領域,已經(jīng)出現(xiàn)了不少詐騙案例。
近兩年來,在浙江、安徽、江蘇等地,多名盜取個人信息的犯罪嫌疑人被公安部門抓獲。犯罪嫌疑人作案流程極為雷同:先是非法獲取他人照片或有償收購他人聲音等“物料”,然后利用人工智能技術將照片“活化”、合成動態(tài)視頻,之后或直接騙過社交平臺、支付寶賬戶的人臉核驗機制,進行非法獲利;或騙過手機卡注冊過程中的人工審核環(huán)節(jié),繼而利用他人名下的手機號進行電信網(wǎng)絡詐騙、網(wǎng)絡賭博等,使被收集信息的人遭受安全威脅和財產(chǎn)損失。
據(jù)公安部網(wǎng)安局公布的案例,2020年12月,某公司財務小王接到領導電話,要求立刻給供應商轉款2萬元。由于老板的口音十分逼真,小王信以為真,在1小時內轉款完成,后發(fā)現(xiàn)被騙。在凈網(wǎng)2021專項行動中,南通警方曾破獲了一起AI人臉識別詐騙案件:犯罪團伙利用AI軟件偽造人臉識別認證來解綁用戶賬號,再以低廉的價格將賬號賣給下游的詐騙份子,從而非法牟利。
2021年10月,安徽合肥警方曾查獲一起非法利用深度合成技術偽造手機用戶人臉動態(tài)視頻破解身份核驗,為黑灰產(chǎn)業(yè)提供注冊虛擬手機卡等技術支撐的案件。近年來,類似事件開始更多的進入公眾視野。
深度合成內容模糊了真實和虛假的邊界,將對社會信任、媒體信任、政治信任產(chǎn)生巨大的影響。
二、起底Deepfake,AI換臉造假何時休?
什么是Deepfake?
“深度偽造”,也被譯作“深度造假”,譯自英語中的Deepfake,其是計算機的“深度學習”(Deep learning)和“偽造”(Fake)的組合,出現(xiàn)于人工智能和機器學習技術時代。通俗理解就是把圖片和聲音輸入機器學習的算法,從而可以輕易地進行“面部操作”(Face manipulation)——把一個人的臉部輪廓和表情放置在其他任何一個人的臉上,同時利用對聲音的逼真處理,制造出實為合成卻看似極真的視頻。
從應用上來說,Deepfake主要是對人臉進行篡改和重新編輯,包括表情修改、換臉、換口型、合成新人臉四種模式。其中,換臉和對口型是Deepfake最主要的應用模式,其破壞性和殺傷力也最強。
“深度偽造”引起大家的特別關注,并上升至內容安全層面的考慮,是在2019年。這一年,基于深度偽造技術的應用軟件相繼推出,在應用商店相繼登上榜首,獲得數(shù)以億計的用戶。
FaceApp的人臉“變老”,ZAO和Reface的人臉交換,“螞蟻呀嘿”的人臉表情驅動、“美圖秀秀”的人臉編輯、“無中生有”的人臉合成……這些軟件中的瞬間“變臉”特效,向人們展示了人臉偽造逐漸細分化的趨勢。
與傳統(tǒng)圖像視頻處理技術相比,深度偽造技術具有“門檻低、效率高、質量好”的特點,所以它也被探索用于影視、醫(yī)療、虛擬現(xiàn)實等商業(yè),比如在影視后期制作中,表情操縱、全臉替換等深度合成技術可以被用于影視劇本地化嘴型修改、虛擬IP打造等場景中。
然而,與正面效應相比,這些特性也同步放大了潛在威脅和安全隱患。目前,深度偽造的技術門檻正大幅降低,網(wǎng)絡上充斥著大量偽造教程和開源可用的計算機程序,即便是不具備專業(yè)算法能力的普通用戶,也可以在很短時間內輕松上手。尤其依托深度學習算法特性,在海量圖像和視頻數(shù)據(jù)的驅動下,深度合成技術不斷演進迭代,仿真精度不斷得到提升。所以,制作一段高逼真度的虛假音視頻成本極低,卻可以借助社交媒體等平臺短時間風靡互聯(lián)網(wǎng)。對于這樣一種技術,如果不進行規(guī)制,將產(chǎn)生可怕的后果。
比如:深度偽造技術的大規(guī)模濫用正侵害到社會公眾的合法權益。深度偽造技術最常見的非法運用方式,將一些知名歌星、影星等公眾人物的臉“移花接木”到色情明星身上,偽造色情片非法牟利,或者是偽造惡搞視頻,這對個人名譽權與肖像權構成嚴重侵害。
其次是公眾財產(chǎn)安全,不法分子可以利用漏洞劫持手機識別攝像頭,利用照片活化、表情操縱等深度偽造技術冒充機主,進而對機主的微信好友實行轉賬詐騙。同樣的,電信詐騙中也有類似利用“語音偽造”技術的案例。
不僅如此,深度偽造還將會對社會安全和國家安全造成威脅。例如,借助互聯(lián)網(wǎng)平臺捏造虛假新聞、炮制政治謠言,深度偽造技術大大增加了網(wǎng)絡內容監(jiān)管的復雜性,也帶來了社會信任危機與網(wǎng)絡政治安全風險。在病毒式傳播的深度偽造背后,可能蘊藏著操縱社會輿論、激化社會矛盾與擾亂正常社會經(jīng)濟秩序等系統(tǒng)性的危害。
三、引導技術向善,完善AI風險治理體系
一方面,需發(fā)揮技術能力,阻止AI濫用,用魔法打敗魔法。
“科技為更好”是科技的使命,更是科技締造者的初衷。對于科技企業(yè)而言,如何使AI服務于民、造福于民,為“全民反詐”注入科技力量,必將是行業(yè)研討的重點。
隨著深度偽造的負面風險不斷加劇,如何有效甄別深度合成內容就成為了關鍵,但隨著合成質量的不斷提升,傳統(tǒng)基于生物特征的鑒別方式越來越難以發(fā)揮作用。因此,開發(fā)有效的人臉偽造檢測方法是保證信息安全的當務之急。
人民中科專注內容安全領域,研究團隊針對深度偽造的不同場景和難點,通過機器學習、算法學習和模型訓練,在技術能力上,具備基于身份空間約束的身份交換型偽造人臉鑒別和基于噪聲一致性的偽造人臉鑒別等多種偽造人臉鑒別技術能力。
同時,人民中科依托世界領先的內容理解技術和核心產(chǎn)品跨模態(tài)智能視頻搜索引擎“白澤”,提供面向政府和企業(yè)的內容安全服務、內容監(jiān)測及版權保護、內容情報挖掘、內容安全測評和互聯(lián)網(wǎng)內容審核、風控、巡檢等系統(tǒng),一站式內容風控解決方案,全方位護航數(shù)字世界網(wǎng)絡安全與治理。
另一方面,需要完善相關法律法規(guī),技術與立法亟需齊頭并進。
近年來,針對深度合成技術遭惡意使用,各國紛紛出臺相關法律法規(guī),探索深度合成的治理路徑。美國從聯(lián)邦和州層面進行專門立法,歐盟將深度合成納入《通用數(shù)據(jù)保護條例(GDPR)》等現(xiàn)有法律框架規(guī)制。國家網(wǎng)信辦公布的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定(征求意見稿)》,亦對深度合成技術作出了一系列較為明確的規(guī)定和指引。因此,刑法應對深度合成技術濫用行為予以規(guī)制,同時從風險防控的角度,加強對個人信息安全的保護。
同時,2022年3月,我國首個國家層面的科技倫理治理指導性文件《關于加強科技倫理治理的意見》發(fā)布,凸顯技術倫理治理的重要性緊迫性。在今年的最高法工作報告中,包括人臉安全在內的個人信息安全等多次被提及。
最后,技術是中立的,但使用技術的人是有立場的。對于“深度偽造內容”,平臺也應依法履行安全管理義務,落實管理責任,圍堵黑色產(chǎn)業(yè)鏈的生存空間。
責編:岳青植監(jiān)制:李紅梅
END
參考來源:
1.《多地現(xiàn)變臉詐騙案:合成一個視頻最低2元,人工審核難辨真假》新華社
2.《起底多地發(fā)生的“變臉”詐騙案》北青網(wǎng)
3.《國際安全研究》2022年第3期
4.《全民反詐進行時,AI“亮劍”打擊網(wǎng)絡詐騙》新華網(wǎng)
5.《深度偽造色情圖片?國家網(wǎng)信辦擬出新規(guī):深度合成內容需標識》南方都市報
6.《“換臉”真相:“深度偽造”的網(wǎng)絡狂歡和安全威脅》環(huán)球網(wǎng)
7.《一張圖片就能“活化”成視頻?警惕AI深度合成擊穿風險底線》半月談
關于人民中科
人民中科智能技術有限公司,是人民網(wǎng)與中科院自動化所共同發(fā)起設立的“人工智能技術引擎”和科技成果轉化平臺,擁有世界領先的內容理解技術,核心產(chǎn)品是跨模態(tài)智能搜索引擎“白澤”,初始應用場景是數(shù)字世界的安全,目標是成為全球內容科技領導企業(yè)。