王祿生
2019年3月,技術(shù)人員利用“深度偽造”〔1〕“Deepfake”最初只是在互聯(lián)網(wǎng)上傳播“換臉視頻”作者的一個代號。在其后的發(fā)展傳播中逐步被作為此類技術(shù)的代號。技術(shù)“換臉”明星楊冪的事件在輿論上引起熱議。與部分粉絲稱贊技術(shù)“逆天”“毫無違和感”形成鮮明對比的是,被“換臉”的楊冪本人的回應(yīng)卻顯得頗為低調(diào)和耐人尋味。盡管視頻制作者第一時間宣稱“主要用于技術(shù)交流,并無營利行為”,然而,該技術(shù)運用仍然引發(fā)各界對侵權(quán)甚至是在色情視頻中使用的擔(dān)憂。就在各界圍繞上述問題展開熱烈討論方興未艾之際,一款叫作ZAO的AI換臉軟件于同年8月底發(fā)布并迅速席卷了中國的網(wǎng)絡(luò)。實際上,“深度偽造”技術(shù)最初名聲大噪于2017年11月。當時,利用技術(shù)換臉明星生產(chǎn)的多部色情視頻在美國“紅迪網(wǎng)”上傳播并引發(fā)各界關(guān)注?!?〕據(jù)不完全統(tǒng)計,艾瑪·沃特森(Emma Watson)、娜塔莉·波特曼(Natalie Portman)、加爾·加多(Gal Gadot)、米歇爾·奧巴馬(Michelle Obama)、伊萬卡·特朗普(Ivanka Trump)和凱特·米德爾頓(Kate Middleton)都是“深度偽造”技術(shù)的受害者。2018年1月,使用“深度偽造”技術(shù)的應(yīng)用程序正式上線,普通公眾在沒有深厚技術(shù)背景的情況下也可以嘗試“換臉”,這進一步加劇了“換臉視頻”的傳播。“換臉”的對象也迅速由明星、政客擴展到朋友、同學(xué)、同事。由于“換臉視頻”的迅速傳播,“紅迪網(wǎng)”關(guān)閉了有關(guān)“深度偽造”技術(shù)的討論板塊。據(jù)稱該版塊注冊用戶已超過10萬人。其后,聊天應(yīng)用程序Discord也明確禁止相關(guān)視頻傳播?!?〕See Kevin Roose,Here Come the Fake Videos,Too,THE NEW YORK TIMES (Mar.4,2018),https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html.與之類似,出道即巔峰的ZAO也在上線3天之后被微信屏蔽防問。伴隨“換臉視頻”傳播的加劇的是對“深度偽造”技術(shù)是否以及如何規(guī)制的激烈討論。在此背景下,系統(tǒng)地梳理該技術(shù)的技術(shù)邏輯、技術(shù)特征、應(yīng)用風(fēng)險以及規(guī)制方式就成為學(xué)術(shù)界迫切需要回應(yīng)的問題。
筆者將從技術(shù)邏輯切入,闡述“深度偽造”技術(shù)特征及應(yīng)用風(fēng)險,分析現(xiàn)有技術(shù)規(guī)制和法律規(guī)制無法有效回應(yīng)的根本原因,并從平臺責(zé)任、作者義務(wù)和信息素養(yǎng)三個方面構(gòu)建新的一體化規(guī)制體系,力圖最終馴服技術(shù)的“巨魔”,將其限制在合理使用的范圍之內(nèi)。本文探討的內(nèi)容不僅適用于“深度偽造”技術(shù)及其實現(xiàn)的“換臉視頻”,同樣適用于未來具有高度真實性的音頻、圖片、視頻的系列處理技術(shù)。
眾所周知,現(xiàn)階段主流的“換臉視頻”是通過“深度偽造”技術(shù)生成的?!吧疃葌卧臁笔怯⑽摹吧疃葘W(xué)習(xí)”和“偽造”的合成詞。它實質(zhì)上是一種聲音、圖像與視頻的智能處理技術(shù),能夠以極度逼真的方式模仿特定人物或者讓特定人物看起來在做特定的事件,以至于未經(jīng)過訓(xùn)練的觀看者通常無法辨別其真?zhèn)巍?/p>
如果拋開具體的稱謂不談,從技術(shù)邏輯來看,“深度偽造”依托的是“深度學(xué)習(xí)”技術(shù),它是包括由相互聯(lián)系節(jié)點組成的多層神經(jīng)網(wǎng)絡(luò),可以根據(jù)輸入的數(shù)據(jù)進行自動的計算并完成特定的任務(wù)?!吧疃葌卧臁钡倪^程就是將圖片、視頻等數(shù)據(jù)“喂”給“換臉算法”,然后由算法在訓(xùn)練的基礎(chǔ)上自動完成換臉操作?!?〕See Samantha Cole,AI-Assisted Fake Porn Is Here and We're All Fucked,MOTHERBOARD (Dec.11,2017),https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn.詳細而言,就是通過深度學(xué)習(xí)的算法,去識別目標人物(比如明星、政治家等)不同角度、姿態(tài)與表情的照片,然后不斷訓(xùn)練從而自動生成偽造的圖片,并將其覆蓋到原有視頻人物的臉部,形成“換臉視頻”。其實質(zhì)可以簡單理解為從現(xiàn)有“源數(shù)據(jù)”(目標人物)中通過算法生成“新數(shù)據(jù)”(偽造視頻)的過程。理論上,在足夠訓(xùn)練數(shù)據(jù)和訓(xùn)練時間的基礎(chǔ)上,“深度偽造”技術(shù)可以把任何人的臉“交換”成制作者想要的任何視頻。
當然,能讓“深度偽造”在短時間內(nèi)名聲大噪,依靠的并非一般意義的深度學(xué)習(xí)技術(shù),而是采用了其中的一種名為“對抗生成網(wǎng)絡(luò)”(簡稱為GAN)的模型。與傳統(tǒng)深度學(xué)習(xí)技術(shù)單鏈條相比,GAN引入了“對抗”機制,由兩組神經(jīng)網(wǎng)絡(luò)共同進行。其中一組神經(jīng)網(wǎng)絡(luò)的算法定位為“生成器”,它負責(zé)基于“源數(shù)據(jù)”創(chuàng)建目標圖像模型,從而生成偽造的圖像;另一組神經(jīng)網(wǎng)絡(luò)的定位為“鑒別器”,它負責(zé)基于真實的目標圖像對“生成器”生成的偽造圖像進行驗證。每一種算法都在對另一種算法進行改進,從而加速訓(xùn)練的速度,進而生成高逼真度的虛假視頻內(nèi)容??梢姡c傳統(tǒng)深度學(xué)習(xí)單組神經(jīng)網(wǎng)絡(luò)相比,“對抗生成網(wǎng)絡(luò)”類似于不斷演變的貓鼠游戲,偽造者(生成器)與偵查者(鑒別器)之間不斷通過“對抗”自我優(yōu)化。通過這種“無監(jiān)督學(xué)習(xí)”的模式,訓(xùn)練的數(shù)據(jù)越多,輸出的效果就越好。對于名人、政治家,由于互聯(lián)網(wǎng)上具備足夠多的訓(xùn)練數(shù)據(jù),這就導(dǎo)致“換臉視頻”以假亂真。
為了更好地說明“換臉視頻”的生成環(huán)節(jié),筆者制作了技術(shù)示意圖。如圖1所示,“深度偽造”技術(shù)大致按照下列順序?qū)崿F(xiàn)“換臉視頻”:第一,從互聯(lián)網(wǎng)(通常是搜索引擎或社交平臺)上獲取給定目標人物(“源”)的視頻、圖像,從而形成供人工智能技術(shù)訓(xùn)練的數(shù)據(jù)集——“源數(shù)據(jù)”;第二,借助“對抗生成網(wǎng)絡(luò)”算法中的“生成器”,通過神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,生成偽造的視頻、圖像(“偽造數(shù)據(jù)”);第三,“對抗生成網(wǎng)絡(luò)”算法中的“鑒別器”將真實的目標數(shù)據(jù)與“生成器”生成的“偽造數(shù)據(jù)”進行比對;第四,當判定為“真”時,〔5〕此處的“真”并不是我們?nèi)粘R饬x上理解的真實,而是將偽造數(shù)據(jù)與真實數(shù)據(jù)對比之后的相似度。如果“鑒別器”認定高度相似,則輸出結(jié)果為1(true);如果鑒別后認為不相似,則輸出結(jié)果為0(false)。則可以作為下一步“換臉”的基礎(chǔ)素材;當判定為“假”時,則返回優(yōu)化“生成器”的算法;第五,選擇合適的視頻并將視頻中原有人物的臉部圖像替換成目標人物的臉部圖像。具體而言,就是將視頻分解成數(shù)百甚至數(shù)千幀,然后將通過“鑒別器”鑒別的偽造臉部圖像(眉毛、嘴、鼻子和頭部的位置及其動作)一幀一幀地映射到視頻原有人物的臉部之上,從而完成“換臉視頻”。最初“換臉視頻”需要人工挑選合適的待替換視頻,但隨著技術(shù)的發(fā)展,已經(jīng)可以通過目標人物的圖像特征自主選擇合適的視頻。
圖1 “深度偽造”技術(shù)GAN模型邏輯示意圖
視頻、圖片的技術(shù)化處理或偽造并非新鮮的事項。近年來,隨著PS等技術(shù)的普及,對于圖像的修飾與篡改已經(jīng)成為常規(guī)現(xiàn)象?!吧疃葌卧臁敝粤钊藫?dān)憂,是因為它是高度真實性、泛在普適性與快速演化性的綜合?!吧疃葌卧臁钡纳鲜黾夹g(shù)特征將使得潛在造假群體和視頻造假能力均呈現(xiàn)指數(shù)級躍升。
與一般數(shù)字處理技術(shù)相比,“深度偽造”技術(shù)最為核心的特征就在于高度真實性,以至于極其難以被發(fā)覺?!?〕See Robert Chesney,Danielle Citron,Deepfakes and the New Disinformation War:The Coming Age of Post-Truth Geopolitics,98 Foreign Aff.147,147—148(2019).在“深度偽造”技術(shù)出現(xiàn)之前,偽造視頻具有極高的可識別性。這是因為在很長一段時間內(nèi),對于圖像、音頻、視頻的處理存在技術(shù)瓶頸,偽造的圖像無法解決光線的細微變化,同時偽造視頻在篡改語音時也往往無法準確捕捉差異化人群的節(jié)奏和音調(diào)。然而,這些瓶頸隨著“深度偽造”技術(shù)的產(chǎn)生與發(fā)展,業(yè)已或正在或終將被攻克。前文在論及技術(shù)邏輯時已經(jīng)強調(diào),“深度偽造”技術(shù)是一種“無監(jiān)督學(xué)習(xí)”,它通過“對抗生成網(wǎng)絡(luò)”在自我優(yōu)化中生成偽造的數(shù)據(jù)。對于這種技術(shù)邏輯,只要有足夠的數(shù)據(jù)和運算速度,理論上生成模型會在“對抗”中持續(xù)自我迭代并不斷優(yōu)化偽造視頻。那么一個顯而易見的結(jié)果便是,“更大的數(shù)據(jù)、更好的算法和定制的硬件”將很快讓這些虛假視頻真實得可怕。〔7〕See Derek B.Johnson and Susan Miller,The Danger of “Deep Fakes”,GLOBAL CYCLING NETWORK (Jul.18,2018),https://gcn.com/articles/2018/07/18/deep-fakes.aspx.普通人在未經(jīng)過專業(yè)培訓(xùn)的基礎(chǔ)之上,很難區(qū)分和發(fā)現(xiàn)。“楊冪換臉視頻”就是一位AI技術(shù)愛好者將港版《射雕英雄傳》(下稱《射雕》)中“朱茵版”黃蓉的臉換成楊冪。有媒體評論道:“視頻中,楊冪的五官與朱茵的表情幾乎全部融合,難辨真假?!薄?〕劉津?qū)帲骸禔I換臉技術(shù)暗藏法律風(fēng)險》,《北京日報》2019年3月20日,第14版。此外,瑞士科學(xué)家嘗試用最前沿的人臉識別系統(tǒng)去識別“換臉視頻”,結(jié)果錯誤率高達95%。德國和意大利科學(xué)家的聯(lián)合研究小組測試了1000段“換臉術(shù)”視頻后發(fā)現(xiàn),普通人必須通過特殊訓(xùn)練,才能鑒別真?zhèn)巍!?〕參見宣晶:《視頻“換臉術(shù)”走近大眾,引爆億級流量后為何令人擔(dān)憂》,《文匯報》2019年2月27日,第1版。
與傳統(tǒng)的人工智能技術(shù)相比,“深度偽造”技術(shù)還具有泛在普適性。長期以來,對視頻的深度處理技術(shù)壟斷在政府或?qū)嵙Ξ惓姶蟮钠髽I(yè)手中,社會公眾無從使用。一部以假亂真的視頻制作通常需要好萊塢式的技巧和預(yù)算。然而,“深度偽造”技術(shù)的出現(xiàn)則在根本上改變了這一格局,使得該技術(shù)開始向一般公眾普及。這又可以從三個方面展開:其一,“深度偽造”采用的是“無監(jiān)督學(xué)習(xí)”。相較于“有監(jiān)督學(xué)習(xí)”和“半監(jiān)督學(xué)習(xí)”而言,“無監(jiān)督學(xué)習(xí)”的訓(xùn)練數(shù)據(jù)不需要標注。這一特性使得“深度偽造”技術(shù)具有極強的親民性。因為一般公眾個人不具備對海量數(shù)據(jù)實時精準標注的條件和能力。其二,“深度偽造”的“源數(shù)據(jù)”具有獲取便捷性。實際上,就技術(shù)邏輯而言,“深度偽造”是通過海量“源數(shù)據(jù)”的訓(xùn)練自動生成“新數(shù)據(jù)”(偽造圖像)的過程。其生成精準度很大程度上取決于“源數(shù)據(jù)”的豐富程度??紤]到人工智能技術(shù)的飛速發(fā)展以及社交媒體上圖片資源的豐富性與易獲取性,制造“換臉視頻”的技術(shù)難度與成本在飛速下降。其三,“深度偽造”無須安裝編程語言和開源軟件庫就能運行,操作簡單。盡管硬件上需要GPU的支持,但通過短期租用云平臺的方式可以有效解決。其四,更為重要還在于,隨著一款免費、易于使用的應(yīng)用程序的出現(xiàn),這項技術(shù)迅速向一般社會公眾普及,其技術(shù)門檻進一步降低。普通民眾只需要一兩個目標人物的高清視頻,8-12小時就可以制作一部自動換臉的視頻?!?0〕參見李覲麟:《AI換臉技術(shù)的玩法還有很多》,《電腦報》2018年9月10日,第12版。
“換臉視頻”要達到以假亂真還需要音頻處理技術(shù)的支持。傳統(tǒng)上,偽造特定人員聲音存在明顯的技術(shù)瓶頸,機器合成聲音極易識別。隨著人工智能技術(shù)的引入,無論是谷歌、百度抑或是訊飛都已經(jīng)具備了生成模擬語音的能力,其通過對特定人物音色、語言要素的采集與訓(xùn)練,能夠模擬出足以以假亂真的任何內(nèi)容的語音?!?1〕在科大訊飛公司2016年度發(fā)布會上,曾發(fā)布一段視頻。視頻中,美國時任總統(tǒng)奧巴馬用一段流利的中文預(yù)??拼笥嶏w公司的發(fā)布會取得成功。這實際上就是用音頻處理技術(shù)模擬的奧巴馬的聲音。參見袁一雪:《讓奧巴馬用中文演講的“聲音魔術(shù)”》,《中國科學(xué)報》2016年12月2日,第4版。根據(jù)ASI數(shù)據(jù)科學(xué)公司的一項測試,通過語音生成算法,只需要借助兩小時的語料并訓(xùn)練五天時間,就可以模擬一份以假亂真的特朗普向俄羅斯宣戰(zhàn)的語音。〔12〕Michael Chertoff and Anders Fogh Rasmussen,The Unhackable Election:What It Takes to Defend Democracy,98 Foreign Aff.156,160(2019).上述音頻處理技術(shù)的嵌入使得“深度偽造”技術(shù)的普及如虎添翼。
前文在談及技術(shù)邏輯時已經(jīng)論及,“深度偽造”技術(shù)使用的是深度學(xué)習(xí)中的“對抗生成網(wǎng)絡(luò)”,它在本質(zhì)上是一種“無監(jiān)督學(xué)習(xí)”,具有極強的自我適應(yīng)性。一般認為,該模式不需要過多的人工干預(yù),尤其適合以一般公眾為服務(wù)對象的應(yīng)用。實際上,在最初“對抗生成網(wǎng)絡(luò)”主要局限于人工智能的研究群體,并未大規(guī)模在社會上運用。不過,“深度偽造”技術(shù)的出現(xiàn)打破了這一局限。研發(fā)者利用谷歌的開源學(xué)習(xí)軟件“TensorFlow”來構(gòu)建“對抗生成網(wǎng)絡(luò)”在極短時間內(nèi)就完成了“換臉技術(shù)”的升級換代并最終實現(xiàn)“換臉視頻”。〔13〕See Oscar Schwartz,You Thought Fake News Was Bad?Deep Fakes Are Where Truth Goes to Die,THE GUARDIAN (Nov.12,2018),https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth.在“深度偽造”技術(shù)發(fā)展的早期,盡管訓(xùn)練過程是“無監(jiān)督學(xué)習(xí)”,但訓(xùn)練的“源數(shù)據(jù)”還需要通過人工尋找大量素材,比如目標人物的視頻、音頻、圖片,以及尋找合適的替換視頻。這在一定程度上降低了該技術(shù)的“親民”程度。知名的科技網(wǎng)站“主板”在2018年曾經(jīng)預(yù)測“深度偽造”技術(shù)在尋找“源數(shù)據(jù)”方面的自動化至少需要一年時間,但事實上,這個自動化迭代只花費了一個月時間。現(xiàn)階段,制作者只需要通過程序上傳需要替換的目標人的照片,軟件可以進行人臉識別,并且海量視頻庫中自動匹配最為合適的身體?!?4〕See Samantha Cole,People Are Using AI to Create Fake Porn of Their Friends and Classmates,MOTHERBOARD (Jan.26,2018),https://motherboard.vice.com/en_us/article/ev5eba/ai-fake-porn-of-friends-deepfakes.“對抗生成網(wǎng)絡(luò)”利用海量的網(wǎng)絡(luò)資源不斷“無監(jiān)督”地自我迭代與優(yōu)化,使得“深度偽造”在整體上呈現(xiàn)出一種加速發(fā)展的態(tài)勢。換言之,“深度偽造”技術(shù)雖然處于早期階段,但其卻包含著巨大的潛力,由于技術(shù)的飛速發(fā)展,我們將很可能立刻面對無法區(qū)分真假的“換臉視頻”。
科技哲學(xué)認為,技術(shù)是把雙刃劍,可能給社會帶來不同程度的風(fēng)險。偽造他人的言行對于人類而言并不陌生。在不同的歷史時期,偽造行為可能以不同形式產(chǎn)生。然而,與傳統(tǒng)技術(shù)相比,“換臉視頻”的破壞力不僅僅在于“偽造”,而更在于“深度”。換言之,“深度偽造”的技術(shù)邏輯與技術(shù)特征的疊加使得對其應(yīng)用可能產(chǎn)生不同于一般視頻偽造處理技術(shù)的風(fēng)險?;ヂ?lián)網(wǎng)時代,尤其是自媒體的發(fā)展,打破了中心化的信息傳播模式。它一方面增加了信息傳播的效率,另一方面也降低了對虛假信息的控制能力?!吧疃葌卧臁奔夹g(shù)的應(yīng)用風(fēng)險在互聯(lián)網(wǎng)傳播的特性之下被進一步放大進而可能產(chǎn)生不可控的局面。
對“深度偽造”技術(shù)生成物(視頻、圖片、音頻)的應(yīng)用最為直接的風(fēng)險之一就在其對被偽造公民的個人權(quán)利產(chǎn)生影響。在“深度偽造”技術(shù)的起源地美國,該技術(shù)最初用以制作各類的色情換臉視頻——將明星的“臉”替換到其他的色情視頻中。其后,隨著技術(shù)的普及,“換臉”的對象也迅速由明星、政客向一般公眾擴展??梢姡捎凇吧疃葌卧臁奔夹g(shù)的高度真實性、泛在普適性和快速演化性的基本特征,該技術(shù)生產(chǎn)的視頻高度逼真,且越發(fā)以低成本的方式普及,對于被“換臉”的明星或是一般公眾而言,其名譽權(quán)、肖像權(quán)等基本權(quán)利就不可避免地受到侵犯。“楊冪換臉視頻”在短期內(nèi)微博的閱讀量就達到了1.1億,影響之廣,可見一斑。另據(jù)不完全統(tǒng)計,遇上“換臉”的明星還有至少劉亦菲、劉詩詩、趙麗穎等人?!?5〕參見前引〔9〕,宣晶文。此外,“換臉視頻”不僅將用于自我滿足,而且也可能被用來敲詐、羞辱、騷擾和勒索受害者?!?6〕See Douglas Harris,Deepfakes:False Pornography is Here and the Law cannot Protect You,Duke L.&Tech.Rev.99,102(2019).綜上所述,“深度偽造”技術(shù)所產(chǎn)生的“換臉視頻”最為直接的影響就在于公民的人身權(quán)與財產(chǎn)權(quán)。
正如有專家預(yù)測的那樣,未來幾年,電腦將能夠快速生成令人信服的、偽造的音頻和視頻信息,這將把假新聞提升到一個全新水平?!?7〕See Hilke Schellmann,The DangerousNew Technology That Will Make Us Question Our Basic Idea of Reality,QUARTZ(Dec.5,2017),https://qz.com/1145657/the-dangerousnew-technology-that-will-make-us-question-our-basic-idea-of-reality/.“深度偽造”技術(shù)所產(chǎn)生的第二個直接風(fēng)險就可能通過所謂的假新聞用以誹謗政客,破壞社會穩(wěn)定、國家安全和國際秩序。設(shè)想在種族沖突嚴重的地區(qū),一個政治人物發(fā)表種族歧視言論的“換臉視頻”可能直接引發(fā)不可控制的惡果。2018年4月,有技術(shù)團隊制作了涉及美國前總統(tǒng)奧巴馬的“換臉視頻”,在視頻中“奧巴馬”稱美國現(xiàn)總統(tǒng)特朗普為“徹頭徹尾的白癡”?!?8〕See Aja Romano,Jordan Peele's Simulated Obama PSA is a Double-edged Warning against Fake News,VOX (Apr.18,2018)https://www.vox.com/2018/4/18/17252410/jordan-peele-obama-deepfake-buzzfeed.同年5月,有人利用“深度偽造”技術(shù)制作了特朗普的視頻,批評比利時的環(huán)保政策。盡管視頻在制作上有明顯瑕疵,但仍然有比利時的民眾相信該視頻為真,并激烈地回應(yīng)。這一影響大大超過了制作團隊的估計,使得他們不得不對評論者一一回應(yīng)該視頻其實是一個假視頻?!?9〕See Oscar Schwartz,You Thought Fake News Was Bad?Deep Fakes Are Where Truth Goes to Die,THE GUARDIAN (Nov.12,2018),https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth.據(jù)不完全統(tǒng)計,現(xiàn)下成為該技術(shù)受害者的政客至少還包括德國總理默克爾、阿根廷總統(tǒng)馬克里。
正因“深度偽造”技術(shù)所可能導(dǎo)致的假新聞泛濫,美國國家情報總監(jiān)丹·科茨在參議院情報特別委員會發(fā)表演講,提交了由美國情報界匯編的《全球威脅評估報告》。報告明確提到“深度偽造”技術(shù),并指出戰(zhàn)略競爭對手可能會試圖使用“深度偽造”或類似的機器學(xué)習(xí)技術(shù)來創(chuàng)建令人信服的——但是虛假的——圖像、音頻和視頻文件,以此對美國及其盟友和伙伴產(chǎn)生負面影響?!?0〕See Daniel R.Coats,Worldwide Threat Assessment of the US Intelligence Community,Senate Select Committee on Intelligence(Jan.29,2019),p.7.英國《衛(wèi)報》也認為,“深度偽造”技術(shù)可以造成任何人說過或做過任何事的假象,并不無擔(dān)憂地認為會引發(fā)新一輪信息戰(zhàn)?!?1〕關(guān)于“深度偽造”技術(shù)所可能導(dǎo)致的國際社會的“假情報戰(zhàn)”的討論可以參見Robert Chesney and Danielle Citron,Deepfakes and the New Disinformation War:The Coming Age of Post-Truth Geopolitics,98 Foreign Aff.147(2019).
眾所周知,我們對世界的經(jīng)驗以及我們對世界作出自信判斷能力需要我們有一些證據(jù)來源。這些來源在形成共識的基礎(chǔ)之上,自動引導(dǎo)我們作出判斷。人們不可避免地依賴于超出他們直接感知的世界的可靠知識,這在本質(zhì)上是一種知識生態(tài)系統(tǒng)?!?2〕See Marc J.Blitz,Lies,Line Drawing,and Deep Fake News,71 Okla.L.Rev.59,113—115(2018).“深度造假”技術(shù)的泛濫還可能導(dǎo)致公眾形成“眼見不為實”的心理預(yù)期。其直接結(jié)果是公眾對公有機構(gòu)和私有機構(gòu)的信任度遭遇侵蝕。一直以來,視頻都被視為真實性的基本標準,與容易失真的照片形成鮮明對比?!吧疃葌卧臁币曨l技術(shù)的發(fā)展將破壞我們對視頻作為事件記錄的信任。該技術(shù)最大的威脅不是公眾會被欺騙,而是公眾會把一切都當作欺騙。隨著這種“深度偽造”技術(shù)的發(fā)展與普及,它潛在地可能造成一種信息無序的狀態(tài),會對原有的要求我們信任外部信息來源的個人決策或集體自治構(gòu)成嚴重的,甚至是無法克服的挑戰(zhàn)?!?3〕See Marc J.Blitz,Lies,Line Drawing,and Deep Fake News,71 Okla.L.Rev.59,110(2018).其最終結(jié)果有可能導(dǎo)向霍布斯提及的“所有人與所有人的戰(zhàn)爭”,“眼見為實”的提法將消逝在歷史之中。有研究表明,人與人的反復(fù)協(xié)作的基礎(chǔ)是彼此的信任。當一個群體內(nèi)部彼此信任時,群體凈收益會提升。反之,彼此缺乏信任將導(dǎo)致群體的效益下降?!?4〕See Jeffrey Westling,Deception Trust:A Deep Look at Deep Fakes,TECHDIRT(Feb.28,2019).可見,“深度偽造”技術(shù)的濫用將使得人類加速邁入“后真相時代”?!?5〕“后真相”一詞最早見于美籍塞爾維亞劇作家史蒂夫·特西奇(Steve Tesich)1992年發(fā)表在美國《國家》雜志上的一篇文章,卻在誕生20多年后于2016年被《牛津詞典》評為年度詞匯。改詞用于形容“陳述客觀事實對民意的影響力弱于訴諸情感和個人信念”。參見王悠然:《警惕“后真相”時代的假消息》,《中國社會科學(xué)報》2017年1月6日,第3版。在“后真相時代”,由于“真相”被認為不復(fù)存在,“人們只相信自己愿意相信的東西”?!?6〕參見李軍:《“后真相時代”,凝聚共識靠內(nèi)容而非流量》,《新華日報》2018年3月28日,第14版。由此,社會共識便難以聚合而成。
“深度偽造”技術(shù)只是人工智能與視頻處理技術(shù)結(jié)合的必然產(chǎn)物,它不是第一個,也必定不是最后一個該領(lǐng)域的嘗試。盡管其動機可能從純粹的戲謔、模仿,到爭取商業(yè)利益,甚至是敲詐、勒索和政治操縱,但技術(shù)應(yīng)用于以上述目的并非獨特的問題,而只是一個有待解決的問題?!?7〕See Ryan J.Black and Pablo Tseng,What Can and Should the Law Do About“Deepfake”:An Update,LEXOLOGY (Dec.5,2018),https://www.lexology.com/library/detail.aspx?g=09f3dc1a-d3c1-41d6-9029-1cb8794eb54f.現(xiàn)有的技術(shù)規(guī)制與法律規(guī)制手段無法完全覆蓋“深度偽造”技術(shù)的諸多應(yīng)用場景,這就需要在現(xiàn)有技術(shù)與法律規(guī)制之外構(gòu)建一種全新的“平臺-作者-受眾”三位一體的新規(guī)制模式。
對于技術(shù)應(yīng)用的風(fēng)險,通常的邏輯是“以子之矛,攻子之盾”——用技術(shù)進行規(guī)制。實際上,隨著“深度偽造”技術(shù)的影響擴大,以技術(shù)進行“溯源防偽”和“反向破解”的理念與實踐也日益盛行。
“溯源防偽”是指通過溯源技術(shù)從根本上保證視頻的真實性。已有國外公司開始使用區(qū)塊鏈等技術(shù),利用在分布式賬本上永久記錄元數(shù)據(jù),在創(chuàng)建之初為音頻、照片、視頻內(nèi)容添加水印。由此,對于視頻的真?zhèn)尉涂梢员憬莸刈R別?!?8〕See Robert Chesney and Danielle Citron,Deepfakes and the New Disinformation War:The Coming Age of Post-Truth Geopolitics,98 Foreign Aff.147,154(2019).該技術(shù)雖然在技術(shù)層面沒有顯著困難,但卻很可能會面臨成本和政策方面的難題而無法真正推廣。也有學(xué)者暢想,推出一項新服務(wù)——不可變的生命日志或身份驗證跟蹤,使“深度偽造”的受害者可以提供經(jīng)過認證的不在場證明,可信地證明他或她沒有說或做所描述的事情?!?9〕See Bobby Chesney and Danielle Citron,Deep Fakes:A Looming Challenge for Privacy,Democracy,and National Security,107 Cal.L.Rev.(forthcoming 2019),available at SSRN.實際上,研究人員的靈感很可能來自美國作家戴夫·艾格斯(Dave Eggers)創(chuàng)作于2013年的反烏托邦小說《圓圈》(The Circle),小說中政客佩戴24小時的電子監(jiān)控設(shè)備和流媒體設(shè)備來建立公眾信任——如果你不透明,那么意味著你一定在隱瞞什么。
“反向破解”則是通過技術(shù)對“深度偽造”技術(shù)生成的“換臉視頻”進行識別。美國國家標準與技術(shù)研究所和美國國防高級計劃局的研究人員一直在致力于開發(fā)能夠探測“深度偽造”的技術(shù)?!?0〕See Derek B.Johnson and Susan Miller,The Danger of“Deep Fakes”,GLOBAL CYCLING NETWORK(Jul.18,2018),https://gcn.com/articles/2018/07/18/deep-fakes.aspx.研究人員發(fā)現(xiàn)“換臉視頻”中人物眨眼次數(shù)較少、且極不自然。通過跟蹤視頻中人物的眼睛狀態(tài),“換臉視頻”的識別準確率高達99%?!?1〕參見閆欣、華凌:《AI換臉也有 bug,看看人物眨沒眨眼》,《科技日報》2019年3月18日,第8版。還有團隊通過“換臉視頻”中血液進入皮膚時細微變化來識別?!?2〕See Oscar Schwartz,You Thought Fake News Was Bad?Deep Fakes Are Where Truth Goes to Die,THE GUARDIAN (Nov.12,2018),https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth.
然而,無論“溯源防偽”抑或是“反向破解”,在“深度偽造技術(shù)”快速演化性的特征之下,都顯得略顯蒼白。“道高一尺魔高一丈”,技術(shù)的進展速度往往高于技術(shù)的破解速度。舉例而言,隨著技術(shù)的發(fā)展,“深度偽造”技術(shù)可以收集海量的眨眼視頻進行訓(xùn)練,由此就可以進一步優(yōu)化“換臉視頻”中的眨眼細節(jié),從而成功避開檢測工具?!?3〕參見馮衛(wèi)東:《“換臉”也逃不過數(shù)字真探法眼》,《科技日報》2018年8月10日,第2版。因此,從某種意義上說,作為防守方的“鑒真技術(shù)”在作為進攻方的“偽造技術(shù)”面前往往處于落后挨打的地位。
除了技術(shù)規(guī)制之外,對于高新技術(shù)應(yīng)用規(guī)制的重要工具還包括法律。由于立法過快的回應(yīng)甚至限制可能錯過技術(shù)發(fā)展的機遇和審視技術(shù)帶來問題的機會,因此對于“深度偽造”技術(shù)在內(nèi)的前沿技術(shù)規(guī)制主要立基于現(xiàn)有的法律體系。實際上,無論從民事賠償、行政處罰、刑事追訴等方面來看,現(xiàn)有的法律體系都為規(guī)制“深度偽造”技術(shù)提供了可能。
首先,正如本文第三部分提及的那樣,“深度偽造”技術(shù)最為直接的風(fēng)險就在于對公民的人身與財產(chǎn)權(quán)形成侵害?,F(xiàn)有的民事法律體系內(nèi)的相關(guān)制度可以對上述行為進行規(guī)制。具體來說,“換臉視頻”可能涉及肖像權(quán)和名譽權(quán)。在現(xiàn)有的技術(shù)框架之下,“深度偽造”技術(shù)需要海量的目標人物的照片、視頻作為“源數(shù)據(jù)”進行訓(xùn)練,生成偽造的目標人物(受害人)的臉部圖像,并替換到選定視頻的人物臉部。此時,目標人物的肖像權(quán)就受到侵犯。更進一步,由于“深度偽造”技術(shù)的高度真實性特征,社會公眾可能形成對“換臉視頻”主角的誤解,認為其作出了他/她實際上并未做的行為或者發(fā)表實質(zhì)上并未發(fā)表的言論,進而產(chǎn)生一種負面評價。在此過程中,“換臉視頻”使得公眾對目標人物形成了虛假或者誤導(dǎo)性的觀點,損害了其聲譽,進而給其造成精神和物質(zhì)的損失。由此,在現(xiàn)有的侵權(quán)責(zé)任法的框架之下,受害人可以要求“換臉視頻”的作者承擔(dān)刪除視頻、賠禮道歉、消除影響和賠償損失等民事責(zé)任。
其次,“深度偽造”技術(shù)還可能侵犯視頻的知識產(chǎn)權(quán)。按照我國知識產(chǎn)權(quán)的相關(guān)規(guī)定,視頻作品的作者享有作品的完整權(quán),不受任意修改的權(quán)利。當原始視頻被曲解、編輯、修改之后,原作者的知識產(chǎn)權(quán)就受到相應(yīng)的侵害??梢?,當使用“深度偽造”技術(shù)進行視頻“換臉”時,無疑就侵犯了原視頻所有人的版權(quán)和照片所有人的版權(quán)。無論“換臉視頻”制作者是否用于商業(yè),只要不構(gòu)成法定的例外情形,都已構(gòu)成侵權(quán)。原始視頻和照片的版權(quán)人都可以要求刪除修改后的視頻與照片副本、禁止發(fā)布視頻并賠償相應(yīng)損失。從國外的實踐來看,確實有版權(quán)人以侵權(quán)為由,要求網(wǎng)站刪除特定的“換臉視頻”?!?4〕See Leo Kelion,Deepfake Porn Videos Deleted from Internet by Gfycat,BBC NEWS (Feb.1,2018),https://www.bbc.com/news/technology-42905185.
再次,“換臉視頻”還可能觸發(fā)行政處罰,這主要體現(xiàn)在國家相關(guān)主管機構(gòu)對視頻傳播平臺的管理。2018年3月22日,國家廣電總局發(fā)布《關(guān)于進一步規(guī)范網(wǎng)絡(luò)視聽節(jié)目傳播秩序的通知》(下稱《廣電通知》),明確規(guī)定“堅決禁止非法抓取、剪拼改變視聽節(jié)目”。通知原文規(guī)定,不得制作、傳播歪曲、惡搞、丑化經(jīng)典文藝作品的節(jié)目,不得重新剪輯、不得截取片段拼接、不得傳播篡改原意產(chǎn)生歧義的作品片段。同樣以“楊冪換臉視頻”為例,盡管該視頻并不存在對原有作品的“惡搞”與“丑化”,但正如筆者技術(shù)邏輯部分指出的那樣,“換臉視頻”是將偽造的圖片逐幀映射到視頻之上,因此是一種對原視頻素材的重新分解和編輯,無疑構(gòu)成“剪輯”。同樣,作者還將《射雕》作品中若干片段整合成一個新段落,也構(gòu)成“截取片段拼接”。更進一步,將原視頻“換臉”,還涉嫌“篡改原意產(chǎn)生歧義”。因此,平臺對上述視頻內(nèi)容具有管理責(zé)任。若怠于履行責(zé)任,則相關(guān)管理機構(gòu)可以依法處罰。
最后,“換臉視頻”還可能構(gòu)成相應(yīng)的犯罪。如果將“偽造”和“傳播”作為核心要素,在現(xiàn)有的刑事法律體系之下,“換臉視頻”可能構(gòu)成但不僅限于以下五大類的犯罪:第一,利用“深度偽造”技術(shù)傳播虛假信息的,涉及險情、疫情、災(zāi)情、警情、軍情、敵情、恐情,根據(jù)情節(jié)不同可能構(gòu)成編造、故意傳播虛假信息罪、編造、故意傳播虛假恐怖信息罪、編造并傳播證券、期貨交易虛假信息罪、戰(zhàn)時故意提供虛假敵情罪;第二,無論“換臉”的受害人是名人抑或是普通公眾,都可能因為“換臉視頻”所故意捏造和散步的虛構(gòu)事實導(dǎo)致人格貶損與名譽損失。因此,該行為還可能構(gòu)成誹謗罪。第三,利用“換臉視頻”進行威脅、要挾行為,可能構(gòu)成敲詐勒索犯罪;第四,利用“換臉視頻”進行人臉識別進而秘密獲得或騙取公私財物,可能構(gòu)成詐騙類罪或者盜竊罪;第五,利用“換臉視頻”編造虛假信息,在網(wǎng)絡(luò)散布或者組織、指使他人在網(wǎng)上散布,造成公共秩序嚴重混亂的,還可能構(gòu)成尋釁滋事罪。如果不考慮“偽造”而只關(guān)注視頻“信息”本身,“換臉視頻”的傳播可能構(gòu)成其他更多的罪名,諸如因為傳播的內(nèi)容是色情視頻而構(gòu)成傳播淫穢物品罪、組織播放淫穢物品罪,因為傳播內(nèi)容是極端主義的言論而構(gòu)成宣揚恐怖主義、極端主義、煽動實施恐怖活動罪等。如果我們將視角關(guān)注到視頻的制作本身,還可能構(gòu)成制作、復(fù)制、出版、販賣、傳播淫穢物品牟利罪。
可見,盡管現(xiàn)有法律沒有針對“深度偽造”技術(shù)的專門立法規(guī)定,但就現(xiàn)階段的行政、民事和刑事三個領(lǐng)域的相關(guān)法律,偽造造成的后果在一定程度上可以被行政處罰、治安處罰、民事責(zé)任、刑事犯罪等既有責(zé)任體系涵蓋。然而,上述法律規(guī)制的缺陷也是顯著的:其一,民事責(zé)任規(guī)制領(lǐng)域,構(gòu)成侵犯公民肖像權(quán)的行為,通常應(yīng)具備兩個要件:未經(jīng)本人同意且以營利為目的。若“換臉視頻”并未以營利為目的,則難以被肖像權(quán)的制度體系所涵蓋;另外,構(gòu)成侵犯名譽權(quán)則根據(jù)受害人確有名譽被損害的事實、行為人行為違法、違法行為與損害后果之間有因果關(guān)系、行為人主觀上有過錯來認定。在實踐中,“換臉視頻”內(nèi)容對“受害人”名譽的貶損可能難以證明。精神損害在沒有造成嚴重后果的情況下往往難以支持。再以“楊冪換臉視頻”為例,視頻作者并非以營利為目的,更大程度上只是一種“炫技”。其“換臉”行為也沒有對楊冪本人形成不當?shù)馁H損,精神損失無從談起。盡管《射雕》的視頻所有者可以主張侵犯知識產(chǎn)權(quán),但實際上也很難以證明該視頻傳播對其造成的損失。同時,“深度偽造”技術(shù)所具備的泛在普適性也使得版權(quán)方需要面對海量分散、隨機的“偽造”行為,維權(quán)成本極高。其二,在行政責(zé)任領(lǐng)域,《廣電通知》實際上也無法充分規(guī)制“換臉視頻”。這是因為《廣電通知》規(guī)范的只是“視聽節(jié)目網(wǎng)站”,而無法涉及公眾個人行為?!吧疃葌卧臁奔夹g(shù)的泛在普適性使得從事偽造行為的主要是公眾個人,而不是“視聽節(jié)目網(wǎng)站”?!稄V電通知》確實強調(diào)網(wǎng)站要嚴格管理上傳節(jié)目,但對于如何管理、如何審查以及審查到何種程度則語焉不詳。因此,在實踐中這種管理更大程度上是一種事后的管理——在版權(quán)方投訴之后下線處理。換言之,在版權(quán)方?jīng)]有行使相應(yīng)權(quán)利的情況下,“換臉視頻”就具有一定的傳播空間。其三,在刑事責(zé)任方面,盡管刑法為偽造傳播虛假信息的行為編織了貌似嚴密的法網(wǎng),但實際上,只要視頻信息并非承載特定的內(nèi)容(如軍情、險情、色情等),或直接從事違反犯罪(如詐騙、盜竊等),現(xiàn)有“換臉視頻”的絕大多數(shù)情形都在刑事法網(wǎng)之外。至少,“楊冪換臉視頻”以及現(xiàn)在越發(fā)流行的網(wǎng)絡(luò)直播平臺主播在直播時將自己的臉換成明星(明確向觀眾表明“換臉”)的操作就基本不在上述刑事規(guī)制之內(nèi)。
法律規(guī)制更為顯著的不足還在于它往往是一種事后規(guī)制。由于“深度偽造”的高度真實性的技術(shù)特征,借助既有的網(wǎng)絡(luò)傳播平臺,其造謠的效應(yīng)可能會成指數(shù)級放大。即使后續(xù)法律產(chǎn)生強有力的規(guī)制,但既有的傳播影響已然形成。這便是所謂的“造謠動動嘴,辟謠跑斷腿”。因此,對于“深度偽造”技術(shù)生成“換臉視頻”的規(guī)制就不能僅僅局限于事后的規(guī)制。這也決定了現(xiàn)有法律的規(guī)制體系更大程度上是一種權(quán)宜之計。此時,對于“深度偽造技術(shù)”應(yīng)用的事前與事中規(guī)制就顯得尤為重要。
實際上,無論是技術(shù)抑或是法律規(guī)制,都有一定的事后性。它們在特定領(lǐng)域和特定場景可以對“深度偽造”技術(shù)形成較好的規(guī)制,但同樣無法完全規(guī)避上述技術(shù)在應(yīng)用中可能產(chǎn)生的風(fēng)險。因此,對于“深度偽造”技術(shù)的規(guī)制還應(yīng)該建立三位一體的事前與事中規(guī)制模式。在偽造視頻傳播產(chǎn)生不利影響之前有效將風(fēng)險限制在最低程度。具體而言,就是強化平臺的審查責(zé)任、明確制作者的說明義務(wù)和培養(yǎng)公眾的信息素養(yǎng)。三種措施良性循環(huán),每個環(huán)節(jié)彼此加強,形成一個閉環(huán)。
1.強化平臺審查責(zé)任
公民個人基于喜好或者研究需要而制作“換臉視頻”并不具有違法性。只有當期將該視頻傳播后才具有法律探討的空間。眾所周知,在互聯(lián)網(wǎng)時代,社交媒體與視頻平臺在“換臉視頻”的傳播中扮演著極其重要的角色。因此,平臺有責(zé)任呈現(xiàn)真實消息,審查一切疑似虛假、夸大、帶有煽動性的消息,尤其要防范假消息在平臺上的病毒式擴散?!?5〕參見王悠然:《警惕“后真相”時代的假消息》,《中國社會科學(xué)報》2017年1月6日,第3版。當然,平臺的審查責(zé)任也并非無遠弗屆。在“深度偽造”的“換臉視頻”的傳播中,平臺只要遵循“技術(shù)正當程序”〔36〕See Bobby Chesney and Danielle Citron,Deep Fakes:A Looming Challenge for Privacy,Democracy,and National Security,107 Cal.L.Rev.(forthcoming 2019),available at SSRN.即可被認為履行了審查責(zé)任。若怠于履行上述義務(wù),造成相應(yīng)后果,平臺需要承擔(dān)連帶責(zé)任。
平臺的“技術(shù)正當程序”包括以下幾個方面內(nèi)容:第一,修改平臺的視頻傳播政策,對于“深度偽造”的“換臉視頻”采取特殊政策,禁止上傳利用“深度偽造”技術(shù)制作的未經(jīng)授權(quán)的“換臉視頻”。事實上,在紅迪網(wǎng)事件之后,除了紅迪網(wǎng)自身關(guān)閉相應(yīng)版塊之外,美國其他部分視頻平臺也修改網(wǎng)站政策,明確禁止上傳利用“深度偽造”技術(shù)制作的視頻,理由正是未經(jīng)權(quán)利人的同意。回到“楊冪換臉視頻”的事件中,視頻作者既未獲得楊冪方的授權(quán),亦未獲得版權(quán)方的授權(quán)。因此,他可以基于科學(xué)研究進行相應(yīng)的訓(xùn)練,但要將“換臉視頻”通過平臺公開則另當別論;因此,只要有權(quán)利人主張侵權(quán),那么平臺有立刻刪除的義務(wù)。第二,開發(fā)“深度偽造”的識別技術(shù)。目前,不少互聯(lián)網(wǎng)平臺已經(jīng)通過智能算法來識別問題內(nèi)容、快速審查發(fā)布和賦予高質(zhì)量內(nèi)容以高優(yōu)先度?!?7〕See Lili Levi,Real Fake News and Fake Fake News,16 First Amend.L.Rev.232,239(2017).這為平臺進行內(nèi)容審查提供了技術(shù)可能。在“深度偽造”的應(yīng)用場景中,平臺需要在傳統(tǒng)內(nèi)容形式審查的基礎(chǔ)之上更進一步,實現(xiàn)對偽造視頻的技術(shù)審查。從世界范圍來看,大型的互聯(lián)網(wǎng)平臺已經(jīng)推出相應(yīng)的虛假信息識別技術(shù)?!?8〕See Jack M.Balkin,Free Speech in the Algorithmic Society:Big Data,Private Governance,and New School Speech Regulation,51 U.C.D.L.Rev.1149,1183(2018).因此,大型視頻傳播平臺推出對“換臉視頻”識別機制也是大勢所趨。第三,平臺在識別來自“深度偽造”的相關(guān)應(yīng)用程序(如FakeApp)的搜索請求時可以嘗試提高其獲得特定圖片的難度。目前,“深度偽造”技術(shù)的“源數(shù)據(jù)”主要來自各大搜索引擎、社交網(wǎng)站,因此需要上述平臺在識別“深度偽造”搜索請求時提高獲取“源數(shù)據(jù)”的難度。谷歌就曾經(jīng)通過算法修改特定搜索請求的返回結(jié)果,以增加查找某些資料的難度?!?9〕Dave Lee,Deepfakes Porn has Serious Consequences,BBC NEWS (Feb.3,2018),https://www.bbc.com/news/technology-42912529.只要平臺滿足了“技術(shù)正當程序”,則可以認定在“深度偽造”視頻的傳播中不負連帶責(zé)任。
2.明確作者的聲明義務(wù)
由于“深度偽造”技術(shù)的高度真實性、泛在普適性與快速演化性,導(dǎo)致可能偽造視頻的潛在群體劇增、視頻欺騙性增強?!皳Q臉視頻”的行為可能呈現(xiàn)出分散、隨機、破壞巨大且難以主動規(guī)制的特征。此時,就勢必要建立一種全新的“換臉視頻”作者聲明義務(wù)。對于作者而言,需要遵循以下兩個要求:其一,在視頻的顯要位置以明顯的水印等方式聲明“換臉視頻”。其二,在通過平臺傳播時需要向平臺聲明該視頻的“換臉屬性”。如果生產(chǎn)者完成上述義務(wù)則推定為無過錯,如果沒有履行上述義務(wù)則推定為有過錯。這種規(guī)制類似于《產(chǎn)品質(zhì)量法》中的警示說明。當然,其實法國的相關(guān)立法已經(jīng)為這種聲明義務(wù)提供了參照。2017年法國政府就推出了一項法律規(guī)定,規(guī)定經(jīng)過修圖處理的模特照片必須標注“已修圖照片”。此種作者主動的說明義務(wù)為有效規(guī)制“深度偽造”技術(shù)的生成物提供了可能。
3.培育公眾的信息素養(yǎng)
雖然“深度偽造”技術(shù)極大增加了虛假視頻的“可信度”,但更好的信息教育也是預(yù)防虛假視頻產(chǎn)生不當社會影響的重要途徑。與其期待通過禁止“換臉視頻”的方式來解決問題,不如關(guān)注如何提升公眾的“關(guān)鍵信息素養(yǎng)”,區(qū)分視頻的真假。因此,除了平臺的審查責(zé)任與制作者的說明義務(wù)之外,對于“深度偽造”技術(shù)的規(guī)制還有一個關(guān)鍵的環(huán)節(jié)——提升公眾“關(guān)鍵媒體/信息素養(yǎng)”。
所謂信息素養(yǎng),是指公眾借助工具,理解新聞報道中的框架、偏見、不準確之處,并能夠評估事實真實性的能力?!?0〕See Lili Levi,Real Fake News and Fake Fake News,16 First Amend.L.Rev.232,309(2017).信息素養(yǎng)重點關(guān)注如何區(qū)分信息的真假?!?1〕Isabelle Courtney,In an Era of Fake News,Information Literacy Has a Role to Play in Journalism Education in Ireland,Irish Communication Review,Volume 16,Issue 1,2018,p.22.它指向“一組能力,要求個人識別何時需要信息,并具有定位、評估和有效使用所需信息的能力”,〔42〕Michelle H.Williams and Jocelyn J.Evans,Factors in Information Literacy Education,4 J.OF POL.SCI.EDUC.116,116(2008).“但它的意義遠不止于此:它還涉及充分利用信息和明智地解釋信息所需的能力、屬性與自信。包括批判性思維和意識,以及對與使用信息相關(guān)的倫理和政治問題的理解”?!?3〕Information Literacy Group,CILIP Definition of Information Literacy 2018,THE LIBRARY OF INFORMATION ASSOCATION(2018),p.3.媒體素養(yǎng)是信息素養(yǎng)的組成部分。它關(guān)注的是理解媒體、便捷使用媒體(傳統(tǒng)媒體、數(shù)字媒體)以及使用媒體創(chuàng)建或表達自我能力的知識?!?4〕See Caroline L.Osborne,Programming to Promote Information Literacy in the Era of Fake News,46 Int'l J.Legal Info.101,109(2018).當今社會圍繞新聞制作、信息傳播形成了越來越復(fù)雜的商業(yè)模式,這就使得信息素養(yǎng)顯得更加重要。
從整體而言,當今社會對于公眾信息素養(yǎng)的培養(yǎng)缺乏必要的關(guān)注。社會公眾在消費信息時,存在意識缺陷,在使用信息前,沒有保持必要的批判性和審慎性。斯坦福大學(xué)的一份研究顯示,年輕人對于互聯(lián)網(wǎng)信息進行推理的能力極度有限,極度容易受騙?!?5〕See Stanford History Education Group,Evaluating Information:The Cornerstone of Civic Online Reasoning:Executive Summary(Nov.22,2016),p.4.此外,由于“確認性偏誤”〔46〕所謂的“確認性偏誤”是指人們在主觀上支持某種觀點時,往往傾向于接收能夠支持上述觀點的信息,而排斥或忽視與觀點相沖突的信息。和“過濾氣泡”〔47〕“過濾氣泡”的概念由Eli Pariser在2010年提出,指的是在算法推薦機制下,高度同質(zhì)化的信息流會阻礙人們認識真實的世界。參見Kalev Leetaru,Why 2017 Was the Year of the Filter Bubble?,FORBES(Dec.18,2017),https://www.forbes.com/sites/kalevleetaru/2017/2018/why-was-2017-the-year-of-the-filter-bubble/26146572746b。的存在,一個人傾向于接受自己支持的某種觀點,并不斷強化。因此,要在接受的基礎(chǔ)之上進行批判性的認知,是一個巨大的挑戰(zhàn)。僅靠理智和情感無法有效穿越“后真相”的泥潭?!?8〕有人認為,可以用理解和情感來穿越“后真相”的泥潭。參見夏遠望:《用理智與情感穿越“后真相”泥淖》,《河南日報》2018年1月15日,第6版。具體而言,信息素養(yǎng)的核心目標有兩個方面:第一,是讓公眾在接受信息之前習(xí)慣性地批判檢查,〔49〕Caroline L.Osborne,Programming to Promote Information Literacy in the Era of Fake News,46 Int'l J.Legal Info.101,103(2018).意識到“在這個數(shù)字時代,任何事情都不能盲目地看表面,因為那張臉可能是在欺騙你”?!?0〕前引〔31〕,閆欣、華凌文。第二,培養(yǎng)公眾使用相關(guān)工具對識別視頻來源、作者身份,評估視頻承載信息的準確性和客觀性,進而獲得對視頻內(nèi)容進行批判性檢查和驗證的能力。這也是在“后真相時代”生存的必備技能。
智能技術(shù)的發(fā)展呈現(xiàn)出加速迭代的特征。諸多技術(shù)及應(yīng)用常常令法律人應(yīng)接不暇。進入大數(shù)據(jù)與人工智能時代,一個明顯的感受便是法律相對于前沿技術(shù)的滯后性越發(fā)凸顯。實際上,“深度偽造”技術(shù)及其產(chǎn)生的風(fēng)險只是諸多智能技術(shù)發(fā)展的衍生品之一。法律固然是強有力的規(guī)制工具,但要充分降低智能技術(shù)的應(yīng)用風(fēng)險,唯有技術(shù)、法律與倫理規(guī)制協(xié)同。