吳玄
近日,全國(guó)多地發(fā)生FaceTime詐騙事件,同時(shí)有不少蘋(píng)果用戶(hù)在社交平臺(tái)上反映相關(guān)問(wèn)題。作為一種常見(jiàn)的交流方式,線(xiàn)上視頻在為人們的工作生活帶來(lái)極大便利的同時(shí),也存在著諸多個(gè)人信息風(fēng)險(xiǎn)。當(dāng)下,以ChatGPT為代表的生成式人工智能技術(shù)的突破,更加凸顯出個(gè)人信息保護(hù)面臨的新問(wèn)題與新挑戰(zhàn)。
隨著信息技術(shù)的發(fā)展,在線(xiàn)上視頻中偽造受害者的人臉已經(jīng)不是難事,其具體使用的,就是人工智能的深度合成技術(shù)。
深度合成技術(shù),是指利用深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等生成合成類(lèi)算法制作文本、圖像、音頻、視頻、虛擬場(chǎng)景等網(wǎng)絡(luò)信息的技術(shù),包括但不限于文本編輯、語(yǔ)音文字轉(zhuǎn)換、音樂(lè)生成、人臉生成與視頻生成、圖像生成、數(shù)字仿真等。其合成的內(nèi)容在視覺(jué)、聽(tīng)覺(jué)上具有極佳的仿真效果,甚至能夠做到“以假亂真”。
深度合成技術(shù)源于人工智能系統(tǒng)生成對(duì)抗網(wǎng)絡(luò)(GAN)的發(fā)展,近期大熱的ChatGPT就運(yùn)用了該模型架構(gòu)。GAN包含兩個(gè)部分:一個(gè)生成模型與一個(gè)判別模型。前者的任務(wù)是生成看似真實(shí)的,與原始數(shù)據(jù)相似的內(nèi)容;后者則對(duì)生成內(nèi)容進(jìn)行真實(shí)與否的判斷。與傳統(tǒng)人工智能算法模型不同,生成式人工智能模型(GAI,Generative Artificial Intelligence)充分貫徹了“大數(shù)據(jù)、大算力、大模型”。
大數(shù)據(jù)為生成式人工智能系統(tǒng)提供了訓(xùn)練原材料,ChatGPT不僅可以“理解”和生成廣泛的自然語(yǔ)言文本,還具備極強(qiáng)的圖像與視頻生成能力。大算力是處理海量數(shù)據(jù)必備的基礎(chǔ),訓(xùn)練生成式人工智能模型所需要的算力取決于模型的規(guī)模(參數(shù)數(shù)量)、訓(xùn)練數(shù)據(jù)集的大小、訓(xùn)練輪次、批次大小。大模型是一個(gè)智能載體,在大算力的支撐下從大數(shù)據(jù)中提煉出“智能”。算法自身通過(guò)深度學(xué)習(xí)不斷自我迭代,產(chǎn)生出復(fù)雜架構(gòu)的人工智能模型并展現(xiàn)出較高的智能水準(zhǔn)。
警惕不法之徒利用視頻電話(huà)竊取人臉、聲音信息
在生成式人工智能系統(tǒng)的推動(dòng)下,深度合成的應(yīng)用端變得不再遙不可及:
一方面,深度合成內(nèi)容的準(zhǔn)確度和效率大大提升。經(jīng)深度合成的內(nèi)容更加“無(wú)懈可擊”。以“換臉”(Deepfake)為例,僅需提供一張本人照片,即可按照要求生成相應(yīng)的圖片乃至視頻,達(dá)到人臉的重現(xiàn)、替換、編輯與合成。2019年6月,一則以臉書(shū)創(chuàng)始人兼首席執(zhí)行官馬克·扎克伯格為主角的換臉視頻出現(xiàn),引發(fā)媒體和輿論的廣泛關(guān)注。
另一方面,深度合成應(yīng)用的成本在不斷降低。隨著一些應(yīng)用程序的出現(xiàn),不懂技術(shù)的人也能簡(jiǎn)單制作換臉假視頻。2018年4月,美國(guó)娛樂(lè)網(wǎng)站Buzzfeed發(fā)布了一條非常逼真的視頻。視頻內(nèi)容是美國(guó)前總統(tǒng)奧巴馬的一段講話(huà),而現(xiàn)實(shí)中,這段講話(huà)從未發(fā)生過(guò)。這條視頻采用FakeApp制作,據(jù)說(shuō)花費(fèi)了56個(gè)小時(shí)來(lái)搜集和匯總奧巴馬的相關(guān)模型。而如今,借助最新的生成式人工智能模型,這一流程得以大幅簡(jiǎn)化且不影響內(nèi)容效果。
基于ChatGPT等生成式人工智能的加持,網(wǎng)絡(luò)信息內(nèi)容的生產(chǎn)也發(fā)生了代際變化。已從早期的Web1.0、Web2.0,正式過(guò)渡到Web3.0時(shí)代。如果說(shuō)專(zhuān)業(yè)媒體內(nèi)容生產(chǎn)和用戶(hù)交互內(nèi)容生產(chǎn)(自媒體)是前兩個(gè)時(shí)代的特征,那么人工智能生成內(nèi)容(AIGC)正逐漸成為新的發(fā)展方向。利用深度合成技術(shù)生成的影視劇片段、明星話(huà)題和公眾人物的換臉視頻等具有極強(qiáng)的娛樂(lè)性與傳播性。有學(xué)者指出,深度合成將重新定義虛擬數(shù)字化空間,從傳播社會(huì)學(xué)意義上看,一個(gè)新的人類(lèi)生存場(chǎng)景將以深度合成技術(shù)為基石展開(kāi)。
技術(shù)是一把雙刃劍,深度合成技術(shù)在改變?nèi)祟?lèi)生活場(chǎng)景的同時(shí)也引發(fā)了一系列社會(huì)風(fēng)險(xiǎn)和安全挑戰(zhàn)。隨著深度合成技術(shù)的推廣和使用成本的降低,不法之徒可以批量偽造音頻、視頻,實(shí)施誹謗、詐騙、勒索等違法行為,甚至捏造公眾人物言論擾亂社會(huì)秩序。隨之而來(lái)的是,傳統(tǒng)的新聞信息服務(wù)許可、用戶(hù)賬號(hào)管理和平臺(tái)算法過(guò)濾、人工審核標(biāo)注等手段所面臨的治理挑戰(zhàn):
首先,深度合成技術(shù)被用于非法目的,侵犯?jìng)€(gè)人的合法權(quán)益。2021年10月,安徽合肥警方曾查獲一起非法利用深度合成技術(shù)偽造手機(jī)用戶(hù)人臉動(dòng)態(tài)視頻破解身份核驗(yàn),為黑灰產(chǎn)業(yè)提供注冊(cè)虛擬手機(jī)卡等技術(shù)支撐的案件。此外,不法之徒還利用Facetime、微信視頻等線(xiàn)上通話(huà)應(yīng)用來(lái)竊取人臉和聲音信息,用于偽造不雅視頻,侵害個(gè)人名譽(yù)權(quán)。
其次,深度合成技術(shù)的濫用容易滋生謠言及破壞社會(huì)秩序。一些不法之徒利用深度合成技術(shù),生成高度逼真的圖片、音頻和視頻,并杜撰文字加以傳播,張冠李戴、無(wú)中生有,顛覆了傳統(tǒng)“有圖有真相”的認(rèn)知,進(jìn)一步加劇了人們發(fā)現(xiàn)與識(shí)別謠言的難度。
最后,深度合成技術(shù)容易被惡意利用,威脅國(guó)家安全。當(dāng)前,國(guó)外已出現(xiàn)多起利用深度合成技術(shù)偽造政治或公眾人物發(fā)表言論,不僅影響國(guó)內(nèi)政治穩(wěn)定,還可能引發(fā)國(guó)際危機(jī)。
針對(duì)人工智能技術(shù)應(yīng)用產(chǎn)生的風(fēng)險(xiǎn),我國(guó)較早開(kāi)始了法律規(guī)制的嘗試。除網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個(gè)人信息保護(hù)法等網(wǎng)信基礎(chǔ)立法之外,又有多部相關(guān)法規(guī)相繼出臺(tái)。如2022年3月開(kāi)始實(shí)施的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》將生成合成類(lèi)算法列入監(jiān)管范圍;2023年1月開(kāi)始實(shí)施的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》是針對(duì)深度合成技術(shù)應(yīng)用的專(zhuān)門(mén)立法;2023年8月開(kāi)始實(shí)施的《生成式人工智能服務(wù)管理暫行辦法》則是在生成式人工智能最新發(fā)展動(dòng)向基礎(chǔ)上的及時(shí)應(yīng)對(duì)。
從技術(shù)角度來(lái)看,個(gè)人信息在深度合成技術(shù)應(yīng)用中處于核心地位。無(wú)論是人工智能模型用于訓(xùn)練的數(shù)據(jù),需要合成時(shí)使用的“樣本”信息,還是經(jīng)過(guò)深度合成的圖像、音頻、視頻等內(nèi)容,均離不開(kāi)個(gè)人信息。因此,個(gè)人信息保護(hù)將成為深度合成應(yīng)用治理的重要環(huán)節(jié)。2023年8月8日公布的《人臉識(shí)別技術(shù)應(yīng)用安全管理規(guī)定(試行)》(征求意見(jiàn)稿)也是將法律規(guī)制的重點(diǎn)移回到個(gè)人信息保護(hù)上。生成式人工智能模型在一定程度上模糊了真實(shí)與虛擬的邊界。然而,浮于表象的數(shù)字“真實(shí)”終究難以掩蓋本質(zhì)的現(xiàn)實(shí)“虛假”。因此,對(duì)深度合成應(yīng)用中的個(gè)人信息保護(hù)也應(yīng)當(dāng)圍繞區(qū)分“真”和“假”展開(kāi)——
一方面,應(yīng)當(dāng)保障“真”個(gè)人信息的權(quán)益。所謂“真”個(gè)人信息是指現(xiàn)實(shí)世界中涉及每個(gè)人的真實(shí)的個(gè)人信息。首先,是從個(gè)人信息收集的源頭予以保護(hù)。在信息收集階段,應(yīng)當(dāng)落實(shí)“知情-同意”要求,嚴(yán)格控制使用范圍。對(duì)用于人工智能訓(xùn)練的數(shù)據(jù)進(jìn)行去標(biāo)識(shí)化處理。如《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》明確要求深度合成服務(wù)提供者和技術(shù)支持者提供人臉、人聲等生物識(shí)別信息編輯功能的,應(yīng)當(dāng)提示深度合成服務(wù)使用者依法告知被編輯的個(gè)人,并取得其單獨(dú)同意。其次,是加強(qiáng)對(duì)敏感個(gè)人信息的保護(hù)。個(gè)人信息保護(hù)法規(guī)定對(duì)敏感信息應(yīng)進(jìn)行更為嚴(yán)格的保護(hù)。人臉信息即屬于敏感個(gè)人信息中的生物識(shí)別類(lèi)信息。在深度合成應(yīng)用中,無(wú)論是“換臉”還是生成視頻、圖像或音頻內(nèi)容,第一步是輸入作為“樣本”數(shù)據(jù)的(人臉)信息。《人臉識(shí)別技術(shù)應(yīng)用安全管理規(guī)定(試行)》(征求意見(jiàn)稿)重申了敏感個(gè)人信息非必要不采集:“只有在具有特定的目的和充分的必要性,并采取嚴(yán)格保護(hù)措施的情形下,方可使用人臉識(shí)別技術(shù)處理人臉信息。實(shí)現(xiàn)相同目的或者達(dá)到同等業(yè)務(wù)要求,存在其他非生物特征識(shí)別技術(shù)方案的,應(yīng)當(dāng)優(yōu)先選擇非生物特征識(shí)別技術(shù)方案?!?/p>
另一方面,對(duì)于“假”個(gè)人信息的使用和流動(dòng)應(yīng)當(dāng)予以控制。這里的“假”個(gè)人信息是指運(yùn)用深度合成技術(shù)生成的虛假音頻、視頻、圖片等內(nèi)容。首先,是在技術(shù)上進(jìn)行標(biāo)識(shí)化處理。此處的“標(biāo)識(shí)化”是指深度合成服務(wù)提供者對(duì)使用其服務(wù)生成或者編輯的信息內(nèi)容,應(yīng)當(dāng)采取技術(shù)措施添加標(biāo)識(shí)。其目的在于幫助用戶(hù)識(shí)別信息真假,重新建立真實(shí)與虛假的區(qū)分界限。其次,是健全審核和辟謠機(jī)制。識(shí)別違法內(nèi)容是深度合成應(yīng)用治理的基礎(chǔ)。深度合成服務(wù)提供者應(yīng)當(dāng)建立相應(yīng)機(jī)制,第一時(shí)間發(fā)現(xiàn)生成內(nèi)容非法,并采取措施制止相關(guān)內(nèi)容的傳播,從而將生成內(nèi)容對(duì)社會(huì)與個(gè)人的侵害控制在最小范圍內(nèi)。
(作者系上海師范大學(xué)副教授)