傅爾得
最近,一款以“螞蟻呀嘿”為背景音樂(lè)的換臉搖頭特效視頻,在抖音、微博等平臺(tái)被火熱刷屏。名為Avatarify的、制作這款特效的App,在幾天之內(nèi)就沖上了國(guó)內(nèi)蘋(píng)果應(yīng)用商店的榜首,但在不到一周后的3月2日凌晨,這款應(yīng)用被悄然下架了。
面對(duì)這如暴風(fēng)雨般來(lái)去的熱潮,我們心中大概已不再泛起太大的波瀾,因?yàn)椋缭谌昵?,我們就?jiàn)識(shí)過(guò)一款名為“ZAO”的換臉視頻應(yīng)用在一周內(nèi)的現(xiàn)象級(jí)快速興起與下架。如今很難想象當(dāng)時(shí)的我們有多么天真,當(dāng)我在微信一屏屏刷到朋友們的臉在幾秒之內(nèi)無(wú)縫般移花接木到演員的臉上,同時(shí)還能毫無(wú)破綻地出演劇情時(shí),內(nèi)心確實(shí)受到了不小的震撼。我們可能普遍會(huì)對(duì)一張照片是否修過(guò)產(chǎn)生警覺(jué),但卻仍然本能地對(duì)視頻和聲音抱有信任,因?yàn)槟莻€(gè)時(shí)候,“深度造假”遠(yuǎn)未像現(xiàn)在這樣被認(rèn)知。
“深度造假”這個(gè)詞誕生于2017年,當(dāng)時(shí)一位名為“deepfakes”的用戶,在社交新聞?wù)搲W(wǎng)站Reddit上發(fā)布了一些經(jīng)過(guò)Al換臉的色情視頻,視頻將色情演員的臉替換成了蓋爾·加朵、泰勒·斯威夫特、斯嘉麗·約翰遜等好萊塢女星。這一事件的轟動(dòng)效應(yīng)迅速引發(fā)了全球的關(guān)注,在那之后,deepfake就成了AI(人工智能)換臉技術(shù)的代名詞。
維基百科對(duì)Deepfa ke的定義是:英文“deeplearning”(深度學(xué)習(xí))和“fake”(造假)的混成詞,專指基于人工智能的人體圖像合成技術(shù)的應(yīng)用。雖說(shuō)技術(shù)是中性的,但如何把握好度則是對(duì)人性及隨時(shí)跟進(jìn)的法律的考驗(yàn)。斯嘉麗·約翰遜就曾在接受華盛頓郵報(bào)的采訪中說(shuō)過(guò):“讓任何一個(gè)人成為這項(xiàng)技術(shù)的攻擊目標(biāo)只是時(shí)間問(wèn)題。”事情將遠(yuǎn)不會(huì)止于色情報(bào)復(fù)等行為,如果臉部和聲音的生物特征數(shù)據(jù)被泄漏,我們的門(mén)禁和銀行賬戶等都將不再安全。如果不對(duì)深度造假技術(shù)的使用加以監(jiān)管,無(wú)論是個(gè)人生活還是公共政治等層面,我們都將會(huì)無(wú)所適從。
我無(wú)意在倫理和社會(huì)公共議題上過(guò)多地討論深度造假,更多想討論的是,在這之后我們和影像的關(guān)系發(fā)生了怎樣的變化?我們都有過(guò)這樣的經(jīng)驗(yàn),如果了解過(guò)魔術(shù)的技巧,就不會(huì)再產(chǎn)生第一次觀看表演時(shí)的強(qiáng)烈沖擊了,正如我們多數(shù)人經(jīng)歷假照片后的感受。而現(xiàn)在,我們來(lái)到了升級(jí)后的深度造假的世界,這將會(huì)是一個(gè)口說(shuō)和耳聽(tīng)都不再為憑的世界,是一個(gè)你可能會(huì)在自己毫不知情的情況下說(shuō)出你沒(méi)有說(shuō)過(guò)的話的世界。此刻,我們要刷新我們的認(rèn)知和心理來(lái)面對(duì)。
暗房時(shí)代說(shuō)起來(lái)稍微有點(diǎn)遙遠(yuǎn)了,大多數(shù)從Adobe Photoshop時(shí)代走來(lái)的我們,曾經(jīng)為了將一張照片中的人像移入另一張照片,或者為了將照片中的人修得更完美等,先要學(xué)會(huì)使用這個(gè)軟件,而修好一張圖還要花費(fèi)很長(zhǎng)時(shí)間,然則結(jié)果還不一定完美。在“無(wú)圖無(wú)真相”口號(hào)還流行的時(shí)代,即便我們已經(jīng)對(duì)雜志上被修得過(guò)分完美的模特產(chǎn)生了共識(shí),但對(duì)于一般照片的信任還是基本存在的。但深度造假技術(shù)則擊潰了我們過(guò)往的認(rèn)知,與PS不一樣的是,它的一個(gè)重要特點(diǎn)在于:其圖片和視頻是由人工智能算法制作而成。
只要稍稍回想一下,就會(huì)發(fā)現(xiàn)我們已在不知不覺(jué)中進(jìn)入了算法的世界。三不五時(shí),朋友圈就會(huì)出現(xiàn)一些刷屏的小程序,要么是為你生成不同風(fēng)格的懷舊照片,要么是生成你老年時(shí)的照片,或者是讓你看到男性或女性版本的自己,等等。在我們驚訝于一鍵換頭的便捷的同時(shí),各種美圖軟件已成了我們生活的必需品,我們對(duì)自己在照片中的完美形象比任何時(shí)候的期望都要高。
現(xiàn)實(shí)越走越遠(yuǎn),似乎無(wú)法回頭,一旦知道那些幾乎毫無(wú)破綻的照片或視頻是偽造的,我們的認(rèn)知就會(huì)發(fā)生變化。因此,當(dāng)近期一款用AI技術(shù)將懷舊老照片中的人的頭部動(dòng)起來(lái)的程序開(kāi)始進(jìn)入大眾視野的時(shí)候,我已經(jīng)感覺(jué)到了自己體內(nèi)的“免疫抗體”。
雖然如此,當(dāng)我點(diǎn)進(jìn)網(wǎng)站“This Person Does Not Exist”(這個(gè)人不存在)后,不得不說(shuō),剛看到那些肖像照時(shí),我簡(jiǎn)直無(wú)法說(shuō)服自己他們都是人工智能合成的,從他們的面部表情和眼神中,我甚至能想象到他們的呼吸、喜好、經(jīng)歷等等。這些人臉肖像是用StyleGAN2技術(shù)生成的,這是深度造假的基本技術(shù)之一:算法讓一個(gè)網(wǎng)絡(luò)去生成內(nèi)容,讓另一個(gè)網(wǎng)絡(luò)將其與人臉進(jìn)行比較,迫使其不斷改進(jìn),直到合成圖像與真實(shí)人臉之間無(wú)法區(qū)分。那么問(wèn)題來(lái)了,一旦所有人都變得懷疑一切,我們將如何讓自己判斷眼前所見(jiàn)?
我們或許會(huì)變得更為偏狹,只相信自己信任的信息源。而識(shí)別深度造假的方法,還得依靠人工智能。目前,通過(guò)神經(jīng)網(wǎng)絡(luò)算法來(lái)判斷是主要方法之一,但其準(zhǔn)確率只落在84%—99%之間。而且,一旦我們用新的技術(shù)去識(shí)別深度造假,它就會(huì)對(duì)這項(xiàng)技術(shù)進(jìn)行深度學(xué)習(xí),從而進(jìn)行規(guī)避。因此,任何一種反深度造假的技術(shù),都會(huì)讓其越來(lái)越強(qiáng)大。但另一種方法將會(huì)更為可靠:通過(guò)區(qū)塊鏈技術(shù)的證據(jù)溯源來(lái)進(jìn)行判斷。
我們不得不調(diào)試好自己,學(xué)會(huì)與深度造假共存,這將影響到我們創(chuàng)作、溝通以及詮釋世界的方式。影像作為當(dāng)前最強(qiáng)而有力的溝通媒介已被推入了真與假的戰(zhàn)場(chǎng),而它是否能守住防線不至潰敗,則成為我們的擔(dān)憂。
或許,我們將進(jìn)入一個(gè)很難確定什么是真實(shí)的世界,在這里,真相不僅是奢侈品,而且正被重新塑形。而更大的隱憂在于:許多人甚至根本不在乎真相。奧威爾在《1984》里說(shuō)過(guò),“誰(shuí)控制了過(guò)去,就控制了未來(lái);誰(shuí)控制了現(xiàn)在,就控制了過(guò)去”,在人工智能時(shí)代,這句話或許應(yīng)該改為:“誰(shuí)控制了數(shù)據(jù),就控制了過(guò)去和未來(lái)”。