換臉人工智能(AI)應(yīng)用Deep Fakes剛出現(xiàn)時(shí)曾引發(fā)一陣恐慌:當(dāng)視頻都能輕易造假,人們?cè)撊绾伪鎰e真?zhèn)巍W畲蟮膿?dān)憂或許要數(shù)政要演講造假的擔(dān)憂。
為了驗(yàn)證這種擔(dān)憂是否合理,麻省理工學(xué)院媒體實(shí)驗(yàn)室從2020年4月至2022年1月間在其網(wǎng)站上開展了一項(xiàng)試驗(yàn)。研究人員向5727人展示了16個(gè)真實(shí)的政治演講片段和16個(gè)被Deep Fakes替換過的演講片段。受試者被告知其中一半的內(nèi)容是假的,并被詢問他們認(rèn)為其中哪些片段是偽造的。
最終的結(jié)果顯示,僅閱讀文本時(shí),受訪者辨認(rèn)出謊言的比例是57%,只比隨機(jī)猜測(cè)好一點(diǎn)。當(dāng)給出帶字幕的視頻時(shí),受訪者的猜測(cè)準(zhǔn)確率上升到66%。當(dāng)能夠同時(shí)收聽收看視頻和音頻后,受訪者辨認(rèn)謊言的準(zhǔn)確率達(dá)到了82%。比起閱讀文字,人們?cè)谟^看視頻時(shí)更能辨別出謊言。
研究者表示,受試者的判斷基礎(chǔ)更多依賴于內(nèi)容表達(dá)的方式而非內(nèi)容本身。比如音頻、視頻中除了內(nèi)容本身,還能展現(xiàn)出說話人各種微小表情、動(dòng)作、語(yǔ)音模式等方面的細(xì)微差異,這有助于人們?cè)谝欢ǔ潭壬献R(shí)別Deep Fakes制造出的不真實(shí)感。
但這種樂觀可能僅針對(duì)Deep Fakes。研究者稱,“真正危險(xiǎn)的偽造視頻,可能并不是普通算法隨便生成的‘換臉’視頻,而是經(jīng)過精加工、極度以假亂真的單個(gè)視頻?!?/p>