如果有一天,你的一位熟人給你發(fā)來消息提出要借錢,隨后對(duì)方發(fā)來視頻通話邀請(qǐng)。視頻通話接通后,你確認(rèn)對(duì)方的形象和聲音就是熟人本人,于是毫不懷疑地把錢轉(zhuǎn)了過去,但沒過多久,你就發(fā)現(xiàn)自己被騙了,原來“借錢”的并不是你那位熟人。
這可不是虛假故事,而是已經(jīng)發(fā)生在多位受害者身上的真實(shí)案例。
前不久,一則10分鐘被騙子利用AI(人工智能)騙走430萬元的新聞刷屏。據(jù)警方通報(bào),受害人郭先生遇到的就是上述情形。騙子利用AI技術(shù)佯裝成郭先生的好友,對(duì)其實(shí)施了詐騙。
目前,AI換臉隨處可見。在短視頻平臺(tái),不少用戶都體驗(yàn)過換臉帶來的新鮮感——僅需提供一張照片,你就可以變成視頻中人,或用照片直接生成視頻。
七七(化名)專門在網(wǎng)上接單,用AI幫別人生成視頻。“只需提供一張背景干凈的正面照,我就能生成視頻。視頻中的人不僅眼睛、嘴巴會(huì)動(dòng),還能時(shí)不時(shí)動(dòng)動(dòng)頭,動(dòng)作非常自然。如果你提供文字,我還可以讓視頻中的人物對(duì)上相應(yīng)的口型,適配程度很高,可以連續(xù)播放1分鐘?!逼咂哒f,他目前做這個(gè)工作已經(jīng)非常熟練,一條視頻“一個(gè)晚上就能完工”。
除了利用AI快速換臉,用AI手段合成或克隆聲音也越來越常見。
一位商家介紹,只需要提供某人一段10分鐘至30分鐘的沒有雜音的聲音素材,就能用2天左右時(shí)間生成一個(gè)專屬模型,后續(xù)輸入任何文字,都可以用這個(gè)人的聲音發(fā)出來。
據(jù)了解,目前制作一段能“露臉且說話”的視頻成本并不高。七七表示,用照片生成一段1分鐘時(shí)長的視頻僅需30元左右;如果視頻時(shí)間比較短,畫面質(zhì)量要求不高,這個(gè)價(jià)格還可以再降,甚至可以幾元錢做一段。上述商家表示,生成一個(gè)聲音的專屬模型也只需要幾十元。
這意味著,如果有人想要生成用你的形象搭配你的聲音的視頻,花費(fèi)僅需數(shù)十元。
對(duì)于上述警方通報(bào)的案例,網(wǎng)友們也有一些疑問。比如不法分子是如何獲得郭先生好友的照片及聲音素材的?本應(yīng)是即時(shí)的視頻通話,郭先生的手機(jī)里播放的為何是事先合成好的視頻?
“通報(bào)中沒有詳細(xì)說明不法分子是如何獲取郭先生好友的個(gè)人信息的,但有一點(diǎn)可以肯定,這位好友的社交媒體賬號(hào)被盜了。不法分子可能是從社交媒體里直接獲取了其個(gè)人信息,也可能之前以騷擾電話的方式與郭先生的好友聯(lián)系過,獲取了其聲音信息。”電信分析師付亮分析。
至于為什么接通視頻通話,播放的卻是事先合成好的視頻,付亮認(rèn)為,這可能是通過插件實(shí)現(xiàn)的。據(jù)了解,目前用虛擬攝像頭就可以做到這一點(diǎn)。
北京嘉維律師事務(wù)所律師趙占領(lǐng)表示,目前,未經(jīng)他人許可使用其肖像,即使不以營利為目的,也會(huì)侵犯肖像權(quán)。如果將合成的視頻用于詐騙,達(dá)到一定的數(shù)額標(biāo)準(zhǔn),就涉嫌刑事犯罪了。
目前,針對(duì)利用AI進(jìn)行的詐騙,各類平臺(tái)已向公眾發(fā)出提醒,并給出了一些防詐騙提示。值得注意的是,由于對(duì)新技術(shù)的了解不足,這種新型詐騙給中老年人帶來了更大的挑戰(zhàn)。
在日常生活中,公眾除了要注意個(gè)人信息保護(hù),不輕易提供人臉、指紋等個(gè)人生物信息給他人,不過度公開或分享動(dòng)圖、視頻外,還要增強(qiáng)防范意識(shí);尤其是涉及財(cái)務(wù)往來時(shí),務(wù)必通過電話、見面等最樸素的途徑核實(shí)確認(rèn),不要未經(jīng)核實(shí)隨意轉(zhuǎn)賬匯款,不要輕易透露自己的身份證、銀行卡、驗(yàn)證碼等信息。
此外,也要進(jìn)一步提高辨別AI合成視頻的能力和技巧。目前AI合成的視頻雖已比較逼真,但在色彩分布、肌膚紋理、表情的自然連貫性等方面仍有較為明顯的瑕疵。