中新經(jīng)緯
一天,你的一位熟人給你發(fā)來消息提出要借錢,隨后對方發(fā)來視頻通話邀請。視頻通話接通后,你確認(rèn)對方的形象和聲音就是熟人本人的,于是毫不懷疑地把錢轉(zhuǎn)了過去。但沒過多久,你就發(fā)現(xiàn)自己被騙了,原來“借錢”的并不是你那位熟人。
這可不是鬼故事,而是已經(jīng)發(fā)生在多位受害者身上的真實(shí)案例。
前不久,一則10分鐘被騙子利用AI(人工智能)騙走430萬元的新聞刷屏。據(jù)警方通報,受害人郭先生遇到的就是上述情形。騙子利用AI技術(shù)佯裝成郭先生的好友,對其實(shí)施了詐騙。
目前,AI換臉隨處可見。在短視頻平臺,不少用戶都體驗(yàn)過換臉帶來的新鮮感—僅需提供一張照片,你就可以變成視頻中人,或用照片直接生成視頻。
七七(化名)專門在網(wǎng)上接單,用AI幫別人生成視頻?!爸恍杼峁┮粡埍尘案蓛舻恼嬲眨揖湍苌梢曨l。視頻中的人不僅眼睛、嘴巴會動,還能時不時動動頭,動作非常自然。如果你提供文字,我還可以讓視頻中的人物對上相應(yīng)的口型,適配程度很高,可以連續(xù)播放1分鐘?!逼咂哒f,他目前做這個工作已經(jīng)非常熟練,一條視頻“一個晚上就能完工”。
除了利用AI快速換臉,用AI手段合成或克隆聲音也越來越常見。
一位商家介紹,只需要提供某人一段10分鐘至30分鐘的沒有雜音的聲音素材,就能用2天左右時間生成一個專屬模型,后續(xù)輸入任何文字,都可以用這個人的聲音發(fā)出來。
據(jù)了解,目前制作一段能“露臉且說話”的視頻成本并不高。七七表示,用照片生成一段1分鐘時長的視頻僅需30元左右;如果視頻時間比較短,畫面質(zhì)量要求不高,這個價格還可以再降,甚至可以幾塊錢做一段。上述商家表示,生成一個聲音的專屬模型也只需要幾十元。
這意味著,如果有人想要生成用你的形象搭配你的聲音的視頻,花費(fèi)僅需數(shù)十元。
對于前述警方通報的案例,網(wǎng)友們也有一些疑問。比如不法分子是如何獲得郭先生好友的照片及聲音素材的?本應(yīng)是即時的視頻通話,郭先生的手機(jī)里播放的為何是事先合成好的視頻?
“通報中沒有詳細(xì)說明不法分子是如何獲取郭先生好友的個人信息的,但有一點(diǎn)可以肯定,這位好友的社交媒體賬號被盜了。不法分子可能是從社交媒體里直接獲取了其個人信息,也可能之前以騷擾電話的方式與郭先生的好友聯(lián)系過,獲取了其聲音信息?!?電信分析師付亮分析。
至于為什么接通視頻通話,播放的卻是事先合成好的視頻,付亮認(rèn)為,這可能是通過插件實(shí)現(xiàn)的。據(jù)了解,目前用虛擬攝像頭就可以做到這一點(diǎn)。
北京嘉維律師事務(wù)所律師趙占領(lǐng)表示,目前,未經(jīng)他人許可使用其肖像,即使不以營利為目的,也會侵犯肖像權(quán),但聲音目前不受法律保護(hù)。“但有些具有顯著性的聲音申請注冊了商標(biāo),這種情況下聲音是受法律保護(hù)的?!壁w占領(lǐng)說。如果將合成的視頻用于詐騙,達(dá)到一定的數(shù)額標(biāo)準(zhǔn),就涉嫌刑事犯罪了。
目前,針對利用AI進(jìn)行的詐騙,各類平臺已向公眾發(fā)出提醒,并給出了一些防詐騙提示。值得注意的是,由于對新技術(shù)的了解不足,這種新型詐騙給中老年人帶來了更大的挑戰(zhàn)。
在日常生活中,公眾除了要注意個人信息保護(hù),不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻外,還要增強(qiáng)防范意識;尤其是涉及財務(wù)往來時,務(wù)必通過電話、見面等最樸素的途徑核實(shí)確認(rèn),不要未經(jīng)核實(shí)隨意轉(zhuǎn)賬匯款,不要輕易透露自己的身份證、銀行卡、驗(yàn)證碼等信息。
此外,也要進(jìn)一步提高辨別AI合成視頻的能力和技巧。目前AI合成的視頻雖已比較逼真,但在色彩分布、肌膚紋理、表情的自然連貫性等方面仍有較為明顯的瑕疵。