最近,小編在刷社交平臺的時候,看到有網(wǎng)友表示,荊州最近發(fā)生了新型的大騙局,還有網(wǎng)友煞有其事的講了自己的親身經(jīng)歷。
不過,小編查了一下官方的新聞報道,發(fā)現(xiàn)這個所謂的新型騙局也可能就是一個謠言。
荊州發(fā)生新型大騙局 AI克隆你?
在視頻中,一位主播表示:最近的新聞大家看到了,荊州最近發(fā)生了一個新型大騙局,以前只在北上廣深大城市,現(xiàn)在已經(jīng)蔓延到我們荊州了,真人真事。
![]()
看到這里,你是不是被這個內(nèi)容所吸引,主播后來講述了這個所謂的新型大騙局。
大致內(nèi)容就是說,有陌生人要你幫忙去念手機(jī)上的字,如果你幫忙了,就陷入了新型AI高科技騙局,只要你幫忙念出了這十幾個字,對方就能悄悄的獲取你的人臉信息,就會克隆你。
首先,小編查了下,荊州并未發(fā)生這種新型騙局的新聞報道,只有社交平臺的一些主播自稱的所謂真實經(jīng)歷。
![]()
比如一位荊州網(wǎng)友發(fā)視頻表示,自己在店子里面,有個姨媽找她念手機(jī)上的數(shù)字,然后她發(fā)現(xiàn)手機(jī)正在錄視頻,然后這位網(wǎng)友還科普說:這是在采集你的聲音和人臉識別信息,可以生成AI提升前去網(wǎng)貸,不到半小時你就可能背上貸款。
不過小編對這個故事的真實性是存疑的,因為在去年12月份,短時間內(nèi),荊州有多位網(wǎng)友都講訴了類似的所謂親身親歷的故事。
此類AI詐騙 發(fā)生概率小
首先,關(guān)于第一位主播說北上廣深發(fā)生過,上海、成都、南京的地民警在接受采訪時曾表示沒有接到過此類的報案。
另外還解釋到:僅有聲音和面部信息,沒有身份信息、手機(jī)號、驗證碼及銀行卡號等信息,網(wǎng)貸平臺難以審批下款,當(dāng)事人在極短時間內(nèi)“被網(wǎng)貸”的可能性并不大。
![]()
這里想一下,如果說讀手機(jī)上的幾個字就可以訓(xùn)練AI替身,那么,主播發(fā)布的視頻也是有圖像有聲音,直接下載主播的視頻進(jìn)行AI訓(xùn)練,是不是比找主播讀數(shù)字或者文字來的更加方便。
其實現(xiàn)在社交平臺公開渠道的視頻和聲音那么多,沒必要做一些冒險的舉動。
小編覺得,提醒大家注意個人隱私,謹(jǐn)慎使用人臉識別,不幫陌生人讀任何數(shù)字,這一點,小編覺得沒有問題而且有必要,泄露的個人信息容易被不法分子二次利用,總歸是有安全風(fēng)險隱患的。
但是如果編造說自己親身經(jīng)歷或者說荊州已經(jīng)發(fā)生新型大騙局,就有點為了流量制造焦慮了。
常見AI騙局大盤點
雖然所謂的AI替身網(wǎng)貸的騙局發(fā)生的可能性較低,但大家仍需要警惕,小編也結(jié)合官方資料為大家梳理了幾類常見的AI詐騙。
AI模仿聲音詐騙:詐騙分子主要是利用互聯(lián)網(wǎng)公開渠道獲取目標(biāo)人物的照片、視頻和音頻素材,通過視頻生成類AI工具,偽造出與目標(biāo)人物極為相似的面容和聲音,以各種理由誘導(dǎo)受害者轉(zhuǎn)賬或提供個人信息。
AI生成不雅內(nèi)容詐騙:利用AI換臉技術(shù),偽造帶有受害人面容的不雅視頻、圖片和音頻等,進(jìn)行勒索敲詐。
AI生成虛假人物網(wǎng)戀詐騙:利用AI生成或憑借的美女帥哥視頻,最后就是找被害人借錢等。
另外還有AI換臉直播,特別是一些名人的,這個大家一搜新聞一大堆。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.