小心錢被騙走了!AI換臉「詐騙新手法」一定要知道
外媒路透指中國AI換臉詐騙,引發人們對AI技術恐助長金融犯罪的擔憂,這顯示照片、聲音和影像都可以被騙徒拿來利用,網路上的隱私和安全受到威脅。
陸媒南方日報則介紹了AI技術如何應用在新的騙局,以及有什麼新的詐騙方式?
⊕聲音合成:騙子透過騷擾電話錄音等,來提取某人聲音,獲取素材後進行聲音合成,再用偽造的聲音騙過對方。
⊕AI換臉:因為人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再透過視頻方式進行信息確認。
⊕轉發微信語音:在盜取微信號後,騙子便向其好友「借錢」,為取得對方信任,他們會轉發之前的語音,進而騙取錢財。儘管微信沒有語音轉發功能,但他們透過提取語音文件或安裝非官方版本(插件),可實現語音轉發。
⊕AI篩選受騙人群:騙子根據所要實施的騙術,透過AI技術篩選受騙人群,別有用心地鎖定特定對象。例如,當進行金融詐騙時,經常蒐集投資訊息的人,就會成為他們潛在的目標。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:小心錢被騙走了!AI換臉「詐騙新手法」一定要知道
地址:https://www.twnewsletter.com/article/4502.html