小心錢被騙走了!AI換臉「詐騙新手法」一定要知道

jcatcj 05月 23,2023

外媒路透指中國AI換臉詐騙,引發人們對AI技術恐助長金融犯罪的擔憂,這顯示照片、聲音和影像都可以被騙徒拿來利用,網路上的隱私和安全受到威脅。

陸媒南方日報則介紹了AI技術如何應用在新的騙局,以及有什麼新的詐騙方式?

⊕聲音合成:騙子透過騷擾電話錄音等,來提取某人聲音,獲取素材後進行聲音合成,再用偽造的聲音騙過對方。

⊕AI換臉:因為人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再透過視頻方式進行信息確認。

⊕轉發微信語音:在盜取微信號後,騙子便向其好友「借錢」,為取得對方信任,他們會轉發之前的語音,進而騙取錢財。儘管微信沒有語音轉發功能,但他們透過提取語音文件或安裝非官方版本(插件),可實現語音轉發。

⊕AI篩選受騙人群:騙子根據所要實施的騙術,透過AI技術篩選受騙人群,別有用心地鎖定特定對象。例如,當進行金融詐騙時,經常蒐集投資訊息的人,就會成為他們潛在的目標。


鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。


標題:小心錢被騙走了!AI換臉「詐騙新手法」一定要知道

地址:https://www.twnewsletter.com/article/4502.html

相關文章
精選資訊
  • 財經輪股堂|定製不同風險偏好投資策略
  • 財富焦點論壇︱互聯網經濟對經濟增長影響
  • 大砍蘋果13%持股!股神巴菲特解釋原因 擁6兆現金創新高
  • Threads看不到留言?一鍵找回精彩留言
  • 85度C董娘出清全部3463張持股 美食-KY證實「已賣完」曝原因
  • 狂飆論股社| 韓國公司債券收益率飆升
  • 鴻海旗下鴻騰精密注資新加坡子公司122億 因應海外擴張計畫