兒子來電聲稱手機壞掉,要重新加LINE?七旬老翁急匯款 38 萬,險遭AI詐騙



新北市一名男子日前接到自稱是兒子的來電,表示手機壞掉需要重新加LINE好友,男子不疑有他便照做,並依指示匯款38萬元給對方。幸好,銀行行員機警察覺有異,及時攔阻了這場AI人聲詐騙。
根據台視新聞報導 ,新北市一名男子日前前往銀行準備匯款給兒子時向行員表示,兒子要買電腦設備急用錢。不過,行員在核對匯款資料時,發現兩人是在幾天前才剛加好友。

圖片截圖來源:台視


行員覺得情況有異,懷疑這是一場詐騙。隨即聯絡警方到場,經警方調查後發現,男子的兒子根本沒有打電話給他,而是一名詐騙集團利用AI技術模擬人聲,冒充男子的兒子行騙。
警方表示,詐騙集團近年來經常利用AI技術進行詐騙,手法十分逼真,民眾應提高警覺,不要輕易相信陌生人的來電或訊息,如有任何疑慮,應主動向警方或銀行查證。

無獨有偶,四月高雄一名79歲男子日前接到一通自稱是他姪子的來電,對方表示換了新電話,並想借錢投資。男子一聽聲音確實像自己的姪子,便前往銀行匯款。不料,姪子收到錢後又來電要求再借一筆。男子再次前往銀行匯款時,行員察覺有異,立即通報員警。經調查後證實,這是一個詐騙集團利用AI技術仿冒姪子聲音,企圖詐取長輩的錢財。

(以上2024/5/24更新)


「媽,我被綁架了!」小心你上傳的短影片, 3秒就被AI 做成「分聲」詐騙你媽

電影《捍衛戰士》第二集中飾演冰人的方基墨因為罹患喉癌而幾乎無法開口講話,片中的對話台詞其實是藉由AI模擬出的對話台詞。🥹

知名美劇《黑鏡(Black Mirror)》中,主角藉著已經過世丈夫生前在社群媒體上的貼文,而由 AI 生成宛若重生的亡夫語氣跟主角互動。而這場景,也被專家預測有實現的可能。

最令人憂心的是,詐騙集團利用AI語音複製/AI仿聲術,進行相似度高達九成的電話語音詐騙。

近年來,科技的進步讓電腦複製人類語音達到了難以置信準確的程度。這項技術被稱為AI語音複製/AI仿聲術,並且已經有相當多實際的應用,但同時也催生了一種任何人都可以利用語音複製功能進行的新型詐騙, 柏克萊加州大學電腦科學教授 Hany Farid表示,這項詐騙成本每月只需五元。根據美國聯邦貿易委員會(FTC)統計資料顯示,去年美國人被AI 仿聲詐騙金額高達26億美元,平均一戶家庭被詐騙1萬1000美元。

詐騙者利用AI語音複製技術詐騙金錢或敏感資訊屢屢得逞。騙徒透過社交媒體搜尋獵物,以公開的個人資訊及影片檔案,製成可信度極高的語音詐騙,美國聯邦貿易委員會(Federal Trade Commission,縮寫:FTC警告,詐騙者利用 TikTok 帳戶或Instagram社群媒體上的短影音片段就可以在3 秒內輕易地建立「分聲」 ,然後利用這些連哭聲都一模ㄧ樣的聲音,向心急如焚的父母勒索大筆贖金。

👉 趨勢科技在Computex 展出多項 AI資安相關技術 – Connecting AI Security, 6/4~6/7 ⟫了解更多

美國有一起受害案例,儘管其追蹤者多數是親朋好友,其上傳的影音還是被歹徒加以利用。

媒體找了專門研究AI生成技術的專家來實測,發現英語系國家AI複製聲音,相似度確實高達九成,很難辨識。資料來源:鏡新聞

接到親友被綁架電話, FBI 建議即時破解靠這招


「媽,我被綁架了。」這是全世界共通的電話詐騙老梗,但身為父母對自己親身骨肉的聲音有過度的把握。四月初有名15歲美國亞利桑那州的媽媽接到女兒啜泣的電話,歹徒威脅要傷害這位女孩,除非交出100萬美元的贖金。這位母親完全沒也意識到電話那頭「連哭聲都一樣」的聲音是經過AI變造過,心急如焚地認定女兒被綁架,非常擔心不付出贖金,女兒就會被施打毒品,甚至被丟到墨西哥,直到找朋友連絡上正在度假滑雪的女兒。

「媽,我被綁架了。」這是全世界共通的電話詐騙老梗,但身為父母對自己親身骨肉的聲音有過度的把握
「媽,我被綁架了。」這是全世界共通的電話詐騙老梗,但身為父母對自己親身骨肉的聲音有過度的把握

☞ 延伸閱讀:出遊打卡,把親友拖下水,還告訴小偷:闖空門正是時候? 不止如此現在還提供詐騙集團進行AI 電話語音綁架詐騙的最佳時機。

芝加哥聯邦調查局(FBI)發言人強生(Siobhan Johnson)建議:除了不要在社交網站發布出外旅遊的貼文外,建立只有親密家人才知道的專用「通關密碼」,是破解騙局的關鍵。

資料來源:美國聯邦貿易委員會(Federal Trade Commission,縮寫:FTC

連CNN 記者爸媽都被騙倒,如何聽出破綻?


AI語音詐騙逼真度近九成, CNN 記者實測發現,連父母都騙倒! AI深偽假聲音恐遭詐騙用,但有幾點可以注意:

  • 使用急迫性的語氣。
  • 來電者要求使用加密貨幣、禮物卡或其他無法被追踪的方法付款。
  • 來電沒有背景噪音。
  • 來電內容資訊前後不一致。
  • 「被綁架者」無法正確回答和家人預先約定好的「通關密碼」(前提是:你們曾經設定過)。

影片來源:連父母都騙倒! AI深偽假聲音 恐遭詐騙用|方念華|FOCUS全球新聞  TVBS NEWS

☎️ 保護自己免於 AI 語音詐騙


📌 1.冷靜判斷:先掛斷電話並直接聯絡「被綁架」的親友,如果聯絡不上,致電可以確認其行蹤的老師/同事/朋友。
📌 2.反問「被綁架」的親友:請對方回答只有家人知道的「通關密碼」 (*前提是:你們必須曾經共同設定過)。
📌 3.發文前三思:不要在社群媒體過度分享,免得讓詐騙者的謊言可信度大增。
📌 4.做好社群隱私設定:不要在社群網站公開自己或親友的電話號碼,如果一定要發布有自己聲音的影片,請做好隱私設定。
尤其不要公開自己或親友的電話號碼,若要發布有自己聲音的影片請做好隱私設定
⭕️ PC-cillin 檢查社群/網站隱私設定安全性 ⟫免費下載試用

如果你懷疑自己被騙了,請立即回報給警方。



✅防毒防詐✅守護帳密✅VPN安心串流✅阻絕惡意✅安心蝦拚
PC-cillin 讓你的『指指點點』可以開心又安心點!

【一下指就掉入詐騙陷阱?PC-cillin讓你安心點 】PC-cillin不只防毒也防詐騙 ✓手機✓電腦✓平板,跨平台防護3到位➔ 》即刻免費下載試用

◼參考來源:AI Voice Scam: Everything You Need to Know