草根影響力新視野 法蘭瓷編譯 

A.I.是生活中的便利幫手,但同時也成為有心人士的詐騙工具。這次的美國總統競選,就曾發生冒充總統喬拜登的機器人電話敦促新罕布夏州選民不要參加總統初選。美國總檢察長辦公室在 1 月 22 日的聲明中表示:「雖然自動電話中聽起來像是拜登總統的聲音,但這則訊息似乎是根據初步跡像人為生成的,是破壞新罕布夏州總統初選及壓制選民的非法企圖。」

詐騙者利用A.I.工具複製家人聲音的案例也與日俱增。今年3月美國聯邦貿易委員會發布了消費者警報,警告民眾詐騙者可能會利用A.I.技術複製家人們的聲音來試圖說服受騙者匯款。人們該如何保護自己以避免受騙上當呢?

根據電腦軟體公司的 “人工冒名頂替者” 報告,研究人員發現,免費的線上工具可利用僅僅3秒鐘的音訊來複製某個人的聲音。報告指出,先進的人工智慧工具正在改變網路犯罪分子的遊戲規則。現在,不需要花費太多心力,有心分子就可以複製一個人的聲音來欺騙親友們匯款。

黑客 騙局 電腦 匿名 通訊 密碼 打字 程序設計 盜竊 技術 賊 偷 人 恐怖分子 信息 犯罪 網絡 安全 電腦 餅乾 男人 數字 危險 病毒 因特網 刑事 間諜 網絡 筆記本電腦 數據 非法 男人 暗 在線 隱私

圖片取自:(示意圖123rf)

雖然區分真假和人工智慧生成的深度贗品變得越來越困難,但保持警惕並採取積極措施來確保自己和家人的安全非常重要。以下是一些可以採取的保護步驟:

  1. 查核事實與驗證

網路安全專家 Adrianus Warmenhoven表示,當面對類似模仿拜登這樣的A.I.語音詐騙時,應該仔細檢查所聽到的內容是否真的正確。例如,接到模仿拜登總統聲音的惡意電話時,只要在網路上稍加搜索,就可以明確得知已登記的共和黨人和未申報的選民都可以在初選中投票。Warmenhoven補充表示,如果懷疑自己成為網路犯罪分子的目標,那麼還可以在網路查看最近是否有關於人工智慧生成的語音詐騙的報告。

  1. 結束通話

當接聽到未知號碼的電話,對方聽起來也像是家人的急迫語調來調度金錢,請盡量不要驚慌失措。相反地,應該掛斷電話,然後嘗試使用「家人平常在用的電話號碼」來打個電話或發短信確認是否安好。如果接到冒充銀行的詐騙者打來的電話,做法也是如此:不要立即相信他們的說法,而是結束通話並立刻撥打銀行在網站上、金融卡背面、信用卡背面所列的服務電話號碼做確認。

Reference

Scammers can use AI tools to clone the voices of you and your family—how to protect yourself