最重要嘅防身口訣係:AI 唔係身份證明,亦唔係真相證明。 一把聽落好熟嘅聲、一段似真嘅片、一個專業到似官方嘅網站,甚至一段答得好順嘅 AI 回覆,都可能係真;但亦可能係生成、剪接、操控,或者根本答錯。
所以,判斷重點唔係「似唔似真」,而係:可唔可以用另一條獨立渠道證實?
點解 AI 騙案唔再似以前啲垃圾電郵
以前好多網騙一眼就見到錯字、奇怪連結、粗糙排版。AI 令呢件事變難咗:假聲可以更自然,假片可以更逼真,假網站可以更似真公司,假客服亦可以即時同你對答。
美國多個監管機構已經將 AI 相關欺詐視為消費者同金融保護問題。美國通訊監管機構 FCC 處理 AI 生成電話同短訊,並建議推動公眾教育,幫助消費者理解 AI 生成嘅自動來電同訊息 [1]。美國商品期貨交易委員會 CFTC 亦警告,生成式 AI 可以令騙徒更容易製作有說服力嘅假圖片、假聲、假影片、直播視像聊天、社交媒體檔案同假網站 [
4]。
美國聯邦貿易委員會 FTC 亦有針對 AI 欺詐行動:2024 年,FTC 宣布打擊誤導性 AI 宣稱同 AI 騙局 [3];同年亦提出新保障措施,處理 AI 冒充個人嘅問題,明確提到 AI 生成 deepfake 帶來嘅詐騙風險 [
5]。到 2025 年,FTC 指出冒充公司同政府機構嘅騙案一直屬於常見舉報類型,2024 年錄得消費者損失 29.5 億美元;要留意,呢個數字係指冒充騙案整體,唔係只計 AI 生成個案 [
13]。
換句話講:關於 AI 協助冒認、deepfake、假電話同誤導性 AI 賺錢承諾,現有證據相當明確。不過,今次引用嘅資料並冇提供一個可靠嘅「日常 AI 系統平均錯誤率」數字。
1. 一有人催你,即刻停一停
如果對方要你即刻付款、即刻撳連結、即刻確認、唔好同人講,或者即刻交出敏感資料,先當佢係警號。
可以記住呢條「停一停」規則:
- 唔好即刻轉錢;
- 唔好即刻開連結;
- 唔好下載附件;
- 唔好即刻批准登入或付款;
- 唔好交出敏感資料;
- 先用另一條渠道核實。
呢幾秒鐘嘅停頓好重要,因為 CFTC 已警告,生成式 AI 可以幫騙徒製造更有說服力嘅假身份、假媒體同假網站 [4]。
2. 認人唔好靠一把聲,要轉渠道核實
電話入面嘅聲,或者視像入面嘅樣,已經唔可以單獨當作身份證明。FTC 提出打擊個人冒認嘅保障措施時,特別提到 AI 生成 deepfake 可能帶來欺詐風險 [5]。
實際做法好簡單:完結現有對話,再用你自己揀嘅渠道聯絡對方。 例如:
- 打去你本身已儲存嘅電話號碼;
- 自己喺瀏覽器輸入官方網址,唔好撳對方畀你嘅連結;
- 用一個你早已知道、獨立嘅方式聯絡本人;
- 如涉及公司付款,按公司既定流程覆核。
家庭同團隊可以預先定幾個簡單習慣:
- 約定一個緊急情況用嘅 code word;
- 任何金錢要求都要回撥核實;
- 所謂「好急」都唔可以例外;
- 唔好喺同一個 chat、同一通電話、同一個視像通話入面完成核實。
3. OTP、密碼、身份證明同付款授權,唔好喺通話中交出去
一次性驗證碼(OTP)、密碼、身份證件相、wallet 存取權、付款授權,全部都係高風險資料。只要有人喺來電、訊息、視像通話或者語音訊息入面要求你交出,最安全反應係:中止,然後另外核實。
就算對方聽落似銀行、政府部門、僱主、平台客服、客戶、屋企人或者上司,都唔好放鬆。CFTC 明確提到,騙徒可以利用假聲、假影片、直播視像聊天、社交媒體檔案同惡意網站,令 AI 協助嘅欺詐更可信 [4]。
4. 聲音、影片、截圖,只當線索,唔當證據
唔好等到自己有能力「技術性拆穿 deepfake」先行動。對一般人嚟講,更實際嘅問題係:呢個故事可唔可以被獨立證實?
遇到可疑來電、影片或截圖,可以逐條問:
- 呢個要求,符唔符合對方平時做事方式?
- 有冇一個已知、安全嘅回撥方法?
- 對方係咪要求你保密?
- 係咪要你轉錢去新戶口、wallet,或者用不尋常付款方式?
- 係咪突然要求改銀行資料、送貨地址、登入資料?
只要其中一點令你覺得唔對路,就停。涉及金錢、身份同帳戶權限,第二條核實渠道應該係必須步驟,唔係可有可無。
5. 見到「AI 幫你搵錢」,更加要慢
「AI-powered」「AI 驅動」「用 AI 自動賺錢」唔等於可靠,亦唔等於低風險。FTC 於 2024 年宣布打擊誤導性 AI 宣稱同 AI 騙局,其中包括一宗針對網上商機計劃嘅訴訟;FTC 指稱該計劃聲稱其「cutting edge」AI 工具可以幫消費者開網店,並快速賺取每月被動收入 [3]。
見到以下說法,要特別小心:
- 「AI trading」聲稱穩賺;
- 「AI 自動化」帶來被動收入;
- 演算法保證回報;
- 昂貴課程或工具承諾不切實際收入;
- 只用截圖、testimonial、demo 片做證明,但冇可核實資料。
安全做法係:先查負責人、合約條款、費用、風險同原始資料。唔好因為對方加咗「AI」兩個字,就急住付款。
6. AI 答案當草稿,唔好當最後判決
AI 出錯同 AI 騙案,其實可以用同一個原則處理:唔好盲信,要覆核。 今次引用嘅資料主要證明 AI 相關欺詐、冒認同誤導性 AI 宣稱嘅風險;但資料本身並冇提供一個可靠嘅日常 AI 錯誤率。
涉及重要決定,可以用呢個流程:
- 打開原始來源: 法例原文、官方網頁、原研究、合約、帳戶紀錄、產品文件、醫療專業資料。
- 核對數字同日期: 睇清楚日期、背景、發布機構、定義同適用範圍。
- 高風險事項搵人覆核: 尤其係法律、醫療、金融、安全、身份同工作決定。
- 唔好未查就轉發 AI 摘要: 轉發之前,先核實重點主張。
AI 可以幫你起草、整理、總結,但唔應該單獨決定一件事係咪真、係咪安全、或者係咪有法律效力。
7. 家庭同公司,事前定好規矩
最好嘅保護唔係臨場靠醒,而係事前有流程。冒認騙案本身已經係大問題:FTC 指出,冒充公司同政府機構嘅騙案一直屬於常見舉報類型,2024 年錄得消費者損失 29.5 億美元;同樣要記住,呢個數字唔係只包括 AI 個案 [13]。
家庭可以咁做:
- 約定緊急情況 code word;
- 涉及金錢要求,一律用已知電話號碼回撥;
- 提醒小朋友、父母、長輩:聲音同影片都可以被偽造;
- 永遠唔好喺電話入面講 OTP 或密碼。
公司同團隊可以咁做:
- 付款授權唔可以只靠 chat、電郵、語音訊息或視像通話;
- 供應商銀行資料變更,一定要雙重核實;
- 不尋常付款用四眼原則;
- 回撥必須用已知號碼,唔用對方即場提供嘅號碼;
- AI 生成內容對外使用前,先查核心事實。
30 秒應急清單
如果一通電話、一段影片、一個 chat,或者一段 AI 生成內容令你覺得「而家要即刻做」,跟住呢五步:
- 停一停: 唔好即刻反應。
- 保護資料: 唔交 OTP、密碼、證件相、付款授權。
- 轉渠道: 用已知電話號碼,或者自己打開官方網站核實。
- 搵證據: 查原始來源、合約、帳戶紀錄、官方頁面,或者直接確認。
- 搵第二個人: 涉及錢、身份或重大決定,唔好一個人喺壓力下行動。
最後要記住
日常防 AI 騙案同 AI 出錯,最有用嘅未必係某個神奇工具,而係一套固定流程:停一停、另外核實、保護敏感資料、重要 AI 說法查原始來源。
今次資料對 AI 協助欺詐、deepfake 冒認、AI 生成電話同誤導性 AI 承諾有較強支持 [1][
3][
4][
5][
13];但對「AI 系統日常平均錯幾多」就冇足夠一般化數字。另要留意,本文引用資料主要來自美國監管機構;香港或其他地區嘅報案渠道、法律後果同銀行處理程序,本文未有另行核實。




