一張相手指怪怪哋、一段片嘴形唔太同步、一段聲似真又似假——呢啲都可以係警號,但唔係結論。查假新聞,最重要唔係問「似唔似 AI」,而係問:呢個 post 到底想你信乜?有冇原始證據?上下文啱唔啱?
生成式 AI 令文字、圖片、聲音同影片愈來愈似真,但唔代表查證變成冇可能。美國國家標準與技術研究院(NIST)的 GenAI 計劃,正評估 AI 生成文字有幾難同真人寫作分辨,以及生成敘事可以有幾可信。[1] UNESCO 亦將 deepfake(深偽)放入一場「認知危機」去討論,即係視聽證據同公共信任都可能被動搖。[
4] Reuters 報道,有聯合國報告呼籲加強偵測 AI 驅動 deepfake 的措施,原因包括錯誤資訊同可能影響選舉的風險。[
3]
第一件事:唔好憑感覺,先拆個講法
好多誤判都係由表面開始:手指、陰影、嘴形、聲線、背景字體。呢啲可以幫你留意問題,但唔足以完成查證。
見到可疑內容,先問三條問題:
- 個 post 具體聲稱乜? 用一句說話寫低:邊個、做咗乜、幾時、喺邊度、想證明乜。
- 原始來源喺邊? 有冇完整影片、完整錄音、官方文件、研究論文、產品文件、原始上載連結?
- 上下文對唔對? 日期、地點、語言、剪接片段、標題、caption 同圖片內容有冇對得上?
如果欠其中一層,唔代表一定係假;但至少代表:未夠證據。美國北卡羅來納州的 N.C. Cooperative Extension 亦將辨認 AI 生成媒體中的錯誤資訊,歸入 deepfake 時代的數碼素養教育。[2]
真片都可以講假故事
一個常見陷阱係:以為影片真,講法就一定真;或者見到似 AI,就當成成件事都假。其實媒體同聲稱可以分開。
- 真影片可以被配上錯誤時間、地點或事件背景。
- 真截圖可以被剪走前文後理。
- AI 圖可以只係用嚟象徵性配圖,唔一定係證據。
- 合成影片可以同另一個需要獨立查證的聲稱綁埋一齊。
所以每次查證最好分兩條線:材料本身係真、改過,定係合成? 以及:材料有冇真正證明 post 入面嗰句講法?
7 步快查清單:轉發前用一次
下次見到震撼影片、AI 圖、名人錄音、爆料截圖,或者「AI 又突破人類」之類說法,可以跟住呢個次序做。
- 寫低核心聲稱。 佢究竟話發生咗咩?邊個牽涉其中?想你得出咩結論?
- 搵原始來源。 唔好只睇轉載 post。試吓搵完整影片、較長錄音、原始文件、研究論文、官方公告或者最初上載者。
- 對上下文。 查日期、地點、語言、活動背景、畫面裁切、標題同 caption。真片配錯背景,一樣可以誤導。
- 分開媒體同講法。 問兩次:內容本身真唔真?以及,就算內容真,佢係咪真係支持 post 的結論?
- 做反向查證。 用圖片反向搜尋、抽影片關鍵幀、對比地標、logo、天氣、衣著、陰影同背景細節。
- 技術異常只當提示。 扭曲文字、不自然嘴形、奇怪陰影、怪手、聲音斷裂都係警號;但單靠一個瑕疵,未必足以定案。
- 搵獨立確認。 大件事要等可靠來源確認同一個核心事實,最好仲要指向原始材料。
做完仍然缺日期、地點、原片、原文或者可信來源?最乾淨的判斷通常係:未能證實。
Deepfake 同 AI 圖:來源鏈比像素瑕疵更重要
Deepfake 的問題唔止係「有冇改圖」。佢可以令本來大家最信的「親眼見到、親耳聽到」都變得需要再查。UNESCO 將 deepfake 形容為關乎知識同信任的危機;Reuters 報道的聯合國報告亦要求加強應對 AI deepfake 同錯誤資訊。[3][
4]
實際做法係:一步一步向來源追返去。
- 由短片追完整片: 你見到嘅係幾秒剪輯,定係完整內容?
- 由轉載追原帖: 邊個最先發佈?之後有冇被改標題、改 caption?
- 由截圖追連結: 所謂證據可唔可以打開、封存、核對?
- 由畫面追聲稱: 片中真係顯示 caption 講嗰件事,定只係畫面相似?
- 由瑕疵追證據: 奇怪陰影或者怪聲係線索,但關鍵仍然係有冇原始來源同獨立確認。
牽涉名人、危機、選舉、醜聞或者煽動性指控時,尤其要慢半拍。冇清楚來源鏈同完整上下文,就唔應該扮件事已經「實錘」。
關於 AI 的假新聞:hype 都要當 claim 查
唔係所有誤導性 AI 消息都係 AI 生成。有時問題係誇大:一個 demo 被講到似正式產品,一次測試被包裝成全面突破,一張截圖取代咗原始論文或官方文件。
可以咁問:
- 有冇原始論文、官方產品公告或者技術文件?
- 係實驗室 demo,定係普通用戶已經用得到的功能?
- 有冇交代限制、測試條件、失敗率或錯誤例子?
- 係咪由一個例子跳到一個好大的普遍結論?
- 邊個因為呢個講法得益:流量、廣告、政治效果,定係商業利益?
見到「100% 準確」、「已經證明」、「像人類一樣思考」、「革命性」、「即刻取代所有工作」呢類字眼,唔代表一定假;但足夠提醒你:去搵原始來源,將講法收窄再查。
AI 偵測器:可以幫手,唔係裁判
AI 偵測器可以提供線索,但唔可以取代查證。NIST 的 GenAI 計劃顯示,生成內容可否被分辨、生成敘事有幾可信,正係結構化評估的題目;NIST 亦提到,可信但具誤導性的生成敘事資料,可用於訓練偵測器辨認相關敘事。[1]
用偵測器時,記得問:
- 工具係查文字、圖片、聲音,定係影片?
- 佢查緊 AI 生成、後期改動,定只係統計上異常?
- 佢有冇解釋理由,定只係畀一個百分比?
- 結果同原始來源、上下文是否一致?定只係令你誤以為已經查完?
最重要係:偵測器最多只係提示一段內容可能點樣產生。佢唔會自動證明 post 入面嗰個政治、商業、健康或社會聲稱係真。
可以點樣用 AI 幫自己查證?
AI 工具適合用嚟整理資料同提醒你漏咗咩,但最後判斷「有冇證據」唔應該交晒畀佢。
比較有用的做法包括:
- 將一個長 post 改寫成一句可查證的核心聲稱;
- 列出欠缺的資料,例如日期、地點、人名、原句、來源;
- 建議可能的原始來源,例如官方公告、論文、完整影片;
- 提醒你可以做邊啲反向查證;
- 指出聲稱同證據之間有冇跳步或矛盾。
但 AI 答案如果冇可打開、可核對的原始來源,就只係研究提示,唔係證據。
紅旗:見到呢啲,先停一停
以下警號愈多,愈應該查清楚先分享:
- 只有截圖,冇連結。
- 引文被剪短,搵唔到完整版本。
- 冇作者、冇日期、冇最初發佈地點。
- 內容催你「即刻轉發」。
- 只有一個來源講同一件事。
- 文字好激動,但可核對事實好少。
- 拎一張 AI 偵測器截圖當唯一證據。
- 聲稱好大,證據好薄。
4 句短口訣
日常遇到可疑 AI 內容,記住呢個次序:
- 先搵原片、原文、原始來源。
- 再對時間、地點、人物同上下文。
- 再搵獨立可靠來源確認。
- 未證實,就唔好幫佢擴散。
正因為 AI 生成敘事可以好可信,而 deepfake 又會挑戰大家對視聽證據的信任,「未能證實」好多時比「我覺得真」或者「我覺得假」更負責任。[1][
4]




