一張圖看起來怪怪的,只是警訊,不是結論。面對 AI 圖像、深偽(deepfake)影片或聳動的 AI 新聞,關鍵不是先問「這像不像 AI」,而是先問:這則內容到底主張了什麼?原始證據在哪裡?上下文是否完整?
生成式 AI 讓查證更重要,但不代表無法查。美國國家標準暨技術研究院(NIST)的 GenAI 計畫,就在評估 AI 生成文字是否難以和人類寫作區分,以及 AI 生成敘事是否可能顯得可信;其說明也提到,可信但具誤導性的敘事資料可用來訓練偵測器辨識這類內容。[1] 聯合國教科文組織(UNESCO)則把 deepfake 放在「crisis of knowing」的脈絡下討論,也就是它會衝擊人們對知識與信任的判斷。[
4] 路透社也報導,一份聯合國報告呼籲採取更強措施偵測 AI 驅動的 deepfake,原因包括假訊息與可能影響選舉的風險。[
3]
基本原則:先查主張,不先信直覺
很多誤判來自「先看畫面表面」。手指、陰影、嘴型、聲音、畫面中的文字,確實可能提供線索;但只靠這些,還不足以完成事實查核。
建議先問三個問題:
- 它到底在說什麼? 把貼文主張濃縮成一句可查證的話。
- 一手來源在哪裡? 有沒有原始影片、完整音檔、正式文件、研究論文、官方公告或最早上傳版本?
- 脈絡對得上嗎? 日期、地點、語言、剪輯片段、標題與附文是否一致?
缺少其中一項,不代表內容一定是假的;但至少表示它還沒有被充分證明。也因此,辨識 AI 生成媒體中的錯假訊息,已被視為數位媒體素養的一部分;北卡羅來納州合作推廣(N.C. Cooperative Extension)就以「深偽時代的數位素養」來討論辨識 AI 生成媒體中的假訊息。[2]
把「素材真假」和「主張真假」分開
最常見的思考陷阱是:如果影片是真的,貼文說法就一定是真的;或反過來,如果圖片是 AI 生成,整件事就一定是假的。兩者其實可以分開。
- 真實影片可能被配上錯誤的地點或時間。
- 真實截圖可能被截掉前後文。
- AI 圖像可能只是用來象徵性地配圖,不是證據本身。
- 合成影片也可能被拿來搭配另一個需要獨立查證的主張。
所以每次查核都要分成兩層:這個素材是真實、被剪輯、被改造,還是合成的? 以及:它真的能證明貼文推導出的結論嗎?
7 步驟檢查表:看到可疑 AI 內容時怎麼做
如果你在社群、通訊群組或影片平台看到一則很驚人的 AI 圖像、短片或 AI 新聞,可以照這個順序查:
- 寫下核心主張。 它說發生了什麼事?涉及誰?想證明哪個結論?
- 找一手來源。 不要只看轉貼版本。去找完整影片、較長音檔、原始文件、論文、產品文件或官方公告。
- 核對上下文。 查日期、地點、語言、場合、畫面裁切、標題與附文。真片段加上錯脈絡,也能誤導人。
- 分開判斷素材與主張。 先問素材是否真實,再問它是否真的支持貼文說法。
- 做反向查證。 可用圖片反搜、截取影片幀畫面比對,也可檢查地點、標誌、天氣、衣著、陰影與背景細節。
- 謹慎看待技術破綻。 變形文字、不自然嘴型、奇怪陰影、手指異常或音訊破綻都是警訊;但單一破綻通常還不是鐵證。
- 找獨立確認。 重大指控或重大消息,應等可靠來源確認同一個核心事實,最好還能連回原始材料。
如果走完這些步驟後,關鍵資訊仍然缺席,最穩妥的判斷通常是:目前未獲證實。
Deepfake 與 AI 圖像:來源鏈比像素破綻更重要
Deepfake 的麻煩不只是「技術上造假」。它會讓原本看似可見、可聽的證據變得不再那麼直覺可信。UNESCO 將這類問題放在知識與信任危機中討論;路透社報導的聯合國報告,也呼籲加強因應 AI 驅動的 deepfake 與假訊息。[3][
4]
實務上,你要一路往回追來源鏈:
- 從短片回到完整素材: 只有幾秒鐘片段,還是有完整影片?
- 從轉貼回到最早發布者: 是誰最先發布?中間被誰改標題、加字幕或重剪?
- 從截圖回到連結: 所謂證據能不能打開、存檔、追溯?
- 從畫面回到主張: 影像真的呈現了附文說的那件事嗎?
- 從破綻回到證據: 怪陰影或怪聲音只是線索;真正關鍵仍是原始來源與獨立確認。
如果內容涉及知名人物、危機事件、選舉議題或所謂重大醜聞,更應該慢一步。沒有可追溯來源與完整脈絡時,不要急著把它當成已定案的事。
關於 AI 的假新聞:把科技炒作也當成主張來查
不是所有誤導性 AI 故事都是由 AI 生成。有些問題來自誇大解讀:把展示版說成成熟產品,把單次測試說成全面突破,或用一張截圖取代原始資料。
可以這樣問:
- 有沒有原始論文、官方產品公告或技術文件?
- 這只是實驗室展示,還是已經普遍可用的功能?
- 報導或貼文是否省略限制、測試條件或錯誤率?
- 是否把單一案例放大成普遍結論?
- 誰可能從這種誇張說法受益:流量、廣告、政治效果,還是商業利益?
像是「100% 準確」、「已經完全證明」、「像人一樣思考」、「革命性」、「立刻取代所有工作」這類說法,不代表內容一定錯;但它們很值得你停下來找一手來源,並把主張縮小到可查證的範圍。
AI 偵測器:可以輔助,不是裁判
AI 偵測器能提供線索,但不能取代事實查核。NIST 的 GenAI 計畫顯示,生成內容是否能被辨識、生成敘事是否可信,都是可被系統性評估的問題;NIST 也說明,可信但誤導性的敘事資料可用於訓練偵測器。[1]
使用偵測器時,至少要問:
- 工具檢查的是文字、圖片、音訊還是影片?
- 它判斷的是 AI 生成、內容改造,還是只是統計上的異常?
- 它有給出可理解的理由,還是只有一個百分比?
- 它的結果是否和一手來源、上下文相符,還是看起來像在替你省略查證?
重點是:偵測器頂多幫你推測素材如何產生;它不能自動證明貼文裡的主張是真的。
善用 AI 做查核,但不要把結論交給 AI
AI 工具可以幫你整理查核流程,尤其在資訊很多、貼文很長時有用。不過,最後哪些內容「有證據支持」,仍應由你根據可開啟、可追溯的資料判斷。
比較適合交給 AI 輔助的任務包括:
- 把貼文的核心主張改寫成一句可查證的話;
- 列出缺少的日期、地點、人物、引言或上下文;
- 提醒可能的一手來源;
- 建議可做的反向查證;
- 找出主張與證據之間的矛盾。
但 AI 給出的來源,你仍要自己打開確認。沒有可檢查原始來源的 AI 回答,只能算研究線索,不是證據。
看到這些紅旗,先別轉傳
如果多個警訊同時出現,最好暫停分享:
- 只有截圖,沒有連結。
- 引言被截斷,或找不到完整說法。
- 作者、日期、原始發布位置不明。
- 文字催促你立刻轉傳。
- 只有單一來源在傳。
- 情緒用語很多,能核對的事實很少。
- 拿 AI 偵測器截圖當唯一證據。
- 主張很大,證據很薄。
最短版口訣
日常遇到可疑 AI 內容,可以記住四步:
- 找原始來源。
- 查上下文。
- 找獨立確認。
- 再決定要不要相信或分享。
正因為 AI 生成敘事可以看起來很可信,而 deepfake 也會挑戰我們對影像與聲音的信任,很多時候,說「目前未獲證實」比急著下結論更負責任。[1][
4]




