AI 答案要 fact-check,因為最危險嘅錯誤通常唔係語句生硬,而係寫得流暢、肯定、似真。NIST 的 GenAI text-2026 項目會評估生成文字同人類寫作有幾難分辨、生成敘事有幾可信,亦提到用可信但具誤導性嘅敘事訓練偵測器 [1]。有研究將 AI hallucinations 作為不準確來源去建立概念框架 [
2];新西蘭政府數碼指引亦將 hallucinations 視為同 misinformation/disinformation 相關但有別嘅問題 [
4]。
核心原則好簡單:信可核對來源,唔好信 AI 嘅自信語氣。
AI 係起點,唔係證據
AI 可以幫你快手整理問題、列出可能來源、指出要查嘅關鍵位。但當答案涉及事實、數字、政策、醫療、法律、投資或新聞事件,核對重點唔係文字有幾順,而係以下四件事:
- 呢個主張可唔可以追到原始來源?
- 原文係咪真係支持 AI 嘅總結?
- 日期、地區、定義同上下文係咪一致?
- 有冇另一個獨立可靠來源可以互相印證?
如果一條主張只能追返 AI 自己,而追唔到公開文件、原文、數據或當事機構,就應該當成未證實。
5 步 fact-check AI 答案
1. 先拆成逐條 claim
唔好一次過問一大段答案啱唔啱。先將內容拆成可以逐條查證嘅主張:數字還數字、日期還日期、結論還結論。
可用呢句 prompt:
將以上回答拆成逐條可核對主張。每條列出原始來源、發布機構或作者、日期、URL 同原文引句;如果冇來源,標記為未證實。
拆 claim 之後,你就會即刻睇到邊啲係有來源、邊啲只係 AI 補完出嚟。
2. 打開來源,確認佢真係存在
有來源名唔等於已經核實。你要親自打開 URL 或搜尋原文,檢查:
- URL 係咪打得開;
- 標題、作者或機構、發布日期係咪同 AI 講法一致;
- 原文係咪真係支持 AI 嗰句總結;
- 引用句係咪完整,定係被斷章取義;
- AI 有冇將推測、意見或背景資料寫成確定事實。
如果來源搵唔到、日期對唔上,或者原文意思同 AI 總結唔一致,嗰條 claim 就要降級做未證實或有問題。
3. 追到原始來源,唔好停喺二手摘要
最值得優先核對嘅,通常係最接近事件或數據本身嘅文件,例如:
- 政府公告、法例、監管文件;
- 法庭文件、判詞、官方紀錄;
- 公司公告、年報、新聞稿;
- 學術論文、研究報告、數據集;
- 當事人、機構或研究團隊嘅公開聲明。
媒體報道、Blog 同社交帖文可以幫你理解背景,但如果你要引用、轉發、寫報告或作決定,最好一路追到原始文件。若果所有文章都係互相引用,但冇一篇連到原文,就要當成高風險。
4. 用獨立來源交叉驗證
一個來源存在,仍然唔代表整個結論安全。實用做法係做兩層核對:
- 原始來源:先搵官方文件、論文、公告、法庭文件或數據集。
- 獨立來源:再搵另一個可靠來源核對,例如主流傳媒、學術機構、監管機構或專業組織。
如果兩邊講法唔一致,唔好急住揀一邊。先標記為有爭議或未能確認,再睇分歧係來自時間不同、定義不同、地區不同,定係有人引用錯誤。
5. 將結果分級,唔好硬判真假
Fact-check 唔一定要即刻判真或假。更穩陣嘅做法係將每條 claim 分級:
| 狀態 | 點樣判斷 | 應該點做 |
|---|---|---|
| 已證實 | 可追到原始來源,而且原文支持該主張 | 可以引用,但要保留來源 |
| 未證實 | 有講法,但搵唔到足夠來源 | 唔好當事實轉述 |
| 推測 | AI 或作者根據資料推論 | 清楚標明係推測 |
| 有爭議 | 多個來源講法不同 | 說明分歧,避免下定論 |
呢個分級可以防止 AI 將可能、估計、有人認為包裝成已經確定嘅事實。
6 個最容易出錯嘅核對位
數字:百分比、金額、排名、增長率、樣本數都要查清楚。留意年份、地區、分母同數據來源。
時間:政策、價格、法例、產品功能同公司狀況都可能過時。睇發布日期之餘,亦要睇有冇更新日期。
地區:同一個詞喺香港、內地、英國、美國或歐盟,可能涉及完全唔同制度。法律、稅務、醫療、移民、私隱同投資內容尤其要小心。
定義:AI、用戶、收入、風險、合規、有效呢類字眼,喺唔同行業可以有唔同定義。核對時要睇原文點定義。
引用句:見到引號唔代表真。要搜尋原文,確認句子是否存在、是否完整、上下文是否支持 AI 嘅解讀。
來源質素:來源存在,唔等於可靠。要分清楚係官方文件、學術研究、新聞報道、公司內容、個人 Blog,定係純轉載。
高風險內容:唔好只靠 AI
以下題目錯誤成本高,應該用更嚴格標準:
- 醫療診斷、藥物、治療方案;
- 法律意見、合約、訴訟、移民或稅務;
- 投資、保險、財務建議;
- 人身安全、網絡安全、緊急應變;
- 突發新聞、爆料、指控、政治內容。
法律係現實風險例子之一:OECD.AI 曾記錄一宗生成式 AI hallucination 影響法律程序嘅事件,並將其傷害描述為錯誤資訊影響法律程序 [5]。呢類內容可以用 AI 幫你整理問題,但唔應該用 AI 取代官方文件、專業人士意見或正式程序。
一見到呢啲訊號,要當高危
- 語氣非常肯定,但完全冇來源;
- 只寫研究顯示、專家指出,但冇研究名、作者、機構或日期;
- 引用好多細節,但你搵唔到原文;
- 數字好精準,但冇數據來源;
- 答案好啱你立場,令你特別想即刻相信;
- 來源全部互相引用,最後追唔到原始文件;
- 內容涉及最新消息,但冇清楚更新時間。
NIST 將生成敘事嘅可信度同可信但具誤導性內容納入文字評估脈絡 [1]。換句話講,越似真,越需要查來源。
可直接複製嘅核對 prompt
請只列出可公開核對嘅原始來源,唔好自行推測。
每一個關鍵主張後面加來源連結、發布機構、日期同原文引句。
如果你唔肯定,請直接寫未知或未能確認,唔好補完。
幫我將內容分成三欄:已證實、未證實、推測。
請指出以上答案最可能出錯嘅地方,包括數字、日期、地區、定義同引用。
最後判斷準則
記住一句就夠:
可追到原始來源,可以再看;只能追到 AI 自己,唔可以當事實。
AI 最適合做搜尋起點、問題整理器同待查清單產生器。真正決定一段內容可唔可信嘅,仍然係公開、可核對、上下文完整嘅來源。




