AI 回答需要事實查核,原因很簡單:它最容易騙過人的地方,常常不是文句生硬,而是語氣流暢、細節完整、看起來非常肯定。
美國 NIST(美國國家標準與技術研究院)的 GenAI text-2026 項目,評估生成文字與人類寫作是否難以分辨、生成敘事有多可信,並提到可用「可信但具誤導性」的敘事訓練偵測器 [1]。也有研究把 AI hallucinations(常譯為「AI 幻覺」)視為新的不準確來源,建立分析框架 [
2];新西蘭政府的生成式 AI 指引則把 hallucinations 視為與 misinformation/disinformation 相關、但仍有區別的問題 [
4]。
換句話說,查核 AI 的核心不是問「它講得像不像」,而是問:這句話能不能追到可公開核對的原始來源?
先記住一個原則:AI 是起點,不是證據
AI 很適合用來整理問題、列出可能的查證方向、提醒你哪些地方要小心。但只要內容涉及事實、數字、政策、醫療、法律、投資或新聞事件,就不能只看答案是否順口。
你應該追問四件事:
- 這個主張能不能找到原始來源?
- 原文是否真的支持 AI 的總結?
- 日期、地區、定義與上下文是否一致?
- 是否有另一個獨立可靠來源可以互相印證?
如果一個主張只能追到 AI 自己,而追不到公開文件、原始資料、當事機構或可核對文本,就應該先視為「未證實」。
5 步查核 AI 回答
1. 先把答案拆成一條條可查核主張
不要一次問「這整段對不對」。先把它拆成可以逐條驗證的 claim:數字歸數字、日期歸日期、因果結論歸因果結論。
可直接使用這句提示詞:
請把以上回答拆成逐條可核對主張。每條列出原始來源、發布機構或作者、日期、URL 與原文引句;如果沒有來源,請標記為未證實。
拆開後,你通常會立刻看見哪些是有來源的資訊,哪些只是 AI 自行補完的說法。
2. 打開來源,不要只看引用名稱
AI 列出來源,不等於已經查核完成。你需要親自打開連結,或用標題、作者、機構名稱搜尋原文。
檢查重點包括:
- URL 是否真的能開啟;
- 標題、作者或機構、發布日期是否與 AI 說法一致;
- 原文是否真的支持 AI 的總結;
- 引用句是否完整,還是被斷章取義;
- AI 是否把推測、背景說明或個人意見寫成確定事實。
如果來源找不到、日期對不上,或原文意思與 AI 總結不一致,這條主張就應降級為「未證實」或「有問題」。
3. 盡量追到原始來源
二手摘要可以幫你理解背景,但做決策、寫報告或公開引用時,最好追到最接近事件或數據本身的文件,例如:
- 政府公告、法規、監管文件;
- 法院文件、判決、官方紀錄;
- 公司公告、年報、新聞稿;
- 學術論文、研究報告、資料集;
- 當事人、機構或研究團隊的公開聲明。
如果多篇文章互相引用,但沒有任何一篇連到原始文件,風險就很高。這種情況下,不要急著轉述成事實。
4. 用獨立來源交叉驗證
找到一個來源,仍不代表整個結論安全。比較穩妥的方式是做兩層查核:
- 原始來源:先看官方文件、論文、公告、法院資料或資料集。
- 獨立來源:再找另一個可靠來源核對,例如主流媒體、學術機構、監管機構或專業組織。
如果兩邊說法不同,先不要選邊站。應先標記為「有爭議」或「未能確認」,再檢查差異是否來自時間點、地區、定義、樣本或引用錯誤。
5. 把查核結果分級,而不是硬判真假
事實查核不一定要立刻判定「真」或「假」。更實用的做法,是替每一條主張標上狀態。
| 狀態 | 判斷方式 | 建議處理 |
|---|---|---|
| 已證實 | 可追到原始來源,且原文支持該主張 | 可以引用,但保留來源 |
| 未證實 | 有說法,但缺乏足夠可核對來源 | 不要當成事實轉述 |
| 推測 | AI 或作者根據資料推論 | 明確標示為推測 |
| 有爭議 | 多個來源說法不同 | 說明分歧,避免下定論 |
這樣做可以避免 AI 把「可能」、「估計」、「有人認為」包裝成已經確定的事實。
最容易出錯的 6 個地方
數字:百分比、金額、排名、增長率、樣本數都要回到原始資料。特別留意年份、地區、分母與資料來源。
時間:政策、價格、法規、產品功能與公司狀況都可能過時。除了發布日期,也要看是否有更新日期。
地區:法律、稅務、醫療、移民、隱私與投資內容尤其容易因地區不同而完全改變。不要把某一地的規則套用到另一地。
定義:「AI 使用者」、「收入」、「風險」、「合規」、「有效」這類詞,在不同產業或文件中可能有不同定義。查核時要看原文怎麼界定。
引用句:有引號不代表真的有人說過。要搜尋原文,確認句子是否存在、是否完整,以及上下文是否支持 AI 的解讀。
來源品質:來源存在,不等於可靠。應分清楚它是官方文件、學術研究、新聞報導、公司宣傳、個人部落格,還是單純轉載。
高風險內容:不要只靠 AI
以下題目錯誤成本高,應採用更嚴格標準:
- 醫療診斷、藥物、治療方案;
- 法律意見、合約、訴訟、移民或稅務;
- 投資、保險、財務建議;
- 人身安全、網路安全、緊急應變;
- 突發新聞、爆料、指控、政治內容。
法律就是現實風險之一。OECD.AI 曾記錄一宗生成式 AI hallucination 影響法律程序的事件,並將其傷害描述為錯誤資訊影響法律程序 [5]。這類內容可以用 AI 協助整理問題,但不能用 AI 取代官方文件、專業意見或正式程序。
看到這些訊號,先當成高風險
- 語氣非常肯定,卻完全沒有來源;
- 只寫「研究顯示」、「專家指出」,但沒有研究名、作者、機構或日期;
- 細節很多,但你找不到原文;
- 數字非常精準,卻沒有資料來源;
- 答案剛好很符合你的立場,讓你特別想立刻相信;
- 來源彼此互相引用,最後追不到原始文件;
- 內容涉及最新消息,卻沒有清楚更新時間。
NIST 把生成敘事的可信度,以及可信但具誤導性的內容,放進生成文字評估脈絡中 [1]。這也提醒我們:內容越像真的,越需要查來源。
可直接複製的查核提示詞
請只列出可公開核對的原始來源,不要自行推測。
請在每一個關鍵主張後面附上來源連結、發布機構、日期與原文引句。
如果你不確定,請直接寫「未知」或「未能確認」,不要補完。
請把內容分成三欄:已證實、未證實、推測。
請指出以上答案最可能出錯的地方,包括數字、日期、地區、定義與引用。
最後的判斷準則
記住一句話就夠了:
能追到原始來源,可以繼續看;只能追到 AI 自己,就不能當成事實。
AI 最適合當搜尋起點、問題整理器與待查清單產生器。真正決定內容可不可信的,仍然是公開、可核對、上下文完整的來源。



