生成式 AI 好適合幫你快速整理資料、解釋概念、諗初步方向;但佢亦可能產生唔準確、甚至錯嘅內容,仲會用好肯定嘅語氣當事實咁講。資訊安全同教育材料常將呢種情況稱為 AI hallucination,或者 AI 幻覺[4][
5]。哈佛甘迺迪學院嘅 Misinformation Review 亦將 AI hallucinations 視為生成式 AI 帶來嘅新型不準確來源之一[
3]。
所以,查證 AI 答案唔係睇佢講得似唔似真,而係問一句:呢個講法,可唔可以追返去一個我核對到嘅來源?
先記住:AI 係線索,唔係證據
AI 可以幫你列方向、整理背景、翻譯難明內容,或者將一個複雜問題拆成待查清單。不過,只要答案涉及人名、日期、數字、法例條文、論文、新聞事件、醫療建議、法律判斷或者金錢決策,就唔應該停喺 AI 嗰段回覆。
NIST,即美國國家標準與技術研究院,喺生成式 AI 風險管理文件入面,將 data provenance(資料來源追溯)、auditing and assessment(稽核與評估)、monitoring(監測)同 risk-based controls(按風險採取控制)列為相關治理計劃同行動一部分[1][
2]。放返落日常使用,意思其實好直接:唔好只信 AI 嘅自信語氣,要睇來源、原文同證據鏈。
5 步查證 AI 答案
1. 先叫 AI 列出可以核對嘅來源
唔好只問「答案係乜」。你可以要求 AI 將每個重要主張同來源對齊,例如:
請列出支持呢個答案嘅來源,優先使用官方文件、原始研究、政府網站、公司公告或資料庫,並說明每個來源支持邊一個主張。
如果 AI 只係寫「研究顯示」、「專家指出」、「好多報道提到」,但冇文件名稱、發布機構、連結,或者其他可以搜尋到嘅資料,嗰段內容就應該先當成未查證。來源追唔追到,比答案寫得完整唔完整更重要;NIST 亦將資料來源追溯、稽核與評估列入生成式 AI 風險管理相關做法[1][
2]。
2. 打開來源,睇原文係咪真係支持答案
AI 有畀來源,唔代表答案就正確。最少要睇三件事:
- 條連結係咪真係存在,而且開到。
- 原文入面係咪真係有 AI 提到嘅資料。
- AI 有冇將原文過度延伸、過度簡化,或者改寫到變咗另一個結論。
常見風險係:答案望落有引用,但引用內容同結論其實對唔上。查證嘅目的,就係將「AI 話有根據」變成「你親眼睇過佢嘅根據」。
3. 優先核對最易出錯嘅細節
唔需要一開始就讀晒成份文件。先捉最容易驗證、亦最容易揭穿錯誤嘅位置:
- 人名、機構名稱
- 日期、年份、版本號
- 統計數字、百分比、排名
- 法例條文、政策名稱、文件標題
- 論文題目、作者、期刊名稱
- 直接引述嘅原文
如果 AI 話「某研究指出」、「某公司宣布」、「某法規規定」,就直接搵返該研究、公告或者條文。搵唔到原始資料,就唔好當佢係已確認事實。
4. 用獨立來源交叉比對
單一來源可能唔完整,AI 嘅摘要亦可能漏咗限制條件。遇到以下題材,最好再搵至少一個獨立來源交叉比對:
- 醫療同健康資訊
- 法律、稅務、合約問題
- 投資、金融、保險決策
- 即時新聞同公共事件
- 技術規格、安全風險、政策要求
如果唔同來源講法唔一致,唔好只揀自己想信嗰個版本。應該優先返去發布機構、原始文件、專業資料庫,或者向有責任關係嘅專業人士確認。
5. 高風險問題,唔好畀 AI 做最後決定
NIST 嘅生成式 AI 風險管理取向,強調按風險採取控制、監測同評估,而唔係將所有輸出都視為同等可信[1][
2]。個人使用 AI 時都可以用同一個邏輯:風險越高,越唔可以只靠 AI 嘅二手答案。
如果答案會影響健康、法律權利、財務安全、工作決策或者公共安全,AI 可以幫你整理背景同問題清單;但最後仍然應該返去原始文件,或者請醫生、律師、會計師、投資顧問等相關專業人士確認。
見到呢啲跡象,要即刻提高警覺
AI 幻覺最麻煩嘅地方,係佢未必似錯:文字可以好流暢、好有條理,但內容仍然唔準確[3][
4][
5]。見到以下情況,先唔好急住採信:
- 語氣非常肯定,但完全冇來源。
- 引用望落好完整,但搜尋唔到原文。
- 來源存在,但內容其實冇支持 AI 嘅結論。
- 數字、日期、版本號冇標明出處。
- 同一段回答前後矛盾。
- AI 將推測、常識或者意見包裝成事實。
可以直接複製嘅查證提示詞
下次用 AI,可以貼上以下句子,令答案更容易檢查:
請將你嘅回答拆成「事實主張/來源/原文依據/不確定之處」四欄表格。
請標出邊啲講法有來源支持,邊啲只係推論或者需要人工查證。
請只根據我提供嘅文件回答;如果文件冇提到,請直接講資料不足。
請列出呢個答案入面最需要查證嘅 5 個細節,例如日期、數字、引文、政策名稱或者人名。
常見問題
AI 有引用來源,就代表答案可信?
唔一定。來源可能根本不存在、連結可能失效,或者原文冇支持 AI 嘅結論。真正查證唔係睇「有冇引用」,而係打開來源、讀到原文、確認主張同證據係咪對得上。
每個 AI 答案都要完整查證?
唔需要用同一個強度處理所有問題。低風險問題可以快速核對;但涉及健康、法律、財務、公共安全或者重大工作決策,就應該提高查證強度。NIST 嘅風險管理文件亦採取按風險控制同監測嘅取向[1][
2]。
搵唔到來源點算?
先將答案標記為未確認,唔好當成事實引用或者轉發。你可以要求 AI 改用可查來源重新回答,亦可以自己搜尋官方文件、原始研究、公司公告或者可信資料庫。
結論:唔好信語氣,要信可核對嘅證據
AI 會亂講;重點唔係完全唔用 AI,而係唔好將流暢文字當成證據。最實用嘅流程係:要來源、睇原文、核對細節、交叉比對;高風險問題搵專家。 咁樣用 AI,佢會更似一個有效率嘅研究助手,而唔係一部未經查證嘅答案機器。




