生成式AI很适合快速整理资料、解释概念、列出思路。但它也可能生成不准确甚至错误的内容,并把错误陈述当作事实输出;信息安全和教育资料常把这种情况称为 AI hallucination,也就是“AI幻觉”[4][
5]。哈佛肯尼迪学院的 Misinformation Review 也将 AI hallucinations 讨论为生成式AI带来的新型不准确来源之一[
3]。
所以,查证AI答案的重点不是看它说得多顺、多像真的,而是问一句更关键的话:这个说法能不能回到可核对的来源?
先记住:AI是线索,不是证据
AI可以帮你列方向、做摘要、翻译难懂材料,或者把复杂问题拆成待查清单。可是,只要答案涉及人名、日期、数字、法条、论文、新闻事件、医疗建议、法律判断或金钱决策,就不应该只停在AI的回答上。
NIST(美国国家标准与技术研究院)的生成式AI风险管理文件,将 data provenance(数据来源追溯)、auditing and assessment(审计与评估)、monitoring(监测)以及 risk-based controls(基于风险的控制)列为相关治理计划和行动的一部分[1][
2]。放到日常使用场景里,核心意思很简单:不要只看AI的自信语气,要看来源、原文和证据链。
5步查证AI答案
1. 先让AI列出可核对来源
不要只问“答案是什么”。可以直接要求AI把每个重要主张和来源对应起来,例如:
请列出支持这个答案的来源,优先使用官方文件、原始研究、政府网站、公司公告或资料库,并说明每个来源支持哪一个主张。
如果AI只写“研究显示”“专家指出”“许多报道提到”,却没有文件名称、发布机构、链接或可搜索的信息,就先把那段内容视为未查证。来源可追溯,比答案看起来完整更重要;NIST也将数据来源追溯、审计与评估列入生成式AI风险管理相关做法[1][
2]。
2. 打开来源,确认原文真的支持答案
AI附上来源,不等于答案已经正确。查证时至少看三件事:
- 链接是否真实存在,并且能正常打开。
- 原文是否真的包含AI提到的信息。
- AI是否把原文过度延伸、过度简化,或改写成了不同结论。
常见风险是:答案看起来“有引用”,但引用内容和结论其实对不上。查证的目的,就是把“AI说它有依据”,变成“你亲自看过这个依据”。
3. 优先核对最容易出错的细节
不必一开始就读完整份资料。先抓最容易验证、也最容易暴露错误的项目:
- 人名、机构名称
- 日期、年份、版本号
- 统计数字、百分比、排名
- 法条、政策名称、文件标题
- 论文标题、作者、期刊名称
- 直接引述的原文
如果AI说“某研究指出”“某公司宣布”“某法规规定”,就直接搜索对应的研究、公告或条文。找不到原始资料时,不要把它当成已确认事实。
4. 用独立来源交叉比对
单一来源可能不完整,AI的摘要也可能漏掉限制条件。遇到下面这些主题,最好再找至少一个独立来源交叉比对:
- 医疗与健康信息
- 法律、税务、合同问题
- 投资、金融、保险决策
- 即时新闻与公共事件
- 技术规格、安全风险、政策要求
如果不同来源说法不一致,不要只挑自己想相信的版本。应优先回到发布机构、原始文件、专业数据库,或向有责任关系的专业人士确认。
5. 高风险问题不要让AI当最后决策者
NIST的生成式AI风险管理取向强调基于风险采取控制、监测和评估,而不是把所有输出都视为同等可信[1][
2]。个人使用AI时也可以采用同样逻辑:风险越高,越不能只依赖AI的二手回答。
如果答案会影响健康、法律权利、财务安全、工作决策或公共安全,AI可以帮你整理背景和问题清单,但最后仍应回到原始文件,或请医生、律师、会计师、投资顾问等相关专业人士确认。
看到这些迹象,要提高警惕
AI幻觉的危险在于,它不一定看起来像错误;它可能流畅、有条理,却仍然不准确[3][
4][
5]。看到以下情况,先暂停采信:
- 语气非常肯定,但没有任何来源。
- 引用看起来完整,却搜索不到原文。
- 来源存在,但内容并不支持AI的结论。
- 数字、日期、版本号没有标明出处。
- 同一段回答前后矛盾。
- AI把推测、常识或意见包装成事实。
可直接复制的查证提示词
下次使用AI时,可以贴上这些句子,让答案更容易检查:
请把你的回答拆成“事实主张/来源/原文依据/不确定之处”四栏表格。
请标出哪些说法有来源支持,哪些只是推论或需要人工查证。
请只根据我提供的文件回答;如果文件没有提到,请直接说资料不足。
请列出这个答案中最需要查证的5个细节,例如日期、数字、引文、政策名称或人名。
常见问题
AI引用了来源,就代表答案可信吗?
不一定。来源可能不存在,链接可能失效,或者原文根本没有支持AI的结论。真正的查证不是看“有没有引用”,而是打开来源、读到原文、确认主张和证据是否对得上。
每个AI答案都要完整查证吗?
不必用同一套强度处理所有问题。低风险问题可以快速核对;但涉及健康、法律、财务、公共安全或重大工作决策时,应提高查证强度。NIST的风险管理文件也采取基于风险进行控制与监测的取向[1][
2]。
找不到来源时怎么办?
把答案标记为未确认,不要把它当作事实引用或转发。你可以要求AI改用可查来源重新回答,也可以自己搜索官方文件、原始研究、公司公告或可信数据库。
结论:不要相信语气,要相信可核对的证据
AI会出错,甚至会把错误说得很像真的。重点不是完全不用AI,而是不要把流畅文字当成证据。最实用的查证流程是:要来源、看原文、核对细节、交叉比对,高风险问题找专业人士。
这样使用AI,它更像一位高效率的研究助手,而不是一台未经查证的答案机器。




