一张图“看起来怪怪的”,只是核查的起点。真正要问的是:背后的具体故事有没有证据?谁在何时何地说了什么、做了什么、展示了什么?原始材料在哪里?
生成式AI让这类核查更重要,但并没有让事实核查失效。美国国家标准与技术研究院(NIST)的GenAI项目评估的内容包括:AI生成文本与人类写作有多难区分,以及生成叙事可以显得多可信。[1] 联合国教科文组织(UNESCO)把Deepfake描述为一种“认知危机”的组成部分,也就是对信任和知识可靠性的挑战。[
4] 路透社还报道,一份联合国报告呼吁加强对AI驱动Deepfake的检测措施,原因包括不实信息和可能影响选举等风险。[
3]
基本原则:先查主张,别先信直觉
很多误判来自一个习惯:先盯表面细节。比如手指、阴影、嘴型、声音、画面里的文字。这些都可能是线索,但不能单独当作结论。
先问三个问题:
- 这条信息到底在说什么? 用一句话写出它要证明的主张。
- 原始来源在哪里? 有没有完整视频、完整音频、文件、论文、官方说明,或最早发布的链接?
- 上下文是否对得上? 日期、地点、语言、画面截取范围、标题和配文是否一致?
缺少其中一环,不代表内容一定是假的;但至少说明它还没有被充分证实。正因如此,在AI生成媒体中识别误导信息,已经被纳入数字素养讨论;美国 N.C. Cooperative Extension 就把相关主题放在“Deepfake时代的数字素养”框架下讨论。[2]
把“媒介真假”和“说法真假”分开
一个常见误区是:视频是真的,配文就一定是真的;或者图片是AI生成的,相关事件就一定不存在。两者其实可以分开。
- 真实视频可能被配上错误的地点或时间。
- 真实截图可能被截掉关键上下文。
- AI图片可能只是用来象征性配图,不一定声称是真实现场。
- 合成视频也可能被拿来包装另一个需要单独核查的说法。
所以,每次核查都要给出两个判断:材料本身是真实、被编辑过,还是合成的? 以及:它是否真的证明了帖子里的结论?
7步清单:遇到可疑AI内容时这样查
看到社交媒体帖子、短视频、AI图片或“震惊式”AI消息时,可以按这个顺序处理:
- 写下核心主张。 到底发生了什么?涉及谁?这条内容想让你相信什么?
- 寻找原始来源。 不要只看转发帖。去找完整视频、较长音频、原文件、论文、产品文档或官方声明。
- 核对上下文。 检查日期、地点、语言、场景、标题和配文。真实片段也可能因错误语境而误导。
- 分开判断媒介和结论。 图、文、音频、视频是否可信是一回事;它能否证明配文的结论是另一回事。
- 做反向核查。 对图片做反向搜索,截取视频关键帧搜索,并比对地点、标识、天气、衣着、阴影和背景细节。
- 谨慎看技术破绽。 文字变形、嘴型不自然、阴影奇怪、手部异常、音频断裂,都是警示信号;但单独看它们还不足以下结论。
- 寻找独立确认。 重大说法只有在可靠来源确认同一核心事实、并最好能指向原始材料时,才更值得相信。
如果这些步骤之后,关键时间、地点、人物或原始材料仍然缺失,最稳妥的判断往往不是“真”或“假”,而是:未证实。
Deepfake和AI图片:来源链比像素破绽更重要
Deepfake的问题不只是“画面被改了”。更麻烦的是,它会让人们对可见、可听的证据本身产生怀疑。UNESCO把这类问题放在信任和知识可靠性的危机中讨论;路透社报道的联合国报告也呼吁加强应对AI驱动Deepfake和不实信息的措施。[3][
4]
实际核查时,要尽量沿着来源链往回找:
- 从短片段找完整材料: 现在看到的是几秒剪辑,还是完整视频?
- 从转发找最早发布者: 谁最先发布?之后是否被改标题、改配文?
- 从截图找链接: 所谓证据能不能打开?能不能归档?能不能追溯?
- 从画面回到主张: 画面真的显示了配文所说的事件吗?
- 从异常回到证据: 奇怪的阴影或声音只是线索;最终仍要看原始来源和独立确认。
涉及公众人物、突发事件、选举话题或所谓“丑闻”时,更要慢一点。没有可追溯来源和完整上下文,就不要把事情说得像已经盖棺定论。
关于AI的假新闻:把“科技炒作”也当成主张来查
并不是所有误导性AI内容都是由AI生成的。很多时候,问题出在夸大:一次演示被说成成熟产品,一个测试结果被包装成普遍突破,一张截图取代了原始资料。
可以这样问:
- 有没有原始论文、官方产品公告或技术文档?
- 这只是实验室演示,还是普通用户已经能稳定使用的功能?
- 测试条件、限制、失败率有没有被省略?
- 是否把一个案例说成了普遍规律?
- 谁从这种夸张表述中获益:流量、广告、政治效果,还是商业利益?
看到“100%准确”“最终证明”“像人一样思考”“革命性”“马上取代所有工作”这类说法,不必立刻判定为假,但应该立刻去找原始来源,并把主张缩小到可以核查的范围。
AI检测器:可以辅助,不是裁判
AI检测器能提供线索,但不能代替事实核查。NIST的GenAI项目说明,生成内容是否难以与人类写作区分、生成叙事是否可信,正在被结构化评估;相关说明也提到,可信但误导性的生成叙事数据可用于训练检测器识别这类叙事。[1]
如果你使用检测工具,至少问四件事:
- 它检测的是文字、图片、音频还是视频?
- 它判断的是AI生成、后期篡改,还是某种统计异常?
- 它给出可解释理由,还是只给一个百分比?
- 它的结果是否能与原始来源和上下文相互印证?
要记住:检测器最多提示某个媒介“可能如何产生”。它不能自动证明帖子里的说法是真的还是假的。
可以用AI帮忙,但别把判断交给AI
聊天机器人和其他AI工具适合用来整理核查思路,而不是替你下结论。比较有用的做法包括:
- 把一条复杂帖子改写成可核查的一句话主张;
- 找出缺失的信息,例如日期、地点、人物、引语或上下文;
- 列出可能的原始来源类型;
- 建议反向搜索、关键帧搜索等核查方法;
- 标出主张和证据之间的矛盾。
但工具给出的链接、摘要或判断,仍要你自己打开核对。没有可验证原始来源的AI回答,只是研究线索,不是证据。
红旗信号:先停一下,再决定是否转发
以下信号同时出现得越多,越应该谨慎:
- 只有截图,没有链接。
- 引语被截断,或找不到完整出处。
- 缺少作者、日期或最初发布位置。
- 帖子催你“马上转发”。
- 只有一个来源在传播同一说法。
- 语言强烈煽动情绪,但可核查事实很少。
- 用一张AI检测器截图当作唯一证据。
- 主张很大,证据很薄。
最短公式
日常遇到可疑AI内容,记住这个顺序:
- 找原始来源。
- 查上下文。
- 找独立确认。
- 再决定是否相信或转发。
正因为AI生成叙事可以显得很可信,Deepfake又会挑战“眼见为实”的直觉,很多时候,“未证实”比仓促下判断更可靠。[1][
4]




