先记住一句话:AI既不是身份证明,也不是事实证明。 熟人的声音、看似真实的视频、专业的网站,甚至一段表达流畅的AI回答,都可能是真的,也可能是被生成、被篡改或完全错误的。真正重要的不是它“看起来多像真的”,而是你能不能用独立渠道验证。
为什么AI骗局不再像粗糙的垃圾短信
过去很多骗局一眼就能看出破绽:错别字、奇怪链接、离谱承诺。但生成式AI正在让欺骗更“顺眼”。美国联邦通信委员会(FCC)已把AI生成电话和短信作为消费者保护议题,并建议开展公众教育,帮助消费者理解哪些自动电话和自动短信可能由AI生成 [1]。
美国商品期货交易委员会(CFTC)也提醒,生成式AI会让骗子更容易制作逼真的虚假图片、声音、视频、直播视频聊天、社交媒体账号和仿冒网站 [4]。美国联邦贸易委员会(FTC)2024年宣布打击误导性的AI宣传和AI骗局 [
3],还提出针对个人AI冒充的新保护措施,明确提到AI生成深度伪造带来的欺诈风险 [
5]。
损失规模也值得警惕。FTC在2025年表示,冒充企业和政府机构的诈骗一直是高发举报类型之一;2024年此类骗局造成的消费者报告损失为29.5亿美元。需要说明的是,这个数字指冒充类诈骗总体,并不只包括AI生成的案件 [13]。
本文依据的资料主要来自美国监管机构。它们能说明AI欺骗、冒充和虚假宣传的风险,但不等同于任何特定国家或地区的报案流程、法律后果或平台规则。
1. 一旦对方制造紧迫感,先停下来
“现在就转账”“马上点开链接”“不要告诉别人”“再不处理账户就冻结”——这些都是危险信号。AI让骗局更逼真,但骗子最常用的心理按钮仍然是催促、恐吓、权威感和情绪压力。
给自己设一条硬规则:
- 不立刻付款;
- 不随手点链接;
- 不下载陌生附件;
- 不确认远程控制或支付授权;
- 不透露身份证件、验证码、密码等敏感信息;
- 先换渠道核实。
这一步很简单,却很关键,因为生成式AI可以让虚假身份、伪造媒体和仿冒网站看起来更可信 [4]。
2. 核实“人”,不要只听声音、看视频
电话里的声音像家人,视频里的人像领导,并不代表对方就是真的。FTC在提出针对个人AI冒充的保护措施时,明确提到AI生成深度伪造可能带来的诈骗风险 [5]。
实用做法是:结束当前联系,再通过你自己选择的渠道确认。比如拨打通讯录里早已保存的号码,自己在浏览器输入官方网站地址,或通过一个你平时就知道的独立联系方式询问。
可以提前建立几条家庭或团队规则:
- 家人之间约定一个紧急情况口令;
- 只要涉及借钱、转账、改账户,必须回拨确认;
- 所谓“情况紧急”不能成为例外;
- 不在同一个聊天、电话或视频通话里完成身份验证。
3. 验证码、密码和支付确认,绝不在当前对话中交出去
一次性验证码、登录密码、证件照片、钱包私钥、银行授权和支付确认,都是高风险信息。只要有人在来电、聊天、视频通话或语音留言中索要这些内容,最安全的回答都是:中断联系,另行核实。
这条规则同样适用于看似来自银行、平台客服、政府部门、雇主、客户、家人或上级的请求。CFTC指出,骗子可能利用AI生成虚假声音、视频、直播视频聊天、社交媒体账号和恶意网站,让骗局显得更可信 [4]。
4. 把声音、视频和截图当“线索”,不要当“证据”
你不需要成为深度伪造鉴定专家。很多时候,与其盯着画面找破绽,不如问一个更有用的问题:这件事能否被独立确认?
遇到要求你行动的电话、视频、截图或聊天记录,可以逐项检查:
- 这个要求符合对方平时的做事方式吗?
- 有没有已知的回拨号码或官方联系入口?
- 对方是否要求保密,不让你问别人?
- 钱是否要转到新账户、数字钱包或异常渠道?
- 是否要求修改收款信息、收货地址或登录权限?
只要其中一项让你不舒服,就先停下。涉及金钱、身份、账户和公司权限时,第二验证渠道应当是必选项,而不是可选项。
5. 对“AI赚钱”承诺保持警惕
“AI驱动”“智能算法”“自动赚钱”都不是质量保证。FTC在2024年宣布打击误导性AI宣传和AI骗局,其中提到一起针对在线商业机会项目的诉讼:该项目被指称虚假宣称其“前沿”AI工具可以帮助消费者通过开设网店快速获得每月数千美元的被动收入 [3]。
看到下面这类说法,要格外谨慎:
- “AI交易”保证盈利;
- 用AI自动化获得“被动收入”;
- 算法带来“稳赚不赔”的回报;
- 高价课程或工具承诺不现实的收入;
- 只展示收益截图、学员证言或演示视频,却没有可核验的证据。
更稳妥的做法是:先查清负责人、合同条款、真实成本、风险说明和原始资料。不要因为一个产品贴上“AI”标签就付款。
6. AI回答只能当草稿,不能当最终结论
防AI错误和防AI骗局,本质上有同一条原则:不要盲信,要核实。 本文使用的资料能较好证明AI辅助欺骗、冒充和误导性AI宣传的风险;但这些资料并没有提供一个适用于日常所有AI系统的通用错误率。
如果事情重要,可以按这个流程处理:
- 打开原始来源: 法律条文、监管机构页面、原始研究、合同、账单、厂商文档或医学专业资料。
- 核对数字和日期: 看清发布时间、适用范围、定义和上下文。
- 高风险事项找人复核: 尤其是法律、医疗、金融、安全、身份和工作决策。
- 不要未经核实就转发AI总结: 分享前至少确认核心事实。
AI可以帮你起草、整理、翻译和总结,但不应单独决定一件事是否真实、安全或具备法律效力。
7. 给家人和团队提前定规则
最好的防护不是临场反应,而是事前约定。FTC表示,冒充企业和政府机构的诈骗一直是高发举报类型之一;2024年相关消费者报告损失为29.5亿美元,但这一数字包括冒充类诈骗总体,并非只统计AI案件 [13]。
家庭可以这样做:
- 约定紧急情况口令;
- 涉及转账或借钱,一律拨打已知号码回拨;
- 提醒孩子、父母和老人:声音和视频也可能被伪造;
- 永远不要在电话里透露验证码或密码。
团队和公司可以这样做:
- 付款审批不能只靠聊天、邮件、语音或视频通话;
- 修改银行账户信息必须双重确认;
- 异常付款实行至少两人复核;
- 回拨只能使用已知号码或官方渠道;
- AI生成内容对外使用前,要核查关键事实。
30秒应急检查表
当一个电话、视频、聊天或AI生成内容催你马上行动时,按这五步走:
- 暂停: 不立刻回复、不立刻付款、不立刻点击。
- 保护敏感信息: 不给验证码、密码、证件、支付授权。
- 换渠道: 用已知号码、官方网页或独立联系方式核实。
- 找原始凭证: 查合同、账单、官网、监管页面或直接确认。
- 拉第二个人进来: 涉及钱、身份和重大决定时,不要在压力下独自处理。
结论
对付AI骗局和AI错误,最可靠的日常方法不是某个神奇工具,而是一套固定动作:先停下,换渠道核实,保护敏感信息,重要AI结论回到原始来源确认。
现有资料对AI辅助欺骗、深度伪造冒充、AI生成电话和误导性AI宣传的风险有较强支持 [1][
3][
4][
5][
13]。但对于“日常AI系统总体错误率”这类笼统问题,本文所用资料并没有提供可靠的统一数字。




