La regla de oro es sencilla: la IA no es una prueba de identidad ni una prueba de verdad. Una voz conocida, un vídeo que parece real, una página web bien diseñada o una respuesta muy fluida pueden ser auténticos. Pero también pueden estar generados, manipulados o simplemente equivocados. Lo importante no es lo convincente que parezca algo, sino si puedes comprobarlo por una vía independiente.
Por qué las estafas con IA ya no parecen el típico correo basura
Varias autoridades estadounidenses ya tratan el fraude con IA como un problema de protección del consumidor y de seguridad financiera. La FCC, el regulador de telecomunicaciones de Estados Unidos, ha abordado las llamadas y mensajes automatizados generados por IA y recomienda campañas de educación pública para que los consumidores sepan reconocer mejor este tipo de comunicaciones [1]. La CFTC, autoridad estadounidense vinculada a los mercados financieros, advierte de que la IA generativa puede facilitar a los estafadores la creación de imágenes, voces, vídeos, videollamadas en directo, perfiles en redes sociales y sitios web falsos pero muy creíbles [
4].
La FTC, la autoridad estadounidense de protección del consumidor y competencia, también ha actuado contra engaños relacionados con la IA: en 2024 anunció medidas contra afirmaciones y esquemas engañosos que usaban la IA como reclamo [3]. Además, propuso nuevas protecciones contra la suplantación de personas, mencionando expresamente los riesgos de fraude mediante deepfakes generados por IA [
5]. En 2025, la FTC destacó que las estafas por suplantación de empresas y organismos públicos figuran entre los fraudes más denunciados y que en 2024 provocaron 2.950 millones de dólares en pérdidas comunicadas por consumidores; esa cifra se refiere a la suplantación en general, no solo a casos generados con IA [
13].
La evidencia disponible es sólida para hablar de fraude, suplantación y promesas engañosas vinculadas a la IA. En cambio, las fuentes usadas aquí no ofrecen una tasa general fiable de errores de los sistemas de IA en la vida cotidiana.
1. Si te meten prisa, para
La urgencia es una señal de alarma. Desconfía de llamadas, vídeos, chats o correos que te exijan pagar, hacer clic, confirmar una operación, guardar silencio o entregar datos sensibles “ahora mismo”.
Usa una regla fija de pausa:
- no pagues en el momento;
- no abras enlaces;
- no descargues adjuntos;
- no apruebes operaciones;
- no compartas datos sensibles;
- verifica por otra vía antes de actuar.
Esta pausa importa porque, según la CFTC, la IA generativa puede hacer que identidades, medios y sitios web falsos parezcan mucho más convincentes [4].
2. Verifica a la persona por un segundo canal
Una voz al teléfono o una cara en vídeo ya no son suficientes. La FTC ha señalado expresamente el riesgo de estafas mediante deepfakes generados por IA al proponer nuevas medidas contra la suplantación de personas [5].
La práctica segura es cortar el contacto en curso y comprobarlo por un canal que elijas tú. Llama a un número que ya tengas guardado, entra tú mismo en la web oficial desde el navegador o contacta con esa persona por una vía conocida e independiente.
Rutinas útiles:
- acordar una palabra clave familiar para emergencias reales;
- establecer que toda petición de dinero requiere devolución de llamada;
- no hacer excepciones por supuesta urgencia;
- no verificar la identidad dentro del mismo chat, llamada o videollamada.
3. Nunca compartas códigos, contraseñas ni autorizaciones durante el contacto
Los códigos de un solo uso, contraseñas, fotos de documentos, accesos a wallets y aprobaciones de pago son datos de alto riesgo. Si te los piden durante una llamada entrante, un chat, una videollamada o una nota de voz, la respuesta debe ser siempre la misma: cortar y comprobar por separado.
Da igual si el contacto parece venir de tu banco, una administración pública, tu empresa, soporte técnico, un cliente, un familiar o un superior. La CFTC menciona expresamente voces falsas, vídeos, videollamadas en directo, perfiles en redes sociales y sitios web maliciosos como herramientas que pueden hacer más creíbles las estafas apoyadas en IA [4].
4. Trata voces, vídeos y capturas como pistas, no como pruebas
No esperes a “pillar” técnicamente un deepfake. Para decidir, la pregunta importante es otra: ¿puedes confirmar la historia por una fuente independiente?
Antes de actuar, pregúntate:
- ¿La petición encaja con el comportamiento habitual de esa persona u organización?
- ¿Existe un número o canal de devolución de llamada ya conocido?
- ¿Te piden secreto o discreción absoluta?
- ¿El dinero debe ir a una cuenta nueva, una wallet o un método poco habitual?
- ¿Quieren cambiar datos bancarios, dirección de entrega o credenciales de acceso?
Si algo no cuadra, detén la operación. Cuando hay dinero, identidad o accesos de por medio, una segunda comprobación debería ser obligatoria.
5. Desconfía de las promesas de dinero “con IA”
Que algo se venda como “impulsado por IA” no lo convierte en fiable. La FTC anunció en 2024 acciones contra afirmaciones y esquemas engañosos relacionados con la IA, incluida una demanda contra una supuesta oportunidad de negocio online que prometía ingresos mensuales rápidos mediante herramientas de IA “de vanguardia” [3].
Ten especial cuidado con ofertas como:
- “trading con IA” con beneficios supuestamente seguros;
- “ingresos pasivos” mediante automatización;
- “rentabilidad garantizada” gracias a un algoritmo;
- cursos o herramientas caros con promesas de ingresos poco realistas;
- testimonios, capturas o vídeos de demostración sin pruebas verificables.
La regla segura: comprueba quién está detrás, las condiciones del contrato, los costes, los riesgos y las fuentes primarias. No pagues solo porque una oferta use la palabra IA.
6. Usa las respuestas de IA como borrador, no como última palabra
Con los errores de IA vale el mismo principio que con las estafas: no copies ni actúes a ciegas; comprueba. Las fuentes de esta revisión documentan sobre todo fraude, suplantación y promesas engañosas con IA, pero no ofrecen una tasa general fiable de errores de los sistemas de IA en el uso diario.
Para decisiones importantes, es más seguro seguir este proceso:
- Abre la fuente primaria: ley, página oficial, estudio original, contrato, extracto bancario, documentación del fabricante o información médica especializada.
- Revisa cifras y fechas: comprueba contexto, autor, definiciones y actualización.
- Pide revisión humana cuando el riesgo sea alto: especialmente en derecho, salud, finanzas, seguridad, identidad y trabajo.
- No reenvíes resúmenes de IA sin revisar: verifica las afirmaciones centrales antes de compartirlas.
La IA puede ser útil para redactar, ordenar ideas o resumir. Pero no debería decidir por sí sola si algo es verdadero, seguro o legalmente fiable.
7. Acuerda reglas para casa y trabajo antes de que pase algo
La mejor protección es tener un procedimiento conocido por todos antes de una crisis. Esto es especialmente importante porque la suplantación causa grandes pérdidas: según la FTC, las estafas que imitan a empresas y organismos públicos están entre las más denunciadas; en 2024 generaron 2.950 millones de dólares en pérdidas comunicadas por consumidores, una cifra que no incluye solo casos de IA [13].
Para familias:
- acordad una palabra clave para emergencias;
- ante cualquier petición de dinero, devolved la llamada a un número conocido;
- explicad a niños, padres y abuelos que las voces y los vídeos pueden falsificarse;
- nunca compartáis códigos de un solo uso ni contraseñas por teléfono.
Para equipos y empresas:
- no autoricéis pagos solo por chat, correo, nota de voz o videollamada;
- verificad siempre los cambios de datos bancarios;
- aplicad doble aprobación para pagos inusuales;
- exigid devolución de llamada a números ya conocidos;
- revisad los datos clave de contenidos generados con IA antes de usarlos externamente.
Mini lista de comprobación para una situación sospechosa
Si una llamada, vídeo, chat o contenido generado por IA te empuja a actuar, sigue estos cinco pasos:
- Pausa: no reacciones de inmediato.
- Protege tus datos: no compartas códigos, contraseñas, documentos ni aprobaciones de pago.
- Cambia de canal: verifica con un número conocido o entrando tú mismo en la web oficial.
- Busca una fuente primaria: contrato, cuenta, página oficial, extracto o confirmación directa.
- Involucra a otra persona: ante dinero, identidad o decisiones importantes, no actúes solo bajo presión.
Conclusión
La mejor defensa diaria contra estafas y errores de IA no es una herramienta milagrosa, sino un hábito: parar, verificar por separado, proteger los datos sensibles y contrastar las afirmaciones importantes con fuentes originales.
Las fuentes disponibles respaldan con fuerza los riesgos de engaño asistido por IA, suplantación mediante deepfakes, llamadas o mensajes generados por IA y promesas comerciales engañosas [1][
3][
4][
5][
13]. Son mucho menos concluyentes para establecer tasas generales de error de la IA en la vida cotidiana. Además, las fuentes citadas son principalmente de Estados Unidos; aquí no se han verificado vías de denuncia ni consecuencias legales específicas de otros países.




