El problema de las estafas con IA no es que todo el mundo tenga que convertirse en perito audiovisual. El problema es que una voz familiar, una cara conocida, un cargo de confianza o una identidad aparentemente legítima pueden falsificarse. El fraude con IA puede combinar identidades falsas, deepfakes e ingeniería social [9]. Y las estafas con deepfake pueden usar imágenes, vídeo o audio generados por IA para suplantar a personas de confianza; a veces se ven y suenan reales [
8].
Por eso, la pregunta más útil no es: «¿Parece auténtico?». La pregunta clave es: ¿qué me están pidiendo que haga y con cuánta prisa?
Ni prisa ni pánico: no transfieras, no entregues códigos; cuelga, sal del chat y verifica por otra vía.
Mira primero la petición, no la cara
Que una voz suene como la de tu jefe, que una videollamada parezca venir de un familiar o que un mensaje use el tono de una entidad conocida no debería bastar para autorizar nada. Un deepfake puede crear audio o vídeo falso para que parezca que alguien dijo, hizo o autorizó algo [4].
Las guías de prevención también advierten de una táctica central: crear urgencia para que la víctima decida sin pensar [5]. Así que, si aparece cualquiera de estas peticiones, detente:
- Transferir dinero, pagar una deuda, comprar criptomonedas, enviar una ayuda urgente o cambiar una cuenta de cobro.
- Dar contraseñas, códigos OTP o de un solo uso, códigos por SMS, datos bancarios, documentos de identidad o capturas de pantalla de cuentas.
- Pulsar enlaces desconocidos, escanear códigos QR, descargar una aplicación, instalar una extensión o activar control remoto.
- Mantenerlo en secreto: «no se lo digas a nadie», «no llames al banco», «no preguntes a tu familia», «no pases por el proceso normal».
- Actuar con frases de presión: «última oportunidad», «se acaba el plazo», «hay un problema grave», «hay que salvar a alguien», «es orden de dirección».
- Hacer algo que normalmente no harías porque supuestamente lo pide un famoso, un banco, una empresa, un cliente, un familiar o un superior.
Si se juntan dos elementos —una persona o institución que parece confiable y una exigencia inmediata—, no sigas dentro del mismo canal.
Protocolo de cinco pasos cuando algo te huele raro
1. Detente y corta la interacción
No respondas, no abras enlaces, no descargues archivos, no escanees códigos QR. Si estás en una llamada o videollamada y te están presionando, cuelga. Una urgencia real puede soportar unos minutos de verificación; una estafa suele depender de que no los tomes.
2. Cambia de canal
No uses el teléfono, enlace, perfil de atención al cliente o cuenta de contacto que viene en el mensaje sospechoso. Si el mensaje es falso, esos datos también pueden serlo.
Busca tú el contacto por una vía que ya conozcas: el número guardado de la persona, la web oficial escrita manualmente en el navegador, la app oficial, el directorio de la empresa o un canal que uses habitualmente.
3. Si hay dinero, cuentas o documentos, pide segunda confirmación
En casa, en el trabajo o en cualquier equipo conviene pactar una regla sencilla: pagos, préstamos, cambios de cuenta bancaria, códigos de acceso, documentos, ayuda urgente y control remoto siempre requieren una segunda verificación.
En una empresa, una llamada de voz o una videollamada no deberían sustituir el procedimiento de aprobación. Las estafas con deepfake pueden usar audio, vídeo o imágenes generados por IA para suplantar a alguien de confianza [8].
4. Busca la fuente original y el contexto completo
Con vídeos de famosos, mensajes políticos, noticias impactantes, supuestas catástrofes o promesas de inversión, no te quedes con un recorte. Los deepfakes pueden fabricar audio o vídeo en el que parezca que una persona dijo o hizo algo dañino [4].
Antes de compartir o actuar, pregúntate:
- ¿Quién lo publicó primero?
- ¿Existe el vídeo completo, el artículo original o la publicación inicial?
- ¿Cuadran la fecha, el lugar y el contexto?
- ¿Lo confirman medios fiables, una institución oficial o la persona afectada?
- ¿Solo circula como captura, clip corto o reenvío sin origen claro?
Si no encuentras la fuente original, espera. No compartir también es una forma de protección.
5. Guarda pruebas y reporta por vías oficiales
Si crees que ya caíste, no borres todo por nervios. Guarda capturas, enlaces, números de teléfono, perfiles, cuentas, justificantes de pago, direcciones de monedero, archivos de vídeo y conversaciones.
Si hay una tarjeta, cuenta bancaria o plataforma de pago implicada, contacta de inmediato por los canales oficiales de esa entidad. En Estados Unidos, los materiales gubernamentales de divulgación citan como vías de reporte de la Comisión Federal de Comercio, la FTC, ftc.gov/complaint y el teléfono 1-877-FTC-HELP [3]. La FTC también reúne recursos sobre inteligencia artificial, orientación al consumidor y estafas [
1]. Si estás en otro país, usa los canales de tu policía, autoridad financiera, banco o servicio oficial de atención al fraude.
Cómo revisar un vídeo o audio sospechoso
La revisión visual sirve para frenar, no para dictar sentencia. Puedes usar esta lista como primera alarma:
- ¿La boca y la voz no encajan del todo?
- ¿Los bordes de la cara, las gafas, el pelo o las orejas parpadean o se deforman?
- ¿Los dedos, dientes, piel o gestos se ven extraños?
- ¿El fondo, los textos, las sombras o los reflejos no tienen lógica?
- ¿El ritmo de habla, las pausas o las emociones parecen poco naturales?
Pero cuidado: no ver fallos no significa que sea real. Precisamente, una de las dificultades de los deepfakes es que pueden verse y sonar auténticos [8]. Por eso la verificación más sólida sigue siendo externa: origen, contexto, fecha, lugar, versión completa y confirmación por fuentes fiables.
Reglas prácticas para tres situaciones comunes
En familia: una palabra de seguridad
Pactad una palabra o pregunta de seguridad que no se publique en redes. También puede servir una regla simple: si alguien pide dinero, ayuda urgente, un cambio de número, un código o un documento, hay que devolver la llamada por un número ya conocido o consultar con otra persona de la familia. Las estafas con deepfake pueden hacerse pasar por personas de confianza [8].
En el trabajo: doble aprobación para pagos y cambios
Si alguien se presenta como dirección, finanzas, proveedor o cliente y pide pagar, cambiar una cuenta bancaria o entregar credenciales, sigue el proceso habitual. No saltes controles porque «la voz era igual» o «lo vi en vídeo». Un deepfake puede hacer que parezca que alguien autorizó algo que no autorizó [4].
En redes: cuanto más te enciende, más tarde se comparte
El contenido falso suele empujar emociones fuertes: miedo, rabia, compasión, indignación o deseo de ganar dinero rápido. Cuando veas mensajes del tipo «compártelo antes de que lo borren», «los medios no lo cuentan», «última oportunidad» o «beneficio garantizado», deja pasar unos minutos, busca el origen y decide después.
La regla final: no dependas de tener buen ojo
La IA ya forma parte de fraudes que usan identidades falsas, deepfakes e ingeniería social; y los deepfakes pueden suplantar a personas mediante audio, vídeo o imágenes que parecen reales [8][
9]. Pero sí puedes controlar tu propio proceso.
No confirmes dentro del mismo chat. No entregues códigos. No transfieras por presión. No compartas un vídeo explosivo sin contexto. Cambia de canal, busca la fuente original y pide una segunda verificación.
La mejor defensa frente a estafas con IA, deepfakes y vídeos falsos cabe en una frase: párate, sal del canal y confirma por una vía fiable.




