Que una imagen “huela raro” es solo el punto de partida. Lo importante es comprobar la historia que se está contando: quién habría dicho, hecho o mostrado qué; cuándo; dónde; y con qué prueba original.
La IA generativa hace esta comprobación más necesaria, pero no imposible. El programa GenAI de NIST evalúa, entre otras cosas, lo difícil que puede ser distinguir textos generados por IA de textos escritos por humanos y cuán creíbles pueden resultar las narrativas generadas.[1] UNESCO describe los deepfakes como parte de una “crisis of knowing”, es decir, una crisis de confianza sobre qué podemos saber y verificar.[
4] Reuters también informó sobre un reporte de la ONU que pide medidas más fuertes para detectar deepfakes impulsados por IA, por riesgos de desinformación y posible interferencia electoral.[
3]
Regla básica: primero la afirmación, luego la impresión
Muchos errores nacen de mirar solo la superficie: manos deformes, sombras extrañas, labios que no encajan, voces raras o texto borroso dentro de una imagen. Todo eso puede servir como pista. Pero no alcanza para hacer una verificación seria.
Empieza con tres preguntas:
- ¿Qué se afirma exactamente? Resume la afirmación en una sola frase.
- ¿Dónde está la fuente primaria? Busca el video completo, el audio íntegro, el documento, el paper, el comunicado oficial o la publicación original.
- ¿Encaja el contexto? Revisa fecha, lugar, idioma, recorte, titular y texto que acompaña la publicación.
Si falta una de esas capas, la publicación no es automáticamente falsa. Pero tampoco está bien demostrada. Por eso el reconocimiento de desinformación en medios generados por IA ya se trata como parte de la alfabetización digital: N.C. Cooperative Extension lo enmarca explícitamente como “Digital Literacy for the Age of Deepfakes”.[2]
No confundas autenticidad del archivo con verdad de la historia
Un error común es pensar que, si el video es real, entonces la afirmación también lo es. O al revés: si una imagen fue generada por IA, entonces todo lo asociado a ella es falso. No funciona así.
- Un video auténtico puede circular con una fecha o ubicación equivocada.
- Una captura de pantalla real puede estar sacada de contexto.
- Una imagen creada con IA puede ilustrar simbólicamente una noticia real.
- Un clip sintético puede ir acompañado de una afirmación que debe verificarse por separado.
Por eso conviene emitir dos juicios distintos: ¿el material es auténtico, editado o sintético? Y, aparte: ¿ese material prueba realmente lo que la publicación dice que prueba?
La lista de 7 pasos para revisar contenido sospechoso
Úsala cuando te llegue un video viral, una imagen de IA, una captura llamativa o una afirmación espectacular sobre inteligencia artificial.
- Anota la afirmación central. ¿Qué se supone que ocurrió? ¿Quién participa? ¿Qué conclusión intenta demostrar la publicación?
- Busca la fuente primaria. No te quedes en el repost. Intenta abrir el video completo, el audio largo, el documento original, el paper, la documentación del producto o el comunicado oficial.
- Comprueba el contexto. Revisa fecha, lugar, idioma, motivo, recorte, titular y texto de acompañamiento. Un fragmento verdadero puede engañar si se presenta con contexto falso.
- Separa medio y afirmación. Pregunta por separado: ¿la imagen, el video, el audio o el texto son reales? ¿Y prueban la conclusión que se está sacando?
- Haz verificaciones cruzadas. Usa búsqueda inversa de imágenes, revisa fotogramas del video y compara lugares, logos, clima, ropa, sombras o detalles del fondo.
- Toma las rarezas técnicas como pistas, no como sentencia. Texto deformado, labios poco naturales, sombras raras, manos extrañas o fallos de audio son señales de alerta. Por sí solas no prueban todo.
- Busca confirmación independiente. Trata las grandes afirmaciones como provisionales hasta que fuentes sólidas confirmen el mismo núcleo de la historia y, si es posible, apunten al material original.
Si después de estos pasos siguen faltando datos centrales, la evaluación más honesta suele ser: no comprobado.
Deepfakes e imágenes de IA: la procedencia vale más que el “fallo raro”
Con los deepfakes, el problema no es solo técnico. También ponen en duda pruebas que antes parecían evidentes: ver a alguien hablar, oír una voz, mirar una escena. UNESCO describe este desafío como una crisis de conocimiento y confianza; el reporte de la ONU mencionado por Reuters pide más medidas contra deepfakes y desinformación impulsados por IA.[3][
4]
En la práctica, trabaja hacia atrás por la cadena de procedencia:
- Del clip al material completo: ¿solo hay unos segundos recortados o existe el video íntegro?
- Del repost al origen: ¿quién publicó primero el contenido?
- De la captura al enlace: ¿se puede abrir, archivar y revisar el supuesto documento o publicación?
- De la escena a la afirmación: ¿el material muestra realmente lo que el texto asegura?
- Del artefacto a la prueba: una sombra extraña o una voz rara son indicios; lo decisivo es si hay fuentes originales y confirmaciones independientes.
Con personas conocidas, crisis, campañas electorales o supuestos escándalos, conviene aumentar la prudencia. Sin procedencia clara y contexto completo, no conviene tratar el asunto como cerrado.
Noticias falsas sobre IA: revisa el hype como cualquier otra afirmación
No toda desinformación relacionada con IA está creada con IA. A menudo el problema es la exageración: una demo se presenta como producto terminado, un resultado aislado se vende como revolución general o una captura sustituye a la fuente original.
Buenas preguntas para aterrizar el tema:
- ¿Existe un paper original, un anuncio oficial del producto o documentación técnica?
- ¿Se presenta una prueba de laboratorio como si fuera una función disponible para todo el mundo?
- ¿Se omiten limitaciones, condiciones de prueba o tasas de error?
- ¿Se convierte un ejemplo puntual en una regla general?
- ¿Quién gana con la exageración: alcance, publicidad, efecto político o interés económico?
Frases como 100 % exacto, demostrado definitivamente, piensa como un ser humano, revolucionario o reemplazará todos los trabajos desde ya no prueban que algo sea falso. Pero sí son una buena razón para buscar la fuente primaria y formular la afirmación con más precisión.
Detectores de IA: útiles para orientar, no para dictar veredictos
Los detectores pueden aportar pistas, pero no sustituyen una verificación. El programa GenAI de NIST muestra que la posibilidad de distinguir contenidos generados y la credibilidad de narrativas creadas por IA son objeto de evaluaciones estructuradas; el texto de NIST también señala que datos de narrativas creíbles pero engañosas pueden usarse para entrenar detectores.[1]
Si usas un detector, pregúntate:
- ¿La herramienta analiza texto, imagen, audio o video?
- ¿Busca generación por IA, manipulación o solo patrones estadísticos?
- ¿Da una explicación verificable o solo un porcentaje?
- ¿Su resultado encaja con la fuente primaria y el contexto, o está reemplazando esa comprobación de manera aparente?
Un detector, como mucho, puede sugerir algo sobre el posible origen de un contenido. No demuestra automáticamente si la afirmación de la publicación es verdadera.
Cómo usar IA sin delegarle la verificación
Las herramientas de IA pueden ayudarte a ordenar una investigación. Lo que no conviene es dejarles la decisión final sobre qué está probado.
Pueden servir para:
- convertir una publicación confusa en una afirmación verificable;
- señalar datos ausentes sobre fecha, lugar, persona, cita o contexto;
- proponer posibles fuentes primarias;
- sugerir verificaciones cruzadas;
- detectar contradicciones entre la afirmación y el supuesto respaldo.
Después, abre tú mismo las fuentes citadas. Una respuesta de IA sin enlace verificable a material original es una pista de investigación, no una prueba.
Señales de alerta: revisa antes de compartir
Detente especialmente si se juntan varias de estas señales:
- Solo hay una captura de pantalla, pero ningún enlace.
- La cita aparece recortada o no se puede encontrar.
- Faltan autor, fecha o lugar original de publicación.
- La publicación presiona para compartir “ya”.
- Una sola fuente sostiene la afirmación.
- El lenguaje busca indignar más que aportar datos comprobables.
- Se presenta una captura de un detector como única prueba.
- La afirmación es enorme y las pruebas son débiles.
Fórmula de bolsillo
Para contenido sospechoso relacionado con IA, quédate con este orden:
- Busca la fuente original.
- Revisa el contexto.
- Busca confirmación independiente.
- Solo entonces cree o comparte.
Precisamente porque las narrativas generadas pueden sonar creíbles y los deepfakes desafían la confianza en lo que vemos y oímos, muchas veces la respuesta más responsable no es “verdadero” o “falso”, sino no comprobado.[1][
4]




