Las respuestas de IA pueden ser un buen punto de partida: ordenan ideas, resumen textos y sugieren caminos de búsqueda. El riesgo aparece cuando una redacción segura y fluida se confunde con un dato comprobado. Los datos disponibles de Stanford apuntan a una idea clave: la fiabilidad no se mide con un porcentaje universal, sino según la tarea, la calidad de las fuentes y la verificación posterior.[4]
La respuesta corta: no hay un porcentaje mágico
Decir que la IA acierta el x % de las veces suena cómodo, pero sería engañoso. El Stanford AI Index 2025 señala que la evaluación de sistemas de IA con criterios de IA responsable sigue sin estar ampliamente estandarizada. Están apareciendo pruebas como HELM Safety y AIR-Bench, mientras que referencias más antiguas como HaluEval y TruthfulQA no bastan por sí solas para evaluar de forma completa los modelos de lenguaje actuales.[4]
La pregunta útil no es «¿la IA es fiable?», sino «¿para qué tarea, con qué fuentes y con qué revisión?». No exige el mismo nivel de confianza pedir una explicación general, resumir un documento que tú mismo aportas, investigar una norma jurídica o tomar una decisión con impacto en salud, dinero o seguridad.
Lo que revelan las alucinaciones
En IA, una alucinación es una respuesta que presenta como cierto algo falso, no respaldado o incompleto. Son especialmente peligrosas porque pueden sonar impecables.
Una investigación de Stanford publicada en 2025 sobre herramientas líderes de búsqueda jurídica con IA encontró tasas de alucinación de entre el 17 % y el 33 %, según el sistema analizado.[2] En el mismo estudio, el sistema con mejor desempeño fue correcto en el 65 % de los casos; otro alcanzó un 42 % de precisión, y un tercero dio respuestas incompletas en más del 60 % de las consultas.[
2]
Estos datos no son una tasa general de error para todos los chatbots. Sí muestran algo importante: incluso herramientas especializadas, diseñadas para consultar fuentes, pueden ofrecer resultados equivocados o incompletos.[2]
Una cita no convierte una respuesta en verdad
En un buscador tradicional ves varios resultados, comparas títulos, fechas, autores y fuentes. En una respuesta de IA, ese proceso suele quedar comprimido en un solo texto. Es cómodo, pero desplaza la carga de verificación hacia quien lee.
La regla práctica es sencilla: una fuente no solo debe existir; debe respaldar exactamente la afirmación. Si la IA cita una página sobre el tema, pero esa página no contiene el número, la fecha, la cita textual o la conclusión que se menciona, la respuesta no está verificada.
Conviene revisar con especial cuidado cifras, citas, fechas, rankings, afirmaciones legales y noticias recientes. Abre la fuente, busca el pasaje concreto y comprueba si dice lo mismo que la IA.
Lo que preocupa a las organizaciones
El Stanford AI Index 2025 identifica la inexactitud como una de las principales preocupaciones en el uso empresarial de la IA: el 64 % de los directivos encuestados la mencionó como un problema.[4] El informe también remite a la AI Incidents Database, una base de datos sobre incidentes de IA, según la cual en 2024 se registraron 233 incidentes relacionados con IA, un 56,4 % más que en 2023.[
4]
Estas cifras no miden directamente cuántas veces se equivoca un chatbot. Pero explican por qué las organizaciones necesitan controles, responsabilidades claras y supervisión humana cuando incorporan IA a procesos reales.[4]
Cuándo la IA sí puede ser muy útil
La IA funciona mejor cuando se usa como copiloto de investigación, no como juez final. Puede ahorrar tiempo en tareas como:
- ordenar un tema y aclarar conceptos;
- proponer palabras clave y preguntas de seguimiento;
- resumir textos largos que tú le proporcionas;
- separar argumentos, contraargumentos y supuestos;
- redactar borradores que luego serán revisados.
En estos casos, el valor está en la orientación y la productividad. La comprobación de los hechos sigue siendo una tarea aparte.
Cuándo no deberías aceptar la respuesta sin revisar
Desconfía de una respuesta de IA si:
- incluye números concretos, rankings o fechas;
- atribuye estudios, fuentes o citas textuales;
- trata asuntos legales, médicos, financieros o de seguridad;
- interpreta acontecimientos recientes;
- suena muy segura, pero no muestra pruebas verificables;
- responde solo a medias o deja fuera limitaciones importantes.
El ámbito jurídico es un buen aviso: en el estudio de Stanford, incluso herramientas especializadas de investigación legal alucinaron o entregaron respuestas incompletas.[2]
Filtro de 30 segundos para verificar una respuesta de IA
- ¿Hay fuente? Sin una fuente comprobable, la respuesta es una pista, no una prueba.
- ¿Abriste la fuente? Comprueba que respalda la afirmación exacta.
- ¿Es una fuente primaria? Estudios originales, documentos oficiales y bases de datos directas suelen ser más sólidos que resúmenes.
- ¿La fecha importa? En leyes, precios, estadísticas y rankings, la actualidad puede cambiarlo todo.
- ¿Falta contexto? Una respuesta parcialmente correcta puede engañar si omite excepciones o límites.
- ¿Qué pasa si está mal? Si el error tendría consecuencias legales, médicas, económicas o de seguridad, la IA por sí sola no basta.
Conclusión: punto de partida, no punto final
La IA puede hacer que investigar sea más rápido y accesible. Pero los datos no apoyan la confianza ciega: no existe una tasa universal y sólida de fiabilidad, las herramientas especializadas todavía pueden alucinar y la inexactitud sigue siendo un riesgo relevante en el uso práctico.[2][
4]
La regla más segura es: pregunta a la IA, exige fuentes, abre las afirmaciones críticas y verifícalas. Para decisiones con consecuencias, añade fuentes primarias y criterio profesional.




