Claude Mythos Preview merece atención, pero conviene quitarle la capa de mito. Lo más sólido, por ahora, es esto: Anthropic lo describe en su propio system card como un nuevo gran modelo de lenguaje y un modelo frontier con capacidades en ingeniería de software, razonamiento y ciberseguridad.[16] Además, el AI Security Institute del Reino Unido, conocido como AISI, afirma haber observado mejoras en pruebas de tipo CTF y en simulaciones de ciberataques de varios pasos.[
25]
Lo que todavía exige más cautela es la versión más espectacular del relato: que ya exista una IA capaz de descubrir y explotar de forma autónoma miles de vulnerabilidades zero-day de alta gravedad, con verificación externa completa. Esa afirmación, en su forma más fuerte, procede sobre todo de Anthropic y de reportes que la recogen; otros análisis han cuestionado cuántos de esos fallos son realmente explotables, graves o comparables entre sí.[1][
26][
27]
La respuesta corta: sí importa, pero no conviene convertirlo en leyenda
Claude Mythos Preview no parece ser una simple función de chat ni una plantilla de prompts con nombre llamativo. Según la documentación pública de Anthropic, es un modelo nuevo y de frontera, con capacidades relevantes para software y ciberseguridad.[16]
También hay evidencia externa de que sus capacidades han mejorado en pruebas controladas. AISI informó que sus evaluaciones mostraron una mejora continuada en desafíos CTF y una mejora significativa en simulaciones de ciberataques de varios pasos.[25] Para lectores menos familiarizados con el término, un CTF, o capture the flag, es un tipo de ejercicio usado en seguridad informática para resolver retos técnicos en un entorno controlado.
Dicho de forma sencilla: Mythos Preview debe tomarse en serio. Pero llamarlo ya un superhacker autónomo, probado de manera independiente en todos sus supuestos hallazgos, va más allá de lo que permite afirmar la información pública.[25][
27]
Qué es exactamente Claude Mythos Preview
El system card de Anthropic define Claude Mythos Preview como un nuevo gran modelo de lenguaje de la compañía y como un modelo frontier, con capacidades en varias áreas, entre ellas ingeniería de software, razonamiento y ciberseguridad.[16] En este contexto, modelo frontier significa que Anthropic lo sitúa en la frontera de capacidades actuales, no que sea un producto corriente para cualquier usuario.
Esa distinción es importante. No estamos hablando de un personaje inventado dentro de Claude, de un plugin de terceros o de un modo de conversación. La propia documentación de Anthropic lo presenta como un modelo.[16]
El interés del sector de seguridad viene precisamente de que la ciberseguridad aparece como parte central de sus capacidades.[16] Por eso, la pregunta clave no es solo si el modelo existe, sino cómo se valida lo que encuentra, quién puede usarlo, qué límites tiene el acceso y cómo se comunican y corrigen las vulnerabilidades. Según reportes públicos, Anthropic optó por no abrirlo como un modelo de uso general para el público.[
26][
32]
¿Puede descubrir zero-days automáticamente?
Aquí hay que separar dos cosas: lo que Anthropic afirma y lo que ha sido demostrado públicamente por terceros.
The New York Times reportó que ejecutivos de Anthropic dijeron que Claude Mythos Preview ya podía realizar investigación de seguridad autónoma, incluida la búsqueda y explotación de vulnerabilidades zero-day en software crítico. El mismo reporte explica que una vulnerabilidad zero-day es un fallo que ni siquiera el desarrollador del software conoce todavía.[1]
The Hacker News también recogió la afirmación de Anthropic de que Mythos Preview habría encontrado miles de vulnerabilidades zero-day de alta gravedad en los principales sistemas operativos y navegadores web.[26]
Es una afirmación enorme. Y precisamente por eso necesita evidencia enorme. Tom’s Hardware cuestionó ese salto y señaló que la información pública no aclara hasta qué punto esas vulnerabilidades son realistas, cuántas no serían explotables o qué gravedad tendrían en la práctica.[27]
La lectura más equilibrada es esta: la evidencia pública sí respalda que Mythos Preview ha avanzado en tareas relacionadas con descubrimiento de vulnerabilidades; no respalda todavía, con el mismo grado de solidez, que cada una de las afirmaciones sobre miles de zero-days graves haya sido verificada de forma pública, independiente y caso por caso.[25][
27]
Qué prueba la evaluación de AISI, y qué no
AISI publicó el 13 de abril de 2026 una evaluación de las capacidades cibernéticas de Claude Mythos Preview, anunciado por Anthropic el 7 de abril. El instituto afirmó que encontró mejora continuada en retos CTF y mejora significativa en simulaciones de ciberataques de varios pasos.[25]
Ese dato pesa porque no es solo una repetición del mensaje comercial de Anthropic: es una evaluación externa que apunta en la misma dirección general, la de un modelo más capaz en tareas de seguridad ofensiva y defensiva dentro de entornos de prueba.[25]
Pero también hay que leerla dentro de sus límites. Un buen desempeño en CTF y en simulaciones de ataque de varios pasos no demuestra automáticamente que todos los supuestos fallos encontrados en software real existan, sean graves, puedan explotarse de forma estable o hayan pasado por una revisión pública completa.[25][
27]
En otras palabras: AISI ayuda a confirmar que hay un salto de capacidad. No convierte por sí sola cada titular sobre miles de zero-days en un hecho cerrado.[25][
27]
Por qué Anthropic no lo lanzó al público
Los reportes coinciden en un punto: este tipo de capacidad tiene riesgo claro de abuso. The Hacker News informó que, debido a sus capacidades de ciberseguridad y al temor de que pudieran utilizarse mal, Anthropic decidió no hacer que Mythos Preview estuviera disponible de forma general.[26]
NBC News también reportó que Anthropic retuvo Mythos Preview del lanzamiento público y lo compartió solo con un grupo limitado de grandes tecnológicas y socios, con el objetivo de ayudar a reforzar defensas.[32]
Eso desplaza el debate. La cuestión no es únicamente si el modelo es potente, sino quién puede acceder a él, con qué auditoría, cómo se revisan sus resultados, qué proceso se sigue al encontrar una vulnerabilidad y qué ocurre si actores maliciosos reproducen capacidades similares.[26][
32]
Project Glasswing: cooperación limitada, no producto de consumo
WIRED reportó que Project Glasswing reunirá a Apple, Google y más de 45 organizaciones para usar Claude Mythos Preview en pruebas de capacidades crecientes de IA aplicada a ciberseguridad.[30]
Visto desde fuera, Project Glasswing parece más un esquema de colaboración restringida y pruebas defensivas que un lanzamiento comercial abierto. NBC News también describió el acceso como limitado a grandes empresas tecnológicas y socios para ayudar a reforzar defensas.[30][
32]
La lógica es comprensible: si un modelo puede acelerar el hallazgo de fallos en software crítico, tiene sentido que primero participen quienes mantienen ese software y pueden corregirlo. Pero la información pública disponible no detalla por completo los criterios de acceso, las reglas de auditoría, los procesos de divulgación de vulnerabilidades ni los mecanismos de respuesta ante abuso.[30][
32]
Por eso Project Glasswing no debe presentarse como una solución final a todos los problemas de gobernanza. Es, más bien, una señal de que Anthropic intenta manejar la capacidad en un entorno más controlado.[30][
32]
La parte menos vistosa: no es solo el modelo, también la orquestación
Un detalle técnico de Anthropic ayuda a entender por qué el tema es más complejo que un simple chat con una IA. En red.anthropic.com, la compañía explica que, para aumentar la diversidad de fallos encontrados y poder ejecutar muchas copias de Claude en paralelo, cada agente se enfoca en un archivo distinto del proyecto. Además, para mejorar la eficiencia, primero pide a Claude que clasifique cada archivo en una escala de 1 a 5 según la probabilidad de que contenga vulnerabilidades interesantes.[8]
Eso sugiere que la capacidad mostrada no depende solo de una respuesta aislada en una ventana de chat. El proceso combina priorización de archivos, agentes paralelos y división del trabajo para cubrir más superficie y evitar descubrir el mismo fallo repetidamente.[8]
Para los equipos de seguridad, esta es quizá la lección más importante: el riesgo futuro no vendrá únicamente de un modelo base más inteligente, sino de la combinación de modelo potente, agentes especializados, búsqueda paralela y flujos de trabajo diseñados para revisar grandes bases de código.[8]
Qué puede darse por bastante sólido
- Claude Mythos Preview está descrito por Anthropic como un nuevo gran modelo de lenguaje y modelo frontier, con capacidades en ingeniería de software, razonamiento y ciberseguridad.[
16]
- AISI reportó mejoras en CTF y en simulaciones de ciberataques de varios pasos tras evaluar el modelo.[
25]
- Varios reportes indican que Anthropic no lo puso a disposición del público general y optó por acceso limitado y colaboración con socios.[
26][
30][
32]
- Anthropic ha descrito un flujo de descubrimiento de vulnerabilidades basado en múltiples copias de Claude, agentes que revisan archivos distintos y priorización previa de archivos según riesgo.[
8]
Qué sigue siendo dudoso
- No conviene traducir automáticamente miles de vulnerabilidades encontradas como miles de zero-days graves y explotables en condiciones reales. Tom’s Hardware planteó dudas explícitas sobre realismo, explotabilidad y gravedad.[
27]
- No se puede afirmar, con la evidencia pública actual, que Mythos Preview supere de forma estable a los mejores investigadores humanos en todos los escenarios reales de seguridad. La evaluación de AISI respalda mejoras en tareas concretas, no una conclusión universal.[
25]
- Tampoco puede atribuirse todo al modelo base. La propia descripción de Anthropic sobre agentes paralelos y clasificación de archivos muestra que la arquitectura del sistema puede ser parte central del resultado.[
8]
- El acceso restringido reduce ciertos riesgos, pero no los elimina. Los reportes públicos describen una distribución limitada y Project Glasswing, no un marco completo y transparente de gobernanza.[
30][
32]
Qué significa para usuarios, empresas y equipos de seguridad
Para una persona que usa Claude como asistente de texto o programación, la conclusión práctica es simple: Mythos Preview no es un botón nuevo que pueda abrirse como cualquier chat. Los reportes públicos dicen que Anthropic eligió no hacerlo disponible de forma general y que lo comparte con un grupo limitado de socios.[26][
32]
Para equipos de seguridad, el mensaje es más serio. La combinación de Mythos Preview, agentes paralelos y evaluaciones externas indica que la IA ya está entrando con fuerza en tareas de búsqueda automatizada de vulnerabilidades, revisión de código a escala y simulación de ataques de varios pasos.[8][
25]
Eso no significa que los investigadores humanos vayan a quedar sustituidos de inmediato. Sí significa que las organizaciones deberían revisar cómo gestionan el descubrimiento de fallos, la divulgación responsable, la priorización de parches y la velocidad de respuesta cuando una herramienta automatizada encuentre problemas en volumen.[25][
32]
La conclusión más justa cabe en una frase: Claude Mythos Preview probablemente marca un punto importante en la automatización de la ciberseguridad con IA, pero la evidencia pública todavía respalda mejor la idea de una capacidad claramente reforzada que la de un superhacker autónomo cuyas afirmaciones más llamativas ya estén completamente verificadas.[16][
25][
27]




