A primera vista, la secuencia deja a OpenAI en una posición incómoda. Según varios medios, Sam Altman criticó a Anthropic por limitar el acceso a Mythos, su modelo de ciberseguridad, y India Today informó de que llegó a describir esa estrategia como “fear-based marketing”, es decir, una forma de vender el producto apelando al miedo [1][
11].
Pero poco después, OpenAI anunció que GPT-5.5-Cyber tampoco estaría disponible para cualquiera: empezaría a llegar primero a “critical cyber defenders”, o defensores críticos de ciberseguridad [22][
30].
La pregunta, por tanto, no es solo si OpenAI se contradijo. La cuestión de fondo es más delicada: ¿quién debe tener acceso a una IA capaz de ayudar en tareas avanzadas de ciberseguridad, bajo qué controles y con qué velocidad?
Lo que sí está confirmado: OpenAI optó por acceso selectivo
El debate empezó con Mythos. Las informaciones disponibles señalan que Anthropic ofreció ese modelo de ciberseguridad solo a determinados usuarios, una decisión que Altman criticó públicamente [1][
11].
Después, OpenAI tomó un camino parecido con GPT-5.5-Cyber. Business Today y Techloy informaron de que Altman publicó el 30 de abril de 2026 en X que OpenAI empezaría a desplegar GPT-5.5-Cyber, descrito como un modelo de frontera para ciberseguridad, entre “critical cyber defenders” en los días siguientes [22][
30]. TechCrunch añadió que OpenAI mantenía un proceso de solicitud en el que los interesados debían presentar información sobre sus credenciales y el uso previsto del sistema [
1].
Ahí nace la controversia: no tanto en que OpenAI limite una herramienta sensible, sino en que lo haga después de haber criticado una restricción similar en Anthropic. The Register también planteó el asunto en esos términos: OpenAI se disponía a reservar GPT-5.5-Cyber para un círculo escogido de defensores cibernéticos tras haber cuestionado a Anthropic por una política parecida [6].
La explicación de OpenAI: primero los defensores, después el resto —si procede
La palabra clave en la narrativa de OpenAI es “trusted access”, o acceso de confianza. Según Business Today y Techloy, Altman dijo que OpenAI trabajaría con el ecosistema y con el gobierno para definir un acceso confiable a capacidades cibernéticas, con el objetivo de ayudar a proteger empresas e infraestructuras con rapidez [22][
30].
Esa explicación encaja con el programa Trusted Access for Cyber —TAC— que OpenAI ya venía presentando. La compañía describe TAC como una forma de desbloquear el potencial defensivo de modelos cibernéticos más potentes mientras se reduce el riesgo de uso indebido [29]. También afirmó que estaba ampliando ese programa a miles de defensores individuales verificados y a cientos de equipos responsables de proteger software crítico [
28].
Visto así, GPT-5.5-Cyber no aparece como una decisión aislada tomada a última hora, sino como parte de una estrategia más amplia: dar acceso gradual a capacidades cibernéticas avanzadas, empezando por personas y equipos verificados que trabajan en defensa [28][
29].
Por qué una IA de ciberseguridad es especialmente sensible
El problema de fondo es el doble uso. Una misma capacidad puede servir para cerrar una brecha o para explotarla.
TechCrunch informó de que GPT-5.5-Cyber puede realizar tareas como pruebas de penetración, identificación de vulnerabilidades y explotación de vulnerabilidades [1]. Datagrom señaló además que la herramienta puede llevar a cabo ingeniería inversa de malware [
14].
Para un equipo de seguridad, esas funciones pueden ahorrar tiempo: detectar fallos, priorizar parches, reproducir ataques en entornos controlados y reforzar sistemas. Pero en manos de usuarios no autorizados o actores maliciosos, capacidades parecidas también pueden elevar el nivel técnico de un ataque.
OpenAI ha reconocido esa tensión de forma explícita. La compañía sostiene que la ciberseguridad es uno de los ámbitos donde el progreso de la IA puede fortalecer de manera significativa el ecosistema, pero también introducir nuevos riesgos [29]. Según OpenAI, estas capacidades pueden acelerar el descubrimiento y la corrección de vulnerabilidades; por eso plantea TAC como un mecanismo para aprovechar el beneficio defensivo y, a la vez, reducir el riesgo de abuso [
29].
En ese contexto, restringir el acceso no es solo una jugada comercial. También puede leerse como una medida de contención: cuanto más útil sea el modelo para tareas como pruebas de intrusión o análisis de explotación, más razones tiene la empresa para no abrirlo de inmediato al público general [1][
29].
Entonces, ¿por qué Altman criticó a Anthropic?
Aquí conviene separar hechos de interpretación. Con la información pública disponible, no se puede saber con certeza qué pensaba Altman internamente ni si hubo un cambio de criterio dentro de OpenAI.
Una lectura benévola es que su crítica no iba contra cualquier forma de acceso restringido, sino contra la manera en que Anthropic habría comunicado o posicionado la limitación de Mythos. La expresión “fear-based marketing” recogida por India Today apunta en esa dirección: la crítica podría haber sido al uso del miedo como argumento de mercado, no necesariamente a todos los controles de acceso [11].
Pero incluso aceptando esa interpretación, el resultado sigue siendo incómodo para OpenAI. La compañía acabó anunciando que GPT-5.5-Cyber se distribuiría primero entre defensores críticos, y TechCrunch informó de que los solicitantes debían explicar sus credenciales y planes de uso para acceder al sistema [1][
22].
Por eso la crítica a OpenAI no depende de demostrar que su razonamiento de seguridad sea falso. El reproche principal es de consistencia: la empresa terminó aplicando una versión del mismo tipo de acceso selectivo que había cuestionado en su rival [1][
6].
No son políticas idénticas, pero sí convergentes
También sería exagerado afirmar que Anthropic y OpenAI aplicaron exactamente la misma política. Las fuentes públicas no permiten comparar con detalle sus criterios de evaluación, límites técnicos, mecanismos de supervisión o tipos de uso permitidos.
Lo que sí puede verse desde fuera es una estructura común: modelos de ciberseguridad potentes que no se abren de inmediato al público general, sino que se ofrecen primero a usuarios seleccionados, aprobados o verificados [1][
6][
22].
La diferencia más clara en el caso de OpenAI es que la compañía lo vincula a un programa formal, TAC. OpenAI afirma que ese programa se está ampliando a defensores individuales verificados y a equipos que protegen software crítico [28]. Altman, por su parte, presentó GPT-5.5-Cyber como un despliegue inicial para defensores críticos y habló de trabajar con el ecosistema y el gobierno en un acceso de confianza [
22][
30].
Así que la fórmula más precisa no es “OpenAI copió exactamente a Anthropic”, sino esta: ambas compañías parecen haber convergido hacia un modelo de acceso controlado para capacidades cibernéticas de alto riesgo [1][
6].
La conclusión: seguridad razonable, comunicación difícil
Con las fuentes disponibles, la razón más directa para la restricción de GPT-5.5-Cyber es el riesgo de doble uso. OpenAI sostiene que la IA puede acelerar la defensa —por ejemplo, encontrando y corrigiendo vulnerabilidades—, pero también puede introducir riesgos si esas capacidades se usan mal [28][
29]. Su respuesta es dar prioridad a defensores verificados mediante un esquema de acceso confiable [
28][
29].
Lo que no se puede confirmar públicamente es por qué Altman criticó antes a Anthropic y luego aceptó una política que, al menos desde fuera, se parece bastante. No hay evidencia suficiente para reconstruir sus motivaciones internas.
Lo verificable es esto: OpenAI criticó la limitación de Anthropic sobre Mythos y después restringió el acceso inicial a GPT-5.5-Cyber a defensores críticos de ciberseguridad, defendiendo la medida como una cuestión de acceso confiable y prioridad defensiva [1][
22][
30].
Por eso el episodio no se reduce fácilmente a una sola palabra como “hipocresía”. En política de seguridad, la decisión tiene una lógica clara: no entregar capacidades cibernéticas sensibles sin filtros. En comunicación, sin embargo, OpenAI queda expuesta a una crítica difícil de esquivar: terminó recorriendo un camino muy parecido al que acababa de reprochar.




