La diferencia no es “abierto” contra “cerrado”: ambos restringen sus modelos, pero OpenAI busca ampliar el acceso a usuarios verificados de ciberseguridad y gobierno [6][9]. Anthropic mantiene Claude Mythos Preview dentro de Project Glasswing, un grupo cerrado por invitación para socios de infraestructura crítica [1].

Create a landscape editorial hero image for this Studio Global article: What is the difference between OpenAI’s and Anthropic’s approach to giving the EU access to advanced AI models for cybersecurity?. Article summary: OpenAI’s approach is to broaden access for trusted government and cybersecurity users, including the EU, so defenders can use advanced models against hackers. Anthropic’s approach is more restrictive: it has limited acce. Topic tags: general, government, general web, user generated. Reference image context from search candidates: Reference image 1: visual subject "Learn the most rigorous comparison between Anthropic and OpenAI, the two AI giants, and choose the best for your enterprise applications. Artificial intelligence is among the most" source context "Anthropic vs. OpenAI: How to Pick the Best AI Platforms in 2026" Reference image 2: visual subject "It was only a we
El titular fácil sería decir que OpenAI quiere abrir y Anthropic quiere cerrar. Pero la diferencia real es más fina: las dos empresas restringen el acceso a modelos de IA con capacidades avanzadas de ciberseguridad. Lo que cambia es el tamaño de la puerta y quién puede cruzarla.
OpenAI está empujando una vía de acceso controlado para defensores, empresas y gobiernos. Anthropic, en cambio, mantiene Claude Mythos Preview dentro de un grupo mucho más pequeño, por invitación. Para la Unión Europea, el punto práctico es claro: la Comisión Europea dijo que los modelos de ciberseguridad de Anthropic aún no estaban disponibles en la UE mientras seguía hablando con la empresa [5].
OpenAI apuesta por acceso restringido, pero ampliable a usuarios verificados. Anthropic apuesta por acceso restringido y mucho más curado, con invitación previa.
| Pregunta | OpenAI | Anthropic |
|---|---|---|
| Postura de partida | Expansión controlada: OpenAI está ampliando el acceso a modelos avanzados de IA para que empresas y gobiernos refuercen sus defensas cibernéticas [ | Contención controlada: Claude Mythos Preview fue tratado como un modelo lo bastante sensible como para restringir deliberadamente el acceso público [ |
Studio Global AI
Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.
La diferencia no es “abierto” contra “cerrado”: ambos restringen sus modelos, pero OpenAI busca ampliar el acceso a usuarios verificados de ciberseguridad y gobierno [6][9].
La diferencia no es “abierto” contra “cerrado”: ambos restringen sus modelos, pero OpenAI busca ampliar el acceso a usuarios verificados de ciberseguridad y gobierno [6][9]. Anthropic mantiene Claude Mythos Preview dentro de Project Glasswing, un grupo cerrado por invitación para socios de infraestructura crítica [1].
Para la UE, el dato clave es que la Comisión Europea dijo el 17 de abril de 2026 que los modelos de ciberseguridad de Anthropic aún no estaban disponibles en el bloque [5].
Continúe con "Drones FPV de fibra óptica de Hezbolá: la amenaza real para Iron Dome" para conocer otro ángulo y citas adicionales.
Abrir página relacionadaVerifique esta respuesta con "Alphabet prepara bonos en yenes: la IA ya se financia en varios mercados".
Abrir página relacionadaOn 14 April 2026, Anthropic disclosed Claude Mythos Preview — a frontier model with cybersecurity capabilities sufficient, in the developer’s own assessment, to warrant deliberate restriction of public access. Project Glasswing grants usage to a closed grou...
However, recent revelations about Anthropic’s advanced AI model called ‘Mythos’ raise serious concerns as to whether the EU has the necessary technical capacity to enforce the rules it has adopted. While the UK authorities gained access to the model and qui...
US-based artificial intelligence company Anthropic is currently in discussion with the European Commission on its different models, including its cyber security ones, which are not yet available in the EU, the Commission said on Friday. ... US-bas...
| Quién puede entrar | Usuarios seleccionados y aprobados mediante el programa Trusted Access for Cyber; quienes obtienen acceso pueden usar el modelo para encontrar y parchear vulnerabilidades y analizar malware [ | Un grupo cerrado de socios de infraestructura crítica dentro de Project Glasswing, con acceso por invitación y no en modalidad de autoservicio [ |
| Situación para la UE | Los informes disponibles describen una vía para gobiernos y defensores verificados, no un lanzamiento público general [ | La Comisión dijo que los modelos de ciberseguridad de Anthropic todavía no estaban disponibles en la UE [ |
| Lógica de seguridad | Dar mejores herramientas a defensores verificados puede ayudar a reforzar las defensas frente a atacantes [ | Anthropic sostiene que controlar el acceso a sus modelos es la mejor forma de mejorar la ciberseguridad global [ |
El enfoque de OpenAI no equivale a publicar un modelo ciber para cualquiera. Según Politico, los defensores que obtengan acceso deben ser evaluados y aprobados para formar parte de Trusted Access for Cyber [6].
Dentro de ese entorno controlado, OpenAI sí adopta una posición más expansiva. La compañía está ampliando el acceso a modelos avanzados de IA para ayudar a empresas y gobiernos a reforzar sus defensas [9]. Politico informó que los usuarios aprobados podrán usar el modelo para encontrar y corregir vulnerabilidades y analizar malware, mientras OpenAI afirma que existen salvaguardas para impedir que usuarios no autorizados lo utilicen para lanzar ciberataques [
6].
Euronews también informó que el modelo de ciberdefensa de OpenAI tiene menos restricciones para preguntas relacionadas con ciberseguridad cuando lo usan profesionales verificados con fines defensivos legítimos [7].
En resumen: OpenAI parece partir de la idea de que los defensores confiables necesitan herramientas de frontera porque los atacantes también pueden estar usando tecnología avanzada. La puerta sigue vigilada, pero el grupo de usuarios previstos es más amplio.
Anthropic se mueve con más cautela. Una publicación de AI Alliance alojada por la UE señaló que Anthropic dio a conocer Claude Mythos Preview el 14 de abril de 2026 y lo describió como un modelo de frontera con capacidades de ciberseguridad suficientes —según la propia evaluación de la empresa— como para justificar una restricción deliberada del acceso público [1].
El acceso pasa por Project Glasswing, que concede uso a un grupo cerrado de socios de infraestructura crítica por invitación, no mediante autoservicio [1]. Eso no significa que nadie fuera de Anthropic pueda usarlo; significa que la selección es mucho más estrecha que la vía de acceso para defensores y gobiernos descrita en el caso de OpenAI.
La diferencia se ve también en la filosofía de seguridad. Los informes sobre esta división señalan que OpenAI está ampliando el acceso para ayudar a empresas y gobiernos a reforzar defensas, mientras Anthropic defiende que controlar el acceso es la mejor forma de mejorar la ciberseguridad global [9].
Para la UE, el debate no es solo técnico: también es regulatorio. La Comisión Europea —el brazo ejecutivo de la Unión— dijo el 17 de abril de 2026 que Anthropic estaba en conversaciones con ella sobre distintos modelos, incluidos los de ciberseguridad, pero que esos modelos ciber todavía no estaban disponibles en la UE [5].
Esa falta de acceso pesa porque, sin poder examinar los modelos, supervisarlos resulta más difícil. Una pregunta en el Parlamento Europeo advirtió que las autoridades del Reino Unido habrían obtenido acceso a Mythos y producido rápidamente una evaluación técnica, mientras que la Comisión supuestamente no tenía ni acceso a la tecnología ni suficientes expertos para evaluar los riesgos de ciberseguridad de sistemas de IA de última generación [2].
El punto no es que OpenAI haya dado acceso general a la UE: las fuentes citadas no demuestran eso. La diferencia es que el modelo de OpenAI está planteado como una vía de acceso para gobiernos y defensores verificados, mientras que el acceso europeo a los modelos ciber de Anthropic seguía sin resolverse cuando la Comisión habló del tema [5][
6][
9].
Para agencias europeas de ciberseguridad y operadores de infraestructura crítica, el enfoque de OpenAI parece ofrecer una ruta más legible: el acceso está restringido, pero pensado para usuarios gubernamentales y defensores aprobados [6][
9]. En el caso de Anthropic, la ruta es más estrecha: Project Glasswing funciona por invitación y la Comisión dijo que los modelos ciber relevantes aún no estaban disponibles en la UE [
1][
5].
Para los reguladores, la decisión es incómoda. Un acceso verificado más amplio puede ayudar a detectar vulnerabilidades, parchearlas y analizar amenazas con más rapidez, pero exige salvaguardas contra el uso indebido [6]. Una restricción más estricta puede limitar la difusión de capacidades sensibles, pero también puede dejar a las autoridades públicas dependiendo de negociaciones o evaluaciones externas cuando necesitan medir riesgos de IA de frontera [
1][
2][
5].
La conclusión: OpenAI se inclina por un acceso defensivo controlado pero más amplio. Anthropic se inclina por un control más cerrado y por invitación. Para la UE, la cuestión inmediata es que los modelos de ciberseguridad de Anthropic aún no estaban disponibles en el bloque, mientras que la vía reportada de OpenAI apunta a acceso verificado, no a una liberación pública [5][
6][
9].
Those with access to the model will be able to use it to find and patch cyber vulnerabilities and analyze malware. The company claims safeguards are in place to prevent unauthorized users from using the tool to carry out cyberattacks. A spokesperson for Ope...
Chat GPT 5.4 Cyber has fewer restrictions for cybersecurity questions for the verified professionals that will use it. ... OpenAI has launched a new AI model focused on cyber defence, days after the release of rival Anthropic's Claude Mythos sparked concern...
(CNN) — OpenAI is expanding access to its most advanced AI models to help businesses and governments shore up their cyber defenses, a sharp contrast to rival Anthropic, which says controlling access to its models is the best way to boost global cybersecurit...