La respuesta corta es: sí, DeepSeek es una amenaza seria; no, la evidencia no permite decir que ya haya derrotado a OpenAI, Claude, Gemini o Grok. Su impacto real está en haber llevado al mercado modelos de bajo costo, pesos abiertos y capacidades cercanas a la frontera; su gran examen pendiente es demostrar distribución global, adopción empresarial, gobierno de datos y confianza regulatoria [10][
73][
74].
Primero: ¿qué significa «ganar» en inteligencia artificial?
Si por ganar entendemos acercarse a los mejores modelos cerrados en ciertas pruebas de referencia, DeepSeek ya merece estar en la conversación. El informe técnico de DeepSeek-V3 afirma que V3-Base era, en ese momento, uno de los modelos base abiertos más fuertes disponibles, con resultados especialmente destacados en programación y matemáticas; también sostiene que su versión de chat alcanzaba un rendimiento comparable al de GPT-4o y Claude-3.5-Sonnet en varias pruebas estándar y abiertas [1].
Pero si ganar significa convertirse en la plataforma de IA dominante para consumidores, empresas y desarrolladores, la vara es mucho más alta. Ahí no basta con una tabla de benchmarks. Importan el precio por token, la latencia, la estabilidad, la experiencia de producto, los contratos corporativos, la seguridad, el cumplimiento normativo, la marca y el ecosistema de herramientas.
En ese terreno, DeepSeek tiene una ventaja clara en costo y apertura. En confianza, distribución y adopción institucional, la partida apenas empieza.
El golpe de DeepSeek: bajar el precio mental de la IA de frontera
Lo que sacudió al mercado no fue solo que apareciera otro chatbot. Fue la idea de que modelos cercanos a la frontera podían entrenarse y ofrecerse de forma mucho más barata de lo que muchos asumían.
El IISS señala que DeepSeek lanzó V3 en diciembre de 2024 y R1 en enero de 2025. Según ese análisis, V3 llamó la atención por su eficiencia y menor costo de entrenamiento, mientras que R1 destacó por sus capacidades de razonamiento y por estar a la par de modelos cerrados cercanos a la frontera, como OpenAI o1 [10].
La propia documentación de DeepSeek en GitHub describe V3 como un modelo de 671.000 millones de parámetros totales, con 37.000 millones activos por token. También afirma que el preentrenamiento usó 14,8 × 10^12 tokens y costó 2,664 millones de horas de GPU H800 [17]. Estos datos sostienen la narrativa central de DeepSeek: la IA avanzada no tiene por qué ser patrimonio exclusivo de las compañías con más capital y más centros de datos.
El precio de la API refuerza esa lectura. La documentación oficial de DeepSeek muestra tarifas por millón de tokens y distingue entre entrada con cache hit, entrada con cache miss y tokens de salida; también advierte que los nombres de modelos y el esquema de precios pueden cambiar, por lo que cualquier compra formal debería revisarse siempre en la página oficial [12]. Para usos como RAG, resúmenes masivos, limpieza de datos, borradores de atención al cliente o asistentes internos de programación, el costo y la estabilidad pueden pesar más que una respuesta aislada espectacular.
Es fuerte, pero no conviene mirar solo un ranking
Las fortalezas públicas de DeepSeek se concentran en código, matemáticas y razonamiento. El informe de V3 resalta programación y matemáticas [1], y el IISS describe R1 como un modelo de razonamiento abierto con capacidades comparables a modelos cerrados cercanos a la frontera [
10]. Reuters, al cubrir una actualización de modelo en marzo de 2025, la presentó como un movimiento que intensificaba la rivalidad con OpenAI [
92].
Aun así, eso no significa que DeepSeek gane en todos los escenarios. Escritura creativa, colaboración sobre documentos largos, productos multimodales, llamadas a herramientas, seguridad de contenidos, integración empresarial y responsabilidad contractual son áreas que deben evaluarse en flujos de trabajo reales.
La pregunta práctica no es «¿qué modelo va primero en la tabla?». Es: ¿qué modelo resuelve mejor mi tarea, con el menor costo aceptable y el menor riesgo operativo?
La viralidad prueba impacto, no victoria definitiva
DeepSeek ya produjo un impacto de mercado muy visible. CNBC informó que, en enero de 2025, DeepSeek desplazó a ChatGPT como la aplicación gratuita más descargada en la App Store de Apple en Estados Unidos [96]. Reuters también señaló que el lanzamiento inicial de enero de 2025 provocó una venta global de acciones tecnológicas y borró 593.000 millones de dólares de valor de mercado de Nvidia [
30].
Son señales potentes: inversores, desarrolladores y usuarios tomaron en serio la idea de una IA avanzada de bajo costo. Pero una posición en la App Store y una sacudida bursátil no equivalen a una victoria de plataforma.
De hecho, Reuters informó en 2026 que un nuevo modelo de DeepSeek no volvió a impresionar a los mercados en una industria que cambia muy rápido [26]. Es un recordatorio importante: en IA, sorprender una vez no garantiza liderar todas las generaciones siguientes.
Qué amenaza representa para cada rival
OpenAI: más presión en precios, pero una marca difícil de desplazar
OpenAI es el rival que recibe la presión más directa: si DeepSeek ofrece modelos capaces a menor costo, obliga al mercado a preguntarse cuánto deberían valer realmente las llamadas a modelos cerrados.
Pero OpenAI conserva un foso importante. El Reuters Institute afirmó en su informe de 2025 que ChatGPT seguía siendo, por mucho, el sistema de IA generativa más reconocido y que ninguna otra marca se le acercaba en notoriedad [25]. Reuters también informó que los usuarios activos semanales de OpenAI superaron los 400 millones en febrero de 2025 [
31].
Eso no significa que OpenAI esté blindada. Reuters, citando al Wall Street Journal, informó que el crecimiento de ChatGPT se desaceleró hacia finales del año anterior y que OpenAI no alcanzó su objetivo interno de 1.000 millones de usuarios activos semanales [27]. La amenaza de DeepSeek, por tanto, no es necesariamente quitarle la marca ChatGPT mañana, sino reducir las expectativas de precio de todo el mercado.
Claude y Anthropic: no basta con el modelo, hay que ganar el flujo de trabajo
DeepSeek presiona a Claude en las áreas donde más se habla de rendimiento: programación y razonamiento [1][
10]. Pero Anthropic compite no solo con un modelo, sino con productos que se incrustan en la forma de trabajar de los desarrolladores.
Reuters informó que Claude Code sorprendió a OpenAI y empujó a la compañía a dedicar recursos a su propia herramienta de programación, Codex [29]. La lección es clara: para ganar en desarrollo de software, DeepSeek no solo debe sacar buenos resultados técnicos. También debe demostrar valor en IDE, agentes de programación, comprensión de repositorios, depuración, permisos empresariales y colaboración en equipo.
Gemini y Google: DeepSeek compite contra una plataforma, no contra un laboratorio aislado
Google juega otra partida. Gemini se beneficia de infraestructura, distribución y productos ya instalados en la vida diaria de millones de usuarios y empresas. Reuters informó que OpenAI declaró un «code red» a finales de 2025 tras los avances del modelo Gemini de Google [29].
Eso muestra que DeepSeek no enfrenta a rivales estáticos. OpenAI, Google, Anthropic y otros laboratorios se están moviendo al mismo tiempo. Para DeepSeek, el reto no es solo construir un modelo fuerte, sino convertirlo en una experiencia que retenga usuarios: buscador, oficina, nube, móviles, herramientas para desarrolladores y compras empresariales.
Grok y xAI: la comparación directa aún es limitada
Con las fuentes disponibles, no hay base suficiente para afirmar de forma verificable que DeepSeek vaya a derrotar a Grok o xAI. Lo prudente es decir algo más acotado: la estrategia de bajo costo y pesos abiertos de DeepSeek puede presionar los precios del mercado de asistentes y API de IA [10][
12], pero eso no prueba una victoria directa sobre Grok.
El gran punto débil: confianza, datos y regulación
El mayor obstáculo de DeepSeek en gobiernos, banca, salud, legal y grandes corporaciones puede no ser la capacidad del modelo, sino la confianza en el manejo de datos.
Reuters informó que la autoridad alemana de protección de datos pidió a Apple y Google retirar DeepSeek de sus tiendas de aplicaciones en Alemania [73]. Australia, por su parte, prohibió DeepSeek en dispositivos gubernamentales por preocupaciones de seguridad [
74].
Estas medidas no prueban que el modelo carezca de valor ni que todos los despliegues sean inviables. Pero sí cambian la conversación de compra. En sectores regulados no basta con mirar el precio por millón de tokens. También se evalúan residencia de datos, auditorías, riesgos de cadena de suministro, pruebas de ciberseguridad, responsabilidad contractual y compromisos de cumplimiento.
Para flujos con información sensible, usar directamente un chatbot público suele ser la opción menos prudente. Despliegues privados, nubes controladas, anonimización de datos y clasificación de riesgos por modelo pueden ser caminos más realistas.
Qué deberían hacer las empresas: no apostar todo a un solo ganador
La estrategia más sensata no es elegir un bando para siempre. Es construir una arquitectura multimodelo.
DeepSeek, OpenAI, Claude, Gemini y Grok deberían evaluarse con las mismas tareas, los mismos datos y las mismas métricas: calidad, latencia, costo, tasa de fallo, alucinaciones, trazabilidad, facilidad de integración y riesgo de datos.
DeepSeek merece pruebas prioritarias en cargas de API de alto volumen y sensibles al precio; tareas de código, matemáticas, procesamiento de datos y generación por lotes; sistemas internos donde interesen pesos abiertos o autodespliegue; y productos que quieran reducir dependencia de un único proveedor cerrado [1][
10][
12][
17].
En cambio, exige más cautela en gobiernos, finanzas, salud, legal y despliegues intensivos en datos personales; proyectos que necesiten residencia de datos, auditoría, contratos empresariales robustos y SLA de largo plazo; o flujos donde la reputación y el cumplimiento normativo sean centrales [73][
74].
Veredicto: quizá no sea el rey único, pero ya cambió el precio del tablero
DeepSeek sí puede convertirse en un competidor capaz de desafiar a OpenAI, Claude, Gemini y Grok en campos concretos: API de alto volumen, programación, razonamiento, matemáticas y despliegues con pesos abiertos. En esos frentes ya obliga a los gigantes a responder con mejores precios, más eficiencia y mejores herramientas [1][
10][
12][
92].
Pero la evidencia actual no alcanza para afirmar que vaya a derrotarlos a todos en el corto o medio plazo. Lo más probable es que DeepSeek actúe como disruptor de precios y como referente de modelos abiertos cercanos a la frontera: bajará las expectativas de costo, aumentará la presión sobre los modelos cerrados y hará que la competencia acelere [10][
12][
29].
Su victoria más importante quizá no sea convertirse en el único líder, sino hacer que el mercado de modelos de IA sea más barato, más abierto y menos cómodo para los incumbentes. Para empresas y equipos de producto, la conclusión práctica es sencilla: no se trata de casarse con DeepSeek, OpenAI, Claude, Gemini o Grok, sino de tratar los modelos como una capa sustituible y decidir con pruebas propias, datos propios y criterios de riesgo propios.




