La IA agéntica está reabriendo una pregunta clásica en los centros de datos: ¿cuántas CPU hacen falta alrededor de cada acelerador? La idea central es sencilla: cuando la inferencia deja de ser una petición aislada y se convierte en un flujo de varios pasos, aumenta el trabajo de lógica, planificación, preparación de datos, memoria, entrada/salida, control y gestión de GPU que recae en las CPU [7].
Eso no significa que las GPU pierdan protagonismo. Siguen siendo la arquitectura dominante para las cargas de IA por su capacidad de procesamiento paralelo y por un ecosistema de software maduro; Nvidia, además, mantiene una posición abrumadora en ese segmento [1]. La tesis de las CPU en la IA agéntica no es una historia de sustitución de GPU, sino de infraestructura de IA más equilibrada y compleja.
La gran advertencia: el tamaño del mercado en 2030 no está cerrado
Antes de ordenar ganadores, conviene poner el freno. Las fuentes apuntan a una discusión real, no a una previsión única.
AMD espera ahora que el mercado direccionable de CPU para servidores crezca a más del 35% anual y supere los US$120.000 millones en 2030, por encima de la previsión anterior de crecimiento anual del 18% [6]. TradingKey, por su parte, recogió una previsión de UBS que sitúa el mercado de CPU para servidores en US$170.000 millones para 2030, con Arm como gran beneficiaria si las cargas de IA agéntica desplazan más cómputo hacia las CPU [
4].
Pero existe una visión mucho más conservadora: otro análisis de 2025 proyectaba el mercado de CPU para servidores en US$35.600 millones para 2030, dentro de un mercado más amplio de procesadores para centros de datos de US$372.000 millones [13]. Es probable que estas cifras usen definiciones y supuestos distintos. Por eso, el ranking debe leerse de forma condicional: si la IA agéntica provoca un ciclo mucho mayor de inversión en CPU de servidor, estas son las compañías con mayor exposición a ese escenario.
Ranking respaldado por las fuentes
| Puesto | Empresa o grupo | Principal vía de beneficio | Riesgo clave |
|---|---|---|---|
| 1 | AMD | Mayor exposición directa a ingresos por CPU de servidor, apoyada en su previsión de mercado superior a US$120.000 millones para 2030 y en su argumento de que la IA agéntica vuelve más importantes las CPU en los clústeres de IA [ | La competencia de CPU Arm personalizadas y de plataformas de IA ligadas a Nvidia podría limitar las ganancias de cuota [ |
| 2 | Arm | Potencial de arquitectura si hiperescaladores y proveedores de infraestructura de IA escalan CPU basadas en Arm [ | Las previsiones más agresivas sobre Arm siguen siendo previsiones, no resultados garantizados [ |
| 3 | Nvidia | Captura de plataforma si la mayor demanda de CPU se integra en sistemas de IA centrados en GPU; Nvidia también empezó a vender su CPU Vera como producto independiente [ | Su gran ventaja sigue estando en los aceleradores de IA, no en la cuota tradicional de CPU para servidores [ |
| 4 | Intel | Potencial de recuperación como incumbente si la escasez de CPU y la renovada demanda elevan todo el mercado x86 [ | Tiene más riesgo de ejecución mientras AMD gana impulso y los diseños Arm se vuelven más creíbles en centros de datos de IA [ |
| 5 | Amazon, Google y otros hiperescaladores | Beneficio estratégico mediante CPU propias, como Graviton y Axion, para optimizar la economía interna de su infraestructura de IA [ | La mejora puede reflejarse en menores costes o mejores márgenes, no necesariamente en ingresos directos por semiconductores [ |
1. AMD: la ganadora más clara en ingresos directos por CPU
AMD tiene el caso más directo porque su propia dirección ha vinculado un mercado de CPU para servidores más grande con la demanda de IA. Lisa Su, consejera delegada de AMD, dijo que la compañía espera ahora que el mercado direccionable de CPU para servidores crezca a más del 35% anual y supere los US$120.000 millones en 2030 [6]. AMD también sostiene que la IA agéntica aumenta la importancia de las CPU porque la inferencia multietapa requiere más lógica y más gestión de GPU [
7].
El impulso reciente en centros de datos también es visible, aunque no sea una medida pura de CPU. El segmento de centros de datos de AMD, que incluye chips para servidores, creció un 57% hasta US$5.800 millones en el primer trimestre, por encima de los US$5.640 millones esperados por analistas según datos compilados por LSEG [6]. TradingKey también informó que los ingresos de centros de datos de AMD superaron los de Intel en el contexto de la revisión al alza del mercado direccionable de CPU de AMD [
4].
La razón para situar a AMD en primer lugar es simple: si el mercado de CPU para servidores se revaloriza, AMD vende precisamente esa categoría de producto. Sus CPU EPYC, además, forman parte de una plataforma más amplia de centros de datos junto con las GPU Instinct, las tecnologías de red Pensando y el software ROCm [7]. El riesgo es que no toda la demanda incremental vaya a CPU x86 comerciales: una parte podría desplazarse hacia diseños Arm personalizados o sistemas de IA más integrados [
2][
4][
8].
2. Arm: el gran factor de cambio arquitectónico
Arm podría ser el caso con más recorrido si el mercado se mueve desde servidores x86 tradicionales hacia CPU Arm personalizadas o semipersonalizadas. TrendForce informó que Arm anunció en marzo de 2026 una CPU Arm AGI y dos variantes de racks de CPU, una con refrigeración por aire y otra con refrigeración líquida, como parte de un cambio estructural que hace más críticas las CPU en los centros de datos de IA [2].
La tesis más agresiva sobre Arm procede del resumen de TradingKey sobre UBS. Según ese informe, UBS prevé que Arm alcance entre el 40% y el 45% de cuota de unidades de CPU para servidores en 2030 y entre el 50% y el 55% de cuota de ingresos, con la posibilidad de capturar más del 75% del mercado de CPU de nodo principal o “head node” [4]. Es una previsión, no un hecho consumado, pero explica por qué Arm debe estar cerca de la cima en cualquier ranking de CPU para IA agéntica hacia 2030.
La ventaja de Arm no depende de un solo chip. La tendencia más amplia es la adopción de diseños basados en Arm por parte de hiperescaladores y proveedores de infraestructura de IA, incluidos los proyectos de CPU personalizadas descritos en el panorama de CPU para centros de datos de 2026 [8][
9]. Si la IA agéntica aumenta la demanda de CPU anfitrionas eficientes alrededor de los aceleradores, Arm puede beneficiarse mediante la expansión de su arquitectura, incluso cuando el producto final lo diseñe un proveedor de nube u otra compañía de chips [
4][
8].
3. Nvidia: no es la apuesta pura en CPU, sino la apuesta de plataforma
Nvidia no es la jugada más pura en CPU para servidores, pero puede ser una de las mayores beneficiarias si el valor se captura a nivel de plataforma. La compañía sigue dominando los aceleradores de IA, donde las GPU son centrales por su paralelismo y por la madurez del ecosistema de software [1]. Si la IA agéntica aumenta el número o la importancia de las CPU conectadas a sistemas de aceleradores, Nvidia puede capturar más valor mediante infraestructura de IA integrada, no solo mediante CPU independientes.
La estrategia se está volviendo más explícita. TrendForce informó que Nvidia usó su evento GTC del 16 de marzo de 2026 para presentar a la venta un rack de CPU Vera como producto independiente [2]. Otro análisis de TrendForce interpretó la CPU Vera de Nvidia y el nuevo empuje de Arm como señales de que la IA agéntica está cambiando la relación CPU:GPU en los centros de datos de IA [
5].
Por eso Nvidia es una ganadora distinta de AMD. AMD se beneficia más si crece el mercado comercial de CPU para servidores. Nvidia se beneficia si los clientes compran sistemas completos de IA en los que CPU, GPU, redes, memoria y software se optimizan juntos [1][
2].
4. Intel: potencial de rebote, pero con más riesgo de ejecución
Intel no puede quedar fuera de la conversación porque sigue siendo una pieza central del mercado de CPU para servidores. SemiAnalysis describió a Intel como el principal proveedor de CPU para servidores durante la etapa en la que las GPU y las redes pasaron al centro del gasto en centros de datos, dejando los ingresos de CPU de servidor relativamente estancados mientras hiperescaladores y neoclouds se concentraban en aceleradores de IA e infraestructura [8].
Un nuevo ciclo de demanda de CPU podría ayudar a Intel, especialmente si la oferta se mantiene ajustada. TrendForce informó de escasez de CPU y de la atención del mercado a subidas de precios de Intel y AMD al final del primer trimestre de 2026 [2]. SemiAnalysis también incluye las futuras generaciones Diamond Rapids y Coral Rapids de Intel dentro de la hoja de ruta de CPU para centros de datos de 2026 [
8].
El problema es que el caso de Intel es más condicional que el de AMD o Arm. AMD tiene una historia clara de ampliación del mercado direccionable, Arm tiene una tesis fuerte de adopción de arquitectura personalizada y Nvidia conserva la plataforma dominante de aceleradores [1][
4][
6]. Intel depende más de que sus futuras plataformas Xeon recuperen relevancia en rendimiento, eficiencia energética y valor de sistema a medida que la infraestructura de IA se vuelva más intensiva en CPU [
8].
5. Hiperescaladores: ganadores estratégicos, no vendedores clásicos de chips
Los grandes proveedores de nube también pueden ganar, aunque de otra forma. SemiAnalysis señala que los hiperescaladores han estado desarrollando sus propias CPU de centros de datos basadas en Arm, y su panorama de 2026 menciona Amazon Graviton y Google Axion entre los esfuerzos de CPU personalizadas que están moldeando el mercado [8][
9].
Esto convierte a Amazon y Google en beneficiarios estratégicos si la IA agéntica eleva la intensidad de CPU. Su ventaja puede venir de costes de infraestructura más bajos, mayor control de las cargas de trabajo y menor dependencia de proveedores comerciales de CPU, no de vender CPU para servidores a terceros [8][
9]. Dicho de otro modo: las CPU propias pueden transformar a los hiperescaladores de compradores puros en captadores parciales de cuota dentro de sus propias flotas.
¿Y TSMC?
Con estas fuentes, TSMC debería quedar fuera del ranking. La evidencia disponible se centra en diseñadores de CPU, proveedores de plataformas GPU y operadores de nube; no establece una tesis directa y específica de ingresos de TSMC por CPU de servidor. Para esta pregunta, los nombres mejor respaldados son AMD, Arm, Nvidia, Intel y los hiperescaladores con CPU propias.
La conclusión
Si el auge de CPU para servidores impulsado por IA agéntica se materializa, AMD es la beneficiaria directa más clara porque vende CPU de servidor en un mercado que la propia compañía cree que podría superar los US$120.000 millones en 2030 [6]. Arm puede tener el mayor apalancamiento arquitectónico si las CPU Arm personalizadas escalan entre hiperescaladores e infraestructura de IA [
4][
8]. Nvidia es la beneficiaria de plataforma si la mayor demanda de CPU se integra en sistemas de IA centrados en GPU [
1][
2]. Intel es la candidata a recuperación, pero su caso depende más de la ejecución de su hoja de ruta [
2][
8].
El ranking cambia según la definición de mercado. Para ingresos directos por CPU, el punto de partida es AMD. Para exposición arquitectónica, Arm es el factor decisivo. Para infraestructura de IA de pila completa, Nvidia sigue siendo central. Y para la economía interna de la nube, conviene observar a Amazon, Google y otros hiperescaladores que desarrollan sus propias CPU [1][
4][
6][
8][
9].






