La pregunta sobre el liderazgo de OpenAI es más grande que Sam Altman. La compañía ha pasado de ser un laboratorio de investigación con un producto de consumo muy exitoso a una organización que debe hacer funcionar, al mismo tiempo, investigación de frontera, ventas corporativas, despliegue global, infraestructura, seguridad y credibilidad política.
Ese salto cambia el tipo de liderazgo que necesita. El carisma de fundador ayuda, pero ya no basta.
El veredicto: Altman sí, pero no como único centro de gravedad
Sam Altman puede seguir siendo el CEO adecuado para OpenAI. Pero la pregunta importante no es si Altman es lo bastante visionario. Es otra: ¿tiene OpenAI un sistema capaz de tomar buenas decisiones cuando Altman se equivoca?
Las señales disponibles apuntan a un modelo de “Altman más institución”. Altman seguiría siendo central para la visión, la estrategia de producto y la orientación de la investigación. Pero la escala operativa, el negocio empresarial, la supervisión de seguridad y la gobernanza necesitan apoyarse en cargos, procesos y controles más robustos.
OpenAI ya no está en la misma etapa
OpenAI no es solo un laboratorio con una aplicación popular. Altman describió como próximos focos de la empresa acelerar la investigación científica, aumentar la productividad económica y desarrollar lo que llamó “personal AGI”, es decir, una forma de inteligencia artificial general personalizada [1]. Además, Big Technology informó que Altman señaló las ventas a empresas como una de las grandes prioridades de OpenAI para 2026 [
4].
Ese cambio importa. Una empresa que crea nuevos modelos de IA necesita velocidad científica e instinto de producto. Pero una empresa que lleva IA a compañías, universidades, laboratorios, administraciones públicas y debates políticos necesita también disponibilidad, cumplimiento normativo, control de costes, confianza de clientes y decisiones de seguridad que puedan explicarse.
OpenAI ya ha reflejado esa transición en su estructura directiva. En marzo de 2025, Mark Chen asumió un papel ampliado como Chief Research Officer; OpenAI describió su mandato como impulsar el progreso en capacidades y seguridad, además de conectar más estrechamente la investigación con el desarrollo de productos [19]. Al mismo tiempo, se amplió el papel del COO Brad Lightcap: debía asumir más responsabilidad sobre el negocio, las operaciones diarias, el despliegue global, la infraestructura, la estrategia y las alianzas, mientras Altman ganaba margen para centrarse en investigación y producto [
20][
25].
El giro hacia clientes corporativos también tuvo una traducción organizativa. TechCrunch informó en enero de 2026, citando a The Information, que OpenAI había encargado a Barret Zoph liderar sus esfuerzos para vender IA a empresas [6].
Cuatro pruebas de liderazgo para OpenAI
1. La seguridad no puede ser una función decorativa
OpenAI trabaja en tecnologías cuyo impacto puede ir mucho más allá de una herramienta de software. Por eso, la cuestión no es solo cuánto tardan en llegar nuevas funciones. También importa quién evalúa los riesgos, quién puede elevar una alerta y quién tiene autoridad para frenar un lanzamiento si hace falta.
Que OpenAI vincule explícitamente el nuevo papel de Chen con “capability and safety” —capacidades y seguridad— indica que la empresa trata ambos asuntos como parte del núcleo de investigación [19]. Lo que desde fuera no puede saberse con certeza es hasta qué punto esos procesos son independientes y vinculantes cuando chocan con la presión por crecer.
2. Vender a empresas exige otra disciplina
El negocio corporativo suele ser menos vistoso que una gran demo de modelo, pero puede ser decisivo para la siguiente fase de OpenAI. Las empresas no compran solo rendimiento técnico. Exigen disponibilidad, soporte, privacidad, integración con sistemas existentes, previsibilidad de costes y confianza a largo plazo.
La ampliación del mandato de Lightcap encaja con esa necesidad. Según los informes, debe dirigir con más peso el negocio y las operaciones diarias de OpenAI, además del despliegue global, la infraestructura, la estrategia y las alianzas [20][
25]. Eso sugiere una división del trabajo: Altman marca dirección tecnológica y estratégica, mientras una dirección operativa fuerte convierte esa ambición en una organización más resistente.
3. La gobernanza debe poder controlar de verdad
La gobernanza de OpenAI no es un detalle administrativo. El 17 de noviembre de 2023, OpenAI anunció oficialmente que Altman dejaba el cargo de CEO y que la entonces CTO Mira Murati asumiría de forma interina [13]. Días después, Altman regresó como CEO y OpenAI nombró un nuevo consejo inicial con Bret Taylor como presidente, junto con Larry Summers y Adam D’Angelo [
12].
Ese episodio mostró lo rápido que una tensión entre el consejo y la dirección puede convertirse en una crisis para OpenAI. Axios escribió en 2025 que los esfuerzos de Altman por asegurar miles de millones para la visión de OpenAI habían quedado ensombrecidos por preocupaciones de gobernanza relacionadas con la supervisión de la entidad sin ánimo de lucro que controla la organización [8].
Se esté a favor o en contra de Altman, la conclusión es la misma: OpenAI necesita un sistema de dirección que no solo decida rápido, sino que también pueda controlar el poder de forma creíble.
4. La legitimidad pública ya forma parte del cargo
OpenAI también se ha convertido en un actor político. Fortune informó en 2026 sobre un documento de OpenAI titulado “Industrial Policy for the Intelligence Age: Ideas to Keep People First”, que incluía propuestas fiscales e industriales [2].
Eso amplía la función del CEO. OpenAI ya no tiene que convencer solo a usuarios, desarrolladores, socios e inversores. También debe hablar con gobiernos, empresas, universidades, reguladores y ciudadanía. Esa legitimidad no se construye únicamente con una figura fundadora fuerte. Requiere procesos comprensibles, decisiones de seguridad consistentes e instituciones capaces de limitar el poder incluso cuando la presión comercial aumenta.
Por qué Altman todavía tiene argumentos a favor
Las fuentes disponibles muestran que Altman sigue marcando la agenda estratégica de OpenAI. Ha formulado áreas de crecimiento como la investigación científica, la productividad económica y la “personal AGI” [1]. Ha situado el negocio empresarial como prioridad relevante para 2026 [
4]. Y los cambios directivos recientes no apuntan tanto a una pérdida de poder como a una concentración de Altman en investigación y producto [
20][
25].
Eso desaconseja una lectura simplista del tipo “Altman debe irse”. En una etapa en la que OpenAI tiene que equilibrar ritmo de investigación, estrategia de producto, necesidad de capital, infraestructura y posición competitiva, Altman sigue siendo una figura estratégica muy eficaz.
Por qué un modelo centrado en Altman es arriesgado
Precisamente porque Altman es tan central, existe un riesgo. Si la confianza en OpenAI depende demasiado de una sola persona, cada error, cada conflicto de gobernanza y cada giro político se convierte en un problema sistémico.
La crisis de noviembre de 2023 —primero la destitución oficial, luego el regreso con un nuevo consejo— dejó claro que la estructura de OpenAI puede entrar en tensión [13][
12]. Los informes posteriores sobre dudas persistentes de gobernanza refuerzan ese punto [
8].
El problema, por tanto, no es “Altman” en abstracto. El problema sería un sistema en el que Altman siguiera siendo al mismo tiempo visionario principal, estratega de producto, rostro político, árbitro de facto en cuestiones de seguridad y principal depositario de la confianza pública.
El modelo más sensato: Altman con contrapesos fuertes
La mejor fórmula para OpenAI no parece ser una cruzada anti-Altman. Es construir una institución sólida alrededor de Altman.
En la práctica, eso implica varias cosas:
- Altman sigue siendo clave para la visión, la orientación de investigación y la estrategia de producto.
- Un equipo operativo y de negocio fuerte asume el peso del mercado empresarial, el despliegue global, la infraestructura, las alianzas y la ejecución diaria.
- Investigación y seguridad tienen autoridad clara, no solo un papel consultivo.
- El consejo de administración es lo bastante independiente como para revisar decisiones de la dirección en momentos delicados.
- La comercialización, las aprobaciones de seguridad y la posición política de la empresa se mantienen distinguibles y explicables.
Los cambios ya comunicados —roles ampliados en investigación y operaciones, más foco en ventas corporativas y mayor concentración de Altman en investigación y producto— van, al menos en teoría, en esa dirección [19][
20][
25][
6]. Si serán suficientes es algo que desde fuera no puede afirmarse con seguridad.
Qué conviene observar ahora
La próxima fase de OpenAI no se medirá solo por el tamaño de sus anuncios. Las señales importantes serán más estructurales:
- ¿Tiene el trabajo de seguridad poder real cuando entra en conflicto con producto o ingresos?
- ¿Puede el mandato ampliado de Lightcap escalar OpenAI sin que cada decisión importante vuelva a Altman?
- ¿El impulso empresarial viene acompañado de garantías sólidas sobre privacidad, soporte, costes y disponibilidad?
- ¿El consejo puede controlar a la dirección de forma creíble en momentos estratégicamente sensibles?
- ¿Encajan las propuestas políticas de OpenAI con sus objetivos comerciales y sus compromisos de seguridad?
Conclusión
OpenAI no necesita necesariamente romper con Sam Altman en su próxima fase de crecimiento. Lo que necesita es un sistema de liderazgo más grande que Sam Altman.
Altman puede seguir siendo una ventaja si sus fortalezas —visión, velocidad, intuición de producto, capacidad para atraer capital y construir alianzas— se combinan con una dirección operativa fuerte, una gobernanza independiente y procesos de seguridad vinculantes. Sin esos límites, su centralidad se convierte en un riesgo. Con ellos, puede seguir siendo un activo.




