OpenAI的领导问题,已经不能简单归结为“Sam Altman行不行”。这家公司正从研究突破和消费级产品爆发期,进入一个更复杂的阶段:企业销售、全球部署、安全判断、基础设施、政策可信度,都必须同时成立。
换句话说,OpenAI现在需要的不是更强的个人光环,而是一套更能承压的组织系统。
核心判断:Altman可以继续当CEO,但不能继续成为唯一节拍器
Sam Altman仍可能是OpenAI合适的CEO。更关键的问题不是他是否有想象力,而是:如果Altman判断错了,OpenAI有没有机制把事情拉回来?
从现有信息看,最合理的模式不是“去Altman化”,而是“Altman加制度”。Altman继续负责愿景、研究方向和产品战略;但运营扩张、企业业务、安全监督和公司治理,必须更多落到稳定的角色、流程和制衡机制上。
OpenAI的任务已经变了
OpenAI已经不只是一个有爆款消费产品的AI实验室。报道称,Altman把公司下一阶段重点概括为加速科学研究、提升经济生产力,以及发展所谓“personal AGI”[1]。与此同时,Big Technology报道称,Altman曾把企业销售列为OpenAI在2026年的优先事项之一[
4]。
这意味着领导要求发生了变化。做前沿模型,需要研究速度和产品直觉;但把AI带进企业、科研、基础设施和公共政策讨论,则还需要稳定性、合规、成本控制、客户信任,以及可以解释、可以追责的安全决策。
OpenAI已经在组织结构上显露出这种转向。2025年3月,Mark Chen被任命为职责扩大的首席研究官;OpenAI称他的任务包括推动能力与安全方面的前沿进展,并更紧密地连接研究和产品开发[19]。同时,COO Brad Lightcap的职责也被扩大:据报道,他将更多负责业务、日常运营、全球部署、基础设施、战略和合作伙伴关系,让Altman能把更多精力放在研究和产品上[
20][
25]。
企业市场的转向也有了更具体的安排。TechCrunch在2026年1月援引The Information报道称,OpenAI已任命Barret Zoph负责向企业客户销售AI的相关工作[6]。
OpenAI现在会被四件事检验
1. 安全不能只是“配套部门”
OpenAI研发的技术,影响可能远超一般软件产品。因此真正重要的领导问题,不只是新功能能多快上线,而是谁来审查风险、谁有权升级问题、谁能在必要时按下暂停键。
OpenAI把Chen的研究职责明确和“capability and safety”联系在一起,说明公司内部至少把能力提升和安全视为共同核心任务[19]。但从外部看,仍难判断这些安全流程在遭遇增长压力时究竟有多独立、多有约束力。
2. 企业市场不是消费级热度的延长线
企业销售没有模型演示那么吸睛,却可能是OpenAI下一阶段的关键。企业客户购买的不是单纯的模型能力,还包括可用性、支持、数据保护、系统集成、成本可控,以及长期稳定的服务承诺。
Lightcap职责扩大,正对应这一挑战。据报道,他将更多负责OpenAI的业务和日常运营,以及全球部署、基础设施、战略和伙伴关系[20][
25]。这更像是一种分工:Altman继续塑造技术和战略方向,运营层则负责把组织变得更可靠。
3. 治理必须真的能制衡
OpenAI的治理不是背景板。2023年11月17日,OpenAI正式宣布Altman将离任CEO,CTO Mira Murati担任临时CEO[13]。几天后,Altman又回归CEO职位;OpenAI公布了新的初始董事会,Bret Taylor担任董事会主席,成员包括Larry Summers和Adam D’Angelo[
12]。
这段插曲说明,权力边界不清和董事会冲突,足以迅速把OpenAI推入公司危机。Axios在2025年还写道,Altman为OpenAI愿景争取数十亿美元资金的努力,一直受到围绕非营利监督结构的治理担忧影响[8]。
无论支持还是批评Altman,结论都一样:OpenAI需要的领导系统,既要能快速决策,也要能可信地监督权力。
4. 公共合法性已经成为CEO工作的一部分
OpenAI如今也越来越像一个政策参与者。Fortune在2026年报道,OpenAI发布了一份题为《Industrial Policy for the Intelligence Age: Ideas to Keep People First》的文件,其中包含税收和产业政策等建议[2]。
这使CEO角色进一步扩大。OpenAI不只要说服用户、开发者、合作伙伴和投资者,也要面对政府、企业、学界和公众。这样的公共信任,不可能只靠一个强势创始人来建立;它更依赖可理解的流程、一致的安全决策,以及让批评者也相信其能限制权力的制度安排。
为什么Altman仍有理由继续担任CEO
现有信息显示,Altman仍深度塑造OpenAI的战略议程。他提出了科学研究、经济生产力和“personal AGI”等增长方向[1];他也把企业销售放到2026年的重要位置[
4]。最近的领导层调整,并不像是在削弱他,而更像是让他把注意力集中到研究和产品上[
20][
25]。
因此,仓促更换CEO并不是显而易见的答案。在OpenAI必须同时平衡研究速度、产品战略、资本需求、基础设施和市场地位的阶段,Altman仍是一个有效的战略型领导者。
风险在于:OpenAI不能过度围着Altman转
问题恰恰出在Altman太重要。
如果外界对OpenAI的信任过度绑定在一个人身上,那么任何一次误判、治理冲突或政策转向,都可能变成系统性风险。2023年11月的事件——先是官方宣布解除Altman CEO职务,随后又让他带着新董事会回归——已经显示OpenAI的结构可能在压力下失稳[13][
12]。之后关于治理问题的持续报道,也强化了这一点[
8]。
所以,真正的问题不是Altman这个人本身。真正的问题是,OpenAI是否会形成这样一种结构:Altman同时是愿景提出者、最高产品战略家、公共政治面孔、安全问题事实上的仲裁者,以及公司信任的核心载体。
对一家可能深刻影响技术、商业和公共政策的公司来说,这种集中度太高。
更好的模式:Altman加上一套强制度
OpenAI最可行的领导模式,不是反Altman,而是在Altman周围建立更强的机构框架。
具体而言,这意味着:
- Altman继续在愿景、研究重点和产品战略上发挥核心作用。
- 强有力的COO和业务团队承担企业市场、全球部署、基础设施、合作伙伴和运营质量。
- 研究与安全部门拥有清晰权力,而不只是提供建议。
- 董事会必须足够独立,能够真正审查管理层决策。
- 商业化、安全放行和政策立场之间,需要有可理解、可追踪的边界。
已经被报道的领导调整——研究和运营角色扩大、企业市场优先级上升、Altman更聚焦研究与产品——总体上朝这个方向移动[19][
20][
25][
6]。但这些安排是否足够,外部目前仍无法确定。
接下来应该看哪些信号
OpenAI下一阶段的成败,不应只看Altman又发布了多少宏大愿景。更值得观察的是五个结构性信号:
- 当安全判断与产品发布或收入压力冲突时,安全团队是否拥有真实决策权?
- Lightcap扩大的运营职责,能否让OpenAI可靠扩张,而不是所有关键决定都回到Altman手里?
- 企业业务扩张是否伴随扎实的数据保护、支持、成本和可用性承诺?
- 董事会是否能在战略敏感时刻可信地监督管理层?
- OpenAI的政策主张、商业目标和安全承诺,是否能彼此一致?
结论
OpenAI下一阶段不一定需要和Sam Altman切割。它更需要一套比Sam Altman更大的领导系统。
Altman的优势——愿景、速度、产品感觉、融资能力和伙伴动员能力——仍可能是OpenAI的资产。但只有当这些优势被强运营、独立治理和有约束力的安全流程补足时,才不会变成风险。
没有制度,Altman的中心位置会成为隐患;有了制度,这种中心位置才可能继续成为优势。




