OpenAI의 리더십 문제는 샘 올트먼(Sam Altman) 개인에 대한 찬반으로 끝나지 않는다. 지금 OpenAI는 연구실과 소비자용 제품의 성공 단계를 넘어, 기업 고객, 글로벌 서비스 운영, 안전성 판단, 대규모 인프라, 정책 신뢰를 동시에 감당해야 하는 국면에 들어섰다.
결론부터 말하면 올트먼은 여전히 OpenAI의 CEO로서 강력한 카드일 수 있다. 다만 이제 핵심 질문은 ‘올트먼이 충분히 비전 있는가’가 아니다. 더 중요한 질문은 이것이다. 올트먼이 틀렸을 때도 OpenAI는 좋은 결정을 내릴 수 있는가.
판정: 올트먼은 필요할 수 있다. 그러나 혼자서는 부족하다
OpenAI에 필요한 모델은 ‘올트먼 대체’가 아니라 ‘올트먼 플러스 제도’에 가깝다. 올트먼은 비전, 연구 방향, 제품 전략, 자본과 파트너십을 움직이는 데 여전히 큰 역할을 한다. 하지만 OpenAI가 다음 단계에서 신뢰를 얻으려면 운영, 기업 영업, 안전성 감독, 이사회 견제가 더 독립적이고 견고한 체계로 자리 잡아야 한다.
창업자 중심 리더십은 빠르다. 대신 위험도 분명하다. 한 사람의 감각이 조직 전체의 의사결정 속도와 방향을 좌우하면, 잘될 때는 폭발적이지만 흔들릴 때는 회사 전체가 함께 흔들린다. OpenAI처럼 사회적 파급력이 큰 AI를 만드는 기업이라면 이 위험은 더 커진다.
OpenAI의 일이 달라졌다
OpenAI는 더 이상 ‘뛰어난 모델을 만드는 연구조직’만이 아니다. 한 보도에 따르면 올트먼은 OpenAI의 다음 초점으로 과학 연구 가속, 경제 생산성 향상, 그리고 ‘personal AGI’ 구축을 제시했다 [1]. 여기서 AGI는 보통 범용인공지능을 뜻하며, ‘personal AGI’는 개인별로 강력하게 맞춤화된 AI 비서 또는 지능형 시스템에 가까운 개념으로 읽힌다.
동시에 Big Technology는 올트먼이 2026년 OpenAI의 최우선 과제 중 하나로 기업 고객 대상 판매, 즉 엔터프라이즈 영업을 꼽았다고 보도했다 [4]. 소비자용 챗봇의 인기를 넘어 기업의 업무 시스템, 데이터 환경, 보안 요구에 들어가겠다는 뜻이다.
이 변화는 리더십의 기준을 바꾼다. 새 모델을 빠르게 내놓는 회사에는 연구 속도와 제품 감각이 중요하다. 그러나 AI를 기업, 과학, 공공정책, 글로벌 인프라 영역까지 확산시키는 회사에는 그보다 더 많은 것이 필요하다. 서비스 안정성, 비용 통제, 개인정보와 데이터 보호, 규제 대응, 고객 지원, 그리고 외부에서 납득할 수 있는 안전성 판단이 함께 작동해야 한다.
OpenAI도 이런 변화를 조직 개편으로 드러냈다. 2025년 3월 OpenAI는 마크 첸(Mark Chen)을 확대된 최고연구책임자 역할에 앉히며, 그의 임무를 성능과 안전의 진전, 그리고 연구와 제품 개발의 더 긴밀한 연결로 설명했다 [19]. 같은 시기 브래드 라이트캡(Brad Lightcap) COO의 역할도 확대됐다. 보도에 따르면 라이트캡은 사업과 일상 운영, 글로벌 배포, 인프라, 전략, 파트너십을 더 크게 맡고, 올트먼은 연구와 제품에 더 집중할 수 있게 됐다 [
20][
25].
기업 고객 공략도 조직적으로 뒷받침되고 있다. TechCrunch는 2026년 1월 The Information 보도를 인용해, OpenAI가 배릿 조프(Barret Zoph)에게 기업 고객 대상 AI 판매 노력을 이끌도록 맡겼다고 전했다 [6].
OpenAI가 이제 평가받을 네 가지 리더십 시험
1. 안전은 ‘부속 업무’가 아니라 핵심 권한이어야 한다
OpenAI가 다루는 기술은 일반 소프트웨어 업데이트보다 훨씬 넓은 영향을 낳을 수 있다. 그래서 중요한 것은 새 기능을 얼마나 빨리 출시하느냐만이 아니다. 누가 위험을 검토하는지, 누가 출시를 늦추거나 중단하자고 말할 수 있는지, 그리고 그 권한이 매출 압박 앞에서도 실제로 작동하는지가 핵심이다.
OpenAI가 첸의 연구 역할을 성능과 안전을 함께 밀어붙이는 자리로 설명했다는 점은, 회사 내부에서 안전을 연구의 주변부가 아니라 핵심 과제로 본다는 신호다 [19]. 다만 외부에서 볼 때 그 안전 절차가 얼마나 독립적이고 구속력 있는지는 아직 충분히 확인하기 어렵다.
2. 기업 시장은 소비자 인기와 전혀 다른 근육을 요구한다
엔터프라이즈, 즉 B2B 기업 시장은 화려한 데모보다 지루하고 까다로운 약속의 세계다. 기업 고객은 모델 성능만 보지 않는다. 데이터 보호, 서비스 가동률, 비용 예측 가능성, 내부 시스템과의 연동, 장애 대응, 장기 지원을 함께 본다.
라이트캡의 확대된 역할은 이 과제와 맞닿아 있다. 그는 OpenAI의 사업과 일상 운영, 글로벌 배포, 인프라, 전략, 파트너십을 더 많이 맡는 것으로 보도됐다 [20][
25]. 이는 올트먼이 기술·제품 방향을 잡되, 실제 조직을 안정적으로 굴리는 책임은 더 넓은 운영 리더십이 나눠 갖는 구조로 읽힌다.
3. 거버넌스는 실제로 견제할 수 있어야 한다
OpenAI의 지배구조는 부차적인 문제가 아니다. 2023년 11월 17일 OpenAI는 올트먼이 CEO에서 물러나고 CTO였던 미라 무라티(Mira Murati)가 임시 CEO를 맡는다고 공식 발표했다 [13]. 그러나 얼마 지나지 않아 올트먼은 CEO로 복귀했고, OpenAI는 브렛 테일러(Bret Taylor)를 의장으로, 래리 서머스(Larry Summers)와 애덤 디앤젤로(Adam D’Angelo)를 포함한 새 초기 이사회를 발표했다 [
12].
이 사건은 OpenAI 내부의 권한 균형과 이사회 갈등이 얼마나 빠르게 회사 전체의 위기로 번질 수 있는지 보여줬다. Axios는 2025년 올트먼이 OpenAI의 비전을 위해 수십억 달러 규모의 자금을 확보하려는 노력이 비영리 감독 구조를 둘러싼 거버넌스 우려로 가려졌다고 보도했다 [8].
올트먼을 지지하든 비판하든, 이 지점은 피하기 어렵다. OpenAI에는 빠른 결정을 내리는 리더뿐 아니라 그 결정을 믿을 만하게 검증하고 제어할 수 있는 제도가 필요하다.
4. 공적 정당성도 CEO의 일이 됐다
OpenAI는 이제 기술기업인 동시에 정책 논쟁의 당사자다. Fortune은 2026년 OpenAI가 ‘Industrial Policy for the Intelligence Age: Ideas to Keep People First’라는 문서를 공개했으며, 그 안에 세금과 산업정책 관련 제안이 포함됐다고 보도했다 [2].
이 말은 OpenAI CEO의 역할이 넓어졌다는 뜻이다. 이제 회사는 이용자, 개발자, 투자자, 파트너만 설득하면 되는 것이 아니다. 정부, 기업, 학계, 시민사회가 모두 OpenAI의 결정과 방향을 지켜본다. 이런 신뢰는 강한 창업자 한 명만으로 만들어지지 않는다. 일관된 안전성 판단, 설명 가능한 절차, 권력을 제한할 수 있는 제도가 함께 있어야 한다.
그래도 올트먼이 CEO로 남을 이유는 있다
자료들이 보여주는 한 가지 사실은 분명하다. 올트먼은 여전히 OpenAI의 전략적 의제를 강하게 형성하고 있다. 그는 과학 연구, 경제 생산성, ‘personal AGI’를 다음 성장 축으로 제시했고 [1], 2026년 기업 고객 판매를 중요한 우선순위로 내세웠다 [
4].
또한 최근의 역할 조정은 올트먼을 밀어내는 움직임이라기보다, 그가 연구와 제품에 더 집중하도록 운영 책임을 분산하는 쪽에 가깝다 [20][
25]. 연구 속도, 제품 전략, 대규모 자본 조달, 인프라 확장, 시장 경쟁을 동시에 맞춰야 하는 상황에서 올트먼의 전략적 감각은 여전히 OpenAI의 자산일 수 있다.
따라서 성급한 CEO 교체론은 답이 아닐 수 있다. 문제는 올트먼의 존재가 아니라, 그 존재가 조직의 거의 모든 신뢰를 대신 떠안는 구조다.
올트먼 중심 모델의 위험
올트먼이 중요할수록 역설적으로 위험도 커진다. OpenAI에 대한 신뢰가 한 사람에게 지나치게 묶이면, 한 번의 판단 착오나 거버넌스 충돌, 정책적 방향 전환이 곧 시스템 전체의 문제로 번질 수 있다.
2023년 11월의 급격한 해임과 복귀, 그리고 새 이사회 구성은 OpenAI의 구조가 강한 압력 아래 놓일 수 있음을 보여줬다 [13][
12]. 이후에도 비영리 감독과 거버넌스를 둘러싼 우려가 계속 보도됐다는 점은 이 문제가 단순한 과거사가 아니라는 점을 시사한다 [
8].
핵심은 올트먼 개인의 선악이 아니다. 더 큰 문제는 올트먼이 비전 제시자, 최고 제품 전략가, 대외 정치적 얼굴, 안전 판단의 실질적 중재자, 투자자와 파트너의 핵심 신뢰 대상 역할을 동시에 떠안는 구조다. 그런 구조에서는 개인의 장점도 어느 순간 조직의 취약점이 될 수 있다.
더 나은 모델: 올트먼을 둘러싼 강한 제도
OpenAI에 가장 현실적인 리더십 형태는 ‘반(反)올트먼’이 아니다. 오히려 올트먼의 강점을 살리되, 그 강점이 과잉 집중으로 바뀌지 않게 만드는 제도적 틀이다.
실제로 필요한 구조는 대략 이렇다.
- 올트먼은 비전, 연구 방향, 제품 전략에서 중심 역할을 계속 맡는다.
- 강한 COO와 비즈니스 리더십이 기업 고객, 글로벌 배포, 인프라, 파트너십, 운영 품질을 책임진다.
- 연구와 안전 조직은 단순 자문이 아니라 실제 의사결정 권한을 가져야 한다.
- 이사회는 경영진의 전략적 결정을 실질적으로 검토할 만큼 독립적이어야 한다.
- 상업화, 안전 승인, 정책 제안은 서로 뒤섞이지 않도록 절차와 책임이 분명해야 한다.
이미 보도된 리더십 변화는 이 방향과 일정 부분 맞닿아 있다. 첸의 연구·안전 역할 확대, 라이트캡의 운영 권한 확대, 기업 고객 공략을 위한 조프의 역할은 OpenAI가 한 사람 중심에서 더 제도화된 운영으로 이동하고 있음을 보여준다 [19][
20][
25][
6]. 다만 그것이 충분한지는 외부에서 단정하기 어렵다.
앞으로 봐야 할 신호
OpenAI의 다음 국면은 올트먼이 얼마나 큰 발표를 많이 하느냐보다, 조직이 얼마나 안정적으로 작동하느냐로 판가름 날 가능성이 크다. 특히 다음 다섯 가지 신호가 중요하다.
- 안전 조직이 제품 출시나 매출 압박과 충돌할 때 실제 결정권을 갖는가.
- 라이트캡의 확대된 운영 권한이 OpenAI를 안정적으로 확장시키는가, 아니면 중요한 결정이 여전히 올트먼에게 집중되는가.
- 기업 고객 확대가 데이터 보호, 지원, 비용, 서비스 안정성에 대한 구체적 약속과 함께 가는가.
- 이사회가 전략적으로 민감한 순간에도 경영진을 믿을 만하게 견제하는가.
- OpenAI의 정책 제안, 상업적 목표, 안전성 약속이 서로 모순 없이 이어지는가.
결론: 올트먼보다 큰 OpenAI가 필요하다
OpenAI의 다음 성장 단계에 필요한 것은 샘 올트먼과의 단순한 결별이 아니다. 필요한 것은 샘 올트먼보다 큰 리더십 시스템이다.
올트먼의 강점은 분명하다. 그는 비전, 속도, 제품 감각, 자본 조달, 파트너십에서 OpenAI를 앞으로 밀어붙이는 인물이다. 그러나 그 강점이 회사 전체의 유일한 안전장치가 되어서는 안 된다.
강한 운영 리더십, 독립적인 거버넌스, 구속력 있는 안전 절차가 함께 작동한다면 올트먼의 중앙성은 여전히 장점이 될 수 있다. 반대로 그런 제도적 보완이 없다면, 그 중앙성은 OpenAI의 가장 큰 리스크가 될 것이다.




