studioglobal
熱門探索內容
答案已發布14 個來源

OpenAI Codex против Claude Code: локальный репозиторий, PR-автоматизация и цена

Для долгой локальной работы в репозитории, отладки и рефакторинга логичнее начать с Claude Code: Anthropic прямо описывает его как инструмент, который читает codebase, редактирует файлы и запускает команды [15]. Для PR ревью, Slack, облачных задач и переключения между Web, CLI, IDE extension и iOS более прямой путь...

18K0
以分岔開發工作流呈現 OpenAI Codex 與 Claude Code 比較的概念圖
OpenAI Codex vs Claude Code:本機開發、PR 自動化與價格完整比較Codex 與 Claude Code 的差異,核心在雲端 PR 工作流與本機 repo 互動式開發。
AI 提示詞

Create a landscape editorial hero image for this Studio Global article: OpenAI Codex vs Claude Code:本機開發、PR 自動化與價格完整比較. Article summary: 本機 repo 長時間重構、debug、跑測試時,Claude Code 通常更順;PR 自動審查、Slack、跨 Web/CLI/IDE/iOS 與並行雲端任務則 OpenAI Codex 更直接。這是工作流選擇,不是單一 benchmark 能決定的勝負。. Topic tags: ai, coding agents, openai, codex, claude code. Reference image context from search candidates: Reference image 1: visual subject "# OpenAI Codex vs Claude Code for Sales Automation [2026]. Claude Code has been the go-to for AI-powered development. If you're building sales automation, which one should you use?" source context "OpenAI Codex vs Claude Code for Sales Automation [2026] | Blog | MarketBetter" Reference image 2: visual subject "Docs Blog Agent Skills Use Cases Open Source Compare Claude Code GUI Codex GUI. ai-coding developer-tools comparison guides. # Claude Code vs Codex vs OpenCode (2026). In" sourc

openai.com

OpenAI Codex и Claude Code уже не похожи на классические autocomplete-инструменты. OpenAI описывает Codex как coding agent на базе ChatGPT, который помогает build and ship с ИИ [46]. Anthropic называет Claude Code agentic coding tool: он читает codebase, редактирует файлы, запускает команды и интегрируется с инструментами разработки [15]. Поэтому правильный вопрос звучит так: не кто лучше допишет строку, а кто лучше впишется в ваш рабочий процесс.

Короткий ответ: выбирайте по workflow

Если основная работа идёт в локальном репозитории, терминале, VS Code, с долгим debug и refactoring, начните с Claude Code. Его официальное описание прямо делает акцент на чтении codebase, правке файлов и запуске команд [15]. Интеграция с VS Code тоже сделана не только как боковая панель: расширение поднимает локальный MCP server, через который CLI открывает diff в нативном viewer, читает текущий selection и работает с Jupyter cells [22].

Если вам важнее автоматизация ревью пул-реквестов, Slack, облачные задачи и несколько интерфейсов, начните с OpenAI Codex. На странице Codex Pricing перечислены Web, CLI, IDE extension, iOS, automatic code review и Slack integration [37]. OpenAI также даёт пример structured PR code review через Codex SDK и GitHub Actions [35].

Если в компании много внутренних инструментов и нужны управляемые расширения, внимательно смотрите на Claude Code. В документации Claude Code есть MCP-подключения к GitHub, Sentry и company-internal server, а также Agent SDK, custom subagents, skills, hooks и usage monitoring [17][13][18][19][20][21].

Сравнение по практическим сценариям

ВопросOpenAI CodexClaude CodeЧто это значит
ПозиционированиеOpenAI называет Codex coding agent на базе ChatGPT [46]Anthropic описывает Claude Code как инструмент, который читает codebase, правит файлы, запускает команды и встраивается в dev tools [15]Codex ближе к платформе задач вокруг ChatGPT; Claude Code — к интерактивной работе внутри репозитория
Где запускатьWeb, CLI, IDE extension и iOS указаны на странице pricing [37]Terminal, IDE, desktop app и browser указаны в overview [15]Оба уже не сводятся к одному чату; различие — в облачной координации против локального ритма разработки
Локальная работа с repoЕсть CLI и IDE extension [37]Прямо заявлены чтение codebase, редактирование файлов и запуск команд [15]Для длинной отладки, рефакторинга и прогонки тестов Claude Code выглядит естественнее
VS CodeОфициально указан IDE extension [37]Расширение запускает локальный MCP server, даёт CLI нативный diff viewer, текущий selection и выполнение Jupyter cells [22]Если VS Code и терминал — основная среда, Claude Code стоит попробовать первым
PR-reviewУказаны automatic code review и пример Codex SDK с GitHub Actions для structured PR review [37][35]Monitoring-документация содержит метрики pull request, commit, cost и token usage [21]Для быстрого внедрения AI в PR-пайплайн у Codex больше готовых официальных подсказок
Параллельные задачиCodex app on Windows может параллельно запускать несколько agents в isolated worktrees и выдавать reviewable diffs, которые можно редактировать, отбросить или превратить в PR [41]В доступных источниках акцент на MCP, subagents, skills, hooks и monitoring [17][18][19][20][21]Для раздачи нескольких задач агентам и последующего review diff Codex описан прямее
РасширяемостьЕсть Codex SDK и пример workflow для PR-review [35]Есть Agent SDK, MCP, custom subagents, skills, hooks и monitoring [13][17][18][19][20][21]Если нужно подключать внутренние API, observability и корпоративные правила доступа, Claude Code очень интересен
ЦенаPlus — $20/month; Pro — from $100/month, с выбором лимитов в 5x или 20x выше Plus [37]В этом наборе источников нет актуальной официальной страницы цены Claude CodeСравнивать стоимость лучше на своих задачах, а не по чужим скриншотам тарифов

Где сильнее OpenAI Codex

Codex удобнее там, где разработка уже организована вокруг задач, веток, PR, ревью и уведомлений. OpenAI позиционирует его как coding agent на базе ChatGPT [46], а страница pricing показывает сразу несколько входов: Web, CLI, IDE extension и iOS [37]. Это важно для команд, где разработчик может начать задачу в одном интерфейсе, продолжить в другом и всё равно довести результат до pull request.

PR-ревью и командная автоматизация

Если цель — встроить AI в ревью пул-реквестов, у Codex есть более прямой официальный маршрут. В OpenAI Cookbook показан пример structured PR code review через Codex SDK: GitHub Actions job получает права

contents: read
и
pull-requests: write
, а также использует переменные окружения вроде OPENAI_API_KEY, GITHUB_TOKEN, PR_NUMBER, BASE_SHA и HEAD_SHA [35].

На странице Codex Pricing также отдельно перечислены cloud-based integrations, включая automatic code review и Slack integration [37]. Для команды, которая уже живёт в GitHub, CI/CD и Slack-уведомлениях, это ближе к реальному рабочему процессу, чем просто ещё один чат в IDE.

Облачные и параллельные задачи

В release notes OpenAI указано, что Codex app on Windows даёт desktop-поверхность для параллельного запуска нескольких Codex agents, использует isolated worktrees и создаёт reviewable diffs; эти diff можно редактировать, отбросить или превратить в pull request [41].

Практический смысл простой: один агент чинит баг, второй дописывает тесты, третий обновляет документацию, а человек потом смотрит diff и решает, что попадёт в PR. Если ваша команда уже режет работу на issue, PR, review и merge, Codex ложится на такой процесс довольно естественно.

Где сильнее Claude Code

Claude Code особенно убедителен в сценарии, знакомом многим разработчикам: открыть репозиторий локально, разобраться в связях между файлами, поправить несколько мест, запустить тесты, посмотреть diff и повторить. Anthropic прямо пишет, что Claude Code читает codebase, редактирует файлы, запускает команды и интегрируется с инструментами разработки [15].

Terminal-first ощущение

Если вы привыкли работать из терминала — искать файлы, запускать тесты, читать git diff, проверять логи, — Claude Code выглядит ближе к вашему обычному ритму. Его ценность не в том, что он присылает красивый фрагмент кода в ответ, а в том, что он рассчитан на работу внутри development environment: читать, менять, запускать и итеративно исправлять [15].

Более глубокая связка с VS Code

Интеграция Claude Code с VS Code устроена через локальный MCP server, к которому CLI подключается автоматически. Благодаря этому CLI может открывать diff в нативном VS Code diff viewer, читать текущий selection для @ mentions и, при работе с Jupyter notebook, просить VS Code выполнять cells [22].

Для пользователя VS Code это заметная разница. AI видит не только скопированный вами кусок файла, а лучше привязывается к тому, что вы сейчас реально смотрите: выделение, diff, notebook cell.

Внутренние инструменты, MCP, subagents и hooks

В документации Claude Code показаны MCP-настройки для подключения GitHub, Sentry — сервиса отслеживания ошибок — и company-internal server [17]. Кроме того, Anthropic документирует Agent SDK, custom subagents, skills, hooks и usage monitoring [13][18][19][20][21].

Это особенно важно для компаний, где разработка завязана на внутренние API, приватные deployment-процессы, базы данных, observability и требования аудита. Но чем мощнее доступ агента к инструментам, тем важнее заранее определить allowlist, границы прав и аудит. В документации MCP упомянуты allowlists и policy-based control, а hooks позволяют реагировать на разные события выполнения [17][20].

Цена и лимиты: что можно утверждать надёжно

По предоставленным источникам яснее всего подтверждена цена Codex. Codex Plus стоит $20/month и включает Codex on the web, in the CLI, in the IDE extension, on iOS, а также cloud-based integrations вроде automatic code review и Slack integration [37]. Codex Pro указан как from $100/month, с возможностью выбрать лимиты в 5x или 20x выше Plus [37].

Для Claude Code в этом наборе источников нет актуальной официальной страницы цены, которую можно было бы корректно цитировать. Поэтому лучше не опираться на старые скриншоты, пересказы из блогов или чужие расчёты. Если стоимость критична, возьмите один и тот же набор реальных задач, прогоните обе системы хотя бы неделю и сравните три вещи: сколько задач доведено до готового diff, сколько правок внёс человек после агента и где упёрлись в лимиты или стоимость.

Бенчмарки: полезны, но не должны решать всё

Публичные бенчмарки дают ориентир, но не заменяют тест на вашем репозитории. На странице Vals AI SWE-bench, обновлённой 24 апреля 2026 года, указаны Claude Opus 4.7 с результатом 82,00% и GPT 5.3 Codex с 78,00% [28]. Другая страница, SWE-bench Verified от BenchLM.ai, на 24 апреля 2026 года показывает Claude Mythos Preview — 93,9%, Claude Opus 4.7 Adaptive — 87,6% и GPT-5.3 Codex — 85% [31].

Эти цифры не бесполезны, но их нельзя читать как один окончательный рейтинг. Наборы задач, версии моделей, harness, правила оценки и типы репозиториев могут отличаться. В реальной команде чаще решает другое: понимает ли агент ваш codebase, умеет ли безопасно запускать ваши тесты, вписывается ли в PR-процесс, соблюдает ли права доступа и даёт ли diff, который reviewer готов принять.

Чек-лист перед внедрением

  1. Тестируйте на одном и том же реальном issue. Не берите toy problem. Хорошая проверка должна требовать прочитать несколько файлов, изменить логику, запустить тесты и, возможно, обновить документацию.
  2. Требуйте reviewable diff. OpenAI в release notes прямо описывает reviewable diffs, которые можно редактировать, отбросить или превратить в PR [41]. Для любого coding agent это должен быть базовый стандарт: человек должен видеть границу изменений.
  3. Сначала настройте права. Claude Code может подключаться через MCP к GitHub, Sentry и внутренним серверам [17], а hooks позволяют запускать логику на событиях выполнения [20]. Всё это требует allowlist, ограничений и понятной ответственности.
  4. Наблюдайте не только за ответами, но и за метриками. В monitoring-документации Claude Code перечислены метрики вроде pull request, commit, cost usage и token usage [21]. Аналогичные показатели стоит вести для любой выбранной системы.
  5. Сравнивайте путь от issue до merged PR. Один красивый ответ в чате мало что доказывает. Важнее полный цикл: время до готового diff, нагрузка на reviewer, число исправлений после ревью и доля задач, которые реально дошли до merge.

Итоговая рекомендация

  • Личная разработка, локальный refactoring, debug и тесты: сначала пробуйте Claude Code. Его официальное описание и VS Code-интеграция лучше совпадают с интерактивной работой внутри репозитория [15][22].
  • Командное PR-review, Slack, облачные задачи и параллельные agents: сначала пробуйте OpenAI Codex. У него прямо описаны automatic code review, Slack integration, GitHub Actions workflow и параллельные agents в isolated worktrees [37][35][41].
  • Много внутренних инструментов и строгие корпоративные процессы: серьёзно оценивайте Claude Code. MCP, subagents, skills, hooks и monitoring дают больше точек для управляемой интеграции [17][18][19][20][21].
  • Команда уже глубоко в ChatGPT и OpenAI-экосистеме: Codex может внедряться проще, потому что он изначально описан как coding agent на базе ChatGPT и доступен через несколько интерфейсов [46][37].

Если совсем коротко: Claude Code похож на AI-инженера, который сидит рядом в вашем терминале и помогает править repo; OpenAI Codex больше похож на платформу coding agents для ChatGPT, PR, Slack и облачных задач.

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查證事實

重點整理

  • Для долгой локальной работы в репозитории, отладки и рефакторинга логичнее начать с Claude Code: Anthropic прямо описывает его как инструмент, который читает codebase, редактирует файлы и запускает команды [15].
  • Для PR ревью, Slack, облачных задач и переключения между Web, CLI, IDE extension и iOS более прямой путь даёт OpenAI Codex: эти входы и cloud интеграции указаны на странице pricing, а OpenAI Cookbook показывает пример...
  • По цене в предоставленных источниках надёжно подтверждён Codex: Plus — $20/month, Pro — from $100/month с лимитами в 5x или 20x выше Plus [37].

大家也會問

「OpenAI Codex против Claude Code: локальный репозиторий, PR-автоматизация и цена」的簡短答案是什麼?

Для долгой локальной работы в репозитории, отладки и рефакторинга логичнее начать с Claude Code: Anthropic прямо описывает его как инструмент, который читает codebase, редактирует файлы и запускает команды [15].

最值得優先驗證的重點是什麼?

Для долгой локальной работы в репозитории, отладки и рефакторинга логичнее начать с Claude Code: Anthropic прямо описывает его как инструмент, который читает codebase, редактирует файлы и запускает команды [15]. Для PR ревью, Slack, облачных задач и переключения между Web, CLI, IDE extension и iOS более прямой путь даёт OpenAI Codex: эти входы и cloud интеграции указаны на странице pricing, а OpenAI Cookbook показывает пример...

接下來在實務上該怎麼做?

По цене в предоставленных источниках надёжно подтверждён Codex: Plus — $20/month, Pro — from $100/month с лимитами в 5x или 20x выше Plus [37].

下一步適合探索哪個相關主題?

繼續閱讀「Claude Security 公測版:Anthropic 的企業程式碼漏洞掃描工具」,從另一個角度查看更多引用來源。

開啟相關頁面

我應該拿這個和什麼比較?

將這個答案與「Grok 4.3 API 解讀:1M 上下文、低 token 價格,xAI 想搶下哪個入口?」交叉比對。

開啟相關頁面

繼續深入研究

研究對話

研究問題

OpenAI Codex 和 Claude Code 哪個比較好?請深入搜尋並比較各項功能。

Studio Global AI40 個來源

附引用的答案

如果你只選一個:多數「本機終端、深度重構、理解大型既有 codebase」情境我會選 Claude Code;如果你重視「雲端並行任務、PR code review、自動化、ChatGPT 生態與較完整多介面」則 OpenAI Codex 更適合。兩者都很強,真正差異不在「會不會寫 code」,而在工作流:Claude Code 偏本機互動式 agent,Codex 偏雲端/多介面/並行 agent。

快速結論

  • 選 Claude Code,如果你:

    • 常在 terminal 裡工作,想讓 AI 直接讀 repo、改檔、跑命令、修測試;Claude Code 官方定位就是能讀 codebase、編輯檔案、執行命令並整合開發工具的 agentic coding tool [3]
    • 需要 VS Code 深度連動;Claude Code 的 VS Code extension 會啟動本機 MCP server,讓 CLI 可開啟原生 diff、讀取選取內容、在 Jupyter notebook 執行 cells [10]
    • 想接企業內部工具;Claude Code 支援透過 MCP 連接外部工具與服務 [5]
    • 想自訂 subagents、skills、hooks、usage monitoring;Anthropic 官方文件列出 sub-agents、skills、hooks 與 monitoring 等功能頁 [6][7][8][9]
  • 選 OpenAI Codex,如果你:

    • 想同時在 Web、CLI、IDE extension、iOS 使用;OpenAI Codex pricing 頁面明列 Plus 可用 Codex on the web、CLI、IDE extension、iOS [13]
    • 想做雲端自動化 code review、Slack integration;OpenAI Codex pricing 頁面列出 cloud-based integrations,包括 automatic code review 與 Slack integration [13]
    • 想把 PR review 做進 GitHub Actions;OpenAI cookbook 有用 Codex SDK 建立 structured PR code review 的 GitHub Actions 範例 [11]
    • 想跑多個背景 agent;OpenAI release notes 說 Codex app on Windows 可在 isolated worktrees 中並行執行多個 Codex agents,並產生可審查的 diffs 或 PR [7]

功能比較

面向OpenAI CodexClaude Code我會怎麼選
主要工作流Web、CLI、IDE extension、iOS,加上雲端整合 [13]Terminal、IDE、desktop 等開發工具整合 [3]想跨裝置/雲端任務選 Codex;想本機 terminal 選 Claude
本機 repo 操作有 CLI 與 IDE extension [13]明確定位為讀 codebase、改檔、跑命令的 agent [3]本機深度改 repo:Claude 較自然
PR / code review官方有 Codex SDK + GitHub Actions PR review 範例 [11]文件有 pull_request、commit 等 usage metrics,但我找到的官方片段不如 Codex 明確主打 PR review workflow [9]PR 自動審查:Codex 較直接
IDE 整合官方定價頁列出 IDE extension [13]VS Code extension 透過本機 MCP server 連 CLI、diff、selection、Jupyter cells [10]VS Code 深度互動:Claude 較強
雲端並行Codex app 可並行跑多個 agents、隔離 worktrees、reviewable diffs [7]官方片段顯示偏本機工具整合與 subagents,但未看到同等「雲端並行 worktrees」官方描述 [3][6]多任務並行:Codex
自訂 agent有 Codex SDK 與 code review 範例 [11]有 Agent SDK、subagents、skills、hooks [1][6][7][8]可程式化/客製化:Claude 很強;GitHub review SDK:Codex 很方便
企業工具整合有 Slack 與 automatic code review 等雲端整合 [13]MCP 可連工具,並有 managed MCP 設定 [5]內部工具多:Claude;雲端協作多:Codex
價格入口OpenAI 顯示 Plus $20/month 可用 Codex 多介面與部分雲端整合 [13]這次搜尋沒有可靠抓到 Claude Code 的即時官方價格頁;Insufficient evidence價格需看你所在地與方案,即時查官網最準
Benchmark第三方資料有衝突:有來源稱 Claude Opus 4.7 在 SWE-bench Verified 87.6%,但 Vals AI 顯示 Claude Opus 4.7 為 82.00% 且更新於 2026-04-24 [5][6]同左不建議只看單一 benchmark,下方說明

Benchmark 與能力判讀

  • 我找到的 benchmark 資料並不完全一致;例如一個第三方比較文稱 Claude Opus 4.7 在 SWE-bench Verified 達 87.6%,但 Vals AI 的 SWE-bench 頁面顯示 Claude Opus 4.7 為 82.00%,且標示更新於 2026-04-24 [5][6]
  • 因為 benchmark 版本、模型版本、是否使用 agent harness、是否多次嘗試、是否包含工具調用都會影響結果,所以我不會用單一分數判定「誰比較會寫 code」。
  • 比較穩妥的判斷是:Claude Code 在本機長任務、重構、debug、理解大型 repo 的口碑與工具設計更貼近 terminal-first;Codex 在雲端任務分派、PR review、自動化與多介面使用上更完整 [3][7][10][11][13]

各自優勢

OpenAI Codex 的強項

  • 多介面覆蓋完整:Web、CLI、IDE extension、iOS 都在官方 Codex 方案描述中出現 [13]
  • 雲端整合明確:官方列出 automatic code review 與 Slack integration [13]
  • PR review 可落地:OpenAI 有用 Codex SDK 在 GitHub Actions 中做 structured code review 的 cookbook 範例 [11]
  • 並行 agent 工作流成熟:Codex app on Windows 支援多個 agents 並行、隔離 worktrees、reviewable diffs 與 PR 流程 [7]

Claude Code 的強項

  • 本機 agent 定位清楚:官方說 Claude Code 可讀 codebase、編輯檔案、執行命令並整合開發工具 [3]
  • VS Code 互動更深入:官方描述 extension 透過本機 MCP server 讓 CLI 開 diff、讀選取內容、操作 Jupyter cells [10]
  • 可擴充性強:官方文件涵蓋 Agent SDK、MCP、subagents、skills、hooks、monitoring 等 [1][5][6][7][8][9]
  • 適合大型專案長時間互動:Claude Code 的 terminal-first 工作流較適合「我在 repo 裡邊看邊改邊跑測試」的模式 [3][10]

各自缺點

  • Codex 的缺點:

    • 如果你的工作重心是本機 terminal 裡的連續 debug,Codex 的雲端/多介面優勢不一定比 Claude Code 的本機互動更順。
    • Codex 的雲端任務、code review、Slack 等能力可能受方案與用量限制影響;官方 pricing 頁面明示不同方案與 usage 相關內容 [13]
  • Claude Code 的缺點:

    • 如果你想要「開一堆雲端 agent 並行處理不同 worktrees」,這次搜尋到的官方 Claude Code 片段沒有像 Codex app 那樣明確描述此能力 [7]
    • 如果你主要需求是 PR 自動審查流水線,OpenAI 官方 cookbook 對 GitHub Actions PR review 的範例更直接 [11]
    • Claude Code 價格與方案我這次沒有取得足夠可靠的官方即時資訊;Insufficient evidence。

我的建議

  • 個人開發、重構、debug、跑測試:先用 Claude Code。
  • 團隊 PR review、自動化、雲端並行任務:先用 OpenAI Codex。
  • VS Code + terminal 重度使用者:Claude Code 優先。
  • 已經在 ChatGPT Plus/Team/Enterprise 生態裡:Codex 轉換成本較低,因為 Codex 官方方案已含 Web、CLI、IDE extension、iOS 與雲端整合 [13]
  • 企業內部工具很多、想接 MCP、做自訂 agent/skills/hooks:Claude Code 優先 [5][6][7][8]

如果你要我給一句話:Claude Code 更像「資深工程師坐在你 terminal 裡一起改 repo」;OpenAI Codex 更像「可在雲端、PR、IDE、ChatGPT 生態裡調度的 coding agent 平台」。

來源

  • [13] Agent SDK overview - Claude Code Docsdocs.anthropic.com

    async def main(): session id = None First query: capture the session ID async for message in query( prompt="Read the authentication module", options=ClaudeAgentOptions(allowed tools=["Read", "Glob"]), ): if isinstance(message, SystemMessage) and message.sub...

  • [15] Claude Code overview - Claude Code Docsdocs.anthropic.com

    light logo dark logo US Getting started Core concepts Use Claude Code Platforms and integrations Claude Code overview Claude Code is an agentic coding tool that reads your codebase, edits files, runs commands, and integrates with your development tools. Ava...

  • [17] Connect Claude Code to tools via MCPdocs.anthropic.com

    ​ Option 1: Exclusive control with managed-mcp.json managed-mcp.json /Library/Application Support/ClaudeCode/managed-mcp.json /etc/claude-code/managed-mcp.json C:\Program Files\ClaudeCode\managed-mcp.json /Library/... managed-mcp.json .mcp.json { "mcpServer...

  • [18] Create custom subagents - Claude Code Docsdocs.anthropic.com

    You are a database analyst with read-only access. Execute SELECT queries to answer questions about the data. When asked to analyze data: 1. Identify which tables contain the relevant data 2. Write efficient SELECT queries with appropriate filters 3. Present...

  • [19] Extend Claude with skills - Claude Code Docsdocs.anthropic.com

    .bar-label {{ width: 55px; font-size: 12px; color: aaa; }} .bar {{ height: 18px; border-radius: 3px; }} .bar-pct {{ margin-left: 8px; font-size: 12px; color: 666; }} .tree {{ list-style: none; padding-left: 20px; }} details {{ cursor: pointer; }} summary {{...

  • [20] Hooks reference - Claude Code Docsdocs.anthropic.com

    SubagentStart When a subagent is spawned SubagentStop When a subagent finishes TaskCreated When a task is being created via TaskCreate TaskCompleted When a task is being marked as completed Stop When Claude finishes responding StopFailure When the turn ends...

  • [21] Monitoring - Claude Code Docsdocs.anthropic.com

    claude code.session.count claude code.lines of code.count claude code.pull request.count claude code.commit.count claude code.cost.usage claude code.token.usage claude code.code edit tool.decision claude code.active time.total ​ Metric details ​ Session cou...

  • [22] Use Claude Code in VS Code - Claude Code Docsdocs.anthropic.com

    When the extension is active, it runs a local MCP server that the CLI connects to automatically. This is how the CLI opens diffs in VS Code’s native diff viewer, reads your current selection for @ -mentions, and — when you’re working in a Jupyter notebook —...

  • [28] SWE-bench - Vals AIvals.ai

    Benchmarks Models Comparison Model Guide App Reports News About Benchmarks Models Comparison Model Guide App Reports About Coding SWE-bench SWE-bench Updated: 4/24/2026 Solving production software engineering tasks Key Takeaways Claude Opus 4.7 leads with a...

  • [31] SWE-bench Verified Benchmark 2026: 35 LLM scores | BenchLM.aibenchlm.ai

    Core Rankings Specialized Use Cases Dashboards Directories Guides & Lists Tools Software Engineering Benchmark Verified (SWE-bench Verified) A curated, human-verified subset of SWE-bench that tests models on resolving real GitHub issues from popular open-so...

  • [35] Build Code Review with the Codex SDKdevelopers.openai.com

    jobs: codex-structured-review: name: Run Codex structured review runs-on: ubuntu-latest permissions: contents: read pull-requests: write env: OPENAI API KEY: ${{ secrets.OPENAI API KEY }} GITHUB TOKEN: ${{ github.token }} CODEX MODEL: ${{ vars.CODEX MODEL '...

  • [37] Codex Pricingdevelopers.openai.com

    $20/month Get Plus Codex on the web, in the CLI, in the IDE extension, and on iOS Cloud-based integrations like automatic code review and Slack integration The latest models, including GPT-5.5, GPT-5.4, and GPT-5.3-Codex GPT-5.4-mini for higher usage limits...

  • [41] ChatGPT — Release Notes - OpenAI Help Centerhelp.openai.com

    March 4, 2026 Codex app on Windows The Codex app is now available on Windows for ChatGPT plans that include Codex. The app gives users a Windows desktop surface for running multiple Codex agents in parallel, with isolated worktrees and reviewable diffs that...

  • [46] Codex | AI Coding Partner from OpenAIopenai.com

    Codex AI Coding Partner from OpenAI OpenAI Skip to main content Log inTry ChatGPT(opens in a new window) Research Products Business Developers Company Foundation(opens in a new window) Try ChatGPT(opens in a new window)Login OpenAI Codex A coding agent that...