studioglobal
熱門探索內容
答案已發布14 個來源

OpenAI Codex vs Claude Code:本機開發、PR 自動化與選擇指南

如果主要在本機 repo 長時間 debug、重構、跑測試,先試 Claude Code;如果重點是 PR 自動審查、Slack、跨 Web/CLI/IDE/iOS 與並行雲端任務,先試 OpenAI Codex。Codex 官方價格為 Plus $20/month、Pro from $100/month;本次來源沒有可引用的 Claude Code 即時官方價格。 Claude Code 的官方文件明確寫到讀 codebase、改檔、執行命令與 VS Code/MCP 整合;Codex 官方資料則更完整覆蓋 PR review、Slack、多介面與 worktree 並行。

18K0
以分岔開發工作流呈現 OpenAI Codex 與 Claude Code 比較的概念圖
OpenAI Codex vs Claude Code:本機開發、PR 自動化與價格完整比較Codex 與 Claude Code 的差異,核心在雲端 PR 工作流與本機 repo 互動式開發。
AI 提示詞

Create a landscape editorial hero image for this Studio Global article: OpenAI Codex vs Claude Code:本機開發、PR 自動化與價格完整比較. Article summary: 本機 repo 長時間重構、debug、跑測試時,Claude Code 通常更順;PR 自動審查、Slack、跨 Web/CLI/IDE/iOS 與並行雲端任務則 OpenAI Codex 更直接。這是工作流選擇,不是單一 benchmark 能決定的勝負。. Topic tags: ai, coding agents, openai, codex, claude code. Reference image context from search candidates: Reference image 1: visual subject "# OpenAI Codex vs Claude Code for Sales Automation [2026]. Claude Code has been the go-to for AI-powered development. If you're building sales automation, which one should you use?" source context "OpenAI Codex vs Claude Code for Sales Automation [2026] | Blog | MarketBetter" Reference image 2: visual subject "Docs Blog Agent Skills Use Cases Open Source Compare Claude Code GUI Codex GUI. ai-coding developer-tools comparison guides. # Claude Code vs Codex vs OpenCode (2026). In" sourc

openai.com

OpenAI Codex 和 Claude Code 都已經不是傳統 autocomplete。OpenAI 將 Codex 定位為 powered by ChatGPT、協助 build and ship 的 coding agent;Anthropic 則稱 Claude Code 是能讀取 codebase、編輯檔案、執行命令並整合開發工具的 agentic coding tool [46][15]。所以真正該問的不是哪個比較會補 code,而是哪個更適合你的開發流程。

先看結論:用工作流選,不要只看榜單

偏本機 repo、terminal、長時間重構與 debug:Claude Code 比較自然。 官方文件明確描述 Claude Code 可以讀 codebase、改檔、跑命令,並可在 terminal、IDE、desktop app 與 browser 使用 [15]。它的 VS Code extension 也會透過本機 MCP server 連動 CLI、原生 diff viewer、目前 selection 與 Jupyter notebook cells [22]

偏 PR 自動審查、Slack、跨介面與雲端任務:OpenAI Codex 比較直接。 Codex pricing 頁列出 Web、CLI、IDE extension、iOS,以及 automatic code review、Slack integration 等 cloud-based integrations [37]。OpenAI 也提供用 Codex SDK 建 structured PR code review 的 GitHub Actions 範例 [35]

偏企業內部工具與受控擴充:Claude Code 值得優先評估。 Claude Code 的 MCP 文件展示了連接 GitHub、Sentry 與 company-internal server 的設定方式;官方文件也涵蓋 Agent SDK、custom subagents、skills、hooks 與 usage monitoring [17][13][18][19][20][21]

功能比較表

決策問題OpenAI CodexClaude Code怎麼選
產品定位OpenAI 稱 Codex 是由 ChatGPT 驅動、協助 build and ship 的 coding agent [46]Anthropic 稱 Claude Code 是能讀 codebase、改檔、跑命令並整合開發工具的 agentic coding tool [15]ChatGPT 生態與任務分派選 Codex;本機 repo 互動選 Claude Code
使用入口Codex pricing 頁列出 Web、CLI、IDE extension、iOS [37]Claude Code 可在 terminal、IDE、desktop app、browser 使用 [15]兩者都不只是一個聊天視窗,差異在雲端協作 vs 本機開發節奏
本機 repo 操作官方方案列出 CLI 與 IDE extension [37]官方明確寫到讀 codebase、編輯檔案、執行命令 [15]長時間 debug、重構、跑測試,Claude Code 更貼近日常開發
VS Code 整合官方價格頁列出 IDE extension [37]VS Code extension 透過本機 MCP server 支援原生 diff、selection 與 Jupyter cells [22]VS Code 加 terminal 重度使用者,優先試 Claude Code
PR review官方列出 automatic code review;cookbook 提供 Codex SDK 加 GitHub Actions 的 PR review 範例 [37][35]Monitoring 文件列出 pull request、commit、cost、token 等 usage metrics [21]要快速把 AI 放進 PR 審查流程,Codex 的官方範例更直接
並行任務Windows Codex app 可平行執行多個 agents,使用 isolated worktrees,並產生可審查、可編輯、可丟棄或可轉成 PR 的 diffs [41]本次可引用文件重點在本機工具整合、MCP、subagents、skills、hooks 與 monitoring [15][17][18][19][20][21]多任務分派與 PR 分流,Codex 的官方描述更明確
客製化與內部工具有 Codex SDK 的 PR review workflow 範例 [35]有 Agent SDK、MCP、custom subagents、skills、hooks 與 monitoring 文件 [13][17][18][19][20][21]內部工具多、權限流程複雜,Claude Code 很有吸引力
價格資訊Plus 為 $20/month;Pro from $100/month,且可選比 Plus 高 5x 或 20x 的 rate limits [37]本次來源未提供可直接引用的 Claude Code 即時官方價格頁成本比較應以當下官方價格與真實任務用量測試為準

OpenAI Codex 適合什麼團隊?

Codex 的優勢在於它比較像一個圍繞 ChatGPT 生態、PR 流程與雲端協作設計的 coding agent 平台。OpenAI 的 Codex 頁面把它描述為 powered by ChatGPT 的 coding agent;pricing 頁則把 Web、CLI、IDE extension、iOS 都列為使用入口 [46][37]

PR review 與團隊協作比較容易落地

如果目標是讓 AI 進入 pull request 流程,Codex 的官方材料更完整。OpenAI cookbook 提供用 Codex SDK 建立 structured PR code review 的範例,並示範在 GitHub Actions job 中設定 pull request 權限、OPENAI_API_KEYGITHUB_TOKENPR_NUMBERBASE_SHAHEAD_SHA 等環境變數 [35]

Codex pricing 頁也把 automatic code review 與 Slack integration 列為 cloud-based integrations [37]。對已經用 PR queue、Slack 通知與 CI/CD 管理交付節奏的團隊來說,這些能力比單純在 IDE 裡多一個聊天側欄更接近實際工作流。

多介面與雲端並行任務是主軸

OpenAI Help Center 的 release notes 寫到,Codex app on Windows 可讓使用者平行執行多個 Codex agents,使用 isolated worktrees,並產生 reviewable diffs;這些 diffs 可以被編輯、丟棄或轉成 pull request [41]

這種模式適合把任務拆開:一個 agent 修 bug,一個補測試,一個更新文件,最後由人類統一看 diff 和 PR。若你的團隊已經習慣把工作切成 issue、PR、review 與 merge,Codex 的設計會比較順手。

Claude Code 適合什麼團隊?

Claude Code 的核心吸引力是它更貼近本機開發者的日常節奏。Anthropic 官方 overview 直接寫到,Claude Code 能讀 codebase、編輯檔案、執行命令,並整合開發工具 [15]。這對需要在大型既有專案裡追 bug、理解依賴、改多個檔案、跑測試再修正的工作特別重要。

Terminal-first 的本機互動感更強

如果你平常就是在 terminal 裡開 repo、查檔案、跑測試、看 git diff,Claude Code 的定位會比較貼近這種工作方式。它不是只回傳一段建議,而是被設計成能在開發環境裡讀程式碼、修改檔案與執行命令的 agentic coding tool [15]

VS Code 整合更深入

Claude Code 的 VS Code extension 啟用時會執行本機 MCP server,CLI 會自動連上它。官方文件說明,這讓 CLI 能在 VS Code 原生 diff viewer 中開啟 diff、讀取目前 selection 供 @ mentions 使用,並在 Jupyter notebook 中要求 VS Code 執行 cells [22]

這個差異很實際:對重度 VS Code 使用者來說,AI 不只是看你貼過去的片段,而是能更貼近你現在正在看的檔案、選取範圍與 diff。

MCP、subagents、skills、hooks 的擴充空間大

Claude Code 的 MCP 文件展示了透過 managed MCP 設定連接 GitHub、Sentry 與 company-internal server 的方式 [17]。Anthropic 也提供 custom subagents、skills、hooks、Agent SDK 與 monitoring usage 文件 [18][19][20][13][21]

如果公司有內部 API、私有部署流程、資料庫查詢、observability 系統或合規審計需求,這些擴充點會很有價值。不過,擴充能力越強,也越需要清楚設計 allowlist、權限邊界與審計流程;Claude Code 的 hooks 文件列出多種事件觸發點,MCP 文件也提到 allowlist 與 policy-based control 的設定方向 [20][17]

價格與用量:目前能可靠確認的是 Codex

就本次可引用來源而言,Codex 的官方價格資訊最清楚。Codex Plus 為 $20/month,包含 Codex on the web、CLI、IDE extension、iOS,以及 automatic code review、Slack integration 等 cloud-based integrations;Codex Pro from $100/month,並可選比 Plus 高 5x 或 20x 的 rate limits [37]

本次來源沒有提供可直接引用的 Claude Code 即時官方價格頁,因此不應用未核實的部落格、傳言或舊截圖硬填價格。若成本是採購關鍵,最可靠的方法是拿同一批真實任務試跑一週,記錄三件事:完成任務數、人工修正 diff 的比例,以及實際遇到的用量限制。

Benchmark 怎麼看:可以參考,但不要單一分數定勝負

公開 benchmark 能提供方向,但不同榜單的資料集、模型版本與評估方式可能不同。Vals AI 的 SWE-bench 頁面標示 updated 4/24/2026,列出 Claude Opus 4.7 為 82.00%,GPT 5.3 Codex 為 78.00% [28]。另一個 SWE-bench Verified 頁面則在 April 24, 2026 的榜單中列出 Claude Mythos Preview 93.9%、Claude Opus 4.7 Adaptive 87.6%、GPT-5.3 Codex 85% [31]

這些數字不是沒用,而是不能脫離情境解讀。真正影響你團隊效率的,通常是 agent 能不能讀懂你的 repo、跑你的測試、接上你的 PR 流程、符合你的權限設計,並產生人類 reviewer 願意接受的 diff。

導入前檢查清單

  1. 用同一個真實 issue 測兩套工具。 選需要讀多個檔案、修改邏輯、跑測試、補文件的任務,不要只用 toy problem。
  2. 要求產出可 review 的 diff。 Codex Windows app 的 release notes 明確提到 reviewable diffs 可被編輯、丟棄或轉成 PR;不管選哪套工具,這種人類可審查邊界都應該是基本要求 [41]
  3. 先定義工具權限。 Claude Code 可透過 MCP 連 GitHub、Sentry 與內部 server,也可用 hooks 在特定事件觸發流程;這些能力需要明確的 allowlist 與權限治理 [17][20]
  4. 把 PR、commit、token、cost 納入觀測。 Claude Code monitoring 文件列出 pull request、commit、cost usage、token usage 等 metrics;不論使用哪套工具,團隊都應用類似指標判斷 agent 是否真的省時間 [21]
  5. 比較端到端時間,不只比較單次回答品質。 對工程團隊來說,重要的是從 issue 到 merged PR 的總時間、review 負擔與返工率,而不是某一次回答看起來更漂亮。

最終選擇建議

  • 個人開發、本機重構、debug、跑測試:先試 Claude Code。 它的官方定位與 VS Code 整合更貼近日常 repo 內互動式開發 [15][22]
  • 團隊 PR review、Slack 協作、雲端任務與並行 agents:先試 OpenAI Codex。 Codex 的官方方案、cookbook 與 release notes 都更直接支援這些流程 [37][35][41]
  • 企業內部工具很多:優先評估 Claude Code。 MCP、subagents、skills、hooks 與 monitoring 讓它更適合連接私有工具與建立受控 agent 工作流 [17][18][19][20][21]
  • 已深度使用 ChatGPT 與 OpenAI 生態:Codex 的導入成本可能較低。 Codex 官方定位與方案入口都圍繞 ChatGPT、多介面與雲端整合設計 [46][37]

一句話總結:Claude Code 更像坐在你 terminal 裡一起改 repo 的 AI 工程師;OpenAI Codex 更像可在 ChatGPT、PR、Slack 與多介面中調度的 coding agent 平台。

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查證事實

重點整理

  • 如果主要在本機 repo 長時間 debug、重構、跑測試,先試 Claude Code;如果重點是 PR 自動審查、Slack、跨 Web/CLI/IDE/iOS 與並行雲端任務,先試 OpenAI Codex。Codex 官方價格為 Plus $20/month、Pro from $100/month;本次來源沒有可引用的 Claude Code 即時官方價格。
  • Claude Code 的官方文件明確寫到讀 codebase、改檔、執行命令與 VS Code/MCP 整合;Codex 官方資料則更完整覆蓋 PR review、Slack、多介面與 worktree 並行。
  • Benchmark 可以參考但不能一槌定音:2026 04 24 附近不同 SWE bench 榜單的模型、資料集與分數不同,實際選型仍應用自己的 repo 和 PR 流程試跑。

大家也會問

「OpenAI Codex vs Claude Code:本機開發、PR 自動化與選擇指南」的簡短答案是什麼?

如果主要在本機 repo 長時間 debug、重構、跑測試,先試 Claude Code;如果重點是 PR 自動審查、Slack、跨 Web/CLI/IDE/iOS 與並行雲端任務,先試 OpenAI Codex。Codex 官方價格為 Plus $20/month、Pro from $100/month;本次來源沒有可引用的 Claude Code 即時官方價格。

最值得優先驗證的重點是什麼?

如果主要在本機 repo 長時間 debug、重構、跑測試,先試 Claude Code;如果重點是 PR 自動審查、Slack、跨 Web/CLI/IDE/iOS 與並行雲端任務,先試 OpenAI Codex。Codex 官方價格為 Plus $20/month、Pro from $100/month;本次來源沒有可引用的 Claude Code 即時官方價格。 Claude Code 的官方文件明確寫到讀 codebase、改檔、執行命令與 VS Code/MCP 整合;Codex 官方資料則更完整覆蓋 PR review、Slack、多介面與 worktree 並行。

接下來在實務上該怎麼做?

Benchmark 可以參考但不能一槌定音:2026 04 24 附近不同 SWE bench 榜單的模型、資料集與分數不同,實際選型仍應用自己的 repo 和 PR 流程試跑。

下一步適合探索哪個相關主題?

繼續閱讀「Claude Security 公測版:Anthropic 的企業程式碼漏洞掃描工具」,從另一個角度查看更多引用來源。

開啟相關頁面

我應該拿這個和什麼比較?

將這個答案與「Grok 4.3 API 解讀:1M 上下文、低 token 價格,xAI 想搶下哪個入口?」交叉比對。

開啟相關頁面

繼續深入研究

研究對話

研究問題

OpenAI Codex 和 Claude Code 哪個比較好?請深入搜尋並比較各項功能。

Studio Global AI40 個來源

附引用的答案

如果你只選一個:多數「本機終端、深度重構、理解大型既有 codebase」情境我會選 Claude Code;如果你重視「雲端並行任務、PR code review、自動化、ChatGPT 生態與較完整多介面」則 OpenAI Codex 更適合。兩者都很強,真正差異不在「會不會寫 code」,而在工作流:Claude Code 偏本機互動式 agent,Codex 偏雲端/多介面/並行 agent。

快速結論

  • 選 Claude Code,如果你:

    • 常在 terminal 裡工作,想讓 AI 直接讀 repo、改檔、跑命令、修測試;Claude Code 官方定位就是能讀 codebase、編輯檔案、執行命令並整合開發工具的 agentic coding tool [3]
    • 需要 VS Code 深度連動;Claude Code 的 VS Code extension 會啟動本機 MCP server,讓 CLI 可開啟原生 diff、讀取選取內容、在 Jupyter notebook 執行 cells [10]
    • 想接企業內部工具;Claude Code 支援透過 MCP 連接外部工具與服務 [5]
    • 想自訂 subagents、skills、hooks、usage monitoring;Anthropic 官方文件列出 sub-agents、skills、hooks 與 monitoring 等功能頁 [6][7][8][9]
  • 選 OpenAI Codex,如果你:

    • 想同時在 Web、CLI、IDE extension、iOS 使用;OpenAI Codex pricing 頁面明列 Plus 可用 Codex on the web、CLI、IDE extension、iOS [13]
    • 想做雲端自動化 code review、Slack integration;OpenAI Codex pricing 頁面列出 cloud-based integrations,包括 automatic code review 與 Slack integration [13]
    • 想把 PR review 做進 GitHub Actions;OpenAI cookbook 有用 Codex SDK 建立 structured PR code review 的 GitHub Actions 範例 [11]
    • 想跑多個背景 agent;OpenAI release notes 說 Codex app on Windows 可在 isolated worktrees 中並行執行多個 Codex agents,並產生可審查的 diffs 或 PR [7]

功能比較

面向OpenAI CodexClaude Code我會怎麼選
主要工作流Web、CLI、IDE extension、iOS,加上雲端整合 [13]Terminal、IDE、desktop 等開發工具整合 [3]想跨裝置/雲端任務選 Codex;想本機 terminal 選 Claude
本機 repo 操作有 CLI 與 IDE extension [13]明確定位為讀 codebase、改檔、跑命令的 agent [3]本機深度改 repo:Claude 較自然
PR / code review官方有 Codex SDK + GitHub Actions PR review 範例 [11]文件有 pull_request、commit 等 usage metrics,但我找到的官方片段不如 Codex 明確主打 PR review workflow [9]PR 自動審查:Codex 較直接
IDE 整合官方定價頁列出 IDE extension [13]VS Code extension 透過本機 MCP server 連 CLI、diff、selection、Jupyter cells [10]VS Code 深度互動:Claude 較強
雲端並行Codex app 可並行跑多個 agents、隔離 worktrees、reviewable diffs [7]官方片段顯示偏本機工具整合與 subagents,但未看到同等「雲端並行 worktrees」官方描述 [3][6]多任務並行:Codex
自訂 agent有 Codex SDK 與 code review 範例 [11]有 Agent SDK、subagents、skills、hooks [1][6][7][8]可程式化/客製化:Claude 很強;GitHub review SDK:Codex 很方便
企業工具整合有 Slack 與 automatic code review 等雲端整合 [13]MCP 可連工具,並有 managed MCP 設定 [5]內部工具多:Claude;雲端協作多:Codex
價格入口OpenAI 顯示 Plus $20/month 可用 Codex 多介面與部分雲端整合 [13]這次搜尋沒有可靠抓到 Claude Code 的即時官方價格頁;Insufficient evidence價格需看你所在地與方案,即時查官網最準
Benchmark第三方資料有衝突:有來源稱 Claude Opus 4.7 在 SWE-bench Verified 87.6%,但 Vals AI 顯示 Claude Opus 4.7 為 82.00% 且更新於 2026-04-24 [5][6]同左不建議只看單一 benchmark,下方說明

Benchmark 與能力判讀

  • 我找到的 benchmark 資料並不完全一致;例如一個第三方比較文稱 Claude Opus 4.7 在 SWE-bench Verified 達 87.6%,但 Vals AI 的 SWE-bench 頁面顯示 Claude Opus 4.7 為 82.00%,且標示更新於 2026-04-24 [5][6]
  • 因為 benchmark 版本、模型版本、是否使用 agent harness、是否多次嘗試、是否包含工具調用都會影響結果,所以我不會用單一分數判定「誰比較會寫 code」。
  • 比較穩妥的判斷是:Claude Code 在本機長任務、重構、debug、理解大型 repo 的口碑與工具設計更貼近 terminal-first;Codex 在雲端任務分派、PR review、自動化與多介面使用上更完整 [3][7][10][11][13]

各自優勢

OpenAI Codex 的強項

  • 多介面覆蓋完整:Web、CLI、IDE extension、iOS 都在官方 Codex 方案描述中出現 [13]
  • 雲端整合明確:官方列出 automatic code review 與 Slack integration [13]
  • PR review 可落地:OpenAI 有用 Codex SDK 在 GitHub Actions 中做 structured code review 的 cookbook 範例 [11]
  • 並行 agent 工作流成熟:Codex app on Windows 支援多個 agents 並行、隔離 worktrees、reviewable diffs 與 PR 流程 [7]

Claude Code 的強項

  • 本機 agent 定位清楚:官方說 Claude Code 可讀 codebase、編輯檔案、執行命令並整合開發工具 [3]
  • VS Code 互動更深入:官方描述 extension 透過本機 MCP server 讓 CLI 開 diff、讀選取內容、操作 Jupyter cells [10]
  • 可擴充性強:官方文件涵蓋 Agent SDK、MCP、subagents、skills、hooks、monitoring 等 [1][5][6][7][8][9]
  • 適合大型專案長時間互動:Claude Code 的 terminal-first 工作流較適合「我在 repo 裡邊看邊改邊跑測試」的模式 [3][10]

各自缺點

  • Codex 的缺點:

    • 如果你的工作重心是本機 terminal 裡的連續 debug,Codex 的雲端/多介面優勢不一定比 Claude Code 的本機互動更順。
    • Codex 的雲端任務、code review、Slack 等能力可能受方案與用量限制影響;官方 pricing 頁面明示不同方案與 usage 相關內容 [13]
  • Claude Code 的缺點:

    • 如果你想要「開一堆雲端 agent 並行處理不同 worktrees」,這次搜尋到的官方 Claude Code 片段沒有像 Codex app 那樣明確描述此能力 [7]
    • 如果你主要需求是 PR 自動審查流水線,OpenAI 官方 cookbook 對 GitHub Actions PR review 的範例更直接 [11]
    • Claude Code 價格與方案我這次沒有取得足夠可靠的官方即時資訊;Insufficient evidence。

我的建議

  • 個人開發、重構、debug、跑測試:先用 Claude Code。
  • 團隊 PR review、自動化、雲端並行任務:先用 OpenAI Codex。
  • VS Code + terminal 重度使用者:Claude Code 優先。
  • 已經在 ChatGPT Plus/Team/Enterprise 生態裡:Codex 轉換成本較低,因為 Codex 官方方案已含 Web、CLI、IDE extension、iOS 與雲端整合 [13]
  • 企業內部工具很多、想接 MCP、做自訂 agent/skills/hooks:Claude Code 優先 [5][6][7][8]

如果你要我給一句話:Claude Code 更像「資深工程師坐在你 terminal 裡一起改 repo」;OpenAI Codex 更像「可在雲端、PR、IDE、ChatGPT 生態裡調度的 coding agent 平台」。

來源

  • [13] Agent SDK overview - Claude Code Docsdocs.anthropic.com

    async def main(): session id = None First query: capture the session ID async for message in query( prompt="Read the authentication module", options=ClaudeAgentOptions(allowed tools=["Read", "Glob"]), ): if isinstance(message, SystemMessage) and message.sub...

  • [15] Claude Code overview - Claude Code Docsdocs.anthropic.com

    light logo dark logo US Getting started Core concepts Use Claude Code Platforms and integrations Claude Code overview Claude Code is an agentic coding tool that reads your codebase, edits files, runs commands, and integrates with your development tools. Ava...

  • [17] Connect Claude Code to tools via MCPdocs.anthropic.com

    ​ Option 1: Exclusive control with managed-mcp.json managed-mcp.json /Library/Application Support/ClaudeCode/managed-mcp.json /etc/claude-code/managed-mcp.json C:\Program Files\ClaudeCode\managed-mcp.json /Library/... managed-mcp.json .mcp.json { "mcpServer...

  • [18] Create custom subagents - Claude Code Docsdocs.anthropic.com

    You are a database analyst with read-only access. Execute SELECT queries to answer questions about the data. When asked to analyze data: 1. Identify which tables contain the relevant data 2. Write efficient SELECT queries with appropriate filters 3. Present...

  • [19] Extend Claude with skills - Claude Code Docsdocs.anthropic.com

    .bar-label {{ width: 55px; font-size: 12px; color: aaa; }} .bar {{ height: 18px; border-radius: 3px; }} .bar-pct {{ margin-left: 8px; font-size: 12px; color: 666; }} .tree {{ list-style: none; padding-left: 20px; }} details {{ cursor: pointer; }} summary {{...

  • [20] Hooks reference - Claude Code Docsdocs.anthropic.com

    SubagentStart When a subagent is spawned SubagentStop When a subagent finishes TaskCreated When a task is being created via TaskCreate TaskCompleted When a task is being marked as completed Stop When Claude finishes responding StopFailure When the turn ends...

  • [21] Monitoring - Claude Code Docsdocs.anthropic.com

    claude code.session.count claude code.lines of code.count claude code.pull request.count claude code.commit.count claude code.cost.usage claude code.token.usage claude code.code edit tool.decision claude code.active time.total ​ Metric details ​ Session cou...

  • [22] Use Claude Code in VS Code - Claude Code Docsdocs.anthropic.com

    When the extension is active, it runs a local MCP server that the CLI connects to automatically. This is how the CLI opens diffs in VS Code’s native diff viewer, reads your current selection for @ -mentions, and — when you’re working in a Jupyter notebook —...

  • [28] SWE-bench - Vals AIvals.ai

    Benchmarks Models Comparison Model Guide App Reports News About Benchmarks Models Comparison Model Guide App Reports About Coding SWE-bench SWE-bench Updated: 4/24/2026 Solving production software engineering tasks Key Takeaways Claude Opus 4.7 leads with a...

  • [31] SWE-bench Verified Benchmark 2026: 35 LLM scores | BenchLM.aibenchlm.ai

    Core Rankings Specialized Use Cases Dashboards Directories Guides & Lists Tools Software Engineering Benchmark Verified (SWE-bench Verified) A curated, human-verified subset of SWE-bench that tests models on resolving real GitHub issues from popular open-so...

  • [35] Build Code Review with the Codex SDKdevelopers.openai.com

    jobs: codex-structured-review: name: Run Codex structured review runs-on: ubuntu-latest permissions: contents: read pull-requests: write env: OPENAI API KEY: ${{ secrets.OPENAI API KEY }} GITHUB TOKEN: ${{ github.token }} CODEX MODEL: ${{ vars.CODEX MODEL '...

  • [37] Codex Pricingdevelopers.openai.com

    $20/month Get Plus Codex on the web, in the CLI, in the IDE extension, and on iOS Cloud-based integrations like automatic code review and Slack integration The latest models, including GPT-5.5, GPT-5.4, and GPT-5.3-Codex GPT-5.4-mini for higher usage limits...

  • [41] ChatGPT — Release Notes - OpenAI Help Centerhelp.openai.com

    March 4, 2026 Codex app on Windows The Codex app is now available on Windows for ChatGPT plans that include Codex. The app gives users a Windows desktop surface for running multiple Codex agents in parallel, with isolated worktrees and reviewable diffs that...

  • [46] Codex | AI Coding Partner from OpenAIopenai.com

    Codex AI Coding Partner from OpenAI OpenAI Skip to main content Log inTry ChatGPT(opens in a new window) Research Products Business Developers Company Foundation(opens in a new window) Try ChatGPT(opens in a new window)Login OpenAI Codex A coding agent that...