studioglobal
熱門探索內容
答案已發布14 個來源

OpenAI Codex vs Claude Code: pilih berdasarkan workflow, bukan sekadar benchmark

Untuk debug, refactor, dan menjalankan test di repo lokal, Claude Code terasa lebih natural karena memang dirancang membaca codebase, mengedit file, menjalankan command, dan terhubung ke tools developer [15]. Untuk pull request review, Slack, Web/CLI/IDE/iOS, serta tugas paralel dengan diff yang bisa direview, OpenA...

18K0
以分岔開發工作流呈現 OpenAI Codex 與 Claude Code 比較的概念圖
OpenAI Codex vs Claude Code:本機開發、PR 自動化與價格完整比較Codex 與 Claude Code 的差異,核心在雲端 PR 工作流與本機 repo 互動式開發。
AI 提示詞

Create a landscape editorial hero image for this Studio Global article: OpenAI Codex vs Claude Code:本機開發、PR 自動化與價格完整比較. Article summary: 本機 repo 長時間重構、debug、跑測試時,Claude Code 通常更順;PR 自動審查、Slack、跨 Web/CLI/IDE/iOS 與並行雲端任務則 OpenAI Codex 更直接。這是工作流選擇,不是單一 benchmark 能決定的勝負。. Topic tags: ai, coding agents, openai, codex, claude code. Reference image context from search candidates: Reference image 1: visual subject "# OpenAI Codex vs Claude Code for Sales Automation [2026]. Claude Code has been the go-to for AI-powered development. If you're building sales automation, which one should you use?" source context "OpenAI Codex vs Claude Code for Sales Automation [2026] | Blog | MarketBetter" Reference image 2: visual subject "Docs Blog Agent Skills Use Cases Open Source Compare Claude Code GUI Codex GUI. ai-coding developer-tools comparison guides. # Claude Code vs Codex vs OpenCode (2026). In" sourc

openai.com

OpenAI Codex dan Claude Code bukan lagi sekadar alat pelengkap kode otomatis. OpenAI memosisikan Codex sebagai coding agent bertenaga ChatGPT untuk membantu build and ship software [46]. Anthropic menyebut Claude Code sebagai agentic coding tool yang dapat membaca codebase, mengedit file, menjalankan command, dan terintegrasi dengan tools pengembangan [15].

Jadi pertanyaan yang lebih tepat bukan mana yang paling pintar menebak baris kode berikutnya, melainkan: mana yang paling pas dengan cara tim Anda bekerja?

Jawaban singkat: pilih dari alur kerja, bukan dari skor saja

Jika pekerjaan utama Anda ada di repo lokal, terminal, refactor panjang, dan debug berulang, mulai dari Claude Code. Dokumentasi resminya secara eksplisit menyebut kemampuan membaca codebase, mengedit file, menjalankan command, serta ketersediaan di terminal, IDE, desktop app, dan browser [15]. Integrasi VS Code-nya juga berjalan lewat local MCP server yang menghubungkan CLI dengan native diff viewer, selection yang sedang aktif, dan cell Jupyter notebook [22].

Jika fokus Anda adalah review pull request atau PR, Slack, banyak antarmuka, dan otomasi berbasis cloud, mulai dari OpenAI Codex. Halaman pricing Codex mencantumkan akses lewat Web, CLI, IDE extension, iOS, serta integrasi berbasis cloud seperti automatic code review dan Slack integration [37]. OpenAI juga menyediakan contoh GitHub Actions untuk membangun structured PR code review dengan Codex SDK [35].

Jika perusahaan Anda punya banyak tools internal dan butuh kontrol izin yang rapi, Claude Code layak diprioritaskan untuk evaluasi. Dokumentasi MCP Claude Code mencontohkan koneksi ke GitHub, Sentry, dan company-internal server; dokumentasi lain mencakup Agent SDK, custom subagents, skills, hooks, serta usage monitoring [17][13][18][19][20][21].

Tabel perbandingan cepat

Pertanyaan keputusanOpenAI CodexClaude CodePilihan yang lebih masuk akal
Posisi produkCoding agent bertenaga ChatGPT untuk membantu build and ship [46]Agentic coding tool yang membaca codebase, mengedit file, menjalankan command, dan terhubung ke tools developer [15]Pilih Codex untuk ekosistem ChatGPT dan workflow lintas antarmuka; pilih Claude Code untuk interaksi repo lokal
Pintu masuk penggunaanWeb, CLI, IDE extension, dan iOS tercantum di halaman pricing [37]Terminal, IDE, desktop app, dan browser [15]Keduanya bukan sekadar chat window; bedanya ada pada ritme cloud collaboration vs local development
Operasi repo lokalAda CLI dan IDE extension [37]Secara eksplisit dirancang membaca codebase, mengedit file, dan menjalankan command [15]Untuk debug lama, refactor, dan test lokal, Claude Code lebih dekat dengan rutinitas developer
Integrasi VS CodeHalaman pricing mencantumkan IDE extension [37]Extension menjalankan local MCP server untuk native diff viewer, current selection, dan Jupyter cells [22]Pengguna berat VS Code plus terminal sebaiknya mencoba Claude Code lebih dulu
PR reviewAda automatic code review; cookbook menyediakan contoh Codex SDK + GitHub Actions untuk PR review [37][35]Monitoring mencakup metrik pull request, commit, cost, dan token [21]Untuk memasukkan AI ke alur PR review dengan cepat, contoh resmi Codex lebih langsung
Tugas paralelCodex app di Windows dapat menjalankan beberapa agent secara paralel dengan isolated worktrees dan reviewable diffs [41]Sumber yang tersedia lebih menekankan integrasi lokal, MCP, subagents, skills, hooks, dan monitoring [15][17][18][19][20][21]Untuk membagi beberapa tugas sekaligus dan mengubah diff menjadi PR, Codex punya deskripsi resmi yang lebih jelas
Kustomisasi dan tools internalAda contoh workflow PR review dengan Codex SDK [35]Ada Agent SDK, MCP, custom subagents, skills, hooks, dan monitoring [13][17][18][19][20][21]Jika tools internal dan aturan izin kompleks, Claude Code sangat menarik untuk diuji
HargaPlus US$20 per bulan; Pro mulai US$100 per bulan dengan opsi limit 5× atau 20× lebih tinggi dari Plus [37]Sumber yang tersedia tidak menyediakan halaman harga resmi Claude Code yang bisa dikutip langsungBandingkan biaya memakai tugas nyata dan batas penggunaan aktual, bukan asumsi

Kapan OpenAI Codex lebih cocok?

Codex kuat ketika kebutuhan Anda bukan hanya menulis kode, tetapi mengatur pekerjaan coding di banyak tempat: ChatGPT, Web, CLI, IDE, iOS, PR review, dan Slack. OpenAI menyebut Codex sebagai coding agent bertenaga ChatGPT [46], sementara halaman pricing-nya memperlihatkan cakupan akses yang luas: Web, CLI, IDE extension, dan iOS [37].

PR review lebih mudah masuk ke workflow tim

Untuk tim engineering yang sudah bekerja dengan issue, pull request, CI/CD, dan notifikasi Slack, Codex punya jalur adopsi yang relatif jelas. OpenAI Cookbook menyediakan contoh structured PR code review menggunakan Codex SDK. Contoh itu menunjukkan konfigurasi GitHub Actions job dengan izin pull request, OPENAI_API_KEY, GITHUB_TOKEN, PR_NUMBER, BASE_SHA, HEAD_SHA, dan variabel lain yang dibutuhkan [35].

Halaman pricing Codex juga secara eksplisit mencantumkan automatic code review dan Slack integration sebagai cloud-based integrations [37]. Artinya, nilai utama Codex tidak hanya muncul saat Anda meminta saran kode di IDE, tetapi saat agent ikut masuk ke proses review dan koordinasi tim.

Tugas paralel dan diff yang bisa direview

Catatan rilis OpenAI menyebut Codex app di Windows dapat menjalankan beberapa Codex agents secara paralel, memakai isolated worktrees, dan menghasilkan reviewable diffs. Diff tersebut bisa diedit, dibuang, atau diubah menjadi pull request [41].

Model kerja seperti ini cocok untuk tim yang biasa memecah pekerjaan: satu agent memperbaiki bug, agent lain menambah test, agent lain memperbarui dokumentasi, lalu manusia melakukan review akhir pada diff dan PR. Jika ritme kerja Anda sudah berbasis issue, PR, review, dan merge, Codex terasa lebih seperti platform koordinasi agent.

Kapan Claude Code lebih cocok?

Claude Code menonjol saat Anda ingin AI benar-benar berada di lingkungan pengembangan lokal. Dokumentasi Anthropic menyebut Claude Code bisa membaca codebase, mengedit file, menjalankan command, dan berintegrasi dengan development tools [15]. Ini penting untuk pekerjaan yang tidak selesai hanya dengan satu prompt: memahami dependensi, melacak bug, mengubah banyak file, menjalankan test, lalu memperbaiki lagi.

Lebih natural untuk developer yang terminal-first

Jika keseharian Anda adalah membuka repo di terminal, mencari file, menjalankan test, membaca git diff, lalu mengulang proses itu berkali-kali, Claude Code terasa lebih dekat dengan pola kerja tersebut. Ia tidak hanya memberi potongan jawaban, tetapi dirancang sebagai agent yang bekerja di dalam lingkungan pengembangan: membaca kode, mengubah file, dan menjalankan command [15].

Integrasi VS Code lebih dalam

Saat extension Claude Code aktif di VS Code, ia menjalankan local MCP server yang otomatis dihubungi CLI. Menurut dokumentasi, mekanisme ini memungkinkan CLI membuka diff di native diff viewer VS Code, membaca selection yang sedang aktif untuk @ mentions, dan meminta VS Code mengeksekusi cell saat bekerja di Jupyter notebook [22].

Bagi pengguna VS Code, detail seperti ini terasa nyata. AI tidak hanya menganalisis potongan kode yang Anda salin ke chat, tetapi bisa lebih memahami file yang sedang Anda lihat, bagian yang sedang diseleksi, dan diff yang sedang Anda evaluasi.

Ruang ekspansi untuk tools internal

Claude Code juga kuat pada sisi extensibility. Dokumentasi MCP mencontohkan konfigurasi untuk menghubungkan Claude Code ke GitHub, Sentry, dan company-internal server [17]. Anthropic juga menyediakan dokumentasi untuk Agent SDK, custom subagents, skills, hooks, dan usage monitoring [13][18][19][20][21].

Ini berguna bagi organisasi yang punya API internal, proses deployment privat, query database, sistem observability, atau kebutuhan audit. Namun semakin besar akses agent, semakin penting pula desain izin. Dokumentasi MCP membahas arah kontrol berbasis allowlist dan policy, sementara hooks menyediakan event trigger untuk mengatur perilaku agent di titik-titik tertentu [17][20].

Harga: yang jelas dari sumber ini adalah Codex

Dalam sumber yang tersedia, informasi harga Codex paling konkret. Codex Plus tercantum US$20 per bulan dan mencakup Codex di web, CLI, IDE extension, iOS, serta integrasi berbasis cloud seperti automatic code review dan Slack integration. Codex Pro mulai US$100 per bulan, dengan opsi rate limit 5× atau 20× lebih tinggi dari Plus [37].

Sumber yang diberikan tidak memuat halaman harga resmi Claude Code yang bisa dikutip langsung. Karena itu, sebaiknya jangan mengisi perbandingan harga dengan tangkapan layar lama, rumor, atau ringkasan blog yang tidak terverifikasi. Jika biaya adalah faktor pembelian utama, cara paling aman adalah menjalankan uji coba pada tugas yang sama selama beberapa hari atau satu minggu, lalu mencatat tiga hal: jumlah tugas selesai, porsi diff yang masih harus diperbaiki manusia, dan batas penggunaan yang benar-benar terasa.

Benchmark: berguna, tapi jangan dijadikan hakim tunggal

Benchmark publik bisa memberi sinyal, tetapi tidak boleh dibaca seperti papan skor mutlak. Dataset, versi model, harness agent, dan metode evaluasi bisa berbeda. Halaman SWE-bench dari Vals AI yang ditandai updated 24 April 2026 mencantumkan Claude Opus 4.7 di 82,00% dan GPT 5.3 Codex di 78,00% [28]. Halaman SWE-bench Verified lain untuk 24 April 2026 mencantumkan Claude Mythos Preview 93,9%, Claude Opus 4.7 Adaptive 87,6%, dan GPT-5.3 Codex 85% [31].

Angka-angka itu tidak berarti tidak berguna. Namun untuk tim software, produktivitas nyata biasanya lebih dipengaruhi oleh hal-hal yang lebih membumi: apakah agent memahami struktur repo Anda, bisa menjalankan test yang relevan, cocok dengan aturan PR, menghormati batas izin, dan menghasilkan diff yang rela disetujui reviewer manusia.

Checklist sebelum memilih

  1. Uji dengan issue nyata yang sama. Jangan hanya memakai toy problem. Pilih tugas yang membutuhkan pembacaan beberapa file, perubahan logic, test, dan mungkin pembaruan dokumentasi.
  2. Minta hasil berupa diff yang bisa direview. Catatan rilis Codex app di Windows menyebut reviewable diffs yang bisa diedit, dibuang, atau dijadikan PR [41]. Prinsip ini sebaiknya berlaku untuk alat apa pun: manusia tetap harus punya batas review yang jelas.
  3. Tetapkan izin sebelum agent diberi akses. Claude Code dapat dihubungkan ke GitHub, Sentry, dan server internal lewat MCP; hooks juga bisa memicu proses pada event tertentu [17][20]. Semakin kuat integrasinya, semakin penting allowlist dan governance.
  4. Pantau PR, commit, token, dan cost. Dokumentasi monitoring Claude Code mencantumkan metrik seperti pull request, commit, cost usage, dan token usage [21]. Walau Anda memakai tool lain, metrik semacam ini tetap berguna untuk menilai apakah agent benar-benar menghemat waktu.
  5. Bandingkan waktu end-to-end, bukan jawaban sekali jadi. Ukur dari issue dibuka sampai PR merge: berapa lama pengerjaan, berapa berat review manusia, dan berapa sering harus rework.

Rekomendasi akhir

  • Untuk individual developer, repo lokal, refactor, debug, dan test: mulai dari Claude Code. Desain dan integrasi VS Code-nya lebih dekat dengan kerja interaktif di dalam repo [15][22].
  • Untuk tim yang ingin PR review, Slack, tugas paralel, dan workflow lintas antarmuka: mulai dari OpenAI Codex. Materi resmi OpenAI lebih langsung mendukung alur tersebut [37][35][41].
  • Untuk organisasi dengan banyak tools internal: evaluasi Claude Code lebih serius. MCP, subagents, skills, hooks, dan monitoring memberi ruang untuk membangun workflow agent yang terkontrol [17][18][19][20][21].
  • Untuk tim yang sudah dalam ekosistem ChatGPT dan OpenAI: Codex kemungkinan lebih mudah masuk karena posisinya memang dibangun di sekitar ChatGPT, multi-interface, dan integrasi cloud [46][37].

Ringkasnya: Claude Code terasa seperti AI engineer yang duduk di terminal Anda untuk ikut mengubah repo. OpenAI Codex lebih seperti platform coding agent yang bisa ditugaskan lewat ChatGPT, PR, Slack, dan berbagai antarmuka.

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查證事實

重點整理

  • Untuk debug, refactor, dan menjalankan test di repo lokal, Claude Code terasa lebih natural karena memang dirancang membaca codebase, mengedit file, menjalankan command, dan terhubung ke tools developer [15].
  • Untuk pull request review, Slack, Web/CLI/IDE/iOS, serta tugas paralel dengan diff yang bisa direview, OpenAI Codex lebih langsung didukung oleh materi resmi OpenAI [37][35][41].
  • Harga resmi yang bisa dikutip dari sumber ini paling jelas untuk Codex: Plus US$20 per bulan dan Pro mulai US$100 per bulan.

大家也會問

「OpenAI Codex vs Claude Code: pilih berdasarkan workflow, bukan sekadar benchmark」的簡短答案是什麼?

Untuk debug, refactor, dan menjalankan test di repo lokal, Claude Code terasa lebih natural karena memang dirancang membaca codebase, mengedit file, menjalankan command, dan terhubung ke tools developer [15].

最值得優先驗證的重點是什麼?

Untuk debug, refactor, dan menjalankan test di repo lokal, Claude Code terasa lebih natural karena memang dirancang membaca codebase, mengedit file, menjalankan command, dan terhubung ke tools developer [15]. Untuk pull request review, Slack, Web/CLI/IDE/iOS, serta tugas paralel dengan diff yang bisa direview, OpenAI Codex lebih langsung didukung oleh materi resmi OpenAI [37][35][41].

接下來在實務上該怎麼做?

Harga resmi yang bisa dikutip dari sumber ini paling jelas untuk Codex: Plus US$20 per bulan dan Pro mulai US$100 per bulan.

下一步適合探索哪個相關主題?

繼續閱讀「Claude Security 公測版:Anthropic 的企業程式碼漏洞掃描工具」,從另一個角度查看更多引用來源。

開啟相關頁面

我應該拿這個和什麼比較?

將這個答案與「Grok 4.3 API 解讀:1M 上下文、低 token 價格,xAI 想搶下哪個入口?」交叉比對。

開啟相關頁面

繼續深入研究

研究對話

研究問題

OpenAI Codex 和 Claude Code 哪個比較好?請深入搜尋並比較各項功能。

Studio Global AI40 個來源

附引用的答案

如果你只選一個:多數「本機終端、深度重構、理解大型既有 codebase」情境我會選 Claude Code;如果你重視「雲端並行任務、PR code review、自動化、ChatGPT 生態與較完整多介面」則 OpenAI Codex 更適合。兩者都很強,真正差異不在「會不會寫 code」,而在工作流:Claude Code 偏本機互動式 agent,Codex 偏雲端/多介面/並行 agent。

快速結論

  • 選 Claude Code,如果你:

    • 常在 terminal 裡工作,想讓 AI 直接讀 repo、改檔、跑命令、修測試;Claude Code 官方定位就是能讀 codebase、編輯檔案、執行命令並整合開發工具的 agentic coding tool [3]
    • 需要 VS Code 深度連動;Claude Code 的 VS Code extension 會啟動本機 MCP server,讓 CLI 可開啟原生 diff、讀取選取內容、在 Jupyter notebook 執行 cells [10]
    • 想接企業內部工具;Claude Code 支援透過 MCP 連接外部工具與服務 [5]
    • 想自訂 subagents、skills、hooks、usage monitoring;Anthropic 官方文件列出 sub-agents、skills、hooks 與 monitoring 等功能頁 [6][7][8][9]
  • 選 OpenAI Codex,如果你:

    • 想同時在 Web、CLI、IDE extension、iOS 使用;OpenAI Codex pricing 頁面明列 Plus 可用 Codex on the web、CLI、IDE extension、iOS [13]
    • 想做雲端自動化 code review、Slack integration;OpenAI Codex pricing 頁面列出 cloud-based integrations,包括 automatic code review 與 Slack integration [13]
    • 想把 PR review 做進 GitHub Actions;OpenAI cookbook 有用 Codex SDK 建立 structured PR code review 的 GitHub Actions 範例 [11]
    • 想跑多個背景 agent;OpenAI release notes 說 Codex app on Windows 可在 isolated worktrees 中並行執行多個 Codex agents,並產生可審查的 diffs 或 PR [7]

功能比較

面向OpenAI CodexClaude Code我會怎麼選
主要工作流Web、CLI、IDE extension、iOS,加上雲端整合 [13]Terminal、IDE、desktop 等開發工具整合 [3]想跨裝置/雲端任務選 Codex;想本機 terminal 選 Claude
本機 repo 操作有 CLI 與 IDE extension [13]明確定位為讀 codebase、改檔、跑命令的 agent [3]本機深度改 repo:Claude 較自然
PR / code review官方有 Codex SDK + GitHub Actions PR review 範例 [11]文件有 pull_request、commit 等 usage metrics,但我找到的官方片段不如 Codex 明確主打 PR review workflow [9]PR 自動審查:Codex 較直接
IDE 整合官方定價頁列出 IDE extension [13]VS Code extension 透過本機 MCP server 連 CLI、diff、selection、Jupyter cells [10]VS Code 深度互動:Claude 較強
雲端並行Codex app 可並行跑多個 agents、隔離 worktrees、reviewable diffs [7]官方片段顯示偏本機工具整合與 subagents,但未看到同等「雲端並行 worktrees」官方描述 [3][6]多任務並行:Codex
自訂 agent有 Codex SDK 與 code review 範例 [11]有 Agent SDK、subagents、skills、hooks [1][6][7][8]可程式化/客製化:Claude 很強;GitHub review SDK:Codex 很方便
企業工具整合有 Slack 與 automatic code review 等雲端整合 [13]MCP 可連工具,並有 managed MCP 設定 [5]內部工具多:Claude;雲端協作多:Codex
價格入口OpenAI 顯示 Plus $20/month 可用 Codex 多介面與部分雲端整合 [13]這次搜尋沒有可靠抓到 Claude Code 的即時官方價格頁;Insufficient evidence價格需看你所在地與方案,即時查官網最準
Benchmark第三方資料有衝突:有來源稱 Claude Opus 4.7 在 SWE-bench Verified 87.6%,但 Vals AI 顯示 Claude Opus 4.7 為 82.00% 且更新於 2026-04-24 [5][6]同左不建議只看單一 benchmark,下方說明

Benchmark 與能力判讀

  • 我找到的 benchmark 資料並不完全一致;例如一個第三方比較文稱 Claude Opus 4.7 在 SWE-bench Verified 達 87.6%,但 Vals AI 的 SWE-bench 頁面顯示 Claude Opus 4.7 為 82.00%,且標示更新於 2026-04-24 [5][6]
  • 因為 benchmark 版本、模型版本、是否使用 agent harness、是否多次嘗試、是否包含工具調用都會影響結果,所以我不會用單一分數判定「誰比較會寫 code」。
  • 比較穩妥的判斷是:Claude Code 在本機長任務、重構、debug、理解大型 repo 的口碑與工具設計更貼近 terminal-first;Codex 在雲端任務分派、PR review、自動化與多介面使用上更完整 [3][7][10][11][13]

各自優勢

OpenAI Codex 的強項

  • 多介面覆蓋完整:Web、CLI、IDE extension、iOS 都在官方 Codex 方案描述中出現 [13]
  • 雲端整合明確:官方列出 automatic code review 與 Slack integration [13]
  • PR review 可落地:OpenAI 有用 Codex SDK 在 GitHub Actions 中做 structured code review 的 cookbook 範例 [11]
  • 並行 agent 工作流成熟:Codex app on Windows 支援多個 agents 並行、隔離 worktrees、reviewable diffs 與 PR 流程 [7]

Claude Code 的強項

  • 本機 agent 定位清楚:官方說 Claude Code 可讀 codebase、編輯檔案、執行命令並整合開發工具 [3]
  • VS Code 互動更深入:官方描述 extension 透過本機 MCP server 讓 CLI 開 diff、讀選取內容、操作 Jupyter cells [10]
  • 可擴充性強:官方文件涵蓋 Agent SDK、MCP、subagents、skills、hooks、monitoring 等 [1][5][6][7][8][9]
  • 適合大型專案長時間互動:Claude Code 的 terminal-first 工作流較適合「我在 repo 裡邊看邊改邊跑測試」的模式 [3][10]

各自缺點

  • Codex 的缺點:

    • 如果你的工作重心是本機 terminal 裡的連續 debug,Codex 的雲端/多介面優勢不一定比 Claude Code 的本機互動更順。
    • Codex 的雲端任務、code review、Slack 等能力可能受方案與用量限制影響;官方 pricing 頁面明示不同方案與 usage 相關內容 [13]
  • Claude Code 的缺點:

    • 如果你想要「開一堆雲端 agent 並行處理不同 worktrees」,這次搜尋到的官方 Claude Code 片段沒有像 Codex app 那樣明確描述此能力 [7]
    • 如果你主要需求是 PR 自動審查流水線,OpenAI 官方 cookbook 對 GitHub Actions PR review 的範例更直接 [11]
    • Claude Code 價格與方案我這次沒有取得足夠可靠的官方即時資訊;Insufficient evidence。

我的建議

  • 個人開發、重構、debug、跑測試:先用 Claude Code。
  • 團隊 PR review、自動化、雲端並行任務:先用 OpenAI Codex。
  • VS Code + terminal 重度使用者:Claude Code 優先。
  • 已經在 ChatGPT Plus/Team/Enterprise 生態裡:Codex 轉換成本較低,因為 Codex 官方方案已含 Web、CLI、IDE extension、iOS 與雲端整合 [13]
  • 企業內部工具很多、想接 MCP、做自訂 agent/skills/hooks:Claude Code 優先 [5][6][7][8]

如果你要我給一句話:Claude Code 更像「資深工程師坐在你 terminal 裡一起改 repo」;OpenAI Codex 更像「可在雲端、PR、IDE、ChatGPT 生態裡調度的 coding agent 平台」。

來源

  • [13] Agent SDK overview - Claude Code Docsdocs.anthropic.com

    async def main(): session id = None First query: capture the session ID async for message in query( prompt="Read the authentication module", options=ClaudeAgentOptions(allowed tools=["Read", "Glob"]), ): if isinstance(message, SystemMessage) and message.sub...

  • [15] Claude Code overview - Claude Code Docsdocs.anthropic.com

    light logo dark logo US Getting started Core concepts Use Claude Code Platforms and integrations Claude Code overview Claude Code is an agentic coding tool that reads your codebase, edits files, runs commands, and integrates with your development tools. Ava...

  • [17] Connect Claude Code to tools via MCPdocs.anthropic.com

    ​ Option 1: Exclusive control with managed-mcp.json managed-mcp.json /Library/Application Support/ClaudeCode/managed-mcp.json /etc/claude-code/managed-mcp.json C:\Program Files\ClaudeCode\managed-mcp.json /Library/... managed-mcp.json .mcp.json { "mcpServer...

  • [18] Create custom subagents - Claude Code Docsdocs.anthropic.com

    You are a database analyst with read-only access. Execute SELECT queries to answer questions about the data. When asked to analyze data: 1. Identify which tables contain the relevant data 2. Write efficient SELECT queries with appropriate filters 3. Present...

  • [19] Extend Claude with skills - Claude Code Docsdocs.anthropic.com

    .bar-label {{ width: 55px; font-size: 12px; color: aaa; }} .bar {{ height: 18px; border-radius: 3px; }} .bar-pct {{ margin-left: 8px; font-size: 12px; color: 666; }} .tree {{ list-style: none; padding-left: 20px; }} details {{ cursor: pointer; }} summary {{...

  • [20] Hooks reference - Claude Code Docsdocs.anthropic.com

    SubagentStart When a subagent is spawned SubagentStop When a subagent finishes TaskCreated When a task is being created via TaskCreate TaskCompleted When a task is being marked as completed Stop When Claude finishes responding StopFailure When the turn ends...

  • [21] Monitoring - Claude Code Docsdocs.anthropic.com

    claude code.session.count claude code.lines of code.count claude code.pull request.count claude code.commit.count claude code.cost.usage claude code.token.usage claude code.code edit tool.decision claude code.active time.total ​ Metric details ​ Session cou...

  • [22] Use Claude Code in VS Code - Claude Code Docsdocs.anthropic.com

    When the extension is active, it runs a local MCP server that the CLI connects to automatically. This is how the CLI opens diffs in VS Code’s native diff viewer, reads your current selection for @ -mentions, and — when you’re working in a Jupyter notebook —...

  • [28] SWE-bench - Vals AIvals.ai

    Benchmarks Models Comparison Model Guide App Reports News About Benchmarks Models Comparison Model Guide App Reports About Coding SWE-bench SWE-bench Updated: 4/24/2026 Solving production software engineering tasks Key Takeaways Claude Opus 4.7 leads with a...

  • [31] SWE-bench Verified Benchmark 2026: 35 LLM scores | BenchLM.aibenchlm.ai

    Core Rankings Specialized Use Cases Dashboards Directories Guides & Lists Tools Software Engineering Benchmark Verified (SWE-bench Verified) A curated, human-verified subset of SWE-bench that tests models on resolving real GitHub issues from popular open-so...

  • [35] Build Code Review with the Codex SDKdevelopers.openai.com

    jobs: codex-structured-review: name: Run Codex structured review runs-on: ubuntu-latest permissions: contents: read pull-requests: write env: OPENAI API KEY: ${{ secrets.OPENAI API KEY }} GITHUB TOKEN: ${{ github.token }} CODEX MODEL: ${{ vars.CODEX MODEL '...

  • [37] Codex Pricingdevelopers.openai.com

    $20/month Get Plus Codex on the web, in the CLI, in the IDE extension, and on iOS Cloud-based integrations like automatic code review and Slack integration The latest models, including GPT-5.5, GPT-5.4, and GPT-5.3-Codex GPT-5.4-mini for higher usage limits...

  • [41] ChatGPT — Release Notes - OpenAI Help Centerhelp.openai.com

    March 4, 2026 Codex app on Windows The Codex app is now available on Windows for ChatGPT plans that include Codex. The app gives users a Windows desktop surface for running multiple Codex agents in parallel, with isolated worktrees and reviewable diffs that...

  • [46] Codex | AI Coding Partner from OpenAIopenai.com

    Codex AI Coding Partner from OpenAI OpenAI Skip to main content Log inTry ChatGPT(opens in a new window) Research Products Business Developers Company Foundation(opens in a new window) Try ChatGPT(opens in a new window)Login OpenAI Codex A coding agent that...