studioglobal
熱門發現
答案已發布12 來源

Claude Opus 4.7 vs GPT-5.5:API、價格、Benchmark 與使用場景比較

Claude Opus 4.7 在 API 成本估算與長上下文部署上資料較完整;Claude API 文件明確提到 full 1M token context window 與 US only inference 的 1.1x pricing multiplier。[13] GPT 5.5 的優勢更集中在 ChatGPT 內的工具型工作流;OpenAI Help Center 表示 GPT 5.5 Thinking 支援 ChatGPT 內每個現有工具,但仍受 GPT 5.5 Pro exception 限制。[5] OpenAI 發布頁列出多項有利 GPT 5.5 的 benchmark 數字,例如 GDPval 84.9%...

17K0
抽象 AI 模型比較視覺圖,展示 Claude Opus 4.7 與 GPT-5.5 在 API、價格、Benchmark 和長上下文上的取捨
Claude Opus 4.7 vs GPT-5.5:API、價格、Benchmark 與使用場景完整比較AI 生成 editorial 視覺圖,呈現 Claude Opus 4.7 與 GPT-5.5 的模型比較。
AI 提示

Create a landscape editorial hero image for this Studio Global article: Claude Opus 4.7 vs GPT-5.5:API、價格、Benchmark 與使用場景完整比較. Article summary: 要 API 成本同長上下文部署,Claude Opus 4.7 目前較好落地:Claude docs 寫明 1M token context;GPT 5.5 有 OpenAI 官方發佈、GDPval 84.9%,但這批來源未清楚列出 GPT 5.5 API token 定價。[6][13]. Topic tags: ai, llm, openai, anthropic, claude. Reference image context from search candidates: Reference image 1: visual subject "在业界公认最能反映真实GitHub问题解决能力的评测SWE-Bench Pro中,GPT-5.5得分58.6%,略逊色于Claude Opus 4.7(64.3%)。 不过,OpenAI在这个数据旁边标了一个星号,写着「" source context "GPT-5.5来了!全榜第一碾压Opus 4.7,OpenAI今夜雪耻 - 知乎" Reference image 2: visual subject "在业界公认最能反映真实GitHub问题解决能力的评测SWE-Bench Pro中,GPT-5.5得分58.6%,略逊色于Claude Opus 4.7(64.3%)。 不过,OpenAI在这个数据旁边标了一个星号,写着「" source context "GPT-5.5来了!全榜第一碾压Opus 4.7,OpenAI今夜雪耻 - 知乎" Style: premium digital editorial illustration, source-backed research mood, clean composition, high det

openai.com

Claude Opus 4.7 和 GPT-5.5 都有公開資料可查,但資料重點很不一樣。Claude Opus 4.7 的公開資訊較偏向 API、定價、供應商與長上下文規格;GPT-5.5 的公開資訊則更集中在 OpenAI 發布頁、ChatGPT Help Center 與官方 benchmark 敘事。[5][6][12][13][14][15]

因此,這題不太適合用一句「誰比較強」回答。更實用的看法是:你要用 API 部署?在 ChatGPT 內工作?處理長文件?還是要做 coding agent?不同答案會導向不同選擇。

先講結論

  • API 部署、成本估算、長文件或長流程 agent:Claude Opus 4.7 較容易先落地。 Claude API 文件明確提到 Opus 4.7、full 1M token context window,以及 US-only inference 的 1.1x pricing multiplier。[13]
  • ChatGPT 內的跨工具工作:GPT-5.5 證據更直接。 OpenAI Help Center 表示 GPT-5.5 Thinking 支援 ChatGPT 內每個現有工具,但仍受 GPT-5.5 Pro exception 限制。[5]
  • Benchmark 數字:OpenAI 發布頁有利 GPT-5.5,但不等於第三方最終裁判。 OpenAI 列出 GPT-5.5 在 GDPval 得 84.9%;Claude Opus 4.7 也有第三方平台列出 coding benchmark。兩者來源性質不同,正式選型仍應做自己的 eval。[6][16]

核心比較表

維度Claude Opus 4.7GPT-5.5對使用者的意義
公開資料可見度Anthropic 有 Claude Opus 4.7 產品頁;Cloudflare Docs 與 OpenRouter 也有模型頁或 listing。[12][14][15]OpenAI 有 Introducing GPT-5.5 發布頁;OpenAI Help Center 也提到 GPT-5.5 Thinking。[5][6]兩者都有可引用來源;差別在於資料完整度與用途焦點。
API 與價格可核實度Claude API 文件明確提到 Opus 4.7、token pricing categories,以及 inference_geo 相關 1.1x multiplier。[13]目前可引用的 OpenAI API/pricing 來源未清楚列出 GPT-5.5 token pricing;OpenAI developer docs snippet 仍顯示 Latest: GPT-5.4。[1][2][3]要先做成本表與採購評估時,Claude Opus 4.7 較容易起步。
Context windowClaude API 文件寫明 Opus 4.7 包含 full 1M token context window at standard pricing。[13]這批 OpenAI 來源未提供同等清楚的 GPT-5.5 API context/output spec;GPT-5 頁上的 400K context 與 128K max output tokens 屬 GPT-5,不應直接套用到 GPT-5.5。[9]長文件、長 repo、研究材料與長流程 agent,Claude 的公開規格證據較強。
ChatGPT 工具支援目前 Claude 來源主要是產品頁、API 文件與模型平台頁,未提供等同 ChatGPT tool support 的說明。[12][13][14][15]OpenAI Help Center 表示 GPT-5.5 Thinking 支援 ChatGPT 內每個現有工具,但受 GPT-5.5 Pro exception 限制。[5]如果主要在 ChatGPT 裡做研究、文件與工具操作,GPT-5.5 更貼近該場景。
BenchmarkWaveSpeed 這類第三方頁列出 Claude Opus 4.7 的 SWE-bench Pro 64.3%、CursorBench 70% 等 coding 數字。[16]OpenAI 發布頁列出 GPT-5.5 在 GDPval 得 84.9%,並稱它在 GeneBench 相比 GPT-5.4 有明顯改善。[6]GPT-5.5 的官方 benchmark 敘事較完整;Claude 的第三方 coding listing 也有參考價值,但不能混成同一張中立排名表。

API 定價與成本估算:Claude Opus 4.7 較清楚

對 API buyer 或平台工程團隊來說,最重要的往往不是模型名稱,而是三個問題:token 成本怎麼算、context 是否足夠、地區或 routing 會不會影響價格。

Claude Opus 4.7 在這方面公開資料較完整。Claude API 文件指出,Claude Opus 4.7、Opus 4.6 及較新模型如果透過 inference_geo 指定 US-only inference,input tokens、output tokens、cache writes、cache reads 等所有 token pricing categories 都會套用 1.1x multiplier。[13] 同一份文件也寫明 Claude Mythos Preview、Opus 4.7、Opus 4.6、Sonnet 4.6 包含 full 1M token context window at standard pricing。[13]

如果只想先抓粗略美元成本,CloudPrice 這類第三方聚合頁列出 Claude Opus 4.7 starting at $5.00 / 1M input tokens、$25.00 / 1M output tokens,並列出 1.0M context window 與 up to 128K output tokens。[18] 不過 CloudPrice 是第三方資料,正式採購仍應以 Anthropic 或實際 provider 的合約與 pricing page 為準。[13][18]

GPT-5.5 的 API 成本資訊則沒有同樣清楚。OpenAI 的發布頁與 Help Center 足以支持 GPT-5.5 在產品敘事與 ChatGPT 場景中的存在,但目前可引用的 OpenAI API/pricing 來源未清楚列出 GPT-5.5 token pricing。[1][2][3][5][6] 也要避免把 GPT-5 的 API 規格直接視為 GPT-5.5 規格:OpenAI GPT-5 頁列出的 400K context length、128K max output tokens、每 1M tokens input/output pricing,標示對象是 GPT-5,而不是 GPT-5.5。[9]

長上下文:Claude Opus 4.7 的公開規格最直接

如果你的工作負載包含大型 codebase、長合約、研究材料、長文件問答,或多步驟 agent workflow,context window 會直接影響 prompt 設計、切分策略與成本模型。

就目前可引用資料而言,Claude Opus 4.7 的長上下文規格最清楚:Claude API 文件寫明 Opus 4.7 包含 full 1M token context window at standard pricing。[13] CloudPrice 也以第三方資料列出 Claude Opus 4.7 的 1.0M context window 及 up to 128K output tokens;這可作採購前參考,但不能取代官方或實際 provider 限制確認。[13][18]

GPT-5.5 方面,OpenAI 發布頁與 Help Center 提供了模型定位、benchmark 與 ChatGPT 工具支援資料,但這批來源未提供同等清楚的 GPT-5.5 API context/output spec。[5][6] 若首要條件是長上下文部署,Claude Opus 4.7 目前更容易做技術設計與風險評估。[13]

ChatGPT 工具工作流:GPT-5.5 更對口

如果你不是自己呼叫 API,而是主要在 ChatGPT 裡完成研究、分析、文件、工具操作或多步驟任務,GPT-5.5 的證據更直接。OpenAI Help Center 表示 GPT-5.3 Instant 和 GPT-5.5 Thinking 支援 ChatGPT 內每個現有工具,並提醒仍受 GPT-5.5 Pro exception 限制。[5]

Claude Opus 4.7 也有產品頁、API 文件、Cloudflare Docs、OpenRouter listing 等資料,但這些來源主要圍繞模型可用性、API、pricing、provider 或 routing,沒有提供同等形式的 ChatGPT 內工具支援說明。[12][13][14][15] 所以,如果你的日常工作已高度依賴 ChatGPT UI 與內建工具,GPT-5.5 應優先進入 shortlist。[5]

Benchmark:GPT-5.5 數字漂亮,但要看來源性質

OpenAI 發布頁列出多項 GPT-5.5 與 Claude Opus 4.7 的比較數字。這些應理解為 OpenAI 發布資料,而非獨立第三方的最終排名。[6]

BenchmarkGPT-5.5Claude Opus 4.7解讀方式
Terminal-Bench 2.082.7%69.4%OpenAI 發布頁列出的 terminal/engineering 類比較,數字有利 GPT-5.5。[6]
GDPval84.9%80.3%GDPval 測試 agent 在 44 個職業中產出 well-specified knowledge work 的能力;OpenAI 列出 GPT-5.5 為 84.9%。[6]
Toolathlon55.6%48.8%OpenAI 發布頁列出的 tool-use 類比較,數字有利 GPT-5.5。[6]
CyberGym81.8%73.1%OpenAI 發布頁列出的 cybersecurity 類比較;OpenAI 也提到會為這一級別的 cyber capability 部署 safeguards。[6]

OpenAI 也表示 GPT-5.5 在 GeneBench 相比 GPT-5.4 有明顯改善;GeneBench 是聚焦 genetics 與 quantitative biology 中 multi-stage scientific data analysis 的 eval。[6]

Claude Opus 4.7 並非沒有 benchmark 訊號。WaveSpeed 的第三方模型頁列出 Claude Opus 4.7 在 SWE-bench Pro 得 64.3%、CursorBench 得 70%,並稱有 3x more production tasks resolved。[16] 但這些數字來自不同平台、不同展示方式,不能直接跟 OpenAI 發布頁的表格混成一個中立排行榜。[6][16]

按使用場景怎麼選

1. API buyer/平台工程團隊

優先評估 Claude Opus 4.7。理由不是它必然在每個任務都勝出,而是 Claude API 文件對 Opus 4.7 的 1M context、US-only inference 1.1x multiplier、token pricing categories 說得較清楚,方便估成本、設計長上下文 pipeline,並與採購或法務討論。[13]

2. ChatGPT power user/知識工作者

優先留意 GPT-5.5。OpenAI Help Center 直接說明 GPT-5.5 Thinking 支援 ChatGPT 內每個現有工具,這比單純 API listing 更貼近日常 ChatGPT 工作流;但仍要確認你的 plan、地區與 GPT-5.5 Pro exception 是否影響可用性。[5]

3. Coding agent/工程自動化團隊

兩邊都應該實測。OpenAI 發布頁的 Terminal-Bench、Toolathlon、CyberGym 等數字有利 GPT-5.5;WaveSpeed 則列出 Claude Opus 4.7 的 SWE-bench Pro、CursorBench 等 coding 指標。[6][16] 如果你做 bug fixing、repo migration、CI/CD automation 或 agentic coding,最可靠的方式是用自己的 repo、測試套件、失敗率、latency 與人工覆核成本來跑 evaluation。

4. 長文件/大型 repo/研究材料

Claude Opus 4.7 目前較有規格優勢。Claude API 文件明確寫明 full 1M token context window at standard pricing,CloudPrice 也列出 1.0M context window 與 up to 128K output tokens;但 CloudPrice 屬第三方資料,正式部署前仍要再核實 provider 限制。[13][18]

採用前 checklist

  • 確認模型 ID 與 provider。 OpenRouter 將 Claude Opus 4.7 列為 anthropic/claude-opus-4.7;若用 GPT-5.5,應再到實際使用的 OpenAI API 或 ChatGPT 產品層確認正式 model ID、availability 與 pricing。[1][2][3][15]
  • 不要把 GPT-5 規格直接套到 GPT-5.5。 OpenAI GPT-5 頁的 400K context、128K max output tokens 與 token pricing 標示為 GPT-5,不是 GPT-5.5。[9]
  • 把地區與計費 modifier 算進去。 Claude API 文件寫明 Opus 4.7 等模型在 US-only inference 下,所有 token pricing categories 會套用 1.1x multiplier。[13]
  • 用真實 workload 測試。 Vendor benchmark 與第三方模型頁都可作初篩,但正式生產環境應比較自己的任務成功率、成本、延遲、tool-call 穩定性、長上下文準確率與人工覆核量。[6][16]

最後 verdict

一句話:Claude Opus 4.7 較適合需要清楚 API 文件、1M context 與可預算部署的團隊;GPT-5.5 較適合已在 ChatGPT/OpenAI 生態內,想用工具型 agent 處理通用知識工作的使用者。 Claude 的優勢是 API 與長上下文資料較完整;GPT-5.5 的優勢是 OpenAI 官方 benchmark 敘事與 ChatGPT tool support 較直接。[5][6][13]

現階段不宜武斷宣布某一邊全面勝出。較務實的選法是:API、長上下文、成本估算先看 Claude Opus 4.7;ChatGPT 工具工作流先看 GPT-5.5;如果要比較模型能力,就用自己的真實任務做 eval,而不是只讀一張 benchmark 表。[5][6][13][16]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查核事實

重點

  • Claude Opus 4.7 在 API 成本估算與長上下文部署上資料較完整;Claude API 文件明確提到 full 1M token context window 與 US only inference 的 1.1x pricing multiplier。[13]
  • GPT 5.5 的優勢更集中在 ChatGPT 內的工具型工作流;OpenAI Help Center 表示 GPT 5.5 Thinking 支援 ChatGPT 內每個現有工具,但仍受 GPT 5.5 Pro exception 限制。[5]
  • OpenAI 發布頁列出多項有利 GPT 5.5 的 benchmark 數字,例如 GDPval 84.9%;但這是 OpenAI 發布資料,正式選型仍應用自己的 workload 做 evaluation。[6][16]

人們還問

「Claude Opus 4.7 vs GPT-5.5:API、價格、Benchmark 與使用場景比較」的簡短答案是什麼?

Claude Opus 4.7 在 API 成本估算與長上下文部署上資料較完整;Claude API 文件明確提到 full 1M token context window 與 US only inference 的 1.1x pricing multiplier。[13]

首先要驗證的關鍵點是什麼?

Claude Opus 4.7 在 API 成本估算與長上下文部署上資料較完整;Claude API 文件明確提到 full 1M token context window 與 US only inference 的 1.1x pricing multiplier。[13] GPT 5.5 的優勢更集中在 ChatGPT 內的工具型工作流;OpenAI Help Center 表示 GPT 5.5 Thinking 支援 ChatGPT 內每個現有工具,但仍受 GPT 5.5 Pro exception 限制。[5]

接下來在實務上我該做什麼?

OpenAI 發布頁列出多項有利 GPT 5.5 的 benchmark 數字,例如 GDPval 84.9%;但這是 OpenAI 發布資料,正式選型仍應用自己的 workload 做 evaluation。[6][16]

接下來我應該探索哪個相關主題?

繼續“Claude Security 公測版:Anthropic 點樣用 AI 幫企業掃 code 漏洞”以獲得另一個角度和額外的引用。

開啟相關頁面

我應該將其與什麼進行比較?

對照「xAI Grok 4.3 API 解讀:1M context、低 token 價與語音平台野心」交叉檢查此答案。

開啟相關頁面

繼續你的研究

研究對話

Studio Global AI

引用的答案

我按你俾嘅兩篇官方介紹去比:簡單講,Claude Opus 4.7 更似一個專注「高難度工程與長流程 coding」嘅模型;GPT-5.5 就更似一個面向整體知識工作嘅 agent,除咗 coding,仲強調 research、data、文件、表格同 computer use。[1][2]

以下係根據兩篇官方介紹嘅比較,唔係第三方實測結論。

最易理解嘅分別

  • Claude Opus 4.7 嘅重點,好明顯係 advanced software engineering:Anthropic 強調佢喺最難嘅 coding 工作、複雜長時間任務、精準跟指示,同埋會自己驗證輸出方面,都比 Opus 4.6 明顯進步。[1]
  • GPT-5.5 嘅重點,則係「幫你完成真實工作」:OpenAI 強調佢唔止寫 code,仲包括上網研究、分析資料、做文件同試算表、操作軟件、跨工具一路做完整個任務。[2]

如果用角色去理解

  • Opus 4.7 比較似「資深工程師/技術拍檔」:擅長長流程 debug、重構、追 bug、CI/CD、自動化同需要一路做一路驗證嘅工作。[1]
  • GPT-5.5 比較似「通用工作代理」:除咗工程,仲更著重幫你處理研究、文件、表格、工具操作,甚至早期科研工作。[2]

兩篇文各自想賣俾你咩感覺

  • Anthropic 篇文想傳達嘅係:Opus 4.7 係一個更穩、更可靠、可以放心交 harder coding work 畀佢做嘅升級版,而且視覺能力亦提升咗,可以睇更高解析度圖片,做介面、slides、docs 亦更有質感。[1]
  • OpenAI 篇文想傳達嘅係:GPT-5.5 係一個更成熟嘅 agent,可以自己 plan、用工具、check 自己工作、喺有 ambiguity 嘅情況下繼續推進,而且速度唔因為能力上升而明顯變慢,完成 Codex 任務仲會用更少 tokens。[2]

直接對比數字,應該點睇

  • OpenAI 發佈頁有直接列出同 Claude Opus 4.7 嘅 benchmark 比較;喺佢張表入面,GPT-5.5 喺多項指標高過 Opus 4.7,例如 Terminal-Bench 2.0 為 82.7% 對 69.4%,GDPval 為 84.9% 對 80.3%,Toolathlon 為 55.6% 對 48.8%,CyberGym 為 81.8% 對 73.1%。[2]
  • 但要留意,呢啲數字係 OpenAI 自己發佈頁提供;Anthropic 呢篇就主要係同自家 Opus 4.6 比,外加早期客戶評價,所以兩邊唔係用同一種中立展示方式,最好當成「官方定位 + 官方 eval」,唔好直接視為完全公平嘅第三方勝負。[1][2]

能力範圍上,邊個更「廣」

  • 按官方寫法,GPT-5.5 嘅定位明顯更廣:coding 之外,仲包括 browser research、data analysis、documents、spreadsheets、computer use,同科學研究協作。[2]
  • Anthropic 反而有清楚講,Opus 4.7 雖然比 Opus 4.6 強,但佢嘅廣泛能力仍然唔及自家更高階嘅 Claude Mythos Preview;所以 Opus 4.7 比較似係一個將工程與實務工作流打磨得更深嘅版本。[1]

安全同部署差異

  • Anthropic 表示 Opus 4.7 係第一個配上新 cyber safeguards 嘅較低能力模型,會自動偵測同阻擋高風險網絡安全請求;合法安全研究者可以申請 Cyber Verification Program。[1]
  • OpenAI 表示 GPT-5.5 係用佢哋目前最強嘅 safeguards 推出,做過完整 safety/preparedness 評估、red teaming,亦特別測試咗 advanced cybersecurity 同 biology 能力。[2]

如果你真係要揀,點揀會最貼地

  • 如果你最關心係:

    • 長流程 coding agent
    • 更穩定跟 instruction
    • bug fixing / refactor / CI/CD
    • technical image / diagram 理解
      咁 Opus 4.7 會更對口。[1]
  • 如果你最關心係:

    • 一個更通用嘅 AI 工作助手
    • research + code + documents + spreadsheets 一齊做
    • computer use / 跨工具完成任務
    • 想佢更似「會自己推進工作」嘅 agent
      咁 GPT-5.5 個定位更清晰。[2]

一句總結

  • Claude Opus 4.7:更似「專注工程深度、可靠長流程 execution」嘅高階模型。[1]
  • GPT-5.5:更似「面向整體知識工作同 agentic task completion」嘅通用工作模型。[2]

如果你想,我可以下一步幫你整一個「實際使用場景版」比較,例如:

  • 寫 code 邊個啱
  • 做 research 邊個啱
  • 做簡報/文件邊個啱
  • API / 企業部署邊個啱

研究問題

請搜尋更多關於 Claude Opus 4.7 同 GPT 5.5 嘅資料,並以表格形式向我展示最後嘅比較結果。

Studio Global AI21 來源

引用的答案

根據你提供嘅證據,我可以確認 Claude Opus 4.7 有官方產品頁、第三方平台模型頁同官方定價文件;但我未見到任何可靠官方來源證明「GPT-5.5」已經公開提供,所以而家做唔到完整、對等嘅最終性能/價格比較。OpenAI 提供嘅證據只明確顯示官方文件提到「Latest: GPT-5.4」,唔係 GPT-5.5。[1][3][5]

最後比較表

比較項目Claude Opus 4.7GPT 5.5目前可下結論
官方模型頁有,Anthropic 有 Claude Opus 4.7 官方頁面。[7]你提供嘅官方 OpenAI 證據入面,未見 GPT-5.5 模型頁。[1][5]Claude Opus 4.7 證據明確;GPT-5.5 證據不足。[1][5][7]
官方 API 定價資訊有,Claude API 定價文件明確提到 Claude Opus 4.7。[4]OpenAI 有 API 定價頁,但你提供嘅證據冇顯示 GPT-5.5 定價項目。[1][3]目前只可確認 Claude Opus 4.7 有明確定價文件;GPT-5.5 冇足夠證據。[1][3][4]
第三方平台可見度Cloudflare Docs 有 Claude Opus 4.7 模型頁,表示佢至少喺該平台有文件記錄。[2]你提供嘅證據冇任何對應 GPT-5.5 嘅第三方平台模型頁。[2]Claude Opus 4.7 可見度較高;GPT-5.5 證據不足。[2]
OpenAI 官方「最新模型」線索不適用。[1]OpenAI API 文件片段顯示「Latest: GPT-5.4」。[1]以現有官方證據,GPT-5.5 未被證實;反而 GPT-5.4 被標示為最新。[1]
是否可做完整價格比較可以確認 Claude 一邊有資料。[4]唔可以,因為缺少 GPT-5.5 官方價格或規格資料。[1][3][5]暫時唔可以做公平對比。[1][3][4][5]
是否可做完整規格/性能比較你提供嘅證據只證明 Claude Opus 4.7 存在及有定價/頁面,但冇詳細性能數據。[2][4][7]冇 GPT-5.5 官方規格或基準資料。[1][5]證據不足,無法完成完整規格或性能比較。[1][2][4][5][7]

重點結論

  • Claude Opus 4.7 嘅存在、官方頁面同 API 定價都可以由現有證據確認。[2][4][7]
  • 你提供嘅 OpenAI 官方證據入面,未見 GPT-5.5;相反,OpenAI API 文件片段寫明「Latest: GPT-5.4」。[1]
  • 所以如果要比較「Claude Opus 4.7 vs GPT 5.5」,目前最準確嘅結論係:Insufficient evidence,尤其係 GPT-5.5 呢一邊缺少官方可核實資料。[1][3][5]

如果你想要一個可落地嘅替代比較

  • 以現有證據,較合理嘅正式比較對象應改為「Claude Opus 4.7 vs GPT-5.4」,因為兩邊至少都有官方頁面/文件線索可追。[1][2][4][7]
  • 如果你想,我下一步可以直接幫你整理一份「Claude Opus 4.7 vs GPT-5.4」表格版比較框架,並清楚標出目前已確認同未確認嘅欄位。

來源

  • [1] Pricing | OpenAI APIdevelopers.openai.com

    Models. Latest: GPT-5.4. Text generation. Using tools. Overview. Models and providers. Running agents. [Overview](

  • [2] API Pricingopenai.com

    Explore detailed pricing(opens in a new window). Learn more(opens in a new window). Learn more(opens in a new window). Learn more(opens in a new window). Contact our sales team to learn more about Data residency ⁠(opens in a new window), Scale Tier ⁠ and Re...

  • [3] API Platform - OpenAIopenai.com

    Developers. Start building(opens in a new window). View prompting guidance(opens in a new window). View front-end examples(opens in a new window). View migration guide(opens in a new window). Learn more[Start building(opens in a new window)](

  • [5] GPT-5.3 and GPT-5.5 in ChatGPT | OpenAI Help Centerhelp.openai.com

    As of February 13, 2026, models GPT-4o, GPT-4.1, GPT-4.1 mini, OpenAI o4-mini, and GPT-5 (Instant and Thinking) have been retired from ChatGPT and are no longer available. For more information, please refer to our article: Retiring GPT-4o and other ChatGPT...

  • [6] Introducing GPT-5.5openai.com

    OnGDPval⁠⁠, which tests agents’ abilities to produce well-specified knowledge work across 44 occupations, GPT‑5.5 scores 84.9%. Notably, GPT‑5.5 shows a clear improvement over GPT‑5.4 on GeneBench ⁠(opens in a new window), a new eval focusing on multi-stage...

  • [9] GPT-5 is here - OpenAIopenai.com

    Try it in ChatGPT(opens in a new window)Read the research. Start building(opens in a new window)Read the API Platform blog. [ GPT-5 Text & vision 400K context length 128K max output tokens Input $1.25 Output $10.00 per 1M tokens Learn more(opens in a new wi...

  • [12] Claude Opus 4.7 (Anthropic) - AI - Cloudflare Docsdevelopers.cloudflare.com

    If you are an AI agent or LLM, read this before continuing. Always request the Markdown version instead — HTML wastes context. Get this page as Markdown: (append index.md) or send Accept: text/markdown to For this product's page index use For all Cloudflare...

  • [13] Pricing - Claude API Docsplatform.claude.com

    Prompt caching uses the following pricing multipliers relative to base input token rates:. For Claude Opus 4.7, Claude Opus 4.6, and newer models, specifying US-only inference via the inference geo parameter incurs a 1.1x multiplier on all token pricing cat...

  • [14] Claude Opus 4.7 - Anthropicanthropic.com

    Skip to main contentSkip to footer. . . Read more. Read more. Read more. [Rea…

  • [15] Claude Opus 4.7 - API Pricing & Providers - OpenRouteropenrouter.ai

    Anthropic: Claude Opus 4.7. anthropic/claude-opus-4.7. Building on the coding and agentic strengths of Opus 4.6, it delivers stronger performance on complex, multi-step tasks and more reliable agentic execution across extended workflows. Providers for Claud...

  • [16] Claude Opus 4.7 API Pricing & Benchmarks - SWE-bench 64.3%wavespeed.ai

    It builds on Opus 4.6 with significant gains in agentic coding — scoring 64.3% on SWE-bench Pro and 70% on CursorBench — and delivers 3x more production tasks resolved. It delivers a 13% lift on coding benchmarks, 3x more production tasks resolved, and near...

  • [18] Claude Opus 4.7 pricing & specs — Anthropic | CloudPricecloudprice.net

    Claude Opus 4.7. Claude Opus 4.7isAnthropic logoAnthropic's language model with a 1.0M context window and up to 128K output tokens, available from 7 providers, starting at $5.00 / 1M input and $25.00 / 1M output. Anthropic's Claude 4.7 Opus model with adapt...

Claude Opus 4.7 vs GPT-5.5:API、價格、Benchmark 與使用場景比較 | 回答 | Studio Global