studioglobal
熱門探索內容
報告已發布7 個來源

GPT-5.5 vs Claude Opus 4.7: Bukan Soal Satu Pemenang

Tidak ada pemenang tunggal: LLM Stats menyebut Claude Opus 4.7 unggul di 6 dari 10 benchmark yang sama sama dilaporkan, sedangkan GPT 5.5 unggul di 4; tetapi skornya banyak berupa laporan vendor pada high reasoning ti... Claude Opus 4.7 lebih kuat dalam sinyal publik untuk GPQA, Humanity’s Last Exam, SWE Bench Pro,...

18K0
GPT-5.5 與 Claude Opus 4.7 基準測試比較的抽象 AI 對照圖
GPT-5.5 vs Claude Opus 4.7 基準測試比較:沒有單一贏家AI 生成示意圖:本文比較 GPT-5.5 與 Claude Opus 4.7 的公開 benchmark、價格與選型訊號。
AI 提示詞

Create a landscape editorial hero image for this Studio Global article: GPT-5.5 vs Claude Opus 4.7 基準測試比較:沒有單一贏家. Article summary: 目前公開資料不支持宣布絕對勝負:LLM Stats 稱 Claude Opus 4.7 在 10 個共同回報 benchmark 中領先 6 項、GPT 5.5 領先 4 項,但分數多為 high reasoning tier 自報,BenchLM 也認為重疊資料不足。. Topic tags: ai, ai benchmarks, openai, anthropic, gpt 5 5. Reference image context from search candidates: Reference image 1: visual subject "# GPT-5.5 vs Claude Opus 4.7: Pricing, Speed, Benchmarks. I compared GPT-5.5 against Claude Opus 4.7 on every shared benchmark. Opus 4.7 leads on 6 of 10, GPT-5.5 on 4, with margin" source context "GPT-5.5 vs Claude Opus 4.7: Pricing, Speed, Benchmarks - LLM Stats" Reference image 2: visual subject "# Claude Opus 4.7 vs GPT 5.5: Full Comparison (April 2026). claude-opus-4-7-vs-gpt-5-5. Anthropic dropped Claude Opus 4.7 on April 16. Both with 1M token context windows. Both clai" source

openai.com

Perbandingan GPT-5.5 dan Claude Opus 4.7 paling aman dibaca sebagai peta kekuatan, bukan papan skor final. LLM Stats menyebut, dari 10 benchmark yang sama-sama dilaporkan kedua penyedia, Claude Opus 4.7 unggul di 6 dan GPT-5.5 di 4; namun skor itu sebagian besar dilaporkan sendiri oleh vendor pada high reasoning tier, sehingga trennya berguna tetapi metodologinya belum sepenuhnya setara.[3] BenchLM bahkan lebih hati-hati: datanya masih parsial dan cakupan benchmark yang tumpang tindih belum cukup untuk membuat perbandingan skor yang adil.[1]

Kesimpulan cepat

  • Untuk penalaran sulit, analisis finansial, perbaikan kode, atau tugas yang perlu ditelaah ketat, mulai uji dari Claude Opus 4.7. LLM Stats menempatkan GPQA, Humanity’s Last Exam, SWE-Bench Pro, MCP Atlas, dan FinanceAgent v1.1 sebagai area keunggulan Claude Opus 4.7.[3][14]
  • Untuk browsing, terminal, operasi OS, pemanggilan tools, atau workflow agen yang panjang, mulai uji dari GPT-5.5. LLM Stats menempatkan BrowseComp, CyberGym, OSWorld-Verified, dan Terminal-Bench 2.0 sebagai area keunggulan GPT-5.5.[3][14]
  • Dari sisi harga, Claude Opus 4.7 lebih murah untuk output token; dari sisi dokumentasi spesifikasi, GPT-5.5 lebih terlihat lengkap di dokumen OpenAI API. BenchLM mencatat harga input keduanya US$5 per 1 juta token, sementara output Claude Opus 4.7 US$25 dan GPT-5.5 US$30 per 1 juta token; halaman model OpenAI mencantumkan context window, output maksimum, latensi, dan dukungan tools GPT-5.5.[1][33]

Tabel ringkas: pilih berdasarkan pekerjaan, bukan gengsi model

AspekGPT-5.5Claude Opus 4.7Cara membacanya
Sinyal benchmark publikLLM Stats menyebut GPT-5.5 unggul di 4 dari 10 benchmark yang sama-sama dilaporkan.[3]LLM Stats menyebut Claude Opus 4.7 unggul di 6 dari 10 benchmark yang sama-sama dilaporkan.[3]Ada sinyal Claude sedikit lebih unggul secara agregat, tetapi bukan menang mutlak karena skor banyak berasal dari laporan vendor pada high reasoning tier.[3]
Area yang menonjolBrowseComp, CyberGym, OSWorld-Verified, Terminal-Bench 2.0.[14]Finance Agent, GPQA, Humanity’s Last Exam, MCP Atlas, SWE-Bench Pro.[14]Cocokkan model dengan jenis tugas. Jangan hanya melihat urutan umum di leaderboard.[3][14]
Harga APIInput US$5, output US$30 per 1 juta token.[1][33]Input US$5, output US$25 per 1 juta token.[1]Untuk beban kerja yang banyak menghasilkan output, harga daftar Claude lebih menarik.[1]
Context dan outputOpenAI mencantumkan context window 1 juta token dan output maksimum 128 ribu token.[33]BenchLM mencantumkan context window 1 juta token.[1]Keduanya tercatat punya context 1 juta token; sumber artikel ini hanya memberi angka output maksimum resmi untuk GPT-5.5.[1][33]
Tools dan latensiOpenAI mencantumkan Functions, Web search, File search, Computer use, serta latensi Fast.[33]BenchLM menandai speed dan latensi TTFT sebagai N/A.[1]Dengan data ini, tidak adil menyimpulkan Claude lebih cepat atau lebih lambat.[1][33]

Apa yang sebenarnya dikatakan benchmark

Pola yang muncul cukup jelas. LLM Stats mengelompokkan keunggulan Claude Opus 4.7 pada uji yang berat di penalaran dan review-grade tests, termasuk GPQA Diamond, Humanity’s Last Exam, SWE-Bench Pro, MCP Atlas, dan FinanceAgent v1.1.[3] Sebaliknya, keunggulan GPT-5.5 terkonsentrasi pada long-running tool-use tests seperti Terminal-Bench 2.0, BrowseComp, OSWorld-Verified, dan CyberGym.[3]

Artinya, pertanyaan paling penting bukan siapa model terbaik, melainkan pekerjaan apa yang akan Anda serahkan ke model tersebut. Jika produk Anda membutuhkan analisis kompleks, perbaikan kode yang sulit, atau penilaian yang harus ketat, sinyal publik saat ini lebih mengarah ke Claude Opus 4.7.[3][14] Jika produk Anda lebih bergantung pada browsing, terminal, operasi OS, dan rangkaian tindakan memakai tools, sinyal publik lebih mengarah ke GPT-5.5.[3][14]

Anthropic juga menyatakan dalam materi rilisnya bahwa Claude Opus 4.7, pada benchmark internal research-agent mereka, mencatat skor total tertinggi bersama di enam modul dengan nilai 0,715, dan pada modul General Finance naik dari 0,767 di Opus 4.6 menjadi 0,813.[18] Namun, ini adalah evaluasi internal Anthropic dan perbandingan dalam keluarga Claude, sehingga tidak bisa menggantikan uji publik langsung antara GPT-5.5 dan Claude Opus 4.7.[18]

Contoh angka: berguna sebagai arah, bukan vonis akhir

Webreactiva mencantumkan beberapa skor berikut sebagai contoh perbedaan area kekuatan. Angka-angka ini sebaiknya tetap dibaca bersama catatan dari BenchLM dan LLM Stats bahwa data publik belum sepenuhnya setara metodologinya.[1][3][4]

BenchmarkModel yang unggulContoh skor
Terminal-Bench 2.0GPT-5.5GPT-5.5 82,7%, Claude Opus 4.7 69,4%.[4]
OSWorld-VerifiedGPT-5.5GPT-5.5 78,7%, Claude Opus 4.7 78,0%.[4]
BrowseCompGPT-5.5GPT-5.5 84,4%, Claude Opus 4.7 79,3%.[4]
SWE-Bench ProClaude Opus 4.7Claude Opus 4.7 64,3%, GPT-5.5 58,6%.[4]
MCP AtlasClaude Opus 4.7Claude Opus 4.7 79,1%, GPT-5.5 75,3%.[4]

Pola ini sejalan dengan ringkasan LLM Stats: GPT-5.5 lebih terang di terminal, browsing, dan operasi OS; Claude Opus 4.7 lebih kuat di SWE, MCP, penalaran, dan finansial.[3][14] Tetapi karena skor publik ini bukan uji satu arena dengan metode identik, jangan memperlakukannya sebagai peringkat final untuk semua kasus pemakaian.[1][3]

Harga dan spesifikasi: murah di output belum tentu murah di produksi

BenchLM mencatat harga input kedua model sama, yaitu US$5 per 1 juta token. Perbedaannya ada di output: GPT-5.5 US$30 per 1 juta token, sedangkan Claude Opus 4.7 US$25 per 1 juta token.[1] LLM Stats juga menandai Claude Opus 4.7 sekitar 1,1x lebih murah per token.[14]

Di sisi GPT-5.5, halaman model OpenAI API mencantumkan model ID gpt-5.5, memosisikannya untuk coding and professional work, dan mencatat dukungan reasoning effort none, low, medium, high, serta xhigh. Halaman yang sama mencantumkan context window 1 juta token, output maksimum 128 ribu token, latensi Fast, serta dukungan Functions, Web search, File search, dan Computer use.[33]

Namun, harga per token bukan keseluruhan biaya produksi. Panduan GPT-5.5 dari OpenAI menyarankan workflow yang berat memakai tools atau berjalan lama untuk dibandingkan dengan model lain berdasarkan accuracy, token consumption, dan end-to-end latency.[32] Dalam praktiknya, biaya akhir akan dipengaruhi oleh jumlah token input-output, banyaknya langkah tools, kebutuhan retry, tingkat kegagalan, dan latensi dari awal sampai hasil akhir.[32]

Cara memilih sesuai workflow

Uji GPT-5.5 lebih dulu jika workflow Anda berbasis tools

GPT-5.5 layak masuk urutan awal pengujian jika aplikasi Anda menjalankan alur kerja panjang yang melibatkan browser, terminal, otomasi OS, atau computer-use. LLM Stats menempatkan keunggulan GPT-5.5 pada long-running tool-use tests, sementara dokumen OpenAI mencantumkan dukungan Functions, Web search, File search, dan Computer use.[3][33]

Contohnya bukan sekadar menjawab pertanyaan, tetapi menyelesaikan rangkaian tindakan: mencari informasi, membuka file, menjalankan perintah, membaca hasil, lalu menyesuaikan langkah berikutnya. Untuk pola seperti ini, benchmark yang menguji penggunaan tools lebih relevan daripada benchmark pengetahuan umum.

Uji Claude Opus 4.7 lebih dulu jika tugasnya berat di penalaran

Claude Opus 4.7 lebih layak diuji lebih dulu jika pekerjaan Anda menuntut penalaran mendalam, analisis finansial, perbaikan kode, atau hasil yang harus siap ditelaah. LLM Stats menempatkan GPQA, Humanity’s Last Exam, SWE-Bench Pro, MCP Atlas, dan FinanceAgent v1.1 sebagai area sinyal keunggulan Claude Opus 4.7.[3][14]

Jika biaya utama Anda datang dari output token yang besar, Claude Opus 4.7 juga punya keuntungan harga daftar: BenchLM mencatat output Claude Opus 4.7 US$25 per 1 juta token, lebih rendah daripada GPT-5.5 yang US$30 per 1 juta token.[1]

Cara paling aman: evaluasi ulang dengan tugas sendiri

Benchmark publik berguna untuk menyusun prioritas uji, bukan untuk langsung mengambil keputusan pembelian. Buatlah set evaluasi dari pekerjaan nyata Anda, lalu kunci prompt, data, izin tools, level reasoning, dan aturan penilaian. Catatan LLM Stats tentang skor self-reported pada high reasoning tier menjadi alasan mengapa variabel seperti ini perlu dikontrol.[3]

Dalam pengujian internal, bandingkan setidaknya tingkat keberhasilan, jenis kesalahan, konsumsi token, kebutuhan retry, dan end-to-end latency. OpenAI juga secara eksplisit menyarankan workflow yang berat memakai tools atau berjalan lama untuk dibenchmark terhadap model lain pada accuracy, token consumption, dan end-to-end latency.[32]

Keputusan akhir juga tidak harus memilih satu model saja. Jika evaluasi internal menunjukkan kekuatannya saling melengkapi, Anda bisa merutekan tugas penalaran, finansial, dan perbaikan kode sulit ke Claude Opus 4.7, sementara browsing, terminal, operasi OS, dan workflow tools yang panjang diarahkan ke GPT-5.5. Pendekatan routing seperti ini lebih sesuai dengan pola diferensiasi yang terlihat di benchmark publik.[3][14][32]

Putusan sementara

Kesimpulan paling aman saat ini: Claude Opus 4.7 menunjukkan sinyal agregat yang sedikit lebih kuat dalam rangkuman benchmark pihak ketiga, terutama untuk penalaran, finansial, dan tugas kode yang sulit. GPT-5.5 lebih menonjol untuk workflow agen yang panjang dan banyak memakai tools seperti browser, terminal, serta operasi OS.[1][3][14]

Jadi, jika Anda bekerja dengan GPQA, Humanity’s Last Exam, SWE-Bench Pro, MCP, atau analisis finansial, mulai pengujian dari Claude Opus 4.7. Jika Anda membangun agen yang harus browsing, menjalankan terminal, mengoperasikan OS, dan memanggil tools berkali-kali, mulai pengujian dari GPT-5.5. Untuk keputusan produksi, tetap kembalikan semuanya ke data Anda sendiri: akurasi, biaya token, latensi, dan hasil evaluasi privat.[3][14][32]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查證事實

重點整理

  • Tidak ada pemenang tunggal: LLM Stats menyebut Claude Opus 4.7 unggul di 6 dari 10 benchmark yang sama sama dilaporkan, sedangkan GPT 5.5 unggul di 4; tetapi skornya banyak berupa laporan vendor pada high reasoning ti...
  • Claude Opus 4.7 lebih kuat dalam sinyal publik untuk GPQA, Humanity’s Last Exam, SWE Bench Pro, MCP Atlas, dan finansial; GPT 5.5 lebih kuat untuk BrowseComp, CyberGym, OSWorld Verified, dan Terminal Bench 2.0.[3][14]
  • Harga input keduanya sama sama US$5 per 1 juta token; output Claude Opus 4.7 tercatat US$25 per 1 juta token, lebih murah daripada GPT 5.5 yang US$30.

大家也會問

「GPT-5.5 vs Claude Opus 4.7: Bukan Soal Satu Pemenang」的簡短答案是什麼?

Tidak ada pemenang tunggal: LLM Stats menyebut Claude Opus 4.7 unggul di 6 dari 10 benchmark yang sama sama dilaporkan, sedangkan GPT 5.5 unggul di 4; tetapi skornya banyak berupa laporan vendor pada high reasoning ti...

最值得優先驗證的重點是什麼?

Tidak ada pemenang tunggal: LLM Stats menyebut Claude Opus 4.7 unggul di 6 dari 10 benchmark yang sama sama dilaporkan, sedangkan GPT 5.5 unggul di 4; tetapi skornya banyak berupa laporan vendor pada high reasoning ti... Claude Opus 4.7 lebih kuat dalam sinyal publik untuk GPQA, Humanity’s Last Exam, SWE Bench Pro, MCP Atlas, dan finansial; GPT 5.5 lebih kuat untuk BrowseComp, CyberGym, OSWorld Verified, dan Terminal Bench 2.0.[3][14]

接下來在實務上該怎麼做?

Harga input keduanya sama sama US$5 per 1 juta token; output Claude Opus 4.7 tercatat US$25 per 1 juta token, lebih murah daripada GPT 5.5 yang US$30.

下一步適合探索哪個相關主題?

繼續閱讀「Claude Opus 4.7、GPT-5.5、DeepSeek V4、Kimi K2.6 基準比較:2026 年誰最值得信?」,從另一個角度查看更多引用來源。

開啟相關頁面

我應該拿這個和什麼比較?

將這個答案與「DeepSeek V4 工程解析:1M 上下文、MoE 與 API 遷移重點」交叉比對。

開啟相關頁面

繼續深入研究

研究對話

研究問題

研究並向我展示 GPT-5.5 與 Claude Opus 4.7 的基準測試比較。

Studio Global AI40 個來源

附引用的答案

目前可用證據不足以做出「權威、完整」的 GPT-5.5 與 Claude Opus 4.7 基準測試結論。有限的第三方資料顯示 Claude Opus 4.7 可能在整體基準表現上略佔優勢,但 BenchLM 同時標示兩者的完整 benchmark data 尚未就緒,因此應將此視為初步、未充分驗證的比較,而非定論。[5][6]

Key findings

  • 整體基準測試結論:Insufficient evidence. 可用資料中沒有官方 OpenAI 與 Anthropic 對 GPT-5.5、Claude Opus 4.7 的同場完整 benchmark 對照,也沒有足夠的逐項分數可驗證結論。[1][2][6]

  • 第三方 LLM Stats 的初步比較稱 Claude Opus 4.7 在 benchmark performance 上有「slight edge」,並稱 Claude Opus 4.7 每 token 成本約便宜 1.1 倍。[5]

  • BenchLM 的比較頁面更保守,明確表示 Claude Opus 4.7 與 GPT-5.5 的 benchmark data「coming soon」,且目前只有 partial data,因此不支持強結論。[6]

  • 價格與規格方面,OpenAI API 文件列出 GPT-5.5 的 Model ID 為 gpt-5.5,輸入價格為 $5 / MTok,輸出價格為 $30 / MTok,context window 為 1M,最大輸出為 128K tokens,並標示 latency 為 Fast。[2]

  • BenchLM 顯示的價格對照為 Claude Opus 4.7 約 $5 / $25,GPT-5.5 約 $5 / $30,兩者 context window 皆為 1M,但 speed 與 latency / TTFT 皆標示 N/A。[6]

  • GPT-5.5 的官方定位是「coding and professional work」的新一類模型,並支援 functions、web search、file search、computer use 等工具。[2]

  • OpenAI 文件建議在工具密集或長時間工作流程中,應針對 accuracy、token consumption、end-to-end latency 與其他模型做實測 benchmark,而不是只依賴靜態分數。[1]

  • Claude Opus 4.7 的部分表現存在負面訊號:一則 AI 開發者日報摘錄稱 Claude Opus 4.7 high reasoning 在 Thematic Generalization Benchmark 上低於 Opus 4.6 high reasoning,分數從 80.6 降到 72.8,但這不是 GPT-5.5 對 Claude Opus 4.7 的直接比較。[4]

  • Reddit 有貼文聲稱 GPT-5.5 在幻覺率與 AA IQ 上勝過 Claude Opus 4.7,但這是社群來源,證據強度明顯低於官方文件或可重現 benchmark,因此不應作為主要結論依據。[38]

Comparison table

面向GPT-5.5Claude Opus 4.7可支持的結論
整體 benchmark官方比較資料不足第三方稱略勝LLM Stats 稱 Claude Opus 4.7 略有 benchmark 優勢,但 BenchLM 表示完整資料尚未就緒。[5][6]
輸入價格$5 / MTok$5 / MTok兩者輸入價格在 BenchLM 摘錄中相同。[6]
輸出價格$30 / MTok$25 / MTokBenchLM 摘錄顯示 Claude Opus 4.7 輸出較便宜;LLM Stats 也稱 Claude Opus 4.7 每 token 約便宜 1.1 倍。[5][6]
Context window1M1MBenchLM 摘錄顯示兩者皆為 1M context window;OpenAI 文件也列出 GPT-5.5 context window 為 1M。[2][6]
Latency / speedOpenAI 標示 FastN/AGPT-5.5 在 OpenAI 模型頁標示 latency 為 Fast;BenchLM 對兩者 latency / TTFT 皆標示 N/A。[2][6]
工具支援Functions、Web search、File search、Computer use資料不足可確認 GPT-5.5 的工具支援;可用證據未提供 Claude Opus 4.7 的同等官方工具規格。[2]
可靠性結論需自行實測需自行實測OpenAI 文件建議依 accuracy、token consumption、end-to-end latency 進行實際 benchmark。[1]

Evidence notes

  • 最強的 GPT-5.5 規格證據來自 OpenAI API 文件,包含模型 ID、價格、context window、最大輸出、latency 與工具支援。[2]

  • 最直接的兩模型比較來自 LLM Stats 與 BenchLM,但兩者皆屬第三方資料;其中 BenchLM 明確表示 benchmark data 尚未完整,因此它反而削弱了「已有確定排名」的信心。[5][6]

  • 關於 Claude Opus 4.7 的 Thematic Generalization Benchmark 退步資訊,只能支持「Claude Opus 4.7 在某項測試相對 Opus 4.6 可能退步」這個有限觀察,不能直接推論 GPT-5.5 必然更強。[4]

Limitations / uncertainty

  • Insufficient evidence. 目前沒有可用的官方同場 benchmark 表格、完整 benchmark suite 分數、測試設定、樣本數、溫度設定或推理等級控制,因此不能嚴格判定 GPT-5.5 或 Claude Opus 4.7 誰在整體能力上勝出。[1][2][6]

  • 第三方結論彼此語氣不同:LLM Stats 給出 Claude Opus 4.7 略勝的判斷,而 BenchLM 則說資料尚未完整,因此較保守的結論是「Claude 可能略優,但證據不足」。[5][6]

  • Reddit 來源可作為社群訊號,但不適合作為基準測試比較的主要依據。[38]

Summary

在現有證據下,最合理的結論是:Claude Opus 4.7 可能在某些第三方 benchmark 彙總中略勝 GPT-5.5,且輸出 token 價格可能較低;GPT-5.5 則有官方確認的 1M context window、128K 最大輸出、Fast latency 標示與多工具支援。[2][5][6]

若要做採購或模型選型,不能只看目前這些摘錄;應依你的實際任務,對兩者做同題、同提示、同推理設定的 accuracy、成本、token consumption 與 end-to-end latency 測試。[1]

來源

  • [1] Claude Opus 4.7 vs GPT-5.5: AI Benchmark Comparison 2026benchlm.ai

    BlogAdvertise Search⌘K Search BenchLM Search models, benchmarks, rankings, comparisons, providers, and blog posts. @glevd $5 / $25 $5 / $30 Speed N/A N/A Latency (TTFT) N/A N/A Context Window 1M 1M Quick Verdict Benchmark data for Claude Opus 4.7 and GPT-5....

  • [3] GPT-5.5 vs Claude Opus 4.7: Pricing, Speed, Benchmarksllm-stats.com

    The Verdict On the 10 benchmarks both providers report, Opus 4.7 leads on 6 and GPT-5.5 leads on 4. The leads cluster by category, not by overall quality: Opus 4.7 is ahead on the reasoning-heavy and review-grade tests (GPQA Diamond, HLE with and without to...

  • [4] GPT-5.5 vs Claude Opus 4.7: quién gana en código, terminal y agenteswebreactiva.com

    Los benchmarks principales frente a Opus 4.7 ¶ GPT-5.5 lidera con claridad en Terminal-Bench 2.0 (82.7% vs 69.4% de Opus 4.7), OSWorld-Verified (78.7% vs 78.0%) y BrowseComp (84.4% vs 79.3%), pero Opus 4.7 mantiene ventaja en SWE-Bench Pro (64.3% vs 58.6%),...

  • [14] Claude Opus 4.7 vs GPT-5.5 Comparison - LLM Statsllm-stats.com

    LLM Stats Logo Make AI phone calls with one API call Model Comparison Claude Opus 4.7 vs GPT-5.5 Claude Opus 4.7 has a slight edge in benchmark performance. Claude Opus 4.7 is 1.1x cheaper per token. Anthropic OpenAI Performance Benchmarks Comparative analy...

  • [18] Introducing Claude Opus 4.7anthropic.com

    Image 7: logo Based on our internal research-agent benchmark, Claude Opus 4.7 has the strongest efficiency baseline we’ve seen for multi-step work. It tied for the top overall score across our six modules at 0.715 and delivered the most consistent long-cont...

  • [32] Using GPT-5.5 | OpenAI APIdevelopers.openai.com

    For tool-heavy or long-running workflows, verify that your application handles phase , preambles, and assistant-item replay correctly. Benchmark against other models on accuracy, token consumption, and end-to-end latency. [...] More efficient reasoning: GPT...

  • [33] Models | OpenAI APIdevelopers.openai.com

    GPT-5.5 New A new class of intelligence for coding and professional work. Model ID gpt-5.5 [Reasoning none low medium high xhigh Input price $5 / Input MTok Output price $30 / Output MTok Latency Fast Max output 128K tokens Context window 1M Tools Functions...