studioglobal
熱門探索內容
報告已發布20 個來源

Claude Opus 4.7、GPT-5.5、DeepSeek V4、Kimi K2.6:2026 基準測試與決策結論

Claude Opus 4.7 目前是 coding 與代理式任務證據最紮實的選項:Anthropic 報告其內部 research agent benchmark 為 0.715,Vals AI 則列出 SWE bench 82.00% [16][17]。 GPT 5.5 在一般推理數字上非常強,O Mega 報告 MMLU 92.4%、GPQA Diamond 93.6%、ARC AGI 2 85.0%,但可引用資料多來自二手來源或彙整平台 [3]。

3.0K0
Comparativa de benchmarks 2026 entre Claude Opus 4.7, GPT-5.5, DeepSeek V4 y Kimi K2.6
Claude Opus 4.7 vs GPT-5.5 vs DeepSeek V4 vs Kimi K2.6: comparativa de benchmarks 2026Comparativa editorial de cuatro modelos frontier y emergentes según benchmarks públicos disponibles.
AI 提示詞

Create a landscape editorial hero image for this Studio Global article: Claude Opus 4.7 vs GPT-5.5 vs DeepSeek V4 vs Kimi K2.6: comparativa de benchmarks 2026. Article summary: La lectura más defendible es que Claude Opus 4.7 tiene la mejor evidencia pública: Vals AI lo sitúa en 82.00% en SWE bench, actualizado el 24/04/2026, y Anthropic reporta 0.715 en su benchmark interno de research agen.... Topic tags: ai, ai benchmarks, llm, claude, openai. Reference image context from search candidates: Reference image 1: visual subject "# DeepSeek V4 vs Claude vs GPT-5.5. Claude Opus 4.6 is no longer Anthropic's flagship — Opus 4.7 shipped on April 16, 2026, at the same $5/$25 price. If you're evaluating "best Ant" source context "DeepSeek V4 vs Claude vs GPT-5.5 - Verdent AI" Reference image 2: visual subject "[Kimi K2 vs Claude Opus 4.7 vs GPT 5.5 Comparison](https://www.youtube.com/watch?v=M90

openai.com

把 Claude Opus 4.7、GPT-5.5、DeepSeek V4 與 Kimi K2.6 直接排成一張總榜,看似乾脆,實際上風險很高。原因不在於這些模型不夠強,而是公開證據的厚度差很多:Claude Opus 4.7 同時有 Anthropic 官方資料與外部 SWE-bench 訊號;GPT-5.5 在推理測試上很亮眼,但主要出現在二手分析與彙整平台;DeepSeek V4/V4 Pro 的資料橫跨社群評測、聚合榜單與技術文章;Kimi K2.6 則還沒有足夠多的可比 benchmark 覆蓋。

先給結論:不要問誰全面第一,要問要拿來做什麼

模型最穩健的判讀證據可信度
Claude Opus 4.7目前公開資料中,coding、軟體代理與多步任務的證據最完整。Anthropic 報告內部 research-agent benchmark 為 0.715,Vals AI 在 SWE-bench 將其列為第一,分數 82.00% [16][17]高—中
GPT-5.5一般推理很強。O-Mega 報告 MMLU 92.4%、GPQA Diamond 93.6%、ARC-AGI-2 85.0%、ARC-AGI-1 95.0% [3]
DeepSeek V4 / V4 Procoding 與技術自主性有吸引力,但公開資料混用 V4、V4 Pro、V4 Pro High,不能把不同版本的分數直接相加 [25][27]中—低
Kimi K2.6有局部訊號,例如 LLM Stats 列出 GPQA 0.91,WhatLLM 將其放入 Quality Index 前十;但不足以做完整橫向比較 [7][21]

可比 benchmark 速查表

Benchmark 或指標Claude Opus 4.7GPT-5.5DeepSeek V4 / V4 ProKimi K2.6該怎麼解讀
SWE-benchVals AI 於 2026 年 4 月 24 日更新頁面,列出 82.00% [17]未找到可比數字NxCode 宣稱 DeepSeek V4 為 81% [26]未找到可比數字最乾淨的公開訊號偏向 Claude。
SWE-bench VerifiedVellum 報告 87.6%;LMCouncil 報告 83.5% ± 1.7 [20][9]未找到可比數字Hugging Face 社群討論列入 SWE-bench Verified 評測,但摘要未見可比數字 [25]未找到可比數字來源、設定與子集不同,分數不能硬湊。
SWE-bench ProVellum 報告 64.3% [20]未找到可比數字Hugging Face 社群討論列入 SWE-bench Pro,但摘要未見可比數字 [25]未找到可比數字更接近長時程軟體代理任務。
GPQA DiamondO-Mega、Vellum、TNW 均列出 94.2% [3][12][15]O-Mega 與 Vellum 列出 93.6% [3][12]社群評測套件有提到,但摘要未見可比數字 [25]LLM Stats 列出 0.91 [7]Claude 與 GPT-5.5 太接近,不能只靠 GPQA 判勝負。
MMLU未找到可比數字O-Mega 列出 92.4% [3]MMLU-Pro 出現在社群評測中,但摘要未見可比數字 [25]未找到可比數字MMLU 對頂尖模型的區分力已偏低。
ARC-AGI未找到可比數字O-Mega 列出 ARC-AGI-2 85.0%、ARC-AGI-1 95.0% [3]未找到可比數字未找到可比數字加強 GPT-5.5 的推理案例,但仍要看來源屬性。
Research-agent / 多步任務Anthropic 內部 benchmark 為 0.715 [16]未找到可比數字BenchLM 對 DeepSeek V4 Pro High 報告 Agentic 83.8/100 [27]未找到可比數字方向有參考價值,但不是同一把尺。
長上下文 / Needle-in-a-HaystackAnthropic 稱 Opus 4.7 在其測試模型中長上下文表現最穩定 [16]未找到可比數字NxCode 宣稱 100 萬 token 下為 97%,但也指出需獨立驗證 [26]未找到可比數字DeepSeek 的說法值得追蹤,但還不是定論。
LiveCodeBench / Codeforces未找到可比數字未找到可比數字Redreamality 報告 DeepSeek V4 的 LiveCodeBench 93.5、Codeforces 3206 [30]未找到可比數字對純 coding 是正面訊號,但不等於代理式軟體工程領先。

讀 benchmark 前,先避開三個陷阱

第一,SWE-bench、SWE-bench Verified、SWE-bench Pro 不是同一個東西。Vals AI 將 SWE-bench 描述為用來解決生產環境軟體工程任務的 benchmark [17];而 SWE-bench Pro 的論文則把它定位為更困難、面向長時程軟體工程任務的測試 [38]。所以,看到 SWE-bench Pro 分數較低,不一定代表模型退步,而可能是題目本來就更難。

第二,GPQA Diamond 與 MMLU 都要小心解讀。TNW 指出,在 GPQA Diamond 上,Opus 4.7、GPT-5.4 Pro、Gemini 3.1 Pro 等 frontier 模型已經非常接近,差距落在測量雜訊範圍內 [15]。MMLU 更需要降權看待:Nanonets 指出,2026 年頂尖模型已普遍超過 88%,這個 benchmark 已很難細分領先群 [1]

第三,分數的來源很重要。官方模型文章、獨立 leaderboard、彙整網站、社群討論與技術部落格,不該被視為同等證據。BenchLM 甚至指出,Claude Opus 4.7 的資料頁雖然已被追蹤,但因為還缺乏足夠非生成的公開 benchmark 覆蓋,所以暫時排除在公開 leaderboard 之外 [14]。這類註記比單一高分更值得看。

Claude Opus 4.7:coding 與代理式任務的證據最紮實

Claude Opus 4.7 是這四款模型中,公開證據最完整的一個。Anthropic 表示,Opus 4.7 在其內部 research-agent benchmark 六個模組中並列總分最高,分數為 0.715,並且在其測試模型中交出最一致的長上下文表現 [16]。這是官方內部測試,不能直接等同第三方獨立 benchmark,但它清楚說明 Anthropic 對 Opus 4.7 的定位:多步工作、長上下文與代理式任務。

外部訊號最明確的是 SWE-bench。Vals AI 在 2026 年 4 月 24 日更新的 SWE-bench 頁面中,將 Claude Opus 4.7 列為第一,分數為 82.00% [17]。Vellum 則報告 Opus 4.7 在 SWE-bench Verified 為 87.6%、SWE-bench Pro 為 64.3% [20]。LMCouncil 也列出 Claude Opus 4.7 在 SWE-bench Verified 為 83.5% ± 1.7 [9]

正確讀法不是挑一個最高分當真理,而是承認 Claude 在多個軟體工程評測中都站在高位或領先區間,同時標明不同 benchmark、不同日期與不同方法可能造成差異 [17][20][38]

在科學推理方面,Claude Opus 4.7 在 O-Mega、Vellum 與 TNW 的 GPQA Diamond 數字都是 94.2% [3][12][15]。不過,這項優勢不宜過度放大,因為 TNW 已提醒 frontier 模型在 GPQA Diamond 上差距很小,這個 benchmark 不足以單獨決定總冠軍 [15]

GPT-5.5:推理分數很強,但官方可追溯性較弱

GPT-5.5 的強項在一般推理。O-Mega 報告 GPT-5.5 在 MMLU 為 92.4%、GPQA Diamond 為 93.6%、ARC-AGI-2 為 85.0%、ARC-AGI-1 為 95.0% [3]。Vellum 也列出 GPT-5.5 在 GPQA Diamond 為 93.6%,在該表中低於 Claude Opus 4.7 的 94.2% [12]。BenchLM 則把 GPT-5.5 放在高階模型行列:暫定 leaderboard 總分 89/100、112 個模型中排名第 5,並在 verified leaderboard 的 16 個模型中排名第 2 [6]

主要保留點是可追溯性。這次可引用資料中,GPT-5.5 的數字主要來自文章、彙整頁與 leaderboard,而沒有找到一份能與 Anthropic Opus 4.7 官方材料等量齊觀的 OpenAI 官方 benchmark card。Appwrite 稱 GPT-5.5 於 2026 年 4 月 23 日推出,Vals AI 也列出 openai/gpt-5.5 的 release date 為 2026 年 4 月 23 日,並給出 Vals Index accuracy 67.76% ± 1.79;但這些資料仍不能取代官方完整 benchmark 說明 [2][11]

因此,若要放進簡報,GPT-5.5 應該被定位為推理能力的一線競爭者,特別是 GPQA 與 ARC-AGI 數字很強;但若決策標準是公開證據同質、可追溯且可驗證,就不宜直接宣布它是整體勝者 [3][6][12]

DeepSeek V4 / V4 Pro:值得測,但版本混用要特別小心

DeepSeek 的最大問題不是沒有亮點,而是版本標籤太容易混在一起。可引用資料裡同時出現 DeepSeek V4、DeepSeek V4 Pro、DeepSeek V4 Pro High;把其中一個版本的分數直接套到另一個版本,會讓比較失真 [25][26][27]

Hugging Face 上有 DeepSeek-V4-Pro 的社群討論,列入 GPQA、GSM8K、HLE、MMLU-Pro、SWE-bench Pro、SWE-bench Verified、Terminal-Bench 2.0 等評測項目 [25]。BenchLM 則對 DeepSeek V4 Pro High 報告 Agentic 83.8/100、Coding 88.8/100、Knowledge 72.1/100 [27]。NxCode 宣稱 DeepSeek V4 在 SWE-bench 達 81%,並在 100 萬 token Needle-in-a-Haystack 測試達 97%,但該來源也提醒,97% 這個長上下文數字需要獨立測試支持才更有說服力 [26]

Redreamality 提供另一個正面訊號:DeepSeek V4 在純 coding 指標上,LiveCodeBench 為 93.5、Codeforces 為 3206 [30]。但同一來源也總結,若是 SWE-bench Pro、Terminal-Bench 2.0 這類長時程代理式工作,封閉 frontier 模型仍然領先 [30]

實務上,DeepSeek V4/V4 Pro 很適合被放進內部 proof of concept,尤其是團隊重視技術控制、開放權重生態、本地部署或成本結構時。但就目前公開證據而言,它還沒有達到 Claude 在 SWE-bench 與官方多步任務資料上的同等穩固程度 [16][17][25][27]

Kimi K2.6:有訊號,但還不是完整比較對象

Kimi K2.6 不應被完全排除,但也不能被包裝成已經有同等資料覆蓋。LLM Stats 將 Kimi K2.6 列為 GPQA 0.91,WhatLLM 則把它放進 Quality Index 前十 [7][21]。這代表它確實出現在部分榜單中,但不足以與 Claude Opus 4.7、GPT-5.5、DeepSeek V4/V4 Pro 做全面 benchmark 對照。

還有一個常見錯誤:用 Kimi K2.5 的成績替代 Kimi K2.6。Simon Willison 在 2026 年 2 月整理 SWE-bench Verified 更新時,提到的是 Kimi K2.5,而不是 Kimi K2.6 [8]。對嚴謹比較來說,這兩者不能互換。因此 Kimi K2.6 目前最合適的標籤是:資料不足,等待更多可比 benchmark。

依使用場景排序,會比總排名更有用

使用場景建議模型信心理由
解真實 issue、coding agentClaude Opus 4.7高—中Vals AI 將其列為 SWE-bench 第一,分數 82.00%;Vellum 也顯示其在 SWE-bench Verified 與 SWE-bench Pro 表現強 [17][20]
多步 research-agent 工作Claude Opus 4.7Anthropic 報告內部 benchmark 為 0.715,並稱其長上下文表現最一致 [16]
GPQA 類科學推理Claude Opus 4.7 或 GPT-5.5Claude 為 94.2%,GPT-5.5 為 93.6%;差距很小,且 GPQA 對 frontier 模型已相當擁擠 [3][12][15]
廣義推理能力GPT-5.5中—低MMLU、GPQA、ARC-AGI 數字很強,但主要來自 O-Mega、Vellum、BenchLM 等第三方或彙整來源 [3][6][12]
開放、本地或高技術控制探索DeepSeek V4 / V4 Pro中—低Hugging Face、BenchLM、NxCode、Redreamality 都有訊號,但版本混用且仍需內部驗證 [25][26][27][30]
完整量化排名暫不把 Kimi K2.6 當已驗證可比模型目前只有 GPQA 0.91、Quality Index 前十等局部資料,缺多 benchmark 覆蓋 [7][21]

若要做成決策簡報,建議這樣講

最穩的簡報方式,是把性能與證據品質分開。第一頁放使用場景建議;第二頁放 benchmark 數字;第三頁專門放限制與方法論。這樣可以避免一張排行榜造成錯誤安全感。

核心訊息可以很簡潔:Claude Opus 4.7 是 coding 與代理式任務中公開證據最充分的領先者;GPT-5.5 是一般推理上最強的競爭者之一;DeepSeek V4/V4 Pro 是值得內測的技術型替代方案;Kimi K2.6 則仍缺可比資料。

方法論註記至少要寫三點。第一,不要把 SWE-bench、SWE-bench Verified、SWE-bench Pro 當成同一項測試,因為 SWE-bench Pro 被設計為更困難的長時程軟體工程 benchmark [38]。第二,不要把 MMLU 當主要決策依據,因為頂尖模型已經在 88% 以上擠成一團 [1]。第三,每個數字都要標示來源類型:官方、leaderboard、彙整平台、社群評測或單方 claim。

最終判斷

如果目標是做一份證據站得住腳的 2026 模型比較,Claude Opus 4.7 應排在 coding 與代理式任務第一順位,因為它同時有 Anthropic 官方訊號、Vals AI SWE-bench 領先資料,以及 Vellum 對 SWE-bench Verified、SWE-bench Pro 的強勢數字 [16][17][20]

GPT-5.5 應被視為推理能力的一線對手,尤其是 GPQA 與 ARC-AGI 數字亮眼;但目前可引用資料多為二手或彙整來源,結論要加上這層保留 [3][6][12]。DeepSeek V4/V4 Pro 值得內部測試,不宜直接宣布領先 [25][26][27][30]。Kimi K2.6 則暫時只能列為資料不足,等待更多跨 benchmark 的可比證據 [7][21]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查證事實

重點整理

  • Claude Opus 4.7 目前是 coding 與代理式任務證據最紮實的選項:Anthropic 報告其內部 research agent benchmark 為 0.715,Vals AI 則列出 SWE bench 82.00% [16][17]。
  • GPT 5.5 在一般推理數字上非常強,O Mega 報告 MMLU 92.4%、GPQA Diamond 93.6%、ARC AGI 2 85.0%,但可引用資料多來自二手來源或彙整平台 [3]。
  • DeepSeek V4/V4 Pro 有 coding 與長上下文亮點,但來源混用 V4、V4 Pro、V4 Pro High;Kimi K2.6 則只有 GPQA 0.91 與 Quality Index 前十等局部訊號 [7][21][25][27]。

大家也會問

「Claude Opus 4.7、GPT-5.5、DeepSeek V4、Kimi K2.6:2026 基準測試與決策結論」的簡短答案是什麼?

Claude Opus 4.7 目前是 coding 與代理式任務證據最紮實的選項:Anthropic 報告其內部 research agent benchmark 為 0.715,Vals AI 則列出 SWE bench 82.00% [16][17]。

最值得優先驗證的重點是什麼?

Claude Opus 4.7 目前是 coding 與代理式任務證據最紮實的選項:Anthropic 報告其內部 research agent benchmark 為 0.715,Vals AI 則列出 SWE bench 82.00% [16][17]。 GPT 5.5 在一般推理數字上非常強,O Mega 報告 MMLU 92.4%、GPQA Diamond 93.6%、ARC AGI 2 85.0%,但可引用資料多來自二手來源或彙整平台 [3]。

接下來在實務上該怎麼做?

DeepSeek V4/V4 Pro 有 coding 與長上下文亮點,但來源混用 V4、V4 Pro、V4 Pro High;Kimi K2.6 則只有 GPQA 0.91 與 Quality Index 前十等局部訊號 [7][21][25][27]。

下一步適合探索哪個相關主題?

繼續閱讀「DeepSeek V4 工程解析:1M 上下文、MoE 與 API 遷移重點」,從另一個角度查看更多引用來源。

開啟相關頁面

我應該拿這個和什麼比較?

將這個答案與「Northwest vs. Southeast Timber 彈性題解:為什麼是 larger; larger」交叉比對。

開啟相關頁面

繼續深入研究

研究對話

研究問題

Investiga los benchmarks de Claude Opus 4.7, GPT-5.5, DeepSeek V4 y Kimi K2.6, y compáralos de la forma más completa posible en formato de informe de investigación para su presentación.

Studio Global AI40 個來源

附引用的答案

La comparación más honesta es parcial: Claude Opus 4.7 es el modelo con mejor soporte público para benchmarks de coding y agente, GPT-5.5 aparece fuerte en razonamiento según fuentes secundarias, DeepSeek V4/V4 Pro muestra señales competitivas pero con evidencia más comunitaria/provisional, y para Kimi K2.6 no encontré evidencia citable suficiente. Para una presentación ejecutiva, recomiendo mostrar a Claude como el líder mejor respaldado en SWE-bench, a GPT-5.5 como competidor fuerte pero menos verificable públicamente, a DeepSeek como alternativa abierta/prometedora pendiente de validación, y a Kimi K2.6 como “Insufficient evidence”.

Key findings

  • Claude Opus 4.7 tiene la evidencia más sólida del conjunto porque aparece en una fuente oficial de Anthropic con un benchmark interno de research-agent y en fuentes externas de coding como SWE-bench/Vals AI [1][2].

  • En SWE-bench, Vals AI reporta que Claude Opus 4.7 lidera con 82.00% en una página actualizada el 24 de abril de 2026 [2].

  • Hay conflicto entre fuentes sobre el rendimiento de Claude en SWE-bench: Vals AI reporta 82.00%, mientras que Vellum reporta 87.6% en SWE-bench Verified y 64.3% en SWE-bench Pro [2][15].

  • En GPQA Diamond, TNW reporta 94.2% para Claude Opus 4.7 y señala que las diferencias entre modelos frontier en ese benchmark están dentro del ruido de medición [3].

  • GPT-5.5 tiene métricas fuertes en fuentes secundarias: O-Mega reporta MMLU 92.4%, GPQA Diamond 93.6%, ARC-AGI-2 85.0% y ARC-AGI-1 95.0% [4].

  • No encontré una fuente oficial de OpenAI en el corpus recuperado para validar los benchmarks de GPT-5.5, por lo que sus resultados deben presentarse como “provisionales / secundarios”.

  • DeepSeek aparece principalmente como DeepSeek V4 Pro o V4 Pro High en las fuentes recuperadas, no siempre como “DeepSeek V4” base [6][8].

  • Para DeepSeek V4/V4 Pro, la evidencia combina discusión comunitaria de Hugging Face, agregadores y blogs técnicos, por lo que su comparabilidad con Claude y GPT-5.5 es menor [6][7][8][9].

  • Kimi K2.6 no cuenta con evidencia suficiente en las fuentes recuperadas; no recomiendo incluirlo en una tabla de ranking como si tuviera benchmarks verificados.

Metodología de lectura

  • Prioricé fuentes oficiales, leaderboards especializados, discusiones técnicas con trazabilidad y fuentes académicas sobre benchmarks [1][2][6][10][11].

  • Clasifiqué la evidencia en cuatro niveles: oficial, benchmark independiente, agregador/comunidad y blog o análisis secundario [1][2][4][6][8].

  • No traté como equivalentes los resultados de SWE-bench, SWE-bench Verified y SWE-bench Pro, porque SWE-bench Pro se define como una variante más desafiante y orientada a tareas de ingeniería de software de largo horizonte [10].

  • Consideré MMLU como métrica de bajo poder discriminativo para modelos frontier, ya que una fuente de explicación de benchmarks indica que en 2026 los modelos top superan el 88% y el benchmark está muy saturado [12].

Matriz comparativa ejecutiva

ModeloEstado de evidenciaBenchmarks más relevantes recuperadosLectura ejecutiva
Claude Opus 4.7Alta-mediaResearch-agent interno 0.715 y fuerte rendimiento de long-context según Anthropic; SWE-bench 82.00% según Vals AI; GPQA Diamond 94.2% según TNW [1][2][3]Mejor candidato para presentarlo como líder respaldado en coding/agente, con cautela por diferencias entre fuentes [2][15]
GPT-5.5Media-bajaMMLU 92.4%, GPQA Diamond 93.6%, ARC-AGI-2 85.0% y ARC-AGI-1 95.0% según O-Mega [4]Muy fuerte en razonamiento según fuentes secundarias, pero falta validación oficial en el corpus recuperado [4][5]
DeepSeek V4 / V4 ProMedia-bajaBenchLM reporta DeepSeek V4 Pro High con Agentic 83.8/100 y Coding 88.8/100; NxCode habla de 81% en SWE-bench y 97% en Needle-in-a-Haystack a 1M tokens como resultado reclamado [7][8]Alternativa competitiva, especialmente si se valora ecosistema abierto/local, pero requiere validación independiente antes de una decisión ejecutiva [6][8][9]
Kimi K2.6Insufficient evidenceNo hay benchmark citable suficiente en las fuentes recuperadasNo incluir como comparable verificado; pedir fuente oficial o leaderboard antes de presentarlo

Benchmarks numéricos recuperados

Benchmark / métricaClaude Opus 4.7GPT-5.5DeepSeek V4 / V4 ProKimi K2.6
SWE-bench82.00% según Vals AI [2]No recuperado en fuente suficientemente comparable81% reclamado en una fuente secundaria sobre DeepSeek V4 [7]Insufficient evidence
SWE-bench Verified87.6% según Vellum [15]No recuperadoIncluido como benchmark evaluado en discusión comunitaria de DeepSeek-V4-Pro, sin cifra visible en el resumen recuperado [6]Insufficient evidence
SWE-bench Pro64.3% según Vellum [15]No recuperadoIncluido en la discusión comunitaria de DeepSeek-V4-Pro, sin cifra visible en el resumen recuperado [6]Insufficient evidence
GPQA Diamond94.2% según TNW y O-Mega [3][4]93.6% según O-Mega [4]Mencionado dentro de suites comunitarias, sin cifra visible en el resumen recuperado [6][9]Insufficient evidence
MMLUNo recuperado con cifra comparable92.4% según O-Mega [4]MMLU-Pro aparece como evaluación comunitaria, sin cifra visible en el resumen recuperado [6]Insufficient evidence
ARC-AGI-2No recuperado85.0% según O-Mega [4]No recuperadoInsufficient evidence
ARC-AGI-1No recuperado95.0% según O-Mega [4]No recuperadoInsufficient evidence
Research-agent / tareas multi-step0.715 en benchmark interno de Anthropic [1]No recuperadoBenchLM reporta categoría Agentic 83.8/100 para DeepSeek V4 Pro High [8]Insufficient evidence
Long-context / Needle-in-a-HaystackAnthropic afirma rendimiento long-context muy consistente [1]No recuperadoNxCode reporta 97% a 1M tokens como resultado reclamado, condicionado a validación independiente [7]Insufficient evidence
LiveCodeBench / CodeforcesNo recuperadoNo recuperadoRedreamality reporta LiveCodeBench 93.5 y Codeforces 3206 para DeepSeek V4 [9]Insufficient evidence

Análisis por modelo

Claude Opus 4.7

Claude Opus 4.7 es el modelo mejor respaldado del conjunto porque tiene una página oficial de Anthropic y resultados externos de SWE-bench [1][2].

Anthropic afirma que Opus 4.7 empató el mejor resultado global en su benchmark interno de research-agent con 0.715 y que mostró el rendimiento long-context más consistente entre los modelos evaluados [1].

Vals AI reporta que Claude Opus 4.7 lidera SWE-bench con 82.00% en una página actualizada el 24 de abril de 2026 [2].

Vellum reporta cifras más altas para Claude, con 87.6% en SWE-bench Verified y 64.3% en SWE-bench Pro [15].

La diferencia entre 82.00% y 87.6% debe tratarse como una discrepancia de metodología, subconjunto o configuración, no como una mejora confirmada única [2][15].

En razonamiento científico, TNW reporta 94.2% en GPQA Diamond para Claude Opus 4.7 y contextualiza que los modelos frontier están muy cerca entre sí en ese benchmark [3].

GPT-5.5

GPT-5.5 aparece muy fuerte en razonamiento general según O-Mega, que reporta MMLU 92.4%, GPQA Diamond 93.6%, ARC-AGI-2 85.0% y ARC-AGI-1 95.0% [4].

Appwrite publicó un artículo titulado “GPT-5.5 is here” con foco en benchmarks, pricing y cambios para desarrolladores el 24 de abril de 2026, pero se trata de una fuente secundaria y no de una ficha oficial de OpenAI [5].

La evidencia recuperada no permite confirmar con una fuente oficial de OpenAI los benchmarks de GPT-5.5, por lo que sus puntuaciones deben etiquetarse como “terceros / no verificadas oficialmente”.

Para una presentación, GPT-5.5 puede colocarse como competidor muy fuerte en razonamiento, pero no como ganador global si se exige trazabilidad oficial comparable a la de Claude [1][4][5].

DeepSeek V4 / V4 Pro

La evidencia recuperada para DeepSeek se concentra en variantes como DeepSeek V4 Pro y DeepSeek V4 Pro High, lo que impide asumir automáticamente que las cifras representan al modelo base DeepSeek V4 [6][8].

Hugging Face muestra una discusión comunitaria para DeepSeek-V4-Pro con evaluaciones en GPQA, GSM8K, HLE, MMLU-Pro, SWE-bench Pro, SWE-bench Verified y Terminal-Bench 2.0 [6].

BenchLM reporta para DeepSeek V4 Pro High una categoría Agentic de 83.8/100 y una categoría Coding de 88.8/100 [8].

NxCode presenta DeepSeek V4 como un modelo de 1T parámetros con 81% en SWE-bench y 97% en Needle-in-a-Haystack a 1M tokens, pero el propio resumen indica que la cifra de 97% debe sostenerse bajo pruebas independientes para ser concluyente [7].

Redreamality reporta que DeepSeek V4 alcanza LiveCodeBench 93.5 y Codeforces 3206, y al mismo tiempo afirma que los modelos cerrados siguen liderando en tareas agentic de largo horizonte [9].

Para una presentación, DeepSeek debe mostrarse como “competidor técnico prometedor” y no como líder validado, salvo que el equipo disponga de benchmarks internos reproducibles [6][7][8][9].

Kimi K2.6

No encontré benchmarks citables suficientes para Kimi K2.6 en las fuentes recuperadas.

No recomiendo sustituir Kimi K2.6 por Kimi K2.5 u otra variante, porque eso mezclaría modelos diferentes y degradaría la validez de la comparación.

La forma más segura de presentarlo es como “pendiente de validación” o “Insufficient evidence”.

Ranking por escenario de uso

EscenarioModelo recomendadoJustificación
Coding y resolución de issues realesClaude Opus 4.7Vals AI lo reporta como líder en SWE-bench con 82.00%, y Vellum también lo ubica fuerte en SWE-bench Verified y SWE-bench Pro [2][15]
Razonamiento general / cienciaClaude Opus 4.7 o GPT-5.5Claude aparece con 94.2% en GPQA Diamond, mientras GPT-5.5 aparece con 93.6% en O-Mega; la diferencia es pequeña y debe leerse con cautela [3][4]
Agentes y tareas multi-stepClaude Opus 4.7Anthropic reporta 0.715 en su benchmark interno de research-agent y fuerte consistencia long-context [1]
Alternativa abierta / ecosistema técnicoDeepSeek V4 ProBenchLM y Hugging Face muestran suites de evaluación amplias para DeepSeek V4 Pro, aunque la evidencia es menos oficial que la de Claude [6][8]
Presentación con evidencia verificableClaude Opus 4.7Es el único del conjunto con fuente oficial clara y señales externas de benchmark en el corpus recuperado [1][2]
Inclusión de Kimi K2.6No recomendadoInsufficient evidence

Evidence notes

  • La fuente más fuerte para Claude es oficial, pero su benchmark de research-agent es interno y no necesariamente reproducible por terceros [1].

  • Vals AI es la fuente más limpia para una comparación de SWE-bench porque reporta directamente un leaderboard de SWE-bench actualizado el 24 de abril de 2026 [2].

  • Vellum aporta más detalle para SWE-bench Verified y SWE-bench Pro, pero sus cifras no coinciden con Vals AI y deben presentarse como una fuente alternativa [15].

  • O-Mega aporta varias cifras útiles para GPT-5.5, pero debe tratarse como fuente secundaria hasta que exista una ficha oficial o un leaderboard independiente reproducible [4].

  • La discusión de Hugging Face para DeepSeek-V4-Pro demuestra actividad comunitaria de evaluación, pero no equivale por sí sola a una publicación oficial o a un benchmark auditado [6].

  • SWE-bench Pro es especialmente relevante para comparar agentes de software porque evalúa tareas más difíciles y de mayor horizonte que benchmarks de coding más simples [10].

  • MMLU debe tener menor peso en la decisión porque fuentes de explicación de benchmarks indican saturación entre modelos top en 2026 [12].

Limitations / uncertainty

  • Insufficient evidence para Kimi K2.6.

  • No recuperé una fuente oficial de OpenAI con benchmark card de GPT-5.5, por lo que cualquier cifra de GPT-5.5 en este informe debe etiquetarse como secundaria.

  • No recuperé una fuente oficial de DeepSeek que consolide los r

來源

  • [1] AI Benchmarks Explained: GPQA, SWE-bench & Arena Elonanonets.com

    How the score is calculated: Before each question, the model is shown 5 example questions with correct answers, this is called 5-shot prompting. Then comes the real question. Score = correct answers ÷ total questions, expressed as a percentage. Why it's nea...

  • [2] GPT-5.5 is here: benchmarks, pricing, and what changes ... - Appwriteappwrite.io

    Star on GitHub 55.8KGo to Console Start building for free Sign upGo to Console Start building for free Products Docs Pricing Customers Blog Changelog Star on GitHub 55.8K Blog/GPT-5.5 is here: benchmarks, pricing, and what changes for developers Apr 24, 202...

  • [3] GPT-5.5: The Complete Guide (2026) - o-mega | AIo-mega.ai

    Reasoning, Math, and Science Benchmark GPT-5.5 GPT-5.5 Pro GPT-5.4 Claude Opus 4.7 Gemini 3.1 Pro --- --- --- MMLU 92.4% - - GPQA Diamond 93.6% 92.8% 94.2% 94.3% ARC-AGI-2 85.0% 73.3% 77.1% ARC-AGI-1 95.0% 93.7% - FrontierMath T1-3 51.7% 52.4% 47.6% 43.8% F...

  • [6] GPT-5.5 Benchmarks 2026: Scores, Rankings & Performancebenchlm.ai

    Core Rankings Specialized Use Cases Dashboards Directories Guides & Lists Tools GPT-5.5 According to BenchLM.ai, GPT-5.5 ranks 5 out of 112 models on the provisional leaderboard with an overall score of 89/100. It also ranks 2 out of 16 on the verified lead...

  • [7] GPT-5.5: Pricing, Benchmarks & Performance - LLM Statsllm-stats.com

    9Image 42GPT-5 mini 0.22 10Image 43o3 0.16 GPQAView → 4 of 10 Image 44: LLM Stats Logo A challenging dataset of 448 multiple-choice questions written by domain experts in biology, physics, and chemistry. Questions are Google-proof and extremely difficult, w...

  • [8] SWE-bench February 2026 leaderboard updatesimonwillison.net

    Here's how the top ten models performed: Image 1: Bar chart showing "% Resolved" by "Model". Bars in descending order: Claude 4.5 Opus (high reasoning) 76.8%, Gemini 3 Flash (high reasoning) 75.8%, MiniMax M2.5 (high reasoning) 75.8%, Claude Opus 4.6 75.6%,...

  • [9] AI Model Benchmarks Apr 2026 | Compare GPT-5, Claude 4.5 ...lmcouncil.ai

    METR Time Horizons Model Minutes --- 1 Claude Opus 4.6 (unknown thinking) 718.8 ±1815.2 2 GPT-5.2 (high) 352.2 ±335.5 3 GPT-5.3 Codex 349.5 ±333.1 4 Claude Opus 4.5 (no thinking) 293.0 ±239.0 5 Claude Opus 4.5 (16k thinking) 288.9 ±558.2 SWE-bench Verified...

  • [11] GPT 5.5 - Vals AIvals.ai

    2/17/2026 Anthropic Claude Sonnet 4.6 2/16/2026 Alibaba Qwen 3.5 Plus 2/12/2026 MiniMax MiniMax-M2.5 2/12/2026 MiniMax MiniMax-M2.5 2/11/2026 zAI GLM 5 2/5/2026 Anthropic Claude Opus 4.6 (Nonthinking) 2/5/2026 Anthropic Claude Opus 4.6 (Thinking) 1/26/2026...

  • [12] LLM Leaderboard 2026 — Compare Top AI Models - Vellumvellum.ai

    93.6% GPT-5.5 92.4% GPT 5.2 91.9% Gemini 3 Pro Best in Reasoning (GPQA Diamond) Model Score --- Claude 3 Opus 95.4% Claude Opus 4.7 94.2% GPT-5.5 93.6% GPT 5.2 92.4% Gemini 3 Pro 91.9% Best in High School Math (AIME 2025) 100%96%93%89%86% 100% Gemini 3 Pro...

  • [14] Claude Opus 4.7 Benchmarks 2026: Scores, Rankings & Performance | BenchLM.aibenchlm.ai

    Core Rankings Specialized Use Cases Dashboards Directories Guides & Lists Tools Claude Opus 4.7 BenchLM is tracking Claude Opus 4.7, but this profile is currently excluded from the public leaderboard because it still lacks enough non-generated benchmark cov...

  • [15] Claude Opus 4.7 leads on SWE-bench and agentic ... - TNWthenextweb.com

    On graduate-level reasoning, measured by GPQA Diamond, the field has converged. Opus 4.7 scores 94.2%, GPT-5.4 Pro scores 94.4%, and Gemini 3.1 Pro scores 94.3%. The differences are within noise. The frontier models have effectively saturated this benchmark...

  • [16] Introducing Claude Opus 4.7 - Anthropicanthropic.com

    Image 7: logo Based on our internal research-agent benchmark, Claude Opus 4.7 has the strongest efficiency baseline we’ve seen for multi-step work. It tied for the top overall score across our six modules at 0.715 and delivered the most consistent long-cont...

  • [17] SWE-bench - Vals AIvals.ai

    Benchmarks Models Comparison Model Guide App Reports News About Benchmarks Models Comparison Model Guide App Reports About Coding SWE-bench SWE-bench Updated: 4/24/2026 Solving production software engineering tasks Key Takeaways Claude Opus 4.7 leads with a...

  • [20] Claude Opus 4.7 Benchmarks Explained - Vellumvellum.ai

    Coding is the clear headline. SWE-bench Verified jumps from 80.8% to 87.6%, a nearly 7-point gain that puts Opus 4.7 ahead of Gemini 3.1 Pro (80.6%). On SWE-bench Pro, the harder multi-language variant, Opus 4.7 goes from 53.4% to 64.3%, leapfrogging both G...

  • [21] WhatLLM.org: Compare LLMs by Benchmarks, Price & Speed — Live Rankingswhatllm.org

    whatllm? whatllm.org WhatLLM.org - LLM Comparison Tool The ultimate LLM comparison tool Compare price, performance, and speed across the entire AI ecosystem. Updated daily with the latest benchmarks. Top 10 Models Ranked by Quality Index across all benchmar...

  • [25] Add community evaluation results for GPQA, GSM8K, HLE, MMLU ...huggingface.co

    deepseek-ai/DeepSeek-V4-Pro · Add community evaluation results for GPQA, GSM8K, HLE, MMLU-PRO, SWE-BENCH PRO, SWE-BENCH VERIFIED, TERMINAL-BENCH-2.0 Image 1: Hugging Face's logoHugging Face Models Datasets Spaces Buckets new Docs Enterprise Pricing Log In S...

  • [26] DeepSeek V4 (2026): 1T Parameters, 81% SWE-bench ... - NxCodenxcode.io

    The claimed results: Metric Standard Attention Engram (DeepSeek V4) --- Needle-in-a-Haystack (1M tokens) 84.2% accuracy 97% accuracy Context Length Supported Varies (128K typical) 1M tokens If the 97% figure holds up under independent testing, this represen...

  • [27] DeepSeek V4 Pro (High) Benchmarks 2026 - BenchLM.aibenchlm.ai

    Category Performance PNG Embed Share Scores across all benchmark categories (0-100 scale) Category Breakdown Agentic 83.8/ 100 Weight: 22%5 benchmark s Terminal-Bench 2.0 BrowseComp OSWorld-Verified GAIA TAU-bench WebArena Coding 7 88.8/ 100 Weight: 20%6 be...

  • [30] Mapping the DeepSeek V4 Evaluation Suite: A Field Guide to 2026 ...redreamality.com

    The Takeaway The V4 scorecard confirms a pattern: for pure coding, open weights have caught up (LiveCodeBench 93.5, Codeforces 3206). For long-horizon agentic work (SWE-bench Pro, Terminal-Bench 2.0), closed frontier still leads. For frontier reasoning (HLE...

  • [38] Swe-bench pro: Can ai agents solve long-horizon software engineering tasks?arxiv.org

    … PRO, a substantially more challenging benchmark that builds … In our evaluation of widely used coding models, under a unified … Towards this end, this paper is motivated to (1) mitigate … 2025