studioglobal
熱門探索內容
報告已發布13 個來源

GPT-5.5 vs Claude Opus 4.7 vs Kimi K2.6 vs DeepSeek V4-Pro

No hay suficiente base pública para hacer un ranking absoluto: GPT 5.5 marca 82,7 % en Terminal Bench 2.0 y Claude Opus 4.7 aparece con 64,3 % en SWE Bench Pro, pero las cifras vienen de fuentes y configuraciones dist... Para visión, capturas de pantalla, comprensión de documentos y computer use, Claude Opus 4.7 tie...

17K0
四款 AI 模型的基準測試比較示意圖,包含 GPT-5.5、Claude Opus 4.7、Kimi K2.6 與 DeepSeek V4
GPT-5.5、Claude Opus 4.7、Kimi K2.6、DeepSeek V4 基準測試比較AI 生成示意圖:本文比較 GPT-5.5、Claude Opus 4.7、Kimi K2.6 與 DeepSeek V4-Pro 在公開基準測試中的表現。
AI 提示詞

Create a landscape editorial hero image for this Studio Global article: GPT-5.5、Claude Opus 4.7、Kimi K2.6、DeepSeek V4 基準測試比較. Article summary: 目前不能公平選出單一總冠軍;四款模型缺少同一評測 harness、同一工具設定下的完整共同分數。可引用資料中,GPT 5.5 以 82.7% 領先 Terminal Bench 2.0,Claude Opus 4.7 以 64.3% 暫居 SWE Bench Pro 第一,但 Claude 數字來自次級整理引用 AWS。[27][4]. Topic tags: ai, llm, benchmarks, openai, anthropic. Reference image context from search candidates: Reference image 1: visual subject "OpenAI’s GPT-5.5, Anthropic’s Claude Opus 4.7, and DeepSeek V4 arrived close enough together to look like a clean three-way race. **GPT-5.5 is OpenAI’s bet on execution-heavy profe" source context "GPT-5.5, Claude Opus 4.7, and DeepSeek V4 reveal three different ..." Reference image 2: visual subject "GPT-5.5, Claude Opus 4.7, and DeepSeek V4 reveal three different futures for AI" source context "GPT-5.5, Claude Opus 4.7, and DeepSeek V4 reveal thr

openai.com

La forma más útil de comparar GPT-5.5, Claude Opus 4.7, Kimi K2.6 y DeepSeek V4-Pro no es preguntar cuál gana en abstracto. La pregunta práctica es otra: qué modelo conviene probar primero para cada tipo de trabajo. El error más común es meter en la misma tabla cifras de fuentes distintas, con permisos de herramientas distintos y con niveles de effort distintos, como si fueran una clasificación deportiva perfectamente homogénea.

Con los datos públicos disponibles, la lectura más defendible es por casos de uso: GPT-5.5 merece prioridad en workflows de terminal y CLI; Claude Opus 4.7 en SWE-Bench, visión y computer use; DeepSeek V4-Pro en conocimiento, matemáticas y ruta de modelos abiertos; y Kimi K2.6 entra en la lista corta si el equipo ya trabaja con agentes multimodales sobre Cloudflare Workers AI.[27][4][1][5][64][36]

Foto rápida de benchmarks: qué cifras sí se pueden citar

La tabla resume solo los números que aparecen en las fuentes disponibles. Un guion no significa que el modelo no pueda hacer esa tarea: significa que esta revisión no tiene una cifra comparable y citable en esa columna. Además, no todos los resultados proceden del mismo harness oficial, así que sirven para filtrar candidatos, no para proclamar un líder universal.

Prueba o tareaGPT-5.5Claude Opus 4.7Kimi K2.6DeepSeek V4-ProCómo leerlo en la práctica
Terminal-Bench 2.082,7 % [27]69,4 % [4]66,7 [84]67,9 [64]Entre las cifras citables, GPT-5.5 es el resultado más fuerte para workflows de línea de comandos.
SWE-Bench Pro58,6 % [27]64,3 % [4]58,6 [84]55,4 [64]Claude lidera en esta columna, aunque la cifra procede de una recopilación secundaria que cita a AWS.
SWE-Bench Verified / Resolved87,6 % [4]80,2 [45]80,6 [64]Claude aparece arriba, pero falta una cifra comparable de GPT-5.5 y la nomenclatura no es idéntica en todas las fuentes.
Graphwalks 256k: BFS / parents73,7 / 90,1 [21]76,9 / 93,6 [21]En las dos filas de 256k de la tabla de contexto largo de OpenAI, Claude Opus 4.7 queda por encima de GPT-5.5.
Graphwalks 1M: BFS / parents45,4 / 58,5 [21]La tabla de OpenAI sí permite hablar del rendimiento de GPT-5.5 a 1 millón de tokens; el campo de comparación a 1M en esa tabla está marcado como Opus 4.6, por lo que no conviene usarlo para juzgar Opus 4.7.
Conocimiento y matemáticasGPQA Diamond 90,1; GSM8K 92,6; MMLU-Pro 87,5; HLE 37,7 [64]DeepSeek V4-Pro aporta la ficha pública más completa en esta categoría.
Visión, capturas y computer useMejoras en cargas con mucha visión; coordenadas 1:1 con píxeles reales; 98,5 % de agudeza visual en XBOW [1][5]Cloudflare lo describe como modelo agentic multimodal nativo, pero sin una cifra visual comparable en las fuentes usadas [36]La evidencia más sólida para interfaces visuales y uso de ordenador está del lado de Claude Opus 4.7.

Por qué no conviene ordenar los cuatro en un ranking único

La primera razón es la calidad y el tipo de fuente. Las cifras de GPT-5.5 en Terminal-Bench 2.0 y SWE-Bench Pro llegan a través de Yahoo Finance/Investing.com, que atribuye los resultados de benchmark a OpenAI; las de Claude Opus 4.7 en SWE-Bench Pro, SWE-Bench Verified y Terminal-Bench 2.0 proceden de una recopilación secundaria que cita a AWS; y varias cifras de Kimi K2.6 y DeepSeek V4-Pro salen de fichas de modelo en Hugging Face.[27][4][84][64]

La segunda razón es que el acceso a herramientas cambia el resultado. Mashable publicó cifras de HLE en las que, sin herramientas, Claude Opus 4.7 obtiene 46,9 % y GPT-5.4 Pro 42,7 %; con herramientas, GPT-5.4 Pro sube a 58,7 % y Claude Opus 4.7 queda en 54,7 %. No son cifras de GPT-5.5, pero sirven como aviso metodológico: comparar resultados con tools y without tools en una misma tabla puede alterar el orden relativo.[6]

La tercera razón es que las variantes importan. DeepSeek V4 se presenta en versiones V4-Pro y V4-Flash; Yahoo Finance recoge que V4-Flash se plantea como una opción más eficiente y económica, mientras que los datos detallados citados aquí corresponden sobre todo a DeepSeek-V4-Pro.[57][64] Artificial Analysis también separa GPT-5.5 en variantes de effort y señala que GPT-5.5 xhigh cuesta alrededor de un 20 % más que su predecesor en su Index, pero un 30 % menos que Claude Opus 4.7 max.[24]

GPT-5.5: especialmente fuerte cuando el trabajo vive en la terminal

El punto más claro a favor de GPT-5.5 en esta comparación es Terminal-Bench 2.0. Yahoo Finance/Investing.com informa de que, según resultados proporcionados por OpenAI, GPT-5.5 alcanza 82,7 % en Terminal-Bench 2.0, una prueba diseñada para medir workflows de línea de comandos; el mismo reporte sitúa a GPT-5.5 en 58,6 % en SWE-Bench Pro, benchmark orientado a evaluar la resolución de incidencias de GitHub.[27]

OpenAI también aporta una tabla de contexto largo con números relevantes: GPT-5.5 obtiene 73,7 en Graphwalks BFS 256k y 45,4 en Graphwalks BFS 1M; en Graphwalks parents marca 90,1 en 256k y 58,5 en 1M. En esa misma tabla, GPT-5.4 queda en 9,4 en Graphwalks BFS 1M, frente al 45,4 de GPT-5.5.[21]

En evaluaciones de terceros, Artificial Analysis califica a GPT-5.5 como un nuevo modelo líder y afirma que OpenAI encabeza cinco de sus evaluaciones principales y queda segundo, por detrás de Gemini 3.1 Pro Preview, en otras tres. El mismo análisis indica que GPT-5.5 xhigh usa cerca de un 40 % menos de tokens de salida que su predecesor al ejecutar su Index.[24]

Dónde probarlo primero: automatización con CLI, agentes que trabajan en terminal, búsqueda o razonamiento sobre contextos largos, y workflows agentic de programación donde el coste por tokens de salida sea una variable importante.[27][21][24]

Claude Opus 4.7: buen candidato para software engineering, visión y uso de interfaces

La documentación oficial de Anthropic es especialmente clara en visión. Sus notas de API indican que el cambio debería liberar mejoras de rendimiento en workloads con mucha carga visual, sobre todo en computer use, capturas de pantalla, artifacts y comprensión de documentos; también explican que las coordenadas del modelo se corresponden 1:1 con píxeles reales, sin tener que calcular factores de escala.[1]

La página de lanzamiento de Anthropic cita además un benchmark de agudeza visual de XBOW: Claude Opus 4.7 alcanza 98,5 %, frente al 54,5 % de Opus 4.6.[5] Eso convierte a Claude Opus 4.7 en el candidato con mejor respaldo directo para tareas de lectura de capturas, comprensión de layouts de documentos, navegación por interfaces de escritorio y agentes de computer use.[1][5]

En programación, una recopilación indica que AWS cita a Claude Opus 4.7 con 64,3 % en SWE-Bench Pro, 87,6 % en SWE-Bench Verified y 69,4 % en Terminal-Bench 2.0.[4] Estas cifras colocan a Claude por delante en las columnas SWE-Bench Pro y Verified/Resolved de esta revisión, aunque la fuente está un escalón por debajo de una tabla oficial primaria; antes de adoptarlo en producción, lo prudente es repetir pruebas sobre los repositorios propios.

Hay, además, una advertencia operativa importante: Anthropic recuerda que las imágenes de alta resolución consumen más tokens y recomienda reducir la resolución antes de enviarlas a Claude si ese detalle adicional no es necesario.[1]

Dónde probarlo primero: reparación de incidencias en repositorios, agentes de programación, lectura de capturas y documentos, computer-use agents y tareas de interfaz que requieran coordenadas de píxel precisas.[1][4][5]

Kimi K2.6: candidato natural si el despliegue pasa por Workers AI

El registro de cambios de Cloudflare señala que Moonshot AI Kimi K2.6 está disponible en Workers AI desde el 20 de abril de 2026, con el identificador @cf/moonshotai/kimi-k2.6, y que Cloudflare lo ofrece con soporte Day 0 en colaboración con Moonshot AI.[36]

La misma fuente describe Kimi K2.6 como un modelo agentic multimodal nativo, enfocado en long-horizon coding, diseño impulsado por código, ejecución autónoma proactiva y orquestación de tareas basada en swarm. Cloudflare también indica que usa una arquitectura Mixture-of-Experts con 1T de parámetros totales y 32B parámetros activos por token.[36]

En resultados públicos, la ficha de Hugging Face de Kimi K2.6 lista 66,7 en Terminal-Bench 2.0, 58,6 en SWE-Bench Pro y 76,7 en SWE-Bench Multilingual.[84] MarkTechPost informa además de 80,2 en SWE-Bench Verified para Kimi K2.6.[45]

Dónde probarlo primero: equipos que ya despliegan sobre Cloudflare Workers AI y necesitan workflows multimodales con agentes, long-horizon coding, diseño guiado por código u orquestación multiagente.[36][84]

DeepSeek V4-Pro: ficha fuerte para conocimiento, matemáticas y modelos abiertos

En las fuentes disponibles, DeepSeek V4 aparece dividido en V4-Pro y V4-Flash. Yahoo Finance informa de que DeepSeek afirma que V4-Pro supera claramente a otros modelos open-source en benchmarks de conocimiento del mundo y solo queda ligeramente por debajo del modelo cerrado Gemini-Pro-3.1; el mismo reporte describe V4-Flash como una alternativa más eficiente y económica.[57]

La ficha de DeepSeek-V4-Pro en Hugging Face ofrece una de las colecciones de métricas más completas de esta comparación: GPQA Diamond 90,1; GSM8K 92,6; HLE 37,7; MMLU-Pro 87,5; SWE-Bench Pro 55,4; SWE-Bench Verified/Resolved 80,6; y TerminalBench 2.0 67,9.[64]

CNBC informa de que DeepSeek dijo haber optimizado V4 para herramientas de agentes como Claude Code y OpenClaw. En el mismo artículo, Wei Sun, analista principal de IA en Counterpoint, interpreta el perfil de benchmarks de V4 como señal de que podría ofrecer una capacidad agentic destacada a un coste significativamente menor.[58]

Dónde probarlo primero: equipos que priorizan una ruta de modelos abiertos, benchmarks de conocimiento y matemáticas, relación coste-capacidad en agentes o evaluación en entornos locales o autogestionados.[58][64]

Lista corta por tipo de trabajo

  • Automatización de terminal y agentes de línea de comandos: empezar por GPT-5.5. Entre las cifras citables, GPT-5.5 alcanza 82,7 % en Terminal-Bench 2.0, por encima de Claude Opus 4.7 con 69,4 %, DeepSeek V4-Pro con 67,9 y Kimi K2.6 con 66,7.[27][4][64][84]
  • Reparación de software y tareas tipo SWE-Bench Pro: empezar por Claude Opus 4.7, pero repetir con repositorios propios. En los datos citables, Claude Opus 4.7 figura con 64,3 %, mientras GPT-5.5 y Kimi K2.6 aparecen con 58,6 y DeepSeek V4-Pro con 55,4; aun así, la cifra de Claude procede de una fuente secundaria.[4][27][84][64]
  • Capturas, documentos, interfaces visuales y computer use: Claude Opus 4.7 primero. Anthropic documenta mejoras en workflows con mucha visión, computer use y coordenadas 1:1 con píxeles reales, y su página de lanzamiento cita un 98,5 % en la prueba de agudeza visual de XBOW.[1][5]
  • Conocimiento, matemáticas y ruta de modelos abiertos: incluir DeepSeek V4-Pro en la lista corta. Su ficha de Hugging Face presenta métricas de GPQA Diamond, GSM8K, HLE, MMLU-Pro, SWE-Bench y TerminalBench 2.0.[64]
  • Workflows agentic multimodales sobre Workers AI: probar Kimi K2.6. Cloudflare ofrece soporte Day 0 para Kimi K2.6 en Workers AI y lo posiciona como modelo multimodal agentic para long-horizon coding y orquestación de tareas basada en swarm.[36]

Antes de decidir, repite la prueba con tus propias condiciones

Para obtener una conclusión defendible dentro de una empresa o equipo técnico, conviene repetir las pruebas con el mismo ID de modelo o versión de API, la misma longitud de contexto, los mismos permisos de herramientas, el mismo reasoning effort, la misma temperatura, el mismo presupuesto de tokens y el mismo sistema de puntuación. La diferencia entre ejecutar con herramientas o sin ellas no es un detalle menor: el ejemplo de HLE publicado por Mashable muestra que puede cambiar el orden relativo de los modelos.[6]

El coste también debe medirse junto con la capacidad. Artificial Analysis indica que GPT-5.5 xhigh cuesta alrededor de un 20 % más que su predecesor al ejecutar su Index, pero un 30 % menos que Claude Opus 4.7 max, y que usa cerca de un 40 % menos de tokens de salida que su predecesor.[24] Anthropic, por su parte, advierte de que las imágenes de alta resolución consumen más tokens.[1] En producción, la velocidad, el consumo de tokens, la tasa de éxito al llamar herramientas y la capacidad de corregir errores suelen pesar tanto como una única cifra de benchmark.

Conclusión

La comparación más honesta no es un podio único. Es una matriz de decisión: GPT-5.5 para flujos de terminal, Claude Opus 4.7 para SWE-Bench y tareas de visión/computer use, DeepSeek V4-Pro para conocimiento y matemáticas con una ficha pública amplia, y Kimi K2.6 para equipos que quieran probar agentes multimodales en Cloudflare Workers AI.[27][4][1][5][64][36]

Un ranking global solo sería razonable cuando los cuatro modelos tengan resultados completos en el mismo harness, con la misma versión, los mismos permisos de herramientas y las mismas condiciones de ejecución. Hasta entonces, la mejor elección no es el supuesto ganador general, sino el modelo que encaje con el trabajo real que necesitas resolver.

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查證事實

重點整理

  • No hay suficiente base pública para hacer un ranking absoluto: GPT 5.5 marca 82,7 % en Terminal Bench 2.0 y Claude Opus 4.7 aparece con 64,3 % en SWE Bench Pro, pero las cifras vienen de fuentes y configuraciones dist...
  • Para visión, capturas de pantalla, comprensión de documentos y computer use, Claude Opus 4.7 tiene la evidencia oficial más directa: Anthropic habla de mejoras en flujos con mucha visión, coordenadas 1:1 con píxeles r...
  • DeepSeek V4 Pro destaca por tener una ficha de Hugging Face con métricas completas de conocimiento y matemáticas; Kimi K2.6 sobresale como candidato para workflows agentic multimodales ya desplegados sobre Cloudflare...

大家也會問

「GPT-5.5 vs Claude Opus 4.7 vs Kimi K2.6 vs DeepSeek V4-Pro」的簡短答案是什麼?

No hay suficiente base pública para hacer un ranking absoluto: GPT 5.5 marca 82,7 % en Terminal Bench 2.0 y Claude Opus 4.7 aparece con 64,3 % en SWE Bench Pro, pero las cifras vienen de fuentes y configuraciones dist...

最值得優先驗證的重點是什麼?

No hay suficiente base pública para hacer un ranking absoluto: GPT 5.5 marca 82,7 % en Terminal Bench 2.0 y Claude Opus 4.7 aparece con 64,3 % en SWE Bench Pro, pero las cifras vienen de fuentes y configuraciones dist... Para visión, capturas de pantalla, comprensión de documentos y computer use, Claude Opus 4.7 tiene la evidencia oficial más directa: Anthropic habla de mejoras en flujos con mucha visión, coordenadas 1:1 con píxeles r...

接下來在實務上該怎麼做?

DeepSeek V4 Pro destaca por tener una ficha de Hugging Face con métricas completas de conocimiento y matemáticas; Kimi K2.6 sobresale como candidato para workflows agentic multimodales ya desplegados sobre Cloudflare...

下一步適合探索哪個相關主題?

繼續閱讀「Claude Opus 4.7、GPT-5.5、DeepSeek V4、Kimi K2.6 基準比較:2026 年誰最值得信?」,從另一個角度查看更多引用來源。

開啟相關頁面

我應該拿這個和什麼比較?

將這個答案與「DeepSeek V4 工程解析:1M 上下文、MoE 與 API 遷移重點」交叉比對。

開啟相關頁面

繼續深入研究

研究對話

研究問題

研究 GPT-5.5、Claude Opus 4.7、Kimi K2.6、DeepSeek V4 的基準測試表現,並根據這些基準測試對它們進行比較。

Studio Global AI40 個來源

附引用的答案

僅依據你提供的證據,現在還不能對 GPT-5.5、Claude Opus 4.7、Kimi K2.6、DeepSeek V4 做出嚴格而公平的基準測試總排名,因為這些材料沒有提供同一套 benchmark、同一版本設定下的完整分數,而且完全沒有 GPT-5.5 的 benchmark 資料。較能成立的結論是:Claude Opus 4.7 有最明確的官方證據顯示其在視覺與 computer-use 類工作流上提升明顯,[2] 且有次級報導稱其狹義重回 generally available LLM 的領先位置。[5] DeepSeek V4-Pro 則有公司說法經媒體轉述,稱其在 world knowledge benchmarks 上明顯領先其他開源模型,[6] 而 Kimi K2.6 在現有證據中只有產品定位與上線資訊,缺少可直接比較的 benchmark 成績。[1]

Key findings

  • 無法產生可信的四模型總排名:你提供的材料沒有共享 benchmark 分數,且缺少 GPT-5.5 的任何 benchmark 證據。

  • Claude Opus 4.7 的強項證據最集中在視覺與 computer-use 工作流。Anthropic 官方文件說明它對 vision-heavy workloads 有 performance gains,特別影響 computer use、screenshot、artifact 與 document understanding workflows,且將座標映射到影像也更簡單。[2] VentureBeat 另稱其解析度提升到前代的 3 倍,並在標題中將其描述為狹義重回 generally available LLM 領先。[5]

  • DeepSeek V4-Pro 的 benchmark 相關競爭性敘述最明確,但主要來自公司說法經媒體轉述。報導稱它在 world knowledge benchmarks 上明顯領先其他開源模型,且只略遜於頂級閉源模型;另有分析師根據其 benchmark profile 認為它可能以更低成本提供很強的 agent 能力。[6][7]

  • Kimi K2.6 目前只能確認是 Moonshot AI 的原生多模態 agentic model,並於 2026-04-20 在 Workers AI 上得到 Day 0 支援;你提供的證據沒有其可比 benchmark 分數。[1]

Confirmed facts

  • Kimi K2.6 已於 2026-04-20 在 Workers AI 上可用,Cloudflare 表示這是與 Moonshot AI 合作的 Day 0 支援;該模型被描述為 native multimodal agentic model。[1]

  • Anthropic 官方文件表示 Claude Opus 4.7 的變更會帶來 vision-heavy workloads 的 performance gains,且特別有助於 computer use、screenshot、artifact、document understanding workflows;將座標映射到影像也變得更簡單。[2]

  • VentureBeat 報導稱 Claude Opus 4.7 帶來相較前代 3 倍的解析度提升,並在標題中將其描述為狹義重回「most powerful generally available LLM」。[5]

  • 媒體報導稱 DeepSeek 提供 DeepSeek V4-Pro 與 DeepSeek V4-Flash 兩個版本;其中 V4-Pro 被描述為在 world knowledge benchmarks 上明顯領先其他開源模型,且僅略遜於頂級閉源模型。[6]

  • CNBC 報導稱 DeepSeek V4 已針對 Claude Code 與 OpenClaw 之類 agent 工具做最佳化;Counterpoint 的 Wei Sun 則認為其 benchmark profile 顯示它可能以更低成本提供優秀 agent 能力。[7]

  • Hugging Face 上存在一則要求補充 DeepSeek-V4-Pro 在 GPQA、GSM8K、HLE、MMLU-Pro、SWE-Bench Pro、SWE-Bench Verified、Terminal-Bench 2.0 等項目社群評測結果的討論。[4]

What remains inference

  • 把 Claude Opus 4.7 判定為四者整體第一,仍屬推論;現有證據沒有同一組 benchmark 的分數表可直接支持這個結論。[2][5]

  • 把 DeepSeek V4-Pro 判定為所有開源任務全面第一,也仍屬推論;目前可見的是媒體轉述的公司說法,缺少你提供證據中的原始分數表。[6]

  • 把 Kimi K2.6 放在任何明確名次,幾乎純屬猜測;目前只知道它的產品定位,沒有硬 benchmark 成績。[1]

  • 對 GPT-5.5 作任何 benchmark 結論都沒有證據基礎,因為提供材料裡沒有它的 benchmark 資料。

What the evidence suggests

  • 若只看視覺與 computer-use 類任務,Claude Opus 4.7 的證據最強,因為這是唯一在官方文件中明確聲稱該類工作流有性能提升的模型,且次級報導補充了解析度提升細節。[2][5]

  • 若只看現有材料中最明確的 benchmark 競爭描述,DeepSeek V4-Pro 在 world knowledge benchmarks 的定位最突出,因為它是唯一被直接描述為明顯領先其他開源模型的模型。[6]

  • 若看 agent tooling 與成本效益敘事,DeepSeek V4 也有較清楚的外部分析支持,因為報導提到它針對 Claude Code、OpenClaw 做了最佳化,且分析師從其 benchmark profile 推論出較強的 agent 能力/成本比。[7]

  • Kimi K2.6 看起來是以多模態與 agentic 能力為賣點,但在這組證據裡沒有足夠 benchmark 資料把它與 Claude 或 DeepSeek 做定量比較。[1]

  • 整體四模型排序:Insufficient evidence。

Conflicting evidence or uncertainty

  • 最大的不確定性不是「誰贏」,而是「有沒有可比數據」:目前沒有看到四個模型在同一 benchmark、同一版本、同一提示或工具設定下的分數。

  • Claude 的「領先」敘事主要來自次級報導的綜述與標題,而不是你提供證據中的原始官方 benchmark 表。[5]

  • DeepSeek 的最強 benchmark 主張來自公司說法經媒體轉述,因此可信度低於官方技術報告或第三方獨立評測。[6]

  • Kimi K2.6 的 benchmark 能力在這組證據裡幾乎空白,所以不能因產品描述或上線速度而推斷其分數。[1]

  • Reddit 上有人提醒 SWE-bench leaderboard 可能混用了不同版本與不同 benchmark 任務,這提示跨榜單比較可能失真;但這只是低權威來源,最多當弱提醒使用。[65]

Open questions

  • GPT-5.5 在 MMLU-Pro、GPQA、HLE、SWE-Bench Verified/Pro、Terminal-Bench 2.0、以及多模態 benchmark 上的成績是什麼?

  • Claude Opus 4.7、Kimi K2.6、DeepSeek V4 是否有同一版本 benchmark 表,且使用一致的工具權限、上下文長度、溫度與評分規則?

  • DeepSeek V4-Pro 所謂的 world knowledge benchmarks,具體是哪些測試、原始分數是多少、對照模型又是哪些?[6]

  • Kimi K2.6 是否已有第三方獨立 benchmark,而不只是上線與產品定位資訊?[1]

Sources worth trusting most

  • [2] 是 Anthropic 官方文件,對 Claude Opus 4.7 的產品級能力變更與適用工作流最可信。[2]

  • [1] 是 Cloudflare 官方 changelog,對 Kimi K2.6 的上線時間、可用性與產品定位最可信。[1]

  • [6][7] 是較可靠的媒體報導,適合用來了解 DeepSeek 的對外 benchmark 敘事與外部分析,但仍屬次級來源。[6][7]

  • [5] 可作為 Claude Opus 4.7 外界競爭定位的參考,但對硬 benchmark 來說仍弱於官方技術文件。[5]

  • [4] 只能證明社群正在補充 DeepSeek-V4-Pro 的評測結果,不能當成最終 benchmark 證據。[4]

  • [65] 權威性最低,只適合拿來提醒跨榜單比較可能有方法學問題。[65]

Recommended next step

  • 如果你要一個真正可 defend 的比較,下一步應該只蒐集四模型在共享 benchmark 上的原始分數表,優先看 MMLU-Pro、GPQA、HLE、SWE-Bench Verified/Pro、Terminal-Bench 2.0,以及多模態評測,並要求每個結果都標明是否允許 tools、browsing、test-time compute 與不同解碼設定。

  • 在目前這組證據下,最安全的暫時結論是:Claude Opus 4.7 在視覺/computer-use 能力的證據最強,[2][5] DeepSeek V4-Pro 在開源對比的 world knowledge benchmark 敘事最強,[6] Kimi K2.6 與 GPT-5.5 都不足以納入公平排名。[1]

Summary

基於目前證據,不能對 GPT-5.5、Claude Opus 4.7、Kimi K2.6、DeepSeek V4 做可靠的總體 benchmark 排名。較可靠的局部結論是:Claude Opus 4.7 在 vision/computer-use 類場景的正向證據最強,[2][5] DeepSeek V4-Pro 有最明確的開源 benchmark 領先聲稱,[6][7] Kimi K2.6 缺 benchmark 數據,[1] GPT-5.5 則完全沒有可用資料。若要嚴格比較,現階段最誠實的答案就是:Insufficient evidence。

來源

  • [1] What's new in Claude Opus 4.7 - Claude API Docsplatform.claude.com

    What's new in Claude Opus 4.7 - Claude API Docs Loading... . This change should unlock performance gains on vision-heavy workloads, and is particularly important for computer use and screenshot/artifact/document understanding workflows. Additionally, operat...

  • [4] Claude Opus 4.7: Pricing, Benchmarks & Context Windowalmcorp.com

    For coding, the official materials point to several standout numbers. Anthropic says Opus 4.7 improved resolution by 13% over Opus 4.6 on a 93-task coding benchmark. AWS cites 64.3% on SWE-bench Pro, 87.6% on SWE-bench Verified, and 69.4% on Terminal-Bench...

  • [5] Introducing Claude Opus 4.7anthropic.com

    Image 22: logo Claude Opus 4.7 feels like a real step up in intelligence. Code quality is noticeably improved, it’s cutting out the meaningless wrapper functions and fallback scaffolding that used to pile up, and fixes its own code as it goes. It’s the clea...

  • [6] Anthropic releases Claude Opus 4.7: How to try it, benchmarks, safetymashable.com

    Claude Mythos scored 56.8 percent on HLE Claude Opus 4.7 scored 46.9 percent Gemini 3.1 Pro scored 44.4 percent GPT-5-4 Pro scored 42.7 percent Claude Opus 4.6 scored 40.0 percent With tools, GPT-5-4-Pro scored 58.7 percent compared to Opus 4.7’s 54.7 perce...

  • [21] Introducing GPT-5.5openai.com

    Long context EvalGPT-5.5GPT‑5.4GPT-5.5 ProGPT‑5.4 ProClaudeOpus 4.7Gemini 3.1 Pro Graphwalks BFS 256k f1 73.7%62.5%--76.9%- Graphwalks BFS 1mil f1 45.4%9.4%--41.2% (Opus 4.6)- Graphwalks parents 256k f1 90.1%82.8%--93.6%- Graphwalks parents 1mil f1 58.5%44....

  • [24] OpenAI's GPT-5.5 is the new leading AI model - Artificial Analysisartificialanalysis.ai

    Image 2 OpenAI leads five of our headline evaluations and places second to Gemini 3.1 Pro Preview on three. Image 3 Effort variants provide a clear ladder to balance intelligence and cost. GPT-5.5 (xhigh) is 20% more expensive to run our Index than its pred...

  • [27] OpenAI releases GPT-5.5 with improved coding and research capabilitiesca.finance.yahoo.com

    © 2026 All rights reserved. About our ads Advertising Jobs Yahoo Finance Yahoo Finance Mail Sign in Investing.com OpenAI releases GPT-5.5 with improved coding and research capabilities Louis Juricic 1 min read Investing.com -- OpenAI announced Thursday the...

  • [36] Moonshot AI Kimi K2.6 now available on Workers AIdevelopers.cloudflare.com

    Image 2: hero image ← Back to all posts Moonshot AI Kimi K2.6 now available on Workers AI Apr 20, 2026 Workers AI @cf/moonshotai/kimi-k2.6 is now available on Workers AI, in partnership with Moonshot AI for Day 0 support. Kimi K2.6 is a native multimodal ag...

  • [45] Moonshot AI Releases Kimi K2.6 with Long-Horizon Coding, Agent ...marktechpost.com

    The Long-Horizon Coding Headline Numbers The metric that will likely get the most attention from dev teams is SWE-Bench Pro — a benchmark testing whether a model can resolve real-world GitHub issues in professional software repositories. Kimi K2.6 scores 58...

  • [57] China’s DeepSeek releases new AI model it claims beats all open-source competitorsau.finance.yahoo.com

    The model is available as DeepSeek V4-Pro and DeepSeek V4-Flash. The latter version, the company says, is a “more efficient and economical choice". “In world knowledge benchmarks, DeepSeek V4-Pro significantly leads other open-source models and is only slig...

  • [58] China's DeepSeek releases preview of long-awaited V4 model as AI ...cnbc.com

    DeepSeek also said that V4 has been optimized for use with popular agent tools such as Anthropic’s Claude Code and OpenClaw. According to Counterpoint’s principal AI analyst, Wei Sun, V4′s benchmark profile suggests it could offer “excellent agent capabilit...

  • [64] deepseek-ai/DeepSeek-V4-Pro - Hugging Facehuggingface.co

    Evaluation results []( Diamond on Idavidrein/gpqaView evaluation resultsleaderboard 90.1 Gsm8k on openai/gsm8kView evaluation resultsleaderboard 92.6 Hle on cais/hleView evaluation results 37.7 Mmlu Pro on TIGER-Lab/MMLU-ProView evaluation results 87.5 SWE...

  • [84] moonshotai/Kimi-K2.6 - Hugging Facehuggingface.co

    3. Evaluation Results ; Terminal-Bench 2.0 (Terminus-2), 66.7, 65.4 ; SWE-Bench Pro, 58.6, 57.7 ; SWE-Bench Multilingual, 76.7, - ; SWE-Bench ... 5 days ago