studioglobal
인기 있는 발견
보고서게시됨16 소스

Claude Opus 4.7, GPT-5.5, DeepSeek V4, Kimi K2.6: Benchmark 2026 dan Cara Membacanya

Belum ada bukti publik yang menaruh keempat model dalam benchmark, konfigurasi, dan biaya yang sama; skor seperti Claude Opus 4.7 BenchLM 97/100 dan GPT 5.5 GDPval 84,9% tidak bisa dijumlahkan begitu saja [3][19][29]. DeepSeek V4 Pro Max memiliki angka MMLU Pro 87,5% dan GPQA Diamond 90,1% berdasarkan hasil internal...

16K0
네 개의 최신 AI 모델을 벤치마크 차트와 비교하는 추상적 에디토리얼 이미지
Claude Opus 4.7 vs GPT-5.5 vs DeepSeek V4 vs Kimi K2.6: 2026 벤치마크 비교Claude Opus 4.7, GPT-5.5, DeepSeek V4, Kimi K2.6의 2026 벤치마크 비교를 표현한 AI 생성 이미지.
AI 프롬프트

Create a landscape editorial hero image for this Studio Global article: Claude Opus 4.7 vs GPT-5.5 vs DeepSeek V4 vs Kimi K2.6: 2026 벤치마크 비교. Article summary: 네 모델의 ‘절대 1위’를 확정하기는 어렵습니다. 공개 자료 기준 Claude Opus 4.7은 BenchLM 97/100·SWE bench Verified 82.4%가 가장 뚜렷하고, GPT 5.5는 GDPval 84.9% 등 업무형 공식 수치가 강하지만 평가 체계가 달라 직접 합산할 수 없습니다 [2][3][29].. Topic tags: ai, ai benchmarks, llm, openai, anthropic. Reference image context from search candidates: Reference image 1: visual subject "# Kimi K2.6 vs Claude Opus 4.7: Which Model Wins in 2026? Kimi K2.6 ties Opus 4.7 on multilingual SWE-bench but trails by 7 points on Verified — at 1/5th the cost. Two weeks after" source context "Kimi K2.6 vs Claude Opus 4.7 (2026): Benchmarks, Cost, When Each Wins" Reference image 2: visual subject "[Kimi K2 vs Claude Opus 4.7 vs GPT 5.5 Comparison](https://www.youtube.com/watch?v=M90iB4hpenI). ![Image 4](https://www

openai.com

Jawaban pendeknya: belum ada satu pemenang mutlak. Vals AI menampilkan DeepSeek V4 dan GPT-5.5 sebagai entri 23 April 2026, Kimi K2.6 pada 20 April 2026, dan Claude Opus 4.7 pada 16 April 2026, tetapi bahan publik yang tersedia tidak mengevaluasi keempat model itu secara berdampingan dengan benchmark, pengaturan, dan biaya yang sama [19].

Jadi, cara membaca perbandingan ini bukan mencari peringkat 1 sampai 4 yang seolah final, melainkan melihat model mana yang paling kuat untuk kebutuhan tertentu: coding, pekerjaan pengetahuan, agen yang mengoperasikan komputer, penalaran sains, biaya, atau latensi.

Kenapa ranking tunggal sulit dibuat

Benchmark AI pada 2026 bukan satu ujian besar, melainkan kumpulan tes yang mengukur kemampuan berbeda. Kili Technology membedakan MMLU, MMLU-Pro, GPQA Diamond, SWE-Bench, Terminal-Bench, GAIA, WebArena, GDPval, dan evaluasi keselamatan sebagai tolok ukur untuk kemampuan yang tidak sama [8]. Stanford HAI dalam AI Index juga memisahkan kinerja teknis ke beberapa sumbu seperti MMLU, MATH, GPQA Diamond, MMMU, OSWorld, AIME, dan SWE-bench Verified [13].

Masalah lain: tes pengetahuan umum seperti MMLU makin kurang tajam untuk membedakan model papan atas. Nanonets menjelaskan bahwa MMLU dihitung dengan format 5-shot, dan pada 2026 banyak model teratas sudah berkumpul di atas 88%, sehingga selisihnya kurang bermakna untuk menentukan siapa yang benar-benar lebih baik [22]. Karena itu, sebelum memilih model, pertanyaan yang lebih penting adalah: dipakai untuk apa? [8][22]

Ringkasan angka publik yang tersedia

ModelAngka publik yang terlihatArea yang tampak kuatCatatan saat membandingkan
Claude Opus 4.7BenchLM 97/100, provisional 2/110; SWE-bench Verified 82,4%; FinanceBench 82,7%; MathVista naik 9,5 poin [2][3]Coding, leaderboard umum BenchLM, analisis dokumen keuangan, penalaran matematika berbasis visualSkor research-agent 0,715 dari Anthropic adalah evaluasi internal, sehingga tidak bisa disejajarkan langsung dengan GDPval GPT-5.5 [7][29].
GPT-5.5BenchLM 89/100, provisional 5/112; GDPval 84,9%; OSWorld-Verified 78,7%; Tau2-bench Telecom 98,0%; Vals Accuracy 67,76% ± 1,79 [28][29][31]Pekerjaan pengetahuan, penggunaan komputer, alur layanan pelanggan, tugas agenOpenAI, BenchLM, dan Vals memakai kerangka evaluasi berbeda [28][29][31].
DeepSeek V4 / V4-Pro-MaxEntri Vals AI 23 April 2026; V4-Pro-Max MMLU-Pro 87,5%, GPQA Diamond 90,1%, GSM8K 92,6% [15][19]QA sains, matematika, penalaran tingkat tinggiDataCamp menyajikan angka tersebut sebagai hasil internal DeepSeek, jadi perlu dibedakan dari skor independen [15].
Kimi K2.6BenchLM 85/100, provisional 12/115; Vals Accuracy 63,94% ± 1,97, Latency 373,57 detik, Cost/Test US$0,21; Artificial Analysis Intelligence Index 54, peringkat keseluruhan 4 [36][37][39]Open weights, biaya, latensi, efisiensi operasionalNama Kimi 2.6, Kimi K2.6, dan K2.6 Thinking muncul di sumber berbeda; pastikan konfigurasi yang dibandingkan memang sama [37][39].

Leaderboard umum: di BenchLM, Claude terlihat paling tinggi

Jika memakai halaman BenchLM yang tersedia untuk tiga model, Claude Opus 4.7 berada di posisi paling tinggi. BenchLM menempatkan Claude Opus 4.7 di peringkat 2 dari 110 model pada provisional leaderboard dengan overall score 97/100, serta peringkat 2 dari 14 model pada verified leaderboard [3].

GPT-5.5 berada di peringkat 5 dari 112 model pada provisional leaderboard BenchLM dengan overall score 89/100, dan peringkat 2 dari 16 model pada verified leaderboard [28]. Kimi 2.6 tercatat di peringkat 12 dari 115 model pada provisional leaderboard BenchLM dengan overall score 85/100, dan halamannya menampilkan 27 skor benchmark publik [37].

Namun, ini hanya titik referensi dari BenchLM. Jumlah model pembanding pada halaman Claude, GPT-5.5, dan Kimi berbeda, yakni 110, 112, dan 115. Selain itu, dari bahan yang tersedia di sini, belum ada skor BenchLM setara untuk DeepSeek V4 yang bisa diletakkan di tabel yang sama [3][28][37].

Coding: angka paling jelas ada pada Claude Opus 4.7

Untuk software engineering, Claude Opus 4.7 punya angka publik yang paling langsung. MindStudio melaporkan Claude Opus 4.7 mencetak 82,4% pada SWE-bench Verified, naik sekitar 11 poin dari Opus 4.6 [2]. Sumber yang sama juga mencatat FinanceBench 82,7% dan kenaikan MathVista sebesar 9,5 poin, yang menunjukkan peningkatan pada analisis dokumen keuangan dan penalaran matematika berbasis visual [2].

Untuk GPT-5.5, angka resmi yang ditonjolkan OpenAI dalam sumber yang tersedia bukan SWE-bench, melainkan GDPval, OSWorld-Verified, dan Tau2-bench Telecom [29]. Untuk Kimi K2.6, GMI Cloud mengklaim model ini memuncaki SWE-Bench Pro, tetapi cuplikan sumber yang tersedia belum cukup untuk memastikan skor persis dan perbandingan empat model dalam kondisi yang sama [35]. Pada kumpulan sumber ini, angka DeepSeek V4 yang paling konkret lebih banyak berada di wilayah penalaran dan matematika daripada coding [15][16].

Agen kerja dan penggunaan komputer: GPT-5.5 punya indikator resmi yang spesifik

Untuk tugas berbentuk agen kerja, data resmi GPT-5.5 cukup konkret. OpenAI menyatakan GPT-5.5 meraih 84,9% pada GDPval, benchmark yang menguji kemampuan agen menghasilkan pekerjaan pengetahuan yang terspesifikasi di 44 jenis pekerjaan [29]. OpenAI juga melaporkan 78,7% pada OSWorld-Verified, yang mengukur kemampuan model mengoperasikan lingkungan komputer nyata, serta 98,0% pada Tau2-bench Telecom untuk alur kerja layanan pelanggan yang kompleks [29].

Claude Opus 4.7 juga memiliki data terkait tugas agen. Anthropic menyebut Claude Opus 4.7 mendapat skor 0,715 pada benchmark internal research-agent dan berbagi posisi teratas di enam modul, serta mencetak 0,813 pada modul General Finance dibandingkan 0,767 pada Opus 4.6 [7].

Tetapi angka-angka ini tidak boleh dibaca sebagai satu skala yang sama. Skor GPT-5.5 pada GDPval, OSWorld-Verified, dan Tau2-bench tidak langsung sebanding dengan skor 0,715 Claude pada benchmark internal Anthropic [7][29].

Penalaran dan pengetahuan: DeepSeek V4-Pro-Max dan Kimi K2.6 Thinking bisa dibandingkan pada sebagian tabel

Angka DeepSeek V4 yang paling spesifik muncul pada konfigurasi V4-Pro-Max. DataCamp menjelaskan bahwa berdasarkan hasil internal DeepSeek, DeepSeek V4-Pro-Max mencatat MMLU-Pro 87,5%, GPQA Diamond 90,1%, dan GSM8K 92,6% [15]. Angka ini berguna sebagai referensi, tetapi karena disebut berbasis hasil internal, bobotnya tidak sama dengan leaderboard independen [15].

Materi DeepSeek-V4-Pro di Hugging Face juga menampilkan DeepSeek V4-Pro-Max dan Kimi K2.6 Thinking dalam tabel yang sama untuk beberapa benchmark pengetahuan dan penalaran [16].

BenchmarkDeepSeek V4-Pro-MaxKimi K2.6 ThinkingUnggul pada tabel ini
MMLU-Pro87,587,1DeepSeek V4-Pro-Max
SimpleQA-Verified57,936,9DeepSeek V4-Pro-Max
Chinese-SimpleQA84,475,9DeepSeek V4-Pro-Max
GPQA Diamond90,190,5Kimi K2.6 Thinking
HLE37,736,4DeepSeek V4-Pro-Max

Dalam tabel tersebut, DeepSeek V4-Pro-Max unggul atas Kimi K2.6 Thinking pada MMLU-Pro, SimpleQA-Verified, Chinese-SimpleQA, dan HLE, sedangkan Kimi K2.6 Thinking unggul tipis pada GPQA Diamond [16]. Namun, tabel yang sama tidak membandingkan langsung Claude Opus 4.7 dan GPT-5.5; pembandingnya adalah model lain seperti Opus-4.6 Max dan GPT-5.4 xHigh. Jadi tabel ini belum cukup untuk menyimpulkan peringkat penuh empat model [16].

Biaya dan latensi: Kimi K2.6 menarik untuk dibaca dari sisi operasional

Di Vals AI, GPT-5.5 tercatat dengan Accuracy 67,76% ± 1,79, Latency 409,09 detik, dan Context Window 1 juta token [31]. Kimi K2.6 tercatat dengan Accuracy 63,94% ± 1,97, Latency 373,57 detik, dan Cost/Test US$0,21 [39]. Jika hanya membandingkan dua entri Vals itu, angka akurasi GPT-5.5 lebih tinggi, sedangkan angka latensi Kimi K2.6 lebih rendah [31][39].

Kimi K2.6 juga relevan bagi pengguna yang memperhatikan model open weights. Artificial Analysis menyebut Kimi K2.6 dari Moonshot sebagai leading open weights model, dengan Artificial Analysis Intelligence Index 54 dan peringkat keseluruhan 4 [36]. Namun, Artificial Analysis, Vals, dan BenchLM adalah sistem evaluasi berbeda; skor 54, akurasi Vals 63,94%, dan BenchLM 85/100 tidak boleh dijumlahkan menjadi satu nilai gabungan [36][37][39].

Panduan memilih untuk kebutuhan nyata

  • Jika prioritas utama adalah perbaikan kode otomatis dan tugas software engineering, Claude Opus 4.7 layak diperiksa lebih dulu karena angka SWE-bench Verified 82,4% dan BenchLM 97/100 adalah data yang paling jelas dalam bahan publik ini [2][3].
  • Jika kebutuhan Anda adalah pekerjaan pengetahuan, penggunaan komputer, atau alur layanan pelanggan, indikator resmi GPT-5.5 paling langsung: GDPval 84,9%, OSWorld-Verified 78,7%, dan Tau2-bench Telecom 98,0% [29].
  • Jika fokusnya QA sains, matematika, dan penalaran berat, bandingkan DeepSeek V4-Pro-Max dan Kimi K2.6 Thinking lewat MMLU-Pro, GPQA Diamond, dan HLE, sambil mengingat sebagian angka DeepSeek berasal dari hasil internal [15][16].
  • Jika open weights, biaya per test, dan latensi penting, Kimi K2.6 perlu masuk daftar uji karena Artificial Analysis menyorotnya sebagai model open weights terdepan dan Vals mencatat US$0,21 per test serta latensi 373,57 detik [36][39].
  • Jangan bertumpu pada MMLU saja. Pada 2026, model papan atas sudah berkumpul di rentang skor tinggi, sehingga MMLU kurang efektif sebagai pemisah utama [22].

Kesimpulan

Dengan bukti publik yang tersedia, Claude Opus 4.7 terlihat kuat pada coding dan leaderboard umum BenchLM; GPT-5.5 memiliki indikator resmi yang kuat untuk pekerjaan agen, penggunaan komputer, dan alur layanan pelanggan; DeepSeek V4-Pro-Max menonjol lewat angka penalaran dan matematika; sedangkan Kimi K2.6 menarik dari sisi open weights, biaya, dan latensi [2][3][15][16][28][29][36][37][39].

Namun, belum ada dasar yang cukup rapi untuk menetapkan urutan mutlak dari peringkat 1 sampai 4. Untuk keputusan produksi, jadikan benchmark ini sebagai peta awal, lalu lakukan evaluasi sendiri pada tugas yang benar-benar mirip dengan kebutuhan Anda: coding, analisis dokumen keuangan, kontrol browser atau komputer, layanan pelanggan, atau eksekusi agen jangka panjang [8][22].

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

Studio Global AI로 검색 및 팩트체크

주요 시사점

  • Belum ada bukti publik yang menaruh keempat model dalam benchmark, konfigurasi, dan biaya yang sama; skor seperti Claude Opus 4.7 BenchLM 97/100 dan GPT 5.5 GDPval 84,9% tidak bisa dijumlahkan begitu saja [3][19][29].
  • DeepSeek V4 Pro Max memiliki angka MMLU Pro 87,5% dan GPQA Diamond 90,1% berdasarkan hasil internal, sementara Kimi K2.6 tercatat BenchLM 85/100 serta Vals Accuracy 63,94% ± 1,97 dengan biaya US$0,21 per test [15][37]...
  • Pilihan paling aman adalah berbasis tugas: Claude untuk coding, GPT 5.5 untuk pekerjaan agen dan penggunaan komputer, DeepSeek/Kimi untuk perbandingan penalaran, dan Kimi untuk open weights serta indikator biaya [2][1...

사람들은 또한 묻습니다.

"Claude Opus 4.7, GPT-5.5, DeepSeek V4, Kimi K2.6: Benchmark 2026 dan Cara Membacanya"에 대한 짧은 대답은 무엇입니까?

Belum ada bukti publik yang menaruh keempat model dalam benchmark, konfigurasi, dan biaya yang sama; skor seperti Claude Opus 4.7 BenchLM 97/100 dan GPT 5.5 GDPval 84,9% tidak bisa dijumlahkan begitu saja [3][19][29].

먼저 검증할 핵심 포인트는 무엇인가요?

Belum ada bukti publik yang menaruh keempat model dalam benchmark, konfigurasi, dan biaya yang sama; skor seperti Claude Opus 4.7 BenchLM 97/100 dan GPT 5.5 GDPval 84,9% tidak bisa dijumlahkan begitu saja [3][19][29]. DeepSeek V4 Pro Max memiliki angka MMLU Pro 87,5% dan GPQA Diamond 90,1% berdasarkan hasil internal, sementara Kimi K2.6 tercatat BenchLM 85/100 serta Vals Accuracy 63,94% ± 1,97 dengan biaya US$0,21 per test [15][37]...

실무에서는 다음으로 무엇을 해야 합니까?

Pilihan paling aman adalah berbasis tugas: Claude untuk coding, GPT 5.5 untuk pekerjaan agen dan penggunaan komputer, DeepSeek/Kimi untuk perbandingan penalaran, dan Kimi untuk open weights serta indikator biaya [2][1...

다음에는 어떤 관련 주제를 탐구해야 할까요?

다른 각도와 추가 인용을 보려면 "Claude Opus 4.7·GPT-5.5·DeepSeek V4·Kimi K2.6 벤치마크 비교: 2026년 판정"으로 계속하세요.

관련 페이지 열기

이것을 무엇과 비교해야 합니까?

"DeepSeek V4 엔지니어링 해설: 100만 토큰, MoE, API 이전 체크포인트"에 대해 이 답변을 대조 확인하세요.

관련 페이지 열기

연구를 계속하세요

연구 대화

당신

연구문제

Claude Opus 4.7, GPT-5.5, DeepSeek V4, Kimi K2.6의 벤치마크를 조사하고 가능한 한 종합적으로 비교해 주세요.

Studio Global AI40 소스

인용 답변

제공된 근거만으로는 네 모델을 동등한 수준으로 “종합 벤치마크 비교”하기에는 자료가 크게 부족합니다. 확인 가능한 정량 벤치마크는 사실상 Claude Opus 4.7에 집중되어 있고, GPT-5.5·DeepSeek V4·Kimi K2.6은 제공 근거 안에서 직접 비교 가능한 공식 점수나 일관된 벤치마크 결과가 없습니다. 따라서 아래 비교는 “확인 가능한 것”과 “증거 부족”을 명확히 나누어 정리합니다.

Key findings

  • Claude Opus 4.7은 제공된 자료 중 유일하게 구체적인 벤치마크 수치가 확인되는 모델입니다. SWE-bench Verified에서 82.4%를 기록했고, 이는 Opus 4.6 대비 약 11점 상승한 것으로 제시됩니다 [6].

  • Claude Opus 4.7은 BenchLM 기준 provisional leaderboard에서 110개 모델 중 2위, overall score 97/100으로 제시되며, verified leaderboard에서도 14개 모델 중 2위로 언급됩니다 [7].

  • Claude Opus 4.7은 비전 관련 개선 폭이 컸고, MathVista가 9.5점 상승했다는 자료가 있습니다 [6].

  • Kimi K2.6은 Vals AI의 모델 목록에서 Moonshot AI 모델로 확인되며, 제공된 스니펫에는 2026년 4월 20일 항목으로 표시됩니다 [5]. 다만 이 근거에는 Kimi K2.6의 실제 벤치마크 점수가 포함되어 있지 않습니다 [5].

  • Claude Opus 4.7 역시 Vals AI 목록에서 Anthropic 모델로 확인되며, 제공된 스니펫에는 2026년 4월 16일 항목으로 표시됩니다 [5].

  • GPT-5.5에 대해서는 제공된 근거 안에 직접적인 벤치마크 점수, 공식 발표, 리더보드 결과가 없습니다. Insufficient evidence.

  • DeepSeek V4에 대해서는 제공된 근거 중 Reddit 스니펫이 있으나, 해당 스니펫은 로컬 호스팅과 운영상 조언에 가까우며 비교 가능한 벤치마크 수치를 제공하지 않습니다 [40]. Insufficient evidence.

비교 표

모델확인 가능한 벤치마크 / 순위강점으로 볼 수 있는 영역증거 수준
Claude Opus 4.7SWE-bench Verified 82.4% [6]; BenchLM provisional 2/110, 97/100 [7]; verified 2/14 [7]코딩, 비전 수학 추론, 종합 리더보드 성능 [6][7]상대적으로 높음
GPT-5.5제공 근거 내 직접 점수 없음판단 불가Insufficient evidence
DeepSeek V4제공 근거 내 직접 점수 없음판단 불가Insufficient evidence
Kimi K2.6모델 목록 및 날짜 항목은 확인되나 점수 없음 [5]판단 불가낮음

벤치마크별 해석

  • SWE-bench Verified 기준으로는 Claude Opus 4.7만 비교 가능한 수치가 있습니다. Claude Opus 4.7의 82.4%는 제공 자료상 Opus 4.6 대비 약 11점 개선된 결과로 제시됩니다 [6].

  • 종합 리더보드 기준으로도 Claude Opus 4.7만 명확한 순위가 있습니다. BenchLM은 Claude Opus 4.7을 provisional leaderboard 110개 모델 중 2위, overall score 97/100으로 제시합니다 [7].

  • 비전·수학 영역에서는 Claude Opus 4.7의 MathVista 점수가 9.5점 상승했다는 자료가 있으나, GPT-5.5·DeepSeek V4·Kimi K2.6의 동등 지표가 제공되지 않아 상대 비교는 불가능합니다 [6].

  • 일반 지식·추론 벤치마크는 2026년 기준 MMLU, MMLU-Pro, GPQA Diamond, SWE-bench, Arena Elo 등이 주요 평가로 언급됩니다 [2]. 다만 MMLU는 상위 모델들이 이미 88% 이상을 기록해 2026년에는 변별력이 약하다는 지적이 있습니다 [3].

Evidence notes

  • Stanford HAI의 2026 AI Index 기술 성능 자료는 ImageNet, VQA, SuperGLUE, SQuAD 2.0 등 여러 벤치마크에서 AI 성능이 인간 성능과 비교되는 장기 추세를 다룹니다 [1]. 이는 개별 네 모델의 직접 비교 자료라기보다는 벤치마크 해석의 배경 자료에 가깝습니다 [1].

  • Kili Technology 자료는 2026년 주요 벤치마크로 MMLU, MMLU-Pro, GPQA Diamond, SWE-bench, Arena Elo 등을 언급하면서 벤치마크만으로 모델 성능을 충분히 설명하기 어렵다고 설명합니다 [2].

  • Nanonets 자료는 MMLU가 5-shot 방식으로 계산된다는 점과, 상위 모델들이 88% 이상을 기록하면서 2026년에는 변별력이 낮아졌다는 점을 지적합니다 [3].

  • DeepSeek V4 관련 제공 근거는 Reddit 스니펫뿐이며, 신뢰도 높은 공식·학술·독립 리더보드 근거가 아닙니다 [40].

Limitations / uncertainty

  • GPT-5.5, DeepSeek V4, Kimi K2.6에 대해 제공된 근거만으로는 SWE-bench, GPQA, MMLU-Pro, AIME, MathVista, Arena Elo 같은 동일 벤치마크 축에서 점수를 비교할 수 없습니다. Insufficient evidence.

  • Claude Opus 4.7의 수치도 출처별로 평가 방법과 리더보드 산식이 다를 수 있으므로, BenchLM의 97/100 및 순위와 SWE-bench Verified 82.4%는 서로 다른 평가 체계의 결과로 해석해야 합니다 [6][7].

  • Kimi K2.6은 모델 존재와 날짜 항목은 확인되지만, 제공 근거 안에는 성능 점수가 없습니다 [5]. Insufficient evidence.

  • DeepSeek V4는 제공 근거 안에서 벤치마크 수치가 확인되지 않습니다 [40]. Insufficient evidence.

Summary

현재 제공된 증거만 놓고 보면 Claude Opus 4.7이 네 모델 중 유일하게 구체적이고 비교 가능한 성능 자료를 갖고 있습니다. Claude Opus 4.7은 SWE-bench Verified 82.4%, BenchLM provisional 2위/110개 모델, overall score 97/100으로 제시되어 코딩과 종합 평가에서 매우 강한 모델로 볼 수 있습니다 [6][7].

반면 GPT-5.5, DeepSeek V4, Kimi K2.6은 제공 근거 안에서 직접 벤치마크 점수가 없으므로 Claude Opus 4.7보다 높다거나 낮다고 결론낼 수 없습니다. Insufficient evidence.

출처

  • [2] Claude Opus 4.7 Benchmark Breakdown: Vision, Coding, ...mindstudio.ai

    Claude Opus 4.7 posted 82.4% on SWE-bench Verified, up roughly 11 points from Opus 4.6 — the most meaningful coding benchmark available. Vision improvements were the largest percentage gains: MathVista jumped 9.5 points, enabling reliable visual math reason...

  • [3] Claude Opus 4.7 Benchmarks 2026: Scores, Rankings & Performancebenchlm.ai

    Core Rankings Specialized Use Cases Dashboards Directories Guides & Lists Tools Claude Opus 4.7 According to BenchLM.ai, Claude Opus 4.7 ranks 2 out of 110 models on the provisional leaderboard with an overall score of 97/100. It also ranks 2 out of 14 on t...

  • [7] Introducing Claude Opus 4.7 - Anthropicanthropic.com

    Image 7: logo Based on our internal research-agent benchmark, Claude Opus 4.7 has the strongest efficiency baseline we’ve seen for multi-step work. It tied for the top overall score across our six modules at 0.715 and delivered the most consistent long-cont...

  • [8] AI Benchmarks 2026: Top Evaluations and Their Limitskili-technology.com

    Image 2: Kili Technology.png) Kili Technology · Apr 13, 2026 Image 3: AI Benchmarks Guide: The Top Evaluations in 2026 and Why They're Not Enough Table of contents Introduction What Are the Most Important AI Benchmarks in 2026? General knowledge and reasoni...

  • [13] [PDF] Technical Performance - Stanford HAIhai.stanford.edu

    Technical Performance Benchmarks vs. Human Performance 76 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 2022 2023 2024 2025 0% 20% 40% 60% 80% 100% 120% Image classiLJcation (ImageNet Top-5) Visual reasoning (VQA) English language understanding (SuperGLU...

  • [15] DeepSeek V4: Features, Benchmarks, and Comparisonsdatacamp.com

    DeepSeek V4 Benchmarks According to DeepSeek’s internal results, DeepSeek V4 demonstrates impressive performance, particularly when pushed to its maximum reasoning limits (DeepSeek-V4-Pro-Max). According to the official release notes, here is how the model...

  • [16] deepseek-ai/DeepSeek-V4-Pro - Hugging Facehuggingface.co

    Opus-4.6 Max GPT-5.4 xHigh Gemini-3.1-Pro High K2.6 Thinking GLM-5.1 Thinking DS-V4-Pro Max :---: :---: :---: Knowledge & Reasoning MMLU-Pro (EM) 89.1 87.5 91.0 87.1 86.0 87.5 SimpleQA-Verified (Pass@1) 46.2 45.3 75.6 36.9 38.1 57.9 Chinese-SimpleQA (Pass@1...

  • [19] DeepSeek V4 - Vals AIvals.ai

    Benchmarks Models Comparison Model Guide App Reports News About Benchmarks Models Comparison Model Guide App Reports About Release date Models 4/23/2026 DeepSeek DeepSeek V4 4/23/2026 OpenAI GPT 5.5 4/20/2026 Moonshot AI Kimi K2.6 4/16/2026 Anthropic Claude...

  • [22] AI Benchmarks Explained: GPQA, SWE-bench & Arena Elonanonets.com

    How the score is calculated: Before each question, the model is shown 5 example questions with correct answers, this is called 5-shot prompting. Then comes the real question. Score = correct answers ÷ total questions, expressed as a percentage. Why it's nea...

  • [28] GPT-5.5 Benchmarks 2026: Scores, Rankings & Performancebenchlm.ai

    Core Rankings Specialized Use Cases Dashboards Directories Guides & Lists Tools GPT-5.5 According to BenchLM.ai, GPT-5.5 ranks 5 out of 112 models on the provisional leaderboard with an overall score of 89/100. It also ranks 2 out of 16 on the verified lead...

  • [29] Introducing GPT-5.5 - OpenAIopenai.com

    GPT‑5.5 reaches state-of-the-art performance across multiple benchmarks that reflect this kind of work. OnGDPval⁠⁠, which tests agents’ abilities to produce well-specified knowledge work across 44 occupations, GPT‑5.5 scores 84.9%. On OSWorld-Verified, whic...

  • [31] GPT 5.5 - Vals AIvals.ai

    2/17/2026 Anthropic Claude Sonnet 4.6 2/16/2026 Alibaba Qwen 3.5 Plus 2/12/2026 MiniMax MiniMax-M2.5 2/12/2026 MiniMax MiniMax-M2.5 2/11/2026 zAI GLM 5 2/5/2026 Anthropic Claude Opus 4.6 (Nonthinking) 2/5/2026 Anthropic Claude Opus 4.6 (Thinking) 1/26/2026...

  • [35] Kimi K2.6 on GMI Cloud: Architecture, Benchmarks & API Accessgmicloud.ai

    Kimi K2.6 tops SWE-Bench Pro and runs 300 parallel sub-agents on 4x H100S. Learn the full architecture, benchmark results, and how to run it ... 3 days ago

  • [36] Kimi K2.6: The new leading open weights model - Artificial Analysisartificialanalysis.ai

    Moonshot's Kimi K2.6 is the new leading open weights model. Kimi K2.6 lands at 4 on the Artificial Analysis Intelligence Index (54) behind ... 5 days ago

  • [37] Kimi 2.6 Benchmarks 2026: Scores, Rankings & Performancebenchlm.ai

    Kimi 2.6 by Moonshot AI scores 85/100 on BenchLM's provisional leaderboard ( 12 of 115) with 27 published benchmark scores currently shown ... 6 days ago

  • [39] Kimi K2.6 - Vals AIvals.ai

    Kimi K2.6. Release Date: 4/20/2026. Vals Index. Accuracy (Vals Index). 63.94% ± 1.97. Latency (Vals Index). 373.57s. Cost/Test (Vals Index). $0.21.