studioglobal
인기 있는 발견
답변게시됨13 소스

Kimi K2.6 vs GPT-5.5·Gemini·Claude: 개발자 관점의 결론

Kimi K2.6의 핵심 강점은 가격이다. OpenRouter 기준 262,144토큰 컨텍스트와 100만 입력·출력 토큰당 $0.75·$3.50 가격이 제시됐다 [26]. GPT 5.5와 Gemini 2.5 Pro는 이 자료 묶음에서 100만 토큰 컨텍스트 근거가 더 뚜렷하고, Gemini는 음성 처리 지원 근거도 더 명확하다 [45][6].

19K0
Abstract comparison of AI coding models Kimi K2.6, GPT-5.5, Gemini and Claude
Kimi K2.6 vs GPT-5.5, Gemini and Claude: The Developer VerdictAI-generated editorial illustration for comparing Kimi K2.6 with GPT-5.5, Gemini and Claude.
AI 프롬프트

Create a landscape editorial hero image for this Studio Global article: Kimi K2.6 vs GPT-5.5, Gemini and Claude: The Developer Verdict. Article summary: Kimi K2.6 is a credible lower cost coding agent option: OpenRouter lists 262,144 context tokens and $0.75/$3.50 per 1M input/output tokens, but the evidence does not prove it broadly beats GPT 5.5, Gemini 2.5 Pro or C.... Topic tags: ai, llm, kimi, moonshot ai, openai. Reference image context from search candidates: Reference image 1: visual subject "[Sign in](https://medium.com/m/signin?operation=login&redirect=https%3A%2F%2Fmedium.com%2F%40cognidownunder%2Ffour-giants-one-winner-kimi-k2-5-vs-gpt-5-2-vs-claude-opus-4-5-vs-gemi" source context "Four Giants, One Winner: Kimi K2.5 vs GPT-5.2 vs Claude Opus 4.5 vs Gemini 3 Pro Comparison" Reference image 2: visual subject "[Sign in](https://medium.com/m/signin?operation=login&redirect=https

openai.com

Kimi K2.6는 GPT-5.5, Gemini 2.5 Pro, Claude를 한 번에 대체할 범용 최상위 모델로 보기보다, 저비용 코딩 에이전트 모델로 평가하는 편이 현실적이다. 여러 모델 API를 비교·중개하는 OpenRouter는 Kimi K2.6의 컨텍스트 창을 262,144토큰, 가격을 100만 입력 토큰당 $0.75와 100만 출력 토큰당 $3.50로 표시한다 [26]. 별도의 OpenRouter 유효 가격 페이지에서는 같은 모델을 100만 입력 토큰당 $0.60, 출력 토큰당 $2.80로 제시한다 [32]. 반면 OpenAI는 GPT-5.5가 API에서 100만 입력 토큰당 $5, 출력 토큰당 $30, 100만 토큰 컨텍스트 창으로 제공될 예정이라고 밝혔다 [45].

정리하면, 이 자료 묶음에서 가격은 Kimi K2.6 쪽이 가장 강하고, 100만 토큰급 장문 컨텍스트 근거는 GPT-5.5와 Gemini 2.5 Pro 쪽이 더 뚜렷하다 [45][6].

짧은 결론

  • Kimi K2.6: 토큰 비용이 중요한 대량 코딩 에이전트, 코드·UI 생성, 다중 에이전트 오케스트레이션에서 먼저 시험해볼 만한 모델이다 [7][31].
  • GPT-5.5: 100만 토큰 컨텍스트 창, OpenAI의 1차 API 로드맵, 플랫폼 통합성이 가격보다 중요할 때 우선 검토할 만하다 [45].
  • Gemini 2.5 Pro: 장문 컨텍스트와 음성·멀티모달 워크플로에 강한 후보로 남는다. DocsBot은 Gemini 2.5 Pro를 100만 토큰 컨텍스트로 표시하고, Kimi K2.6와 달리 음성 처리를 지원한다고 설명한다 [6].
  • Claude: 평가 목록에서 빼면 안 된다. 다만 제공된 제3자 자료만으로는 컨텍스트와 가격 정보가 엇갈려 단정적 순위 매기기는 어렵다 [16][19].

한눈에 보는 비교

비교 항목Kimi K2.6GPT-5.5·Gemini 2.5 Pro·Claude개발자에게 의미하는 것
API 가격OpenRouter는 100만 입력 토큰당 $0.75, 출력 토큰당 $3.50로 표시한다. 유효 가격 페이지는 $0.60, $2.80로 표시한다 [26][32].OpenAI는 GPT-5.5 가격을 100만 입력 토큰당 $5, 출력 토큰당 $30로 밝혔다 [45]. Artificial Analysis는 Gemini 2.5 Pro를 $1.25, $10로 추적한다 [21]. Claude 가격은 제공된 제3자 자료마다 차이가 있다 [2][19].이 자료 묶음에서는 Kimi의 토큰 단가 우위가 가장 분명하다.
컨텍스트 창OpenRouter 기준 262,144토큰이다 [26].OpenAI는 GPT-5.5를 100만 토큰 컨텍스트 창으로 설명한다 [45]. Kimi와 Gemini 비교 자료는 Gemini 2.5 Pro를 100만 토큰 컨텍스트로 표시한다 [6]. Claude는 제공된 제3자 자료에서 200K와 1M 주장이 엇갈린다 [16][19].Kimi도 충분히 긴 편이지만, 100만 토큰급 작업은 GPT-5.5와 Gemini 쪽 근거가 더 강하다.
코딩·에이전트OpenRouter는 Kimi를 장기 코딩, 코딩 기반 UI·UX 생성, 다중 에이전트 오케스트레이션 중심 모델로 설명한다 [7]. DocsBot은 최대 300개 하위 에이전트와 4,000개 조율 단계까지 확장 가능하다고 설명한다 [31].한 비교 자료는 Claude Sonnet 4.6의 코드 생성 품질을 높게 평가하지만, 제공된 자료에는 네 모델을 같은 조건에서 비교한 중립 벤치마크가 없다 [16].자율 코딩 후보군에 Kimi를 반드시 넣되, 실제 업무 기준 벤치마크가 필요하다.
멀티모달Kimi K2.6는 멀티모달 모델이며 시각 입력을 활용할 수 있는 것으로 설명된다 [7].DocsBot은 Gemini 2.5 Pro가 음성 처리를 지원하지만 Kimi K2.6는 그렇지 않다고 설명한다 [6]. 다른 비교 자료는 Google AI가 비전·오디오·비디오를, Claude가 비전·문서를 지원한다고 설명한다 [16].음성·오디오·비디오가 핵심이면 Gemini 쪽 근거가 더 명확하다.
벤치마크 신뢰도Moonshot의 Hugging Face 모델 카드는 코딩, 추론, 지식 과제 전반의 벤치마크 표를 공개한다 [33].한 모델 리뷰는 Kimi K2.6가 최근 출시된 모델이라 독립 벤치마크 평가가 아직 예비적이라고 주의한다 [34].Kimi가 모든 최상위 경쟁 모델을 이긴다고 말하기에는 이 자료만으로 부족하다.

Kimi K2.6가 매력적인 이유

1. 대량 사용에서 체감되는 토큰 경제성

Kimi K2.6의 가장 선명한 숫자상 장점은 가격이다. OpenRouter의 일반 표시 가격을 기준으로 보면 GPT-5.5는 Kimi보다 입력 토큰 가격이 약 6.7배, 출력 토큰 가격이 약 8.6배 높다 [26][45]. OpenRouter의 유효 가격 페이지를 기준으로 하면 Kimi가 100만 입력 토큰당 $0.60, 출력 토큰당 $2.80로 표시되므로 격차는 더 커진다 [32].

Gemini 2.5 Pro와 비교해도 Kimi는 가격 면에서 유리해 보인다. Artificial Analysis는 Gemini 2.5 Pro를 100만 입력 토큰당 $1.25, 출력 토큰당 $10로 추적하고, OpenRouter의 Kimi K2.6 일반 표시는 $0.75와 $3.50다 [21][26]. 별도의 Kimi 대 Gemini 비교 자료는 Kimi 가격을 더 높은 $0.95와 $4.00로 잡지만, 그 비교 안에서도 Gemini 2.5 Pro의 $1.25와 $10.00보다 낮게 표시한다 [6].

다만 코딩 에이전트에서 중요한 지표는 단순한 토큰 단가가 아니다. 실제로는 성공한 작업 1건당 비용이 중요하다. 같은 문제를 여러 번 재시도해야 한다면 싼 모델도 총비용이 커질 수 있다. 따라서 Kimi의 낮은 가격은 대량 실험에 매력적이지만, 성공률·지연시간·재시도 비용은 각 팀의 실제 워크플로에서 따로 측정해야 한다.

2. 챗봇보다 코딩 에이전트에 가까운 포지셔닝

Kimi K2.6는 일반 대화형 챗봇으로만 소개되는 모델이 아니다. OpenRouter는 Kimi K2.6를 장기 코딩, 코딩 기반 UI·UX 생성, 다중 에이전트 오케스트레이션을 위해 설계된 Moonshot AI의 차세대 멀티모달 모델로 설명한다 [7]. DocsBot 역시 Kimi K2.6를 장기 코딩, 코딩 기반 디자인, 선제적 자율 실행, 스웜 기반 작업 오케스트레이션을 발전시킨 오픈소스 네이티브 멀티모달 에이전트 모델로 설명한다 [31].

이런 포지셔닝은 자율 코딩 에이전트, 대규모 리팩터링, 테스트 생성, 코드 리뷰, 프롬프트나 시각 입력에서 UI를 생성하는 작업, 여러 하위 작업을 나눠 병렬로 처리하는 파이프라인에서 특히 의미가 있다 [7][31].

3. 오픈 모델 선택지

제공된 여러 자료는 Kimi K2.6를 오픈소스 또는 오픈웨이트 모델로 설명한다. GMI Cloud는 Moonshot AI가 Kimi K2.6를 Modified MIT License 아래 오픈소스로 공개했다고 설명하고, DocsBot도 이 모델을 오픈소스로 소개한다 [28][31].

이는 API 전용 모델보다 배포 선택지를 더 넓게 가져가려는 팀에 중요할 수 있다. 다만 실제 제품이나 기업 내부 시스템에 적용할 때는 최신 모델 카드, 제공자 약관, 라이선스 세부 조건을 별도로 확인해야 한다. 오픈 모델이라는 표현만으로 재배포·상업적 이용·컴플라이언스 요건이 자동으로 해결되는 것은 아니다.

GPT-5.5, Gemini, Claude가 여전히 강한 지점

GPT-5.5: 100만 토큰 컨텍스트와 OpenAI API 로드맵

OpenAI는 GPT-5.5가 Responses API와 Chat Completions API에서 제공될 예정이며, 가격은 100만 입력 토큰당 $5, 출력 토큰당 $30, 컨텍스트 창은 100만 토큰이라고 밝혔다 [45]. 이 가격은 Kimi의 OpenRouter 표시 가격보다 훨씬 높지만, 제공된 자료 안에서는 GPT-5.5의 100만 토큰 컨텍스트 근거가 Kimi의 262,144토큰 표시보다 강하다 [45][26].

대형 코드베이스, 긴 법률·금융 문서 묶음, 또는 한 세션 안에서 최대한 많은 문맥을 유지해야 하는 작업이라면 GPT-5.5를 먼저 시험해볼 이유가 있다.

Gemini 2.5 Pro: 장문 컨텍스트와 음성 처리

Gemini 2.5 Pro는 이 자료 묶음에서 장문 컨텍스트와 음성 처리 근거가 비교적 명확하다. DocsBot의 Kimi 대 Gemini 비교 페이지는 Gemini 2.5 Pro를 100만 토큰 컨텍스트, Kimi K2.6를 262K 토큰으로 표시하고, Gemini가 음성 처리를 지원하지만 Kimi는 지원하지 않는다고 설명한다 [6]. 또 다른 제3자 비교 자료는 Google AI가 비전·오디오·비디오를 지원한다고 설명한다 [16].

따라서 음성 비서, 오디오·비디오 중심 제품, 또는 Google AI 스택과 이미 맞물린 제품에서는 Gemini 2.5 Pro를 상위 후보로 두는 편이 안전하다.

Claude: 제외할 모델은 아니지만 숫자는 직접 확인해야 한다

Claude는 이 자료만으로 순위를 매기기 가장 어렵다. 한 제3자 비교 자료는 Anthropic Claude API의 컨텍스트 창을 200K 토큰으로 표시하지만, 다른 자료는 Claude 4.6 모델이 표준 가격에서 100만 토큰 컨텍스트를 포함한다고 설명한다 [16][19]. 제공된 제3자 가격 자료도 일부 Claude 가격에서 서로 다르다 [2][19].

이 충돌이 Claude가 약하다는 뜻은 아니다. 한 비교 자료는 Claude Sonnet 4.6의 코드 생성 품질을 excellent로 평가하고, 안전성과 가드레일을 차별점으로 제시한다 [16]. 책임 있는 결론은 더 좁다. 이 자료 묶음에서는 Kimi가 저비용·에이전트 포지셔닝에서 더 명확하지만, Claude는 코드 품질, 추론 방식, 안전 민감 워크플로 평가에서 계속 벤치마크 목록에 남겨야 한다.

실제 선택 가이드

Kimi K2.6 vs GPT-5.5

토큰 비용이 병목이고 262,144토큰 컨텍스트로 충분하다면 Kimi부터 시험하는 편이 합리적이다 [26][32]. 반대로 100만 토큰 컨텍스트 창이나 OpenAI API 플랫폼 자체가 더 중요하다면 GPT-5.5를 우선 검토할 만하다 [45].

Kimi K2.6 vs Gemini 2.5 Pro

저렴한 코딩 에이전트 실험, UI·코드 오케스트레이션이 목적이라면 Kimi가 먼저다 [7][26]. 제품의 핵심이 100만 토큰 컨텍스트, 음성 처리, 오디오·비디오 멀티모달이라면 Gemini 2.5 Pro가 더 자연스러운 출발점이다 [6][16].

Kimi K2.6 vs Claude

Kimi와 Claude의 최종 선택을 제공된 제3자 가격·컨텍스트 자료만으로 결정해서는 안 된다 [16][19]. 대표 업무를 골라 두 모델을 모두 돌리고, 코드 품질, 거절·안전 응답, 도구 사용 안정성, 지연시간, 성공 작업 1건당 총비용을 비교해야 한다.

결론: Kimi는 강력한 가성비 후보, 최종 승자는 업무가 정한다

Kimi K2.6는 공격적인 표시 가격, 262,144토큰의 큰 컨텍스트 창, 장기 코딩과 다중 에이전트 오케스트레이션 중심 포지셔닝을 함께 갖춘 진지한 개발자용 모델이다 [26][32][7]. 특히 토큰 사용량과 재시도가 비용을 빠르게 키우는 대량 코딩 에이전트 환경에서 매력적이다.

하지만 이 자료만으로 Kimi K2.6가 전체 최강 모델이라고 보기는 어렵다. GPT-5.5와 Gemini 2.5 Pro는 100만 토큰 컨텍스트 근거가 더 강하고, Gemini는 음성 지원 근거가 더 명확하며, Claude는 제공된 제3자 데이터가 충돌해 깔끔하게 순위를 매기기 어렵다 [45][6][16][19].

가장 안전한 개발자 결론은 단순하다. Kimi를 먼저 벤치마크하되, 실제 출시할 작업에서 GPT-5.5, Gemini, Claude와 나란히 비교하라. 그리고 모델 순위표가 아니라 성공률, 지연시간, 성공 결과 1건당 비용으로 결정하는 것이 낫다.

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

Studio Global AI로 검색 및 팩트체크

주요 시사점

  • Kimi K2.6의 핵심 강점은 가격이다. OpenRouter 기준 262,144토큰 컨텍스트와 100만 입력·출력 토큰당 $0.75·$3.50 가격이 제시됐다 [26].
  • GPT 5.5와 Gemini 2.5 Pro는 이 자료 묶음에서 100만 토큰 컨텍스트 근거가 더 뚜렷하고, Gemini는 음성 처리 지원 근거도 더 명확하다 [45][6].
  • Claude는 코드 품질과 안전성 평가에서 제외할 모델은 아니지만, 제공된 제3자 자료의 가격·컨텍스트 정보가 엇갈려 직접 벤치마크가 필요하다 [16][19].

사람들은 또한 묻습니다.

"Kimi K2.6 vs GPT-5.5·Gemini·Claude: 개발자 관점의 결론"에 대한 짧은 대답은 무엇입니까?

Kimi K2.6의 핵심 강점은 가격이다. OpenRouter 기준 262,144토큰 컨텍스트와 100만 입력·출력 토큰당 $0.75·$3.50 가격이 제시됐다 [26].

먼저 검증할 핵심 포인트는 무엇인가요?

Kimi K2.6의 핵심 강점은 가격이다. OpenRouter 기준 262,144토큰 컨텍스트와 100만 입력·출력 토큰당 $0.75·$3.50 가격이 제시됐다 [26]. GPT 5.5와 Gemini 2.5 Pro는 이 자료 묶음에서 100만 토큰 컨텍스트 근거가 더 뚜렷하고, Gemini는 음성 처리 지원 근거도 더 명확하다 [45][6].

실무에서는 다음으로 무엇을 해야 합니까?

Claude는 코드 품질과 안전성 평가에서 제외할 모델은 아니지만, 제공된 제3자 자료의 가격·컨텍스트 정보가 엇갈려 직접 벤치마크가 필요하다 [16][19].

다음에는 어떤 관련 주제를 탐구해야 할까요?

다른 각도와 추가 인용을 보려면 "Claude Security 공개 베타: 앤트로픽의 AI 코드 취약점 스캐너가 하는 일"으로 계속하세요.

관련 페이지 열기

이것을 무엇과 비교해야 합니까?

"Grok 4.3 API 분석: 100만 토큰과 낮은 단가, xAI의 다음 승부수"에 대해 이 답변을 대조 확인하세요.

관련 페이지 열기

연구를 계속하세요

연구 대화

당신

연구문제

How Kimi K2.6 compare to US top AI models?

Studio Global AI40 소스

인용 답변

Kimi K2.6 looks competitive with top U.S. models, but not clearly dominant overall. The strongest case for it is cost-efficient coding and agent-style workflows; the strongest case for the U.S. leaders is broader multimodality, larger context in some cases, and more mature product ecosystems.[1][2][3][4]

  • Where Kimi K2.6 looks strong

    • Kimi K2.6 is positioned as an open, multimodal, agent-oriented model with a 262,144-token context window and API pricing around $0.75 per 1M input tokens and $3.50 per 1M output tokens on OpenRouter.[1]
    • Third-party coverage describes it as especially strong for long-horizon coding, UI/code generation, and multi-agent orchestration, rather than just normal chatbot use.[1][5]
    • On price, it appears cheaper than premium U.S. frontier models and even cheaper than Gemini 2.5 Pro’s official API price of $1.25 per 1M input and $10.00 per 1M output tokens.[1][2]
  • Where U.S. top models still appear ahead

    • Gemini 2.5 Pro has a much larger official context window of 1M tokens, which matters for very large documents, repositories, and long-running sessions.[2]
    • Third-party comparisons say Gemini 2.5 Pro supports voice processing, while Kimi K2.6 does not in those comparisons.[6]
    • U.S. models also generally have stronger ecosystem advantages: tighter integrations, more mature enterprise support, and better-known safety/governance tooling. I don’t have enough primary-source benchmark evidence here to rank GPT-5 or Claude definitively against Kimi K2.6 on pure intelligence.[2][3]
  • How I’d compare them in practice

    1. For coding agents and cost-sensitive API use: Kimi K2.6 is a serious contender.[1][5]
    2. For largest-context work: Gemini 2.5 Pro has the edge.[2]
    3. For safest “default enterprise bet”: U.S. leaders still look stronger because of ecosystem maturity and deployment confidence, though that is partly qualitative rather than benchmark-only.[2][3]
  • Important caveat

    • The available evidence in these search results is mixed: pricing/context data are reasonably supported, including official Google pricing, but many direct “Kimi vs GPT/Claude” performance claims come from aggregators and blog-style sources rather than clear primary benchmark pages.[1][2][5] So the fair summary is: Kimi K2.6 is competitive and probably underpriced for its capability, but there is insufficient evidence here to say it broadly beats the top U.S. models overall.[1][5]

If you want, I can turn this into a tighter head-to-head table against GPT-5, Claude, and Gemini by coding, reasoning, context, multimodality, and price.

출처

  • [2] Claude vs Gemini: Complete Comparison 2026 - GuruSupgurusup.com

    Claude Pro: $20/month — access to Opus 4.6 and Sonnet 4.6, extended context, priority access Gemini Advanced: $20/month (bundled with Google One AI Premium) — access to Pro 2.5, 1M context, integration with Google Workspace API pricing is where they diverge...

  • [6] Kimi K2.6 vs Gemini 2.5 Pro - Detailed Performance & Feature Comparisondocsbot.ai

    Gemini 2.5 Pro is 13 months older than Kimi K2.6. Gemini 2.5 Pro has a larger context window (1M vs 262K tokens). Unlike Kimi K2.6, Gemini 2.5 Pro supports voice processing. Pricing Comparison Compare costs for input and output tokens between Kimi K2.6 and...

  • [7] Kimi K2.6 vs GPT-5.3 Chat - AI Model Comparison | OpenRouteropenrouter.ai

    moonshotai Context Length 262K Reasoning Providers 5 Kimi K2.6 is Moonshot AI's next-generation multimodal model, designed for long-horizon coding, coding-driven UI/UX generation, and multi-agent orchestration. It handles complex end-to-end coding tasks acr...

  • [16] Anthropic vs Google AI 2026: Claude 4 vs Gemini 2.5 Comparedpecollective.com

    Feature Comparison Feature Anthropic (Claude API) Google AI (Gemini API) --- Code Generation Quality Excellent (Claude Sonnet 4.6) Very good (Gemini 2.5 Pro) Context Window 200K tokens 1M tokens Reasoning / Analysis Top Strong Fast/Cheap Model Claude Haiku...

  • [19] Claude API Pricing 2026: Full Anthropic Cost Breakdown - MetaCTOmetacto.com

    Quick Summary: Claude API Pricing at a Glance Anthropic offers three recommended tiers in 2026: Haiku 4.5 ($1/$5), Sonnet 4.6 ($3/$15), and Opus 4.6 ($5/$25) per million input/output tokens. Both 4.6 models include 1M context at standard pricing. Legacy mod...

  • [21] Gemini 2.5 Pro - Intelligence, Performance & Price Analysisartificialanalysis.ai

    What is Gemini 2.5 Pro API pricing? Gemini 2.5 Pro costs $1.25 per 1M input tokens and $10.00 per 1M output tokens (based on Google's API). For a blended rate (3:1 input to output ratio), this is $3.44 per 1M tokens. Pricing may vary by provider. Compare pr...

  • [26] Kimi K2.6 - API Pricing & Providers - OpenRouteropenrouter.ai

    Kimi K2.6 - API Pricing & Providers OpenRouter Skip to content OpenRouter / FusionModelsChatRankingsAppsEnterprisePricingDocs Sign Up Sign Up MoonshotAI: Kimi K2.6 moonshotai/kimi-k2.6 ChatCompare Released Apr 20, 2026 262,144 context$0.75/M input tokens$3....

  • [28] Kimi K2.6 on GMI Cloud: Architecture, Benchmarks & API Accessgmicloud.ai

    Kimi K2.6: Architecture, Benchmarks, and What It Means for Production AI April 22, 2026 .png) Moonshot AI just open-sourced Kimi K2.6, and the results speak for themselves. It tops SWE-Bench Pro, runs 300 parallel sub-agents, and fits on 4x H100s in INT4. B...

  • [31] Moonshot AI's Kimi K2.6 - AI Model Details - DocsBot AIdocsbot.ai

    NEWQ1 2026: Building the Foundation for AI That Acts → Moonshot AI Kimi K2.6 Kimi K2.6 is Moonshot AI's latest open-source native multimodal agentic model, advancing long-horizon coding, coding-driven design, proactive autonomous execution, and swarm-based...

  • [32] MoonshotAI: Kimi K2.6 – Effective Pricing | OpenRouteropenrouter.ai

    MoonshotAI: Kimi K2.6 moonshotai/kimi-k2.6 Released Apr 20, 2026262,144 context$0.60/M input tokens$2.80/M output tokens Kimi K2.6 is Moonshot AI's next-generation multimodal model, designed for long-horizon coding, coding-driven UI/UX generation, and multi...

  • [33] moonshotai/Kimi-K2.6 - Hugging Facehuggingface.co

    OSWorld-Verified 73.1 75.0 72.7 63.3 Coding Terminal-Bench 2.0 (Terminus-2) 66.7 65.4 65.4 68.5 50.8 SWE-Bench Pro 58.6 57.7 53.4 54.2 50.7 SWE-Bench Multilingual 76.7 77.8 76.9 73.0 SWE-Bench Verified 80.2 80.8 80.6 76.8 SciCode 52.2 56.6 51.9 58.9 48.7 OJ...

  • [34] MoonshotAI: Kimi K2.6 Reviewdesignforonline.com

    Performance Indices Source: Artificial Analysis This model was released recently. Independent benchmark evaluations are typically completed within days of release — these figures are preliminary and are likely to be updated as testing is finalised. Benchmar...

  • [45] Introducing GPT-5.5 - OpenAIopenai.com

    For API developers, gpt-5.5 will soon be available in the Responses and Chat Completions APIs at $5 per 1M input tokens and $30 per 1M output tokens, with a 1M context window. Batch and Flex pricing are available at half the standard API rate, while Priorit...