studioglobal
Trendthemen auf Entdecken
AntwortenVeröffentlicht13 Quellen

Kimi K2.6 vs. GPT-5.5, Gemini 2.5 Pro und Claude: Was Entwickler wirklich prüfen sollten

Kimi K2.6 ist in dieser Quellenlage vor allem der Preisführer für Coding Agenten: OpenRouter listet 262.144 Kontext Tokens sowie 0,75/3,50 US Dollar pro 1 Mio. GPT 5.5 und Gemini 2.5 Pro haben hier die stärkeren 1 Million Token Kontextbelege, Gemini zudem den klareren Voice Fall; Claude sollte direkt getestet werden...

19K0
Abstract comparison of AI coding models Kimi K2.6, GPT-5.5, Gemini and Claude
Kimi K2.6 vs GPT-5.5, Gemini and Claude: The Developer VerdictAI-generated editorial illustration for comparing Kimi K2.6 with GPT-5.5, Gemini and Claude.
KI-Prompt

Create a landscape editorial hero image for this Studio Global article: Kimi K2.6 vs GPT-5.5, Gemini and Claude: The Developer Verdict. Article summary: Kimi K2.6 is a credible lower cost coding agent option: OpenRouter lists 262,144 context tokens and $0.75/$3.50 per 1M input/output tokens, but the evidence does not prove it broadly beats GPT 5.5, Gemini 2.5 Pro or C.... Topic tags: ai, llm, kimi, moonshot ai, openai. Reference image context from search candidates: Reference image 1: visual subject "[Sign in](https://medium.com/m/signin?operation=login&redirect=https%3A%2F%2Fmedium.com%2F%40cognidownunder%2Ffour-giants-one-winner-kimi-k2-5-vs-gpt-5-2-vs-claude-opus-4-5-vs-gemi" source context "Four Giants, One Winner: Kimi K2.5 vs GPT-5.2 vs Claude Opus 4.5 vs Gemini 3 Pro Comparison" Reference image 2: visual subject "[Sign in](https://medium.com/m/signin?operation=login&redirect=https

openai.com

Kimi K2.6 sollte man nicht als universellen Ersatz für GPT-5.5, Gemini 2.5 Pro oder Claude lesen. Der sinnvollere Blick: Kimi ist ein sehr interessanter Kandidat für günstige Coding-Agenten, lange Entwicklungsaufgaben und Multi-Agenten-Workflows. OpenRouter listet Kimi K2.6 mit 262.144 Kontext-Tokens zu 0,75 US-Dollar pro 1 Mio. Input-Tokens und 3,50 US-Dollar pro 1 Mio. Output-Tokens; eine separate OpenRouter-Seite für effektive Preise nennt 0,60 und 2,80 US-Dollar [26][32]. OpenAI kündigt GPT-5.5 für die API mit 5 US-Dollar pro 1 Mio. Input-Tokens, 30 US-Dollar pro 1 Mio. Output-Tokens und einem Kontextfenster von 1 Mio. Tokens an [45].

Das macht Kimi in dieser Quellenauswahl zum Preisführer. Bei maximalem Kontext und bestimmten multimodalen Fällen haben GPT-5.5 und Gemini 2.5 Pro aber die besseren Belege [45][6].

Kurzurteil für Entwicklerteams

  • Kimi K2.6: zuerst testen, wenn es um volumenstarke Coding-Agenten, Code- und UI-Generierung oder Multi-Agenten-Orchestrierung geht und Tokenkosten spürbar ins Gewicht fallen [7][31].
  • GPT-5.5: zuerst testen, wenn das 1-Million-Token-Kontextfenster und OpenAIs eigene API-Roadmap wichtiger sind als der niedrigste Tokenpreis [45].
  • Gemini 2.5 Pro: stark für Long-Context- und Voice-/Multimodal-Workflows; DocsBot listet Gemini mit 1 Mio. Kontext-Tokens und schreibt, dass Gemini Voice Processing unterstützt, Kimi K2.6 dagegen nicht [6].
  • Claude: unbedingt in ernsthafte Tests aufnehmen, aber aus diesen Quellen allein nicht sauber ranken. Die verfügbaren Drittquellen widersprechen sich bei Kontextfenster und Preisen [16][19].

Vergleich auf einen Blick

FaktorKimi K2.6GPT-5.5, Gemini 2.5 Pro und ClaudeWas das praktisch heißt
API-PreisOpenRouter listet 0,75 US-Dollar/Mio. Input und 3,50 US-Dollar/Mio. Output; die effektive Preis-Seite nennt 0,60/2,80 US-Dollar [26][32].OpenAI nennt für GPT-5.5 5/30 US-Dollar pro 1 Mio. Input-/Output-Tokens [45]. Gemini 2.5 Pro wird bei Artificial Analysis mit 1,25/10 US-Dollar geführt [21]. Claude-Preise schwanken in den vorliegenden Drittquellen [2][19].Kimi hat hier den klarsten Kostenvorteil pro Token.
Kontextfenster262.144 Tokens bei OpenRouter [26].GPT-5.5 wird von OpenAI mit 1 Mio. Kontext-Tokens beschrieben [45]. Ein Kimi-Gemini-Vergleich listet Gemini 2.5 Pro ebenfalls mit 1 Mio. Kontext-Tokens [6]. Claude-Angaben schwanken zwischen 200.000 und 1 Mio. Tokens [16][19].Kimi ist groß genug für viele Codebasen, aber GPT-5.5 und Gemini haben in diesen Quellen stärkere 1M-Belege.
Coding und AgentenOpenRouter beschreibt Kimi für Long-Horizon Coding, coding-getriebene UI/UX-Generierung und Multi-Agenten-Orchestrierung [7]. DocsBot nennt bis zu 300 Sub-Agenten und 4.000 koordinierte Schritte [31].Eine Drittanbieterübersicht bewertet Claude Sonnet 4.6 stark bei Codegenerierung; ein neutraler Benchmark über alle vier Modellfamilien liegt in diesen Quellen aber nicht vor [16].Kimi gehört auf die Shortlist für autonome Coding-Workflows, ersetzt aber keine eigenen Tests.
MultimodalitätKimi K2.6 wird als multimodal beschrieben und kann laut OpenRouter visuelle Eingaben nutzen [7].DocsBot nennt Voice Processing als Vorteil von Gemini 2.5 Pro gegenüber Kimi [6]. Eine weitere Übersicht beschreibt Google AI mit Vision, Audio und Video, Claude mit Vision und Dokumenten [16].Gemini ist in diesen Quellen der klarere Kandidat für Voice-, Audio- und Video-Produkte.
Benchmark-SicherheitDie Hugging-Face-Modellkarte von Moonshot veröffentlicht Benchmark-Zeilen zu Coding, Reasoning und Wissensaufgaben [33].Ein Modellreview warnt, unabhängige Benchmark-Auswertungen seien wegen des frischen Releases noch vorläufig [34].Große Aussagen wie Kimi schlägt alle Topmodelle sind mit dieser Quellenlage nicht belegt.

Warum Kimi K2.6 so viel Aufmerksamkeit bekommt

1. Die Tokenkosten sind der härteste Vorteil

Bei Agenten-Workflows zählt jeder Fehlversuch. Ein Coding-Agent kann viele Tausend oder Millionen Tokens verbrauchen, wenn er plant, Dateien liest, Tests ausführt, Fehler analysiert und Patches erneut schreibt. Genau hier fällt Kimis Preis auf.

Auf Basis der Standardangaben von OpenRouter ist GPT-5.5 beim Input rund 6,7-mal so teuer wie Kimi und beim Output rund 8,6-mal so teuer [26][45]. Nimmt man OpenRouters effektive Kimi-Preise von 0,60/2,80 US-Dollar, wird die Lücke noch größer [32].

Auch gegenüber Gemini 2.5 Pro sieht Kimi in den verfügbaren Preisdaten günstiger aus. Artificial Analysis führt Gemini 2.5 Pro mit 1,25 US-Dollar pro 1 Mio. Input-Tokens und 10 US-Dollar pro 1 Mio. Output-Tokens; OpenRouter listet Kimi mit 0,75/3,50 US-Dollar [21][26]. Ein separater Kimi-Gemini-Vergleich nutzt zwar höhere Kimi-Werte von 0,95/4,00 US-Dollar, platziert Kimi aber ebenfalls unter Gemini 2.5 Pro mit 1,25/10,00 US-Dollar [6].

Die entscheidende Kennzahl ist trotzdem nicht der Tokenpreis allein. Für produktive Teams zählt der Preis pro erfolgreich abgeschlossener Aufgabe. Ein günstiges Modell, das öfter nachbessern muss, kann am Ende teurer sein als ein teureres Modell mit höherer Trefferquote. Kimi ist deshalb besonders attraktiv für Experimente mit hohem Volumen — aber die Erfolgsrate muss im eigenen Workflow gemessen werden.

2. Kimi ist eher Agenten-Werkzeug als Allzweck-Chatbot

OpenRouter positioniert Kimi K2.6 als multimodales Modell von Moonshot AI für Long-Horizon Coding, coding-getriebene UI/UX-Generierung und Multi-Agenten-Orchestrierung [7]. DocsBot beschreibt es als open-source, nativ multimodal und agentisch, mit Fokus auf langfristige Coding-Aufgaben, coding-getriebenes Design, autonome Ausführung und schwarmbasierte Aufgaben-Orchestrierung [31].

Das macht Kimi besonders interessant für große Refactorings, Testgenerierung, Code Reviews, UI-Erstellung aus Prompts oder visuellen Eingaben sowie Pipelines, die Arbeit in viele koordinierte Teilschritte zerlegen [7][31].

3. Offenes Modell, aber mit Compliance-Prüfung

Mehrere Quellen beschreiben Kimi K2.6 als open-source oder open-weight. GMI Cloud schreibt, Moonshot AI habe Kimi K2.6 unter einer Modified MIT License veröffentlicht; DocsBot bezeichnet das Modell ebenfalls als open-source [28][31].

Für Teams kann das wichtig sein, wenn sie mehr Deployment-Flexibilität wollen als bei reinen API-Modellen. Für Produktion, Weiterverteilung oder regulierte Umgebungen gilt aber: aktuelle Modellkarte, Provider-Bedingungen und Lizenzdetails vorab prüfen.

Wo GPT-5.5, Gemini und Claude stärker wirken

GPT-5.5: großer Kontext und OpenAI-API

OpenAI kündigt GPT-5.5 für Responses API und Chat Completions API mit 5 US-Dollar pro 1 Mio. Input-Tokens, 30 US-Dollar pro 1 Mio. Output-Tokens und 1 Mio. Kontext-Tokens an [45]. Das ist deutlich teurer als Kimis OpenRouter-Listing, aber der 1M-Kontext ist in dieser Quellenlage stärker belegt als Kimis 262.144 Tokens [45][26].

Wenn sehr große Repositories, lange Dokumentensammlungen oder Sessions mit maximalem Gedächtnis wichtiger sind als Tokenkosten, sollte GPT-5.5 früh in den Testlauf.

Gemini 2.5 Pro: Long Context plus Voice

Gemini 2.5 Pro hat in den verfügbaren Vergleichen den klareren Fall für sehr lange Kontexte und Voice. DocsBot listet Gemini 2.5 Pro mit 1 Mio. Kontext-Tokens gegenüber Kimis 262K und schreibt, Gemini unterstütze Voice Processing, Kimi dagegen nicht [6]. Eine weitere Drittanbieterübersicht beschreibt Google AI als multimodal über Vision, Audio und Video [16].

Für Sprachassistenten, audio- oder videolastige Workflows und Produkte, die bereits eng an Googles KI-Stack gebunden sind, gehört Gemini daher weit nach oben auf die Shortlist.

Claude: nicht abschreiben, sondern sauber verifizieren

Claude ist in dieser Quellenlage am schwierigsten einzuordnen. Eine Drittanbieterübersicht listet für Anthropic Claude API ein Kontextfenster von 200.000 Tokens, während eine andere Quelle schreibt, Claude-4.6-Modelle enthielten 1 Mio. Kontext-Tokens zu Standardpreisen [16][19]. Auch bei den Preisen weichen die verfügbaren Drittquellen teilweise voneinander ab [2][19].

Das ist kein Argument gegen Claude. Eine Übersicht bewertet Claude Sonnet 4.6 als ausgezeichnet für Codegenerierung und nennt Sicherheit sowie Guardrails als Unterscheidungsmerkmal [16]. Es bedeutet nur: Claude sollte im Benchmark-Set bleiben, aber aktuelle Anthropic-Preise und Kontextlimits sollten direkt geprüft werden, bevor man eine Architekturentscheidung trifft.

Head-to-Head: Welche Wahl passt wann?

Kimi K2.6 vs. GPT-5.5

Mit Kimi starten, wenn Tokenkosten der Engpass sind und 262.144 Kontext-Tokens reichen [26][32]. Mit GPT-5.5 starten, wenn 1 Mio. Kontext-Tokens oder die OpenAI-Plattform schwerer wiegen als der Preis [45].

Kimi K2.6 vs. Gemini 2.5 Pro

Kimi zuerst testen für günstigere Coding-Agenten, UI-Generierung und Code-Orchestrierung [7][26]. Gemini 2.5 Pro zuerst testen, wenn 1 Mio. Kontext-Tokens, Voice Processing oder breitere Audio-/Video-Multimodalität zentral für das Produkt sind [6][16].

Kimi K2.6 vs. Claude

Keine endgültige Entscheidung allein aus den widersprüchlichen Drittanbieterangaben zu Preis und Kontext ableiten [16][19]. Sinnvoller ist ein direkter Test auf repräsentativen Aufgaben: Codequalität, Reasoning-Verhalten, Tool-Nutzung, Latenz, Refusal-Verhalten und Gesamtkosten.

So sollte ein fairer Praxistest aussehen

Für ein Entwicklerteam wäre die pragmatische Reihenfolge: Kimi K2.6 zuerst dort benchmarken, wo viele Tokens, viele Tool-Aufrufe und viele Wiederholungen anfallen — etwa autonome Coding-Agenten, Repository-Operationen, UI-/Code-Generierung und Multi-Agenten-Orchestrierung [7][31][26].

GPT-5.5 oder Gemini 2.5 Pro sollten zuerst drankommen, wenn ein dokumentiertes 1-Million-Token-Kontextfenster entscheidend ist [45][6]. Gemini gehört zusätzlich nach vorn, wenn Voice, Audio oder Video Teil des Produkts sind [6][16]. Claude bleibt wichtig, wenn Codequalität, Reasoning-Stil oder Sicherheitsverhalten im Mittelpunkt stehen; die aktuellen Anthropic-Konditionen sollten aber direkt verifiziert werden [16][19].

Fazit

Kimi K2.6 ist ein ernstzunehmendes Entwicklermodell, weil es aggressive gelistete Preise, ein großes Kontextfenster von 262.144 Tokens und eine klare Positionierung für Long-Horizon Coding sowie Multi-Agenten-Orchestrierung kombiniert [26][32][7]. Besonders spannend ist es für Coding-Agenten mit hohem Tokenvolumen, bei denen viele Zwischenschritte und Retries schnell teuer werden.

Bewiesen ist damit aber nicht, dass Kimi insgesamt das beste Modell ist. GPT-5.5 und Gemini 2.5 Pro haben in dieser Quellenlage stärkere Belege für 1 Mio. Kontext-Tokens, Gemini hat den klareren Voice-Fall, und Claude lässt sich wegen widersprüchlicher Drittquellen nicht sauber einordnen [45][6][16][19]. Das belastbare Entwickler-Urteil lautet deshalb: Kimi unbedingt testen — aber gegen GPT-5.5, Gemini und Claude auf den Aufgaben, die wirklich in Produktion laufen.

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

Suchen und Fakten prüfen mit Studio Global AI

Wichtige Erkenntnisse

  • Kimi K2.6 ist in dieser Quellenlage vor allem der Preisführer für Coding Agenten: OpenRouter listet 262.144 Kontext Tokens sowie 0,75/3,50 US Dollar pro 1 Mio.
  • GPT 5.5 und Gemini 2.5 Pro haben hier die stärkeren 1 Million Token Kontextbelege, Gemini zudem den klareren Voice Fall; Claude sollte direkt getestet werden, weil die vorliegenden Drittquellen zu Preis und Kontext wi...
  • Die praktische Entscheidung sollte nicht nach Modell Hype fallen, sondern nach Kosten pro erfolgreich erledigter Aufgabe: Kimi zuerst für volumenstarke Coding Agenten und UI /Code Orchestrierung testen, dann gegen GPT...

Die Leute fragen auch

Wie lautet die kurze Antwort auf „Kimi K2.6 vs. GPT-5.5, Gemini 2.5 Pro und Claude: Was Entwickler wirklich prüfen sollten“?

Kimi K2.6 ist in dieser Quellenlage vor allem der Preisführer für Coding Agenten: OpenRouter listet 262.144 Kontext Tokens sowie 0,75/3,50 US Dollar pro 1 Mio.

Was sind die wichtigsten Punkte, die zuerst validiert werden müssen?

Kimi K2.6 ist in dieser Quellenlage vor allem der Preisführer für Coding Agenten: OpenRouter listet 262.144 Kontext Tokens sowie 0,75/3,50 US Dollar pro 1 Mio. GPT 5.5 und Gemini 2.5 Pro haben hier die stärkeren 1 Million Token Kontextbelege, Gemini zudem den klareren Voice Fall; Claude sollte direkt getestet werden, weil die vorliegenden Drittquellen zu Preis und Kontext wi...

Was soll ich als nächstes in der Praxis tun?

Die praktische Entscheidung sollte nicht nach Modell Hype fallen, sondern nach Kosten pro erfolgreich erledigter Aufgabe: Kimi zuerst für volumenstarke Coding Agenten und UI /Code Orchestrierung testen, dann gegen GPT...

Welches verwandte Thema sollte ich als nächstes untersuchen?

Fahren Sie mit „研究結果“ für einen anderen Blickwinkel und zusätzliche Zitate fort.

Zugehörige Seite öffnen

Womit soll ich das vergleichen?

Vergleichen Sie diese Antwort mit „Claude Security 公测版详解:Anthropic 的 AI 代码漏洞扫描工具“.

Zugehörige Seite öffnen

Setzen Sie Ihre Recherche fort

Forschungsgespräch

Du

Forschungsfrage

How Kimi K2.6 compare to US top AI models?

Studio Global AI40 Quellen

Zitierte Antwort

Kimi K2.6 looks competitive with top U.S. models, but not clearly dominant overall. The strongest case for it is cost-efficient coding and agent-style workflows; the strongest case for the U.S. leaders is broader multimodality, larger context in some cases, and more mature product ecosystems.[1][2][3][4]

  • Where Kimi K2.6 looks strong

    • Kimi K2.6 is positioned as an open, multimodal, agent-oriented model with a 262,144-token context window and API pricing around $0.75 per 1M input tokens and $3.50 per 1M output tokens on OpenRouter.[1]
    • Third-party coverage describes it as especially strong for long-horizon coding, UI/code generation, and multi-agent orchestration, rather than just normal chatbot use.[1][5]
    • On price, it appears cheaper than premium U.S. frontier models and even cheaper than Gemini 2.5 Pro’s official API price of $1.25 per 1M input and $10.00 per 1M output tokens.[1][2]
  • Where U.S. top models still appear ahead

    • Gemini 2.5 Pro has a much larger official context window of 1M tokens, which matters for very large documents, repositories, and long-running sessions.[2]
    • Third-party comparisons say Gemini 2.5 Pro supports voice processing, while Kimi K2.6 does not in those comparisons.[6]
    • U.S. models also generally have stronger ecosystem advantages: tighter integrations, more mature enterprise support, and better-known safety/governance tooling. I don’t have enough primary-source benchmark evidence here to rank GPT-5 or Claude definitively against Kimi K2.6 on pure intelligence.[2][3]
  • How I’d compare them in practice

    1. For coding agents and cost-sensitive API use: Kimi K2.6 is a serious contender.[1][5]
    2. For largest-context work: Gemini 2.5 Pro has the edge.[2]
    3. For safest “default enterprise bet”: U.S. leaders still look stronger because of ecosystem maturity and deployment confidence, though that is partly qualitative rather than benchmark-only.[2][3]
  • Important caveat

    • The available evidence in these search results is mixed: pricing/context data are reasonably supported, including official Google pricing, but many direct “Kimi vs GPT/Claude” performance claims come from aggregators and blog-style sources rather than clear primary benchmark pages.[1][2][5] So the fair summary is: Kimi K2.6 is competitive and probably underpriced for its capability, but there is insufficient evidence here to say it broadly beats the top U.S. models overall.[1][5]

If you want, I can turn this into a tighter head-to-head table against GPT-5, Claude, and Gemini by coding, reasoning, context, multimodality, and price.

Quellen

  • [2] Claude vs Gemini: Complete Comparison 2026 - GuruSupgurusup.com

    Claude Pro: $20/month — access to Opus 4.6 and Sonnet 4.6, extended context, priority access Gemini Advanced: $20/month (bundled with Google One AI Premium) — access to Pro 2.5, 1M context, integration with Google Workspace API pricing is where they diverge...

  • [6] Kimi K2.6 vs Gemini 2.5 Pro - Detailed Performance & Feature Comparisondocsbot.ai

    Gemini 2.5 Pro is 13 months older than Kimi K2.6. Gemini 2.5 Pro has a larger context window (1M vs 262K tokens). Unlike Kimi K2.6, Gemini 2.5 Pro supports voice processing. Pricing Comparison Compare costs for input and output tokens between Kimi K2.6 and...

  • [7] Kimi K2.6 vs GPT-5.3 Chat - AI Model Comparison | OpenRouteropenrouter.ai

    moonshotai Context Length 262K Reasoning Providers 5 Kimi K2.6 is Moonshot AI's next-generation multimodal model, designed for long-horizon coding, coding-driven UI/UX generation, and multi-agent orchestration. It handles complex end-to-end coding tasks acr...

  • [16] Anthropic vs Google AI 2026: Claude 4 vs Gemini 2.5 Comparedpecollective.com

    Feature Comparison Feature Anthropic (Claude API) Google AI (Gemini API) --- Code Generation Quality Excellent (Claude Sonnet 4.6) Very good (Gemini 2.5 Pro) Context Window 200K tokens 1M tokens Reasoning / Analysis Top Strong Fast/Cheap Model Claude Haiku...

  • [19] Claude API Pricing 2026: Full Anthropic Cost Breakdown - MetaCTOmetacto.com

    Quick Summary: Claude API Pricing at a Glance Anthropic offers three recommended tiers in 2026: Haiku 4.5 ($1/$5), Sonnet 4.6 ($3/$15), and Opus 4.6 ($5/$25) per million input/output tokens. Both 4.6 models include 1M context at standard pricing. Legacy mod...

  • [21] Gemini 2.5 Pro - Intelligence, Performance & Price Analysisartificialanalysis.ai

    What is Gemini 2.5 Pro API pricing? Gemini 2.5 Pro costs $1.25 per 1M input tokens and $10.00 per 1M output tokens (based on Google's API). For a blended rate (3:1 input to output ratio), this is $3.44 per 1M tokens. Pricing may vary by provider. Compare pr...

  • [26] Kimi K2.6 - API Pricing & Providers - OpenRouteropenrouter.ai

    Kimi K2.6 - API Pricing & Providers OpenRouter Skip to content OpenRouter / FusionModelsChatRankingsAppsEnterprisePricingDocs Sign Up Sign Up MoonshotAI: Kimi K2.6 moonshotai/kimi-k2.6 ChatCompare Released Apr 20, 2026 262,144 context$0.75/M input tokens$3....

  • [28] Kimi K2.6 on GMI Cloud: Architecture, Benchmarks & API Accessgmicloud.ai

    Kimi K2.6: Architecture, Benchmarks, and What It Means for Production AI April 22, 2026 .png) Moonshot AI just open-sourced Kimi K2.6, and the results speak for themselves. It tops SWE-Bench Pro, runs 300 parallel sub-agents, and fits on 4x H100s in INT4. B...

  • [31] Moonshot AI's Kimi K2.6 - AI Model Details - DocsBot AIdocsbot.ai

    NEWQ1 2026: Building the Foundation for AI That Acts → Moonshot AI Kimi K2.6 Kimi K2.6 is Moonshot AI's latest open-source native multimodal agentic model, advancing long-horizon coding, coding-driven design, proactive autonomous execution, and swarm-based...

  • [32] MoonshotAI: Kimi K2.6 – Effective Pricing | OpenRouteropenrouter.ai

    MoonshotAI: Kimi K2.6 moonshotai/kimi-k2.6 Released Apr 20, 2026262,144 context$0.60/M input tokens$2.80/M output tokens Kimi K2.6 is Moonshot AI's next-generation multimodal model, designed for long-horizon coding, coding-driven UI/UX generation, and multi...

  • [33] moonshotai/Kimi-K2.6 - Hugging Facehuggingface.co

    OSWorld-Verified 73.1 75.0 72.7 63.3 Coding Terminal-Bench 2.0 (Terminus-2) 66.7 65.4 65.4 68.5 50.8 SWE-Bench Pro 58.6 57.7 53.4 54.2 50.7 SWE-Bench Multilingual 76.7 77.8 76.9 73.0 SWE-Bench Verified 80.2 80.8 80.6 76.8 SciCode 52.2 56.6 51.9 58.9 48.7 OJ...

  • [34] MoonshotAI: Kimi K2.6 Reviewdesignforonline.com

    Performance Indices Source: Artificial Analysis This model was released recently. Independent benchmark evaluations are typically completed within days of release — these figures are preliminary and are likely to be updated as testing is finalised. Benchmar...

  • [45] Introducing GPT-5.5 - OpenAIopenai.com

    For API developers, gpt-5.5 will soon be available in the Responses and Chat Completions APIs at $5 per 1M input tokens and $30 per 1M output tokens, with a 1M context window. Batch and Flex pricing are available at half the standard API rate, while Priorit...