Wer Kimi K2.6 direkt über Moonshot einbindet, sollte vor allem auf das Feld model achten. Die Kimi Open Platform beschreibt ihre HTTP-APIs als OpenAI-kompatibel; der OpenAI SDK kann direkt verwendet werden, sofern base_url auf https://api.moonshot.ai/v1 gesetzt wird. Bei direkten HTTP-Aufrufen nennt die Dokumentation als vollständigen Chat-Endpunkt https://api.moonshot.ai/v1/chat/completions. [13]
Der Knackpunkt: Die Seite „List Models“ meldet zwar, dass Kimi K2.6 veröffentlicht wurde, das Beispiel in der Dokumentation zeigt beim Feld id aber weiterhin kimi-k2.5. Am sichersten ist daher, zuerst GET /modelsid als model zu verwenden. [17]
Die wichtigsten Moonshot-Endpunkte
| Zweck | Konfiguration oder Endpunkt | Hinweis |
|---|---|---|
| OpenAI SDK verwenden | | Kimi beschreibt die API als OpenAI-kompatibel und erlaubt die direkte Nutzung des OpenAI SDK. [ |
| Chat-Request senden | | Die API-Übersicht nennt diesen vollständigen Pfad; die Chat-API arbeitet mit model und messages. [ |
| Modelle auflisten | | Der Endpunkt liefert verfügbare Modelle und ein id-Feld zurück. [ |
| Kontostand prüfen | | Die Balance-Dokumentation nutzt Authentifizierung per |
| Batch-Job erstellen | | Die Batch-Dokumentation nennt diesen Endpunkt zum Erstellen von Batch-Jobs. [ |
Empfohlener Ablauf für Kimi K2.6
- Moonshot API-Key vorbereiten. Kimi-Beispiele nutzen Bearer-Authentifizierung; die TypingMind-Dokumentation beschreibt außerdem den Ablauf mit Moonshot-API-Konto, Guthaben und API-Key. [
2][
15][
17]
- Client OpenAI-kompatibel konfigurieren. Beim OpenAI SDK ist der entscheidende Schritt,
base_urlaufhttps://api.moonshot.ai/v1zu setzen. [13]
- Vor dem ersten echten Request
/modelsaufrufen. Der List-Models-Endpunkt gibt die verfügbaren Modelle samtidzurück; dieseidgehört in den Parametermodel. [17]
- Chat-Request mit
modelundmessagessenden. Die Kimi-Chat-Dokumentation zeigt Requests in dieser Struktur, die API-Übersicht nennt dazu den Pfad/chat/completions. [13][
14]
- Bei Bedarf Kontostand oder Batch-API nutzen. Für Billing-Prüfungen gibt es
/users/me/balance; für Batch-Verarbeitung gibt es/batches. [15][
16]
Python-Beispiel mit OpenAI SDK
Dieses Beispiel nutzt die von Kimi angegebene base_url für den OpenAI SDK. [13] Wichtig:
KIMI_MODEL_ID sollte die id aus GET /models17]
import os
from openai import OpenAI
client = OpenAI(
api_key=os.environ["MOONSHOT_API_KEY"],
base_url="https://api.moonshot.ai/v1",
)
response = client.chat.completions.create(
model=os.environ["KIMI_MODEL_ID"],
messages=[
{"role": "user", "content": "Hallo, stell dich bitte kurz vor."}
],
)
print(response)cURL-Beispiel: erst Model-ID holen, dann Chat senden
Der erste Schritt sollte das Auflisten der Modelle im eigenen Moonshot-/Kimi-Konto sein, weil dieser Endpunkt die verwendbaren IDs zurückgibt. [17]
curl -sS https://api.moonshot.ai/v1/models \
-H "Authorization: Bearer $MOONSHOT_API_KEY"Anschließend wählen Sie die passende id aus der Antwort und senden den Chat-Request an Chat Completions. Der vollständige Pfad /chat/completions und die Struktur mit model plus messages sind in der Kimi-Dokumentation beschrieben. [13][
14]
curl -sS https://api.moonshot.ai/v1/chat/completions \
-H "Authorization: Bearer $MOONSHOT_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "PASTE_MODEL_ID_FROM_MODELS",
"messages": [
{"role": "user", "content": "Schreibe eine kurze Einführung zu Kimi K2.6."}
]
}'Kontostand prüfen
Wenn ein Request an Billing oder Guthaben scheitert, können Sie den Kontostand über /users/me/balance prüfen; die Dokumentation zeigt dafür einen Bearer-Token im Authorization-Header. [15]
curl -sS https://api.moonshot.ai/v1/users/me/balance \
-H "Authorization: Bearer $MOONSHOT_API_KEY"Model-IDs nicht zwischen Gateways mischen
Ein häufiger Fehler ist, eine Model-ID von einem Drittanbieter zu kopieren und sie direkt beim offiziellen Moonshot-Endpunkt einzusetzen. AIMLAPI dokumentiert für Kimi K2.6 den Endpunkt https://api.aimlapi.com/v1/chat/completions mit dem Model moonshot/kimi-k2-6. [1] OpenRouter zeigt auf seiner API-Seite die Model-ID
moonshotai/kimi-k2.6. [5]
Diese IDs sind für das jeweilige Gateway gedacht. Wenn Sie dagegen https://api.moonshot.ai/v1/chat/completions direkt aufrufen, ist die robustere Vorgehensweise: GET https://api.moonshot.ai/v1/modelsid verwenden. [13][
17]
Fazit
Die saubere Minimalstrecke lautet: API-Key setzen, OpenAI SDK mit https://api.moonshot.ai/v1 konfigurieren, per /models die tatsächliche Kimi-K2.6-Model-ID prüfen und anschließend /chat/completions mit model und messages aufrufen. So bleiben Sie nah an der OpenAI-kompatiblen Kimi-Dokumentation und vermeiden den klassischen Fehler, Gateway-spezifische IDs von AIMLAPI oder OpenRouter auf die offizielle Moonshot API zu übertragen. [1][
5][
13][
14][
17]




