studioglobal
热门发现
报告已发布12 来源

DeepSeek V4: Was hinter 1 Mio. Token, MoE und API-Migration steckt

DeepSeek V4 wurde laut Transparency Center am 24. April 2026 veröffentlicht; Pro kommt mit 1,6 Billionen Gesamtparametern und 49 Milliarden aktiven Parametern, Flash mit 284 Milliarden und 13 Milliarden.[22][1][14] Beide Varianten unterstützen laut DeepSeek und NVIDIA Materialien bis zu 1 Mio.

12K0
DeepSeek V4 工程架构示意图,包含 1M 上下文、MoE 专家路由和 API 服务化元素
DeepSeek V4 工程解析:1M 上下文背后的 MoE 与 API 落地AI 生成的 DeepSeek V4 工程示意图,表现百万 token 上下文、MoE 专家路由与 API 服务化。
AI 提示

Create a landscape editorial hero image for this Studio Global article: DeepSeek V4 工程解析:1M 上下文背后的 MoE 与 API 落地. Article summary: DeepSeek V4 的核心是系统工程组合:2026 04 24 发布的 V4 Pro(1.6T/49B active)与 V4 Flash(284B/13B active)都面向 1M token 上下文;可靠事实是规格和 API 已公开,性能领先幅度与部分内部机制仍需独立验证。. Topic tags: ai, deepseek, llm, mixture of experts, long context. Reference image context from search candidates: Reference image 1: visual subject "# DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底. 2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——**DeepSeek-V4 预览版正式上线**。. | | **DeepSeek-V4-Flash** | **DeepSeek-V4-Pro** |. | 上下文长度 | **1M" source context "DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底 - iTech - 博客园" Reference image 2: visual subject "# DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底. 2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——**DeepSeek-V4 预览版正式上线**。. | | **DeepSeek-V4-Flash** | **DeepSeek-V4-Pro** |. | 上下文长度 | **1M" sour

openai.com

DeepSeek V4 sollte man nicht als bloßes Modell mit besonders großem Kontextfenster lesen. Für Entwicklerinnen, Entwickler und AI-Teams ist es eher ein Paket aus Modellfamilie und Service-Stack: zwei Leistungsstufen, öffentlich ausgewiesene Gesamt- und Aktivparameter, bis zu 1 Mio. Token Kontext sowie API-Aufrufe, die mit OpenAI- und Anthropic-Formaten kompatibel sind.[1][14][17][18][20]

Das DeepSeek Transparency Center führt V4.0 DeepSeek-V4 mit Veröffentlichungsdatum 24. April 2026 und verweist auf Model Card sowie Technical Report.[22] Die offizielle Ankündigung beschreibt DeepSeek-V4 Preview als live und synchron als Open-Source-Veröffentlichung verfügbar.[14][15]

Gesicherte Eckdaten: Pro für die Obergrenze, Flash für Effizienz

PunktDeepSeek-V4-ProDeepSeek-V4-Flash
Öffentliche Größe1,6 Billionen Gesamtparameter / 49 Milliarden aktive Parameter [1][14]284 Milliarden Gesamtparameter / 13 Milliarden aktive Parameter [1][14]
Kontextfensterbis zu 1 Mio. Token [1][17]bis zu 1 Mio. Token [1][17]
Produktrollegrößtes Modell der V4-Familie [1]für schnellere und effizientere Workloads ausgelegt [1]
API-Modellnamedeepseek-v4-pro [18][20]deepseek-v4-flash [18][20]

Die Modell- und Preisseite von DeepSeek nennt für beide Varianten außerdem eine maximale Ausgabelänge von 384.000 Token sowie Funktionen wie JSON Output und Tool Calls.[17] Das zeigt: Der Engineering-Schwerpunkt liegt nicht allein darin, Parameterzahl oder Kontextfenster nach oben zu treiben. DeepSeek versucht, eine leistungsstärkere und eine effizientere Variante als direkt aufrufbare Produktlinie bereitzustellen.

Warum MoE hier der eigentliche Hebel ist

API Yi und HyperAI beschreiben V4-Pro und V4-Flash als Mixture-of-Experts-Modelle, kurz MoE.[2][4] In diesem Modelltyp steht die Gesamtparameterzahl eher für die Größe des gesamten Expertenpools. Die aktiven Parameter geben an, welcher Teil bei einer einzelnen Inferenz tatsächlich mitrechnet. Das erklärt, warum die V4-Spezifikationen so stark zwischen total parameters und active parameters unterscheiden.[1][2][4][14]

Der Vorteil: Modellkapazität und Rechenaufwand pro Anfrage lassen sich teilweise entkoppeln. Der Preis dafür liegt auf der Systemseite. Routing zu den passenden Experten, Expertenparallelität, Kommunikation zwischen Komponenten und Lastverteilung müssen stabil funktionieren, sonst frisst der Overhead die Effizienzgewinne wieder auf.

Dass es nicht nur um Modellgewichte geht, zeigt auch die Reaktion aus dem Serving-Ökosystem. Das SGLang-/Miles-Team meldete nach dem V4-Start Unterstützung für Inferenz und RL-Training und erklärte, der Stack sei auf V4s hybrid sparse-attention, mHC und FP4 expert weights angepasst worden.[5] Die Schwierigkeit wandert damit sichtbar in den Serving- und Trainings-Stack hinein.

1 Mio. Token Kontext: Der Nutzen ist klar, der Stresstest auch

NVIDIA-Entwicklermaterial positioniert V4-Pro und V4-Flash für effiziente Inferenz mit Million-Token-Kontext und nennt Langkontext-Coding, Dokumentenanalyse, Retrieval und agentische AI-Workflows als Einsatzfelder.[1] Die DeepSeek-API-Dokumentation führt für beide Modelle ebenfalls eine Kontextlänge von 1 Mio. Token auf.[17]

Für Nutzerinnen und Nutzer ist der Reiz offensichtlich: weniger Zerstückelung langer Dokumente, weniger manuelles Zusammenkleben von Kontext und potenziell weniger Lücken bei Retrieval-Augmented Generation, also RAG. Für den Server ist ein so großes Fenster aber ein Belastungstest. Aufmerksamkeit, Kontext-Cache, Speicherbandbreite, GPU-Speicher und Durchsatzplanung geraten stärker unter Druck.

Darum sollte man V4 nicht nur nach der Fenstergröße bewerten. Aussagekräftiger sind Tests mit echten Code-Repositories, langen Verträgen oder technischen Dokumentationen, RAG-Pipelines und Agent-Workflows. Entscheidend sind dann Latenz, Kosten, Stabilität über lange Distanzen und die Qualität von Tool Calls.[1][17]

Attention-Architektur: Die Richtung ist erkennbar, die Begriffe schwanken

Bei der Frage, wie DeepSeek den langen Kontext effizienter macht, verwenden öffentliche Materialien nicht immer dieselbe Terminologie. API Yi schreibt, der 1-Mio.-Token-Kontext werde durch Hybrid Attention und DSA sparse attention unterstützt.[2] HyperAI fasst die Architektur als hybrid attention zusammen, die Compressed Sparse Attention, CSA, und Heavily Compressed Attention, HCA, kombiniert, und nennt zusätzlich mHC.[4] SGLang/Miles spricht wiederum von Anpassungen an hybrid sparse-attention, mHC und FP4 expert weights.[5]

Die vorsichtige Lesart lautet daher: Die V4-Materialien deuten konsistent auf eine Kombination aus sparsamer, komprimierter oder hybrider Attention und Serving-Optimierungen. Einzelne Modulnamen, Implementierungsdetails und die tatsächliche Größenordnung der Effizienzgewinne sollte man aber nicht allein aus Zweitquellen oder Videozusammenfassungen ableiten. Für belastbare Aussagen sind Model Card und Technical Report aus dem DeepSeek Transparency Center die bessere Prüfstelle.[22]

API-Migration: Kompatibilität ist Teil des Produkts

Der DeepSeek-Changelog meldet, dass die API V4-Pro und V4-Flash unterstützt und beide über die OpenAI-ChatCompletions-Schnittstelle sowie eine Anthropic-kompatible Schnittstelle aufrufbar sind.[18][19] Für die neuen Modelle bleibt die base_url unverändert; geändert wird der model-Parameter auf deepseek-v4-pro oder deepseek-v4-flash.[18][19]

Die Einstiegsdokumentation nennt diese Basis-URLs:[20][21]

text
model: deepseek-v4-pro
model: deepseek-v4-flash

OpenAI format base_url: https://api.deepseek.com
Anthropic format base_url: https://api.deepseek.com/anthropic

Für bestehende Anwendungen ist vor allem die Frist wichtig: Die alten Modellnamen deepseek-chat und deepseek-reasoner sollen am 24. Juli 2026 auslaufen.[18][19][21] In der Übergangsphase verweisen sie auf deepseek-v4-flash ohne bzw. mit Thinking-Modus.[18][19][21]

Praktisch heißt das: zuerst Modellnamen ersetzen, dann bewusst zwischen Pro und Flash wählen und anschließend Regressionstests fahren. Getestet werden sollten Langkontextverhalten, Tool Calls, maximale Ausgabelänge, Kosten und die Frage, ob bestehende Prompts unter den neuen Modellnamen gleichwertig funktionieren.[17][18]

Was noch unabhängig geprüft werden muss

Erstens: Leistungsversprechen bleiben ein Prüfpunkt. Die offizielle chinesische Veröffentlichungsseite schreibt V4-Pro führende Leistungen im chinesischen und im Open-Source-Umfeld bei Agent-Fähigkeiten, Weltwissen und Reasoning zu; API Yi nennt außerdem Benchmark-Werte etwa für SWE-Verified.[15][2] Das sind relevante Hersteller- und Ökosystemangaben, ersetzen aber keine unabhängigen Tests mit eigenen Prompts, Kostenlimits und Geschäftsaufgaben.

Zweitens: Interne Mechanismen sollte man nach Quellenebene sortieren. Hybrid Attention, DSA, CSA, HCA, mHC und FP4 expert weights tauchen in verschiedenen öffentlichen Materialien auf, aber Benennung und Quellenlage sind nicht vollständig einheitlich.[2][4][5] Außerhalb des offiziellen technischen Berichts wäre es vorschnell, jeden Begriff als endgültig bestätigtes Implementierungsdetail zu behandeln.[22]

Drittens: 1 Mio. Token Kontext bedeutet nicht automatisch, dass jede voll ausgelastete Anfrage günstig und schnell ist. Offizielle und ökologische Materialien belegen Spezifikation und Aufrufbarkeit; die reale Servicequalität hängt weiter von Dokumentlänge, Cache-Treffern, Parallelität, Tool-Ketten und Evaluationsmaßstäben ab.[1][17][18]

Fazit für Entwicklerteams

Die auffällige Ingenieursleistung von DeepSeek V4 steckt in der Kombination: V4-Pro mit 1,6 Billionen Gesamtparametern und 49 Milliarden aktiven Parametern, V4-Flash mit 284 Milliarden Gesamtparametern und 13 Milliarden aktiven Parametern, bis zu 1 Mio. Token Kontext sowie eine OpenAI- und Anthropic-kompatible API in derselben Produktlinie.[1][14][17][18]

Kurzfristig ist die sinnvollste Reaktion nicht, Benchmark-Claims nachzuerzählen. Teams sollten eigene Langdokumente, Codebasen, RAG-Systeme und Agent-Workflows Ende zu Ende testen — und die Migration von deepseek-chat sowie deepseek-reasoner vor dem 24. Juli 2026 einplanen.[18][21]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜索并核查事实

要点

  • DeepSeek V4 wurde laut Transparency Center am 24. April 2026 veröffentlicht; Pro kommt mit 1,6 Billionen Gesamtparametern und 49 Milliarden aktiven Parametern, Flash mit 284 Milliarden und 13 Milliarden.[22][1][14]
  • Beide Varianten unterstützen laut DeepSeek und NVIDIA Materialien bis zu 1 Mio. Token Kontext; entscheidend bleibt aber, wie stabil Latenz, Kosten, Tool Calls und Langkontext Treffer in echten Workflows ausfallen.[1][17]
  • Für bestehende Integrationen ist die API Migration konkret: deepseek chat und deepseek reasoner sollen am 24.

人们还问

“DeepSeek V4: Was hinter 1 Mio. Token, MoE und API-Migration steckt”的简短答案是什么?

DeepSeek V4 wurde laut Transparency Center am 24. April 2026 veröffentlicht; Pro kommt mit 1,6 Billionen Gesamtparametern und 49 Milliarden aktiven Parametern, Flash mit 284 Milliarden und 13 Milliarden.[22][1][14]

首先要验证的关键点是什么?

DeepSeek V4 wurde laut Transparency Center am 24. April 2026 veröffentlicht; Pro kommt mit 1,6 Billionen Gesamtparametern und 49 Milliarden aktiven Parametern, Flash mit 284 Milliarden und 13 Milliarden.[22][1][14] Beide Varianten unterstützen laut DeepSeek und NVIDIA Materialien bis zu 1 Mio. Token Kontext; entscheidend bleibt aber, wie stabil Latenz, Kosten, Tool Calls und Langkontext Treffer in echten Workflows ausfallen.[1][17]

接下来在实践中我应该做什么?

Für bestehende Integrationen ist die API Migration konkret: deepseek chat und deepseek reasoner sollen am 24.

接下来我应该探索哪个相关主题?

继续“Claude Opus 4.7、GPT-5.5、DeepSeek V4 与 Kimi K2.6:2026 基准对比与选型结论”以获得另一个角度和额外的引用。

打开相关页面

我应该将其与什么进行比较?

对照“Northwest vs. Southeast Timber 弹性题解:为什么是 larger; larger”交叉检查此答案。

打开相关页面

继续你的研究

研究对话

研究问题

研究「The insane engineering of Deepseek V4」

Studio Global AI26 来源

引用的答案

我把「The insane engineering of Deepseek V4」理解为:围绕 DeepSeek V4 的工程设计做一份可核查的研究摘要。结论是:V4 的“疯狂工程”主要不在单一算法,而在把超大 MoE、百万 token 上下文、稀疏/混合注意力、低活跃参数推理和服务栈适配组合到一起;但目前很多性能和架构细节仍主要来自官方或生态方材料,独立评测证据还不充分。

Key findings

  • DeepSeek-V4 预览版已上线,官方称其支持 1M 超长上下文,并分为 V4-Pro 与 V4-Flash 两个版本。[7]

  • V4-Pro 的公开规格是 1.6T 总参数、49B 激活参数;V4-Flash 的公开规格是 284B 总参数、13B 激活参数。[2][5]

  • 这说明 V4 继续采用稀疏激活的 MoE 思路:模型总容量很大,但每个 token 只激活一小部分参数,从而把“模型容量”和“推理成本”部分解耦。[2][5]

  • 百万 token 上下文是 V4 最核心的工程卖点之一,因为长上下文推理的瓶颈通常会集中在注意力计算、KV cache 存储、显存带宽和跨设备通信上。[2][7]

  • 第三方 API 文档称 V4 的 1M 上下文依赖 Hybrid Attention 与 DSA sparse attention,但这一点应视为生态方说明,而不是完整技术论文级证据。[3]

  • DeepSeek 官方 API 文档显示,V4-Pro 与 V4-Flash 可通过 OpenAI Chat Completions 接口和 Anthropic 兼容接口调用,模型名分别为 deepseek-v4-prodeepseek-v4-flash[12][16]

  • 官方更新日志称旧模型名 deepseek-chatdeepseek-reasoner 将在 2026-07-24 后停止使用,并在过渡期分别指向新的 V4 系列模型。[12]

  • NVIDIA 的开发者材料把 V4 定位为面向高效百万 token 上下文推理的模型,并提到可在 Blackwell 与 GPU 加速端点上构建应用。[2]

  • SGLang / LMSYS 生态方称其在发布日提供了 DeepSeek-V4 的推理与 RL 训练支持,这说明 V4 的工程影响不只是模型本身,还包括开源 serving / training stack 的适配。[11]

为什么说它“工程量很大”

  • 参数规模与激活规模的差异很大:V4-Pro 是 1.6T 总参数但每次只激活 49B 参数,这要求路由、专家并行、负载均衡和通信调度都足够稳定,否则 MoE 的理论效率会被系统开销吃掉。[2][5]

  • 1M 上下文会显著放大 KV cache 与注意力计算压力,因此如果没有稀疏注意力、分层缓存、分页 KV 或类似机制,推理成本会很难控制。[2][3]

  • V4-Flash 的 284B 总参数 / 13B 激活参数定位明显偏向低成本、高吞吐服务,而 V4-Pro 则偏向能力上限,这是一种“同架构、多成本档位”的产品工程策略。[2][5]

  • API 层同时兼容 OpenAI 与 Anthropic 格式,降低了迁移成本;这类兼容性本身不是模型创新,但对实际采用率很关键。[12][16]

  • Day-0 生态支持意味着模型权重、推理 kernel、调度器、并行策略和训练/强化学习工具链需要快速协同适配,这通常比单纯发布权重更复杂。[11]

Evidence notes

  • 最强证据来自 DeepSeek 官方 API/公告页面和 NVIDIA 开发者材料;这些来源能支持模型名称、参数规模、上下文长度和 API 支持等事实。[2][5][7][12]

  • 关于 Hybrid Attention、DSA sparse attention 等具体架构细节,目前我找到的强证据主要来自生态方或聚合文档,不等同于完整官方技术报告或同行评审论文。[3]

  • 学术搜索没有找到明确的 DeepSeek-V4 专门技术报告;只找到与长上下文、混合架构相关的相邻研究,因此不能用它来严格证明 V4 的内部实现。[1]

Limitations / uncertainty

  • Insufficient evidence:目前没有足够独立证据确认 V4 在所有公开 benchmark 上“比肩顶级闭源模型”的具体幅度。

  • Insufficient evidence:没有足够证据验证视频或文章中可能提到的所有内部工程细节,例如训练成本、具体 GPU 数量、完整数据配方、路由算法细节或真实线上延迟。

  • Insufficient evidence:若有人声称 V4 使用某些未被官方技术报告明确确认的专有机制,应先视为未经充分验证的说法。

Summary

DeepSeek V4 的核心看点是:用 MoE 把总容量做到万亿级,同时把每 token 激活参数压到几十 B;再用百万 token 上下文、稀疏/混合注意力和工程化 serving stack,把超长上下文模型做成可调用的 API 产品。[2][5][7][12] 这确实是复杂系统工程,但目前应把“规格与可用性”视为较可靠事实,把“性能领先幅度与内部实现细节”视为仍需独立验证的部分。

来源

  • [1] Build with DeepSeek V4 Using NVIDIA Blackwell and GPU ...developer.nvidia.com

    DeepSeek just launched its fourth generation of flagship models with DeepSeek-V4-Pro and DeepSeek-V4-Flash, both targeted at enabling highly efficient million-token context inference. DeepSeek-V4-Pro is the largest model in the family, with 1.6T total param...

  • [2] DeepSeek V4-Pro / V4-Flash Launch: 1M Context + Open ... - API易docs.apiyi.com

    - Two models launched : deepseek-v4-pro (1.6T total / 49B active) and deepseek-v4-flash (284B total / 13B active), both MoE - 1M context : Full 1,000,000-token context across the family, powered by a new Hybrid Attention architecture + DSA sparse attention...

  • [4] HyperAIbeta.hyper.ai

    We present a preview version of DeepSeek-V4 series, including two strong Mixture-of-Experts (MoE) language models — DeepSeek-V4-Pro with 1.6T parameters (49B activated) and DeepSeek-V4-Flash with 284B parameters (13B activated) — both supporting a context l...

  • [5] DeepSeek-V4 on Day 0: From Fast Inference to Verified RL with ...lmsys.org

    - HiSparse: Turbocharging Sparse Attention with Hierarchical Memory ... The SGLang and Miles TeamApril 25, 2026 We are thrilled to announce Day-0 support for DeepSeek-V4 across both inference and RL training. SGLang and Miles form the first open-source stac...

  • [14] Dedicated Optimizations For...api-docs.deepseek.com

    DeepSeek V4 Preview Release 🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length. 🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models. 🔹 D...

  • [15] DeepSeek-V4 预览版:迈入百万上下文普惠时代api-docs.deepseek.com

    DeepSeek-V4 预览版:迈入百万上下文普惠时代 今天,我们全新系列模型 DeepSeek-V4 的预览版本正式上线并同步开源。 DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。模型按大小分为两个版本: 即日起登录官网 chat.deepseek.com 或官方App,即可与最新的 DeepSeek-V4 对话,探索 1M 超长上下文记忆的全新体验。API 服务已同步更新,通过修改 model name 为 deepseek-v4-pr...

  • [17] 模型& 价格 - DeepSeek API Docsapi-docs.deepseek.com

    模型细节 ​ 模型 模型 deepseek-v4-flash^(1)^ deepseek-v4-pro -- -- -- -- BASE URL (OpenAI 格式) BASE URL (OpenAI 格式) BASE URL (Anthropic 格式) BASE URL (Anthropic 格式) 模型版本 模型版本 DeepSeek-V4-Flash DeepSeek-V4-Pro 思考模式 思考模式 支持非思考与思考模式(默认) 切换方式详见思考模式 支持非思考与思考模式(默认) 切换方式详见思考...

  • [18] 更新日志 - DeepSeek API Docsapi-docs.deepseek.com

    时间: 2026-04-24​ DeepSeek-V4​ DeepSeek API 已支持 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base url 不变, model 参数需要改为 或 旧有的 API 接口的两个模型名 与 将于三个月后(2026-07-24)停止使用。当前阶段内,这两个模型名分别 指向 的非思考模式与思考模式。 ... 我们非正式部署了 DeepSeek-V3.2-Speciale 的 API...

  • [19] Change Log | DeepSeek API Docsapi-docs.deepseek.com

    Date: 2026-04-24​ DeepSeek-V4​ The DeepSeek API now supports V4-Pro and V4-Flash, available via both the OpenAI ChatCompletions interface and the Anthropic interface. To access the new models, the base url remains unchanged, and the model parameter should b...

  • [20] DeepSeek API Docs: Your First API Callapi-docs.deepseek.com

    Your First API Call The DeepSeek API uses an API format compatible with OpenAI/Anthropic. By modifying the configuration, you can use the OpenAI/Anthropic SDK or softwares compatible with the OpenAI/Anthropic API to access the DeepSeek API. PARAM VALUE -- -...

  • [21] 首次调用APIapi-docs.deepseek.com

    DeepSeek API 使用与 OpenAI/Anthropic 兼容的 API 格式,通过修改配置,您可以使用 OpenAI/Anthropic SDK 来访问 DeepSeek API,或使用与 OpenAI/Anthropic API 兼容的软件。 PARAM VALUE -- -- base url (OpenAI) base url (Anthropic) api key apply for an API key model (将于 2026/07/24 弃用) (将于 2026/07/24 弃用...

  • [22] Transparency Center - DeepSeekdeepseek.com

    Learn about DeepSeek's published models Model Principles and Training Methodology View Details V4.0DeepSeek-V4New Release Date April 24, 2026 Model CardTechnical ReportV3.2DeepSeek-V3.2 Release Date December 1, 2025 Model CardTechnical Report