studioglobal
热门发现
报告已发布12 来源

DeepSeek V4 工程解析:1M 上下文、MoE 与 API 迁移要点

DeepSeek V4 的“疯狂”在系统组合:2026 年 4 月 24 日发布的 V4 Pro(1.6T/49B active)和 V4 Flash(284B/13B active)都支持最高 1M token 上下文;规格与 API 可核查,但性能领先幅度和部分内部机制仍需独立复测。 开发者要先改模型名:deepseek v4 pro 或 deepseek v4 flash;旧 deepseek chat 与 deepseek reasoner 计划在 2026 07 24 弃用。

12K0
DeepSeek V4 工程架构示意图,包含 1M 上下文、MoE 专家路由和 API 服务化元素
DeepSeek V4 工程解析:1M 上下文背后的 MoE 与 API 落地AI 生成的 DeepSeek V4 工程示意图,表现百万 token 上下文、MoE 专家路由与 API 服务化。
AI 提示

Create a landscape editorial hero image for this Studio Global article: DeepSeek V4 工程解析:1M 上下文背后的 MoE 与 API 落地. Article summary: DeepSeek V4 的核心是系统工程组合:2026 04 24 发布的 V4 Pro(1.6T/49B active)与 V4 Flash(284B/13B active)都面向 1M token 上下文;可靠事实是规格和 API 已公开,性能领先幅度与部分内部机制仍需独立验证。. Topic tags: ai, deepseek, llm, mixture of experts, long context. Reference image context from search candidates: Reference image 1: visual subject "# DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底. 2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——**DeepSeek-V4 预览版正式上线**。. | | **DeepSeek-V4-Flash** | **DeepSeek-V4-Pro** |. | 上下文长度 | **1M" source context "DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底 - iTech - 博客园" Reference image 2: visual subject "# DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底. 2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——**DeepSeek-V4 预览版正式上线**。. | | **DeepSeek-V4-Flash** | **DeepSeek-V4-Pro** |. | 上下文长度 | **1M" sour

openai.com

DeepSeek V4 不应只被理解为「一个 1M 上下文模型」。更准确地说,它是一次模型与服务栈的组合发布:V4-Pro 和 V4-Flash 两个档位、公开标注的总参数/激活参数、百万 token 窗口,以及兼容 OpenAI/Anthropic 的 API 调用方式。[18][20]

DeepSeek 透明中心将 V4.0 DeepSeek-V4 的发布日期列为 2026-04-24,并提供 Model Card 与 Technical Report 入口;官方公告称 DeepSeek-V4 Preview 已上线并同步开源。[22][14][15]

已确认规格:Pro 追求上限,Flash 追求效率

项目DeepSeek-V4-ProDeepSeek-V4-Flash
公开规模1.6T 总参数 / 49B 激活参数 [1][14]284B 总参数 / 13B 激活参数 [1][14]
上下文窗口最高 1M token [1][17]最高 1M token [1][17]
产品定位V4 家族中最大的模型 [1]面向更高速、更高效率的负载 [1]
API 模型名deepseek-v4-pro [18][20]deepseek-v4-flash [18][20]

DeepSeek 的模型与价格页还列出,两个模型的最大输出长度为 384K,并支持 Json Output、Tool Calls 等功能。[17] 这些规格说明,V4 的工程重点并不是单纯把参数或上下文窗口做大,而是把能力档和效率档同时做成可调用产品。

MoE 的意义:容量和单次推理成本不再完全绑定

API 易与 HyperAI 等公开材料均将 V4-Pro 和 V4-Flash 描述为 Mixture-of-Experts(MoE)模型。[2][4] 在 MoE 语境下,总参数更接近专家池容量,激活参数则表示一次推理中实际参与计算的子集;这解释了为什么 V4 的规格同时强调 total parameters 和 active parameters。[1][2][4][14]

这类设计的收益,是让模型容量与单次计算量部分解耦;代价是服务端必须处理专家路由、专家并行、通信和负载均衡等问题。SGLang / Miles 团队在 V4 发布后称已提供推理与 RL 训练支持,并表示其系统针对 V4 的 hybrid sparse-attention、mHC 和 FP4 expert weights 做了适配,说明难点已经延伸到 serving/training stack。[5]

1M token 上下文:真正的压力在服务端

NVIDIA 开发者材料把 V4-Pro 和 V4-Flash 定位为面向高效 million-token context inference 的模型,并点名长上下文代码、文档分析、检索和 agentic AI 工作流等场景。[1] DeepSeek API 文档也列出两者上下文长度为 1M。[17]

对使用者来说,1M 上下文的直接价值是减少切片、拼接和检索遗漏;对服务端来说,它会放大注意力计算、上下文缓存、显存/带宽和吞吐调度压力。也因此,评价 V4 不能只看窗口数字,更应在真实的代码仓库、长文档、RAG 和 Agent 工具链中测试延迟、费用、长距离引用稳定性和工具调用表现。[1][17]

注意力架构:方向清楚,术语仍要谨慎

围绕长上下文效率,公开材料的术语并不完全一致。API 易称 V4 的 1M 上下文由 Hybrid Attention 与 DSA sparse attention 支撑。[2] HyperAI 摘要写到 hybrid attention 结合 Compressed Sparse Attention(CSA)和 Heavily Compressed Attention(HCA),并提到 mHC。[4] SGLang / Miles 则称其开源栈针对 hybrid sparse-attention、mHC 和 FP4 expert weights 做了适配。[5]

稳妥的读法是:V4 生态材料普遍指向“稀疏/压缩/混合注意力 + 服务栈优化”这条路线;但具体模块名称、实现细节和效果幅度,不应只凭二级摘要或视频定论,最好回到 DeepSeek 透明中心列出的 Model Card 与 Technical Report 核对。[22]

API 落地:迁移成本被放进产品设计

DeepSeek 更新日志显示,API 已支持 V4-Pro 与 V4-Flash,并可通过 OpenAI ChatCompletions 接口和 Anthropic 接口调用;访问新模型时 base_url 不变,只需把 model 参数改为 deepseek-v4-prodeepseek-v4-flash[18][19] 官方首次调用文档列出的 base URL 分别是 OpenAI 格式的 https://api.deepseek.com 和 Anthropic 格式的 https://api.deepseek.com/anthropic[20][21]

text
model: deepseek-v4-pro
model: deepseek-v4-flash

OpenAI format base_url: https://api.deepseek.com
Anthropic format base_url: https://api.deepseek.com/anthropic

旧模型名也有明确时间表:deepseek-chatdeepseek-reasoner 将于 2026-07-24 弃用;过渡期内,它们分别指向 deepseek-v4-flash 的非思考模式和思考模式。[18][19][21] 对已有应用来说,最先要做的是替换模型名、确认 Pro/Flash 选择,并对长上下文、Tool Calls、输出长度和成本做回归测试。[17][18]

哪些说法还需要独立验证

第一,性能领先幅度要谨慎。官方中文发布页称 V4-Pro 在 Agent、世界知识和推理能力上达到国内与开源领域领先,并给出与部分闭源模型的体验对比;API 易也列出 SWE-Verified 等 benchmark 分数。[15][2] 这些可以作为发布方和生态方主张,但不同提示词、成本约束和业务任务下的表现仍应以独立复测为准。

第二,内部机制细节要分层看待。Hybrid Attention、DSA、CSA、HCA、mHC 和 FP4 expert weights 已出现在不同公开材料中,但来源层级和命名并不一致。[2][4][5] 在官方技术报告之外,把每个术语都当成已完全验证的实现事实并不稳妥。[22]

第三,1M 上下文不自动等于所有满窗请求都低延迟、低成本。官方和生态材料能确认 V4 的规格方向与可调用性;真实服务表现仍取决于你的文档长度、缓存命中、并发量、工具调用链和评测标准。[1][17][18]

实用结论

DeepSeek V4 的“疯狂工程”在于组合:V4-Pro 的 1.6T/49B active、V4-Flash 的 284B/13B active、最高 1M token 上下文,以及 OpenAI/Anthropic 兼容 API 被放进同一个可调用产品线中。[1][14][17][18] 对开发者来说,短期最实际的行动不是复述宣传语,而是用自己的长文档、代码库、RAG 与 Agent 工作流做端到端测试,并在 2026-07-24 前完成旧模型名迁移。[18][21]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜索并核查事实

要点

  • DeepSeek V4 的“疯狂”在系统组合:2026 年 4 月 24 日发布的 V4 Pro(1.6T/49B active)和 V4 Flash(284B/13B active)都支持最高 1M token 上下文;规格与 API 可核查,但性能领先幅度和部分内部机制仍需独立复测。
  • 开发者要先改模型名:deepseek v4 pro 或 deepseek v4 flash;旧 deepseek chat 与 deepseek reasoner 计划在 2026 07 24 弃用。
  • 评估重点不只是能否塞满 1M token,而是长文档、代码库、RAG 和 Agent 场景下的延迟、成本、检索稳定性和工具调用表现。

人们还问

“DeepSeek V4 工程解析:1M 上下文、MoE 与 API 迁移要点”的简短答案是什么?

DeepSeek V4 的“疯狂”在系统组合:2026 年 4 月 24 日发布的 V4 Pro(1.6T/49B active)和 V4 Flash(284B/13B active)都支持最高 1M token 上下文;规格与 API 可核查,但性能领先幅度和部分内部机制仍需独立复测。

首先要验证的关键点是什么?

DeepSeek V4 的“疯狂”在系统组合:2026 年 4 月 24 日发布的 V4 Pro(1.6T/49B active)和 V4 Flash(284B/13B active)都支持最高 1M token 上下文;规格与 API 可核查,但性能领先幅度和部分内部机制仍需独立复测。 开发者要先改模型名:deepseek v4 pro 或 deepseek v4 flash;旧 deepseek chat 与 deepseek reasoner 计划在 2026 07 24 弃用。

接下来在实践中我应该做什么?

评估重点不只是能否塞满 1M token,而是长文档、代码库、RAG 和 Agent 场景下的延迟、成本、检索稳定性和工具调用表现。

接下来我应该探索哪个相关主题?

继续“Claude Opus 4.7、GPT-5.5、DeepSeek V4 与 Kimi K2.6:2026 基准对比与选型结论”以获得另一个角度和额外的引用。

打开相关页面

我应该将其与什么进行比较?

对照“Northwest vs. Southeast Timber 弹性题解:为什么是 larger; larger”交叉检查此答案。

打开相关页面

继续你的研究

研究对话

研究问题

研究「The insane engineering of Deepseek V4」

Studio Global AI26 来源

引用的答案

我把「The insane engineering of Deepseek V4」理解为:围绕 DeepSeek V4 的工程设计做一份可核查的研究摘要。结论是:V4 的“疯狂工程”主要不在单一算法,而在把超大 MoE、百万 token 上下文、稀疏/混合注意力、低活跃参数推理和服务栈适配组合到一起;但目前很多性能和架构细节仍主要来自官方或生态方材料,独立评测证据还不充分。

Key findings

  • DeepSeek-V4 预览版已上线,官方称其支持 1M 超长上下文,并分为 V4-Pro 与 V4-Flash 两个版本。[7]

  • V4-Pro 的公开规格是 1.6T 总参数、49B 激活参数;V4-Flash 的公开规格是 284B 总参数、13B 激活参数。[2][5]

  • 这说明 V4 继续采用稀疏激活的 MoE 思路:模型总容量很大,但每个 token 只激活一小部分参数,从而把“模型容量”和“推理成本”部分解耦。[2][5]

  • 百万 token 上下文是 V4 最核心的工程卖点之一,因为长上下文推理的瓶颈通常会集中在注意力计算、KV cache 存储、显存带宽和跨设备通信上。[2][7]

  • 第三方 API 文档称 V4 的 1M 上下文依赖 Hybrid Attention 与 DSA sparse attention,但这一点应视为生态方说明,而不是完整技术论文级证据。[3]

  • DeepSeek 官方 API 文档显示,V4-Pro 与 V4-Flash 可通过 OpenAI Chat Completions 接口和 Anthropic 兼容接口调用,模型名分别为 deepseek-v4-prodeepseek-v4-flash[12][16]

  • 官方更新日志称旧模型名 deepseek-chatdeepseek-reasoner 将在 2026-07-24 后停止使用,并在过渡期分别指向新的 V4 系列模型。[12]

  • NVIDIA 的开发者材料把 V4 定位为面向高效百万 token 上下文推理的模型,并提到可在 Blackwell 与 GPU 加速端点上构建应用。[2]

  • SGLang / LMSYS 生态方称其在发布日提供了 DeepSeek-V4 的推理与 RL 训练支持,这说明 V4 的工程影响不只是模型本身,还包括开源 serving / training stack 的适配。[11]

为什么说它“工程量很大”

  • 参数规模与激活规模的差异很大:V4-Pro 是 1.6T 总参数但每次只激活 49B 参数,这要求路由、专家并行、负载均衡和通信调度都足够稳定,否则 MoE 的理论效率会被系统开销吃掉。[2][5]

  • 1M 上下文会显著放大 KV cache 与注意力计算压力,因此如果没有稀疏注意力、分层缓存、分页 KV 或类似机制,推理成本会很难控制。[2][3]

  • V4-Flash 的 284B 总参数 / 13B 激活参数定位明显偏向低成本、高吞吐服务,而 V4-Pro 则偏向能力上限,这是一种“同架构、多成本档位”的产品工程策略。[2][5]

  • API 层同时兼容 OpenAI 与 Anthropic 格式,降低了迁移成本;这类兼容性本身不是模型创新,但对实际采用率很关键。[12][16]

  • Day-0 生态支持意味着模型权重、推理 kernel、调度器、并行策略和训练/强化学习工具链需要快速协同适配,这通常比单纯发布权重更复杂。[11]

Evidence notes

  • 最强证据来自 DeepSeek 官方 API/公告页面和 NVIDIA 开发者材料;这些来源能支持模型名称、参数规模、上下文长度和 API 支持等事实。[2][5][7][12]

  • 关于 Hybrid Attention、DSA sparse attention 等具体架构细节,目前我找到的强证据主要来自生态方或聚合文档,不等同于完整官方技术报告或同行评审论文。[3]

  • 学术搜索没有找到明确的 DeepSeek-V4 专门技术报告;只找到与长上下文、混合架构相关的相邻研究,因此不能用它来严格证明 V4 的内部实现。[1]

Limitations / uncertainty

  • Insufficient evidence:目前没有足够独立证据确认 V4 在所有公开 benchmark 上“比肩顶级闭源模型”的具体幅度。

  • Insufficient evidence:没有足够证据验证视频或文章中可能提到的所有内部工程细节,例如训练成本、具体 GPU 数量、完整数据配方、路由算法细节或真实线上延迟。

  • Insufficient evidence:若有人声称 V4 使用某些未被官方技术报告明确确认的专有机制,应先视为未经充分验证的说法。

Summary

DeepSeek V4 的核心看点是:用 MoE 把总容量做到万亿级,同时把每 token 激活参数压到几十 B;再用百万 token 上下文、稀疏/混合注意力和工程化 serving stack,把超长上下文模型做成可调用的 API 产品。[2][5][7][12] 这确实是复杂系统工程,但目前应把“规格与可用性”视为较可靠事实,把“性能领先幅度与内部实现细节”视为仍需独立验证的部分。

来源

  • [1] Build with DeepSeek V4 Using NVIDIA Blackwell and GPU ...developer.nvidia.com

    DeepSeek just launched its fourth generation of flagship models with DeepSeek-V4-Pro and DeepSeek-V4-Flash, both targeted at enabling highly efficient million-token context inference. DeepSeek-V4-Pro is the largest model in the family, with 1.6T total param...

  • [2] DeepSeek V4-Pro / V4-Flash Launch: 1M Context + Open ... - API易docs.apiyi.com

    - Two models launched : deepseek-v4-pro (1.6T total / 49B active) and deepseek-v4-flash (284B total / 13B active), both MoE - 1M context : Full 1,000,000-token context across the family, powered by a new Hybrid Attention architecture + DSA sparse attention...

  • [4] HyperAIbeta.hyper.ai

    We present a preview version of DeepSeek-V4 series, including two strong Mixture-of-Experts (MoE) language models — DeepSeek-V4-Pro with 1.6T parameters (49B activated) and DeepSeek-V4-Flash with 284B parameters (13B activated) — both supporting a context l...

  • [5] DeepSeek-V4 on Day 0: From Fast Inference to Verified RL with ...lmsys.org

    - HiSparse: Turbocharging Sparse Attention with Hierarchical Memory ... The SGLang and Miles TeamApril 25, 2026 We are thrilled to announce Day-0 support for DeepSeek-V4 across both inference and RL training. SGLang and Miles form the first open-source stac...

  • [14] Dedicated Optimizations For...api-docs.deepseek.com

    DeepSeek V4 Preview Release 🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length. 🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models. 🔹 D...

  • [15] DeepSeek-V4 预览版:迈入百万上下文普惠时代api-docs.deepseek.com

    DeepSeek-V4 预览版:迈入百万上下文普惠时代 今天,我们全新系列模型 DeepSeek-V4 的预览版本正式上线并同步开源。 DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。模型按大小分为两个版本: 即日起登录官网 chat.deepseek.com 或官方App,即可与最新的 DeepSeek-V4 对话,探索 1M 超长上下文记忆的全新体验。API 服务已同步更新,通过修改 model name 为 deepseek-v4-pr...

  • [17] 模型& 价格 - DeepSeek API Docsapi-docs.deepseek.com

    模型细节 ​ 模型 模型 deepseek-v4-flash^(1)^ deepseek-v4-pro -- -- -- -- BASE URL (OpenAI 格式) BASE URL (OpenAI 格式) BASE URL (Anthropic 格式) BASE URL (Anthropic 格式) 模型版本 模型版本 DeepSeek-V4-Flash DeepSeek-V4-Pro 思考模式 思考模式 支持非思考与思考模式(默认) 切换方式详见思考模式 支持非思考与思考模式(默认) 切换方式详见思考...

  • [18] 更新日志 - DeepSeek API Docsapi-docs.deepseek.com

    时间: 2026-04-24​ DeepSeek-V4​ DeepSeek API 已支持 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base url 不变, model 参数需要改为 或 旧有的 API 接口的两个模型名 与 将于三个月后(2026-07-24)停止使用。当前阶段内,这两个模型名分别 指向 的非思考模式与思考模式。 ... 我们非正式部署了 DeepSeek-V3.2-Speciale 的 API...

  • [19] Change Log | DeepSeek API Docsapi-docs.deepseek.com

    Date: 2026-04-24​ DeepSeek-V4​ The DeepSeek API now supports V4-Pro and V4-Flash, available via both the OpenAI ChatCompletions interface and the Anthropic interface. To access the new models, the base url remains unchanged, and the model parameter should b...

  • [20] DeepSeek API Docs: Your First API Callapi-docs.deepseek.com

    Your First API Call The DeepSeek API uses an API format compatible with OpenAI/Anthropic. By modifying the configuration, you can use the OpenAI/Anthropic SDK or softwares compatible with the OpenAI/Anthropic API to access the DeepSeek API. PARAM VALUE -- -...

  • [21] 首次调用APIapi-docs.deepseek.com

    DeepSeek API 使用与 OpenAI/Anthropic 兼容的 API 格式,通过修改配置,您可以使用 OpenAI/Anthropic SDK 来访问 DeepSeek API,或使用与 OpenAI/Anthropic API 兼容的软件。 PARAM VALUE -- -- base url (OpenAI) base url (Anthropic) api key apply for an API key model (将于 2026/07/24 弃用) (将于 2026/07/24 弃用...

  • [22] Transparency Center - DeepSeekdeepseek.com

    Learn about DeepSeek's published models Model Principles and Training Methodology View Details V4.0DeepSeek-V4New Release Date April 24, 2026 Model CardTechnical ReportV3.2DeepSeek-V3.2 Release Date December 1, 2025 Model CardTechnical Report