studioglobal
熱門探索內容
報告已發布12 個來源

DeepSeek V4 工程解析:1M 上下文、MoE 與 API 遷移重點

DeepSeek 透明中心列出 V4.0 DeepSeek V4 的發布日期為 2026 年 4 月 24 日;V4 Pro 為 1.6T/49B active,V4 Flash 為 284B/13B active,兩者最高支援 1M token 上下文。[22][1][14][17] MoE 讓 total parameters 與 active parameters 必須分開解讀;但 1M 上下文真正考驗的是服務端的注意力計算、快取、GPU 記憶體/頻寬與吞吐量調度。[1][2][4][5] 開發者的短期重點是改模型名稱:deepseek v4 pro 或 deepseek v4 flash;舊的 deepseek cha...

12K0
DeepSeek V4 工程架构示意图,包含 1M 上下文、MoE 专家路由和 API 服务化元素
DeepSeek V4 工程解析:1M 上下文背后的 MoE 与 API 落地AI 生成的 DeepSeek V4 工程示意图,表现百万 token 上下文、MoE 专家路由与 API 服务化。
AI 提示詞

Create a landscape editorial hero image for this Studio Global article: DeepSeek V4 工程解析:1M 上下文背后的 MoE 与 API 落地. Article summary: DeepSeek V4 的核心是系统工程组合:2026 04 24 发布的 V4 Pro(1.6T/49B active)与 V4 Flash(284B/13B active)都面向 1M token 上下文;可靠事实是规格和 API 已公开,性能领先幅度与部分内部机制仍需独立验证。. Topic tags: ai, deepseek, llm, mixture of experts, long context. Reference image context from search candidates: Reference image 1: visual subject "# DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底. 2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——**DeepSeek-V4 预览版正式上线**。. | | **DeepSeek-V4-Flash** | **DeepSeek-V4-Pro** |. | 上下文长度 | **1M" source context "DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底 - iTech - 博客园" Reference image 2: visual subject "# DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底. 2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——**DeepSeek-V4 预览版正式上线**。. | | **DeepSeek-V4-Flash** | **DeepSeek-V4-Pro** |. | 上下文长度 | **1M" sour

openai.com

把 DeepSeek V4 稱為「一個 1M 上下文模型」不算錯,但這樣說太窄。更接近產品現實的描述是:它把 V4-Pro、V4-Flash 兩個模型檔位,公開標示的總參數/啟用參數,100 萬 token 上下文視窗,以及 OpenAI、Anthropic 相容 API,一起做成可直接呼叫的模型服務。[18][20]

DeepSeek 透明中心將 V4.0 DeepSeek-V4 的發布日期列為 2026 年 4 月 24 日,並提供 Model Card 與 Technical Report 入口;官方公告也稱 DeepSeek-V4 Preview 已正式上線並同步開源。[22][14][15]

已確認規格:Pro 衝能力上限,Flash 主打效率

項目DeepSeek-V4-ProDeepSeek-V4-Flash
公開規模1.6T 總參數 / 49B 啟用參數 [1][14]284B 總參數 / 13B 啟用參數 [1][14]
上下文視窗最高 1M token [1][17]最高 1M token [1][17]
產品定位V4 家族中最大的模型 [1]面向更高速、更高效率的負載 [1]
API 模型名稱deepseek-v4-pro [18][20]deepseek-v4-flash [18][20]

DeepSeek 的模型與價格頁還列出,兩個模型最大輸出長度為 384K,並支援 Json Output、Tool Calls 等功能。[17] 這些規格顯示,V4 的工程重點不是單純把參數或上下文視窗做大,而是同時推出能力檔與效率檔,並且讓它們成為可以在 API 裡切換的產品。

MoE 怎麼看:容量與單次推論成本不再完全綁死

API 易與 HyperAI 等公開資料都將 V4-Pro、V4-Flash 描述為 Mixture-of-Experts,亦即 MoE、混合專家模型。[2][4] 在 MoE 語境下,總參數更像是整個「專家池」的容量;啟用參數則代表一次推論中實際參與計算的子集合。這也解釋了為什麼 V4 的規格會同時強調 total parameters 與 active parameters。[1][2][4][14]

這類設計的好處,是讓模型容量與單次計算量部分解耦;代價則是服務端必須處理專家路由、專家並行、通訊與負載平衡等問題。SGLang / Miles 團隊在 V4 發布後稱已提供推論與 RL 訓練支援,並表示其系統針對 V4 的 hybrid sparse-attention、mHC 與 FP4 expert weights 做了適配,說明挑戰已經延伸到 serving 與 training stack。[5]

1M token 上下文:真正壓力多半在服務端

NVIDIA 開發者材料把 V4-Pro 與 V4-Flash 定位為面向高效率 million-token context inference 的模型,並點名長上下文程式碼、文件分析、檢索與 agentic AI 工作流等場景。[1] DeepSeek API 文件也列出兩者上下文長度為 1M。[17]

對使用者來說,1M 上下文的直接價值,是減少切片、拼接與檢索遺漏;但對服務端而言,它會放大注意力計算、上下文快取、GPU 記憶體/頻寬與吞吐量調度壓力。也因此,評估 V4 不能只看「視窗有多長」,更應該放到真實的程式碼庫、長文件、RAG 與 Agent 工具鏈中,測延遲、費用、長距離引用穩定性與工具呼叫表現。[1][17]

注意力架構:方向明確,術語仍要保守解讀

圍繞長上下文效率,公開資料中的術語並不完全一致。API 易稱 V4 的 1M 上下文由 Hybrid Attention 與 DSA sparse attention 支撐。[2] HyperAI 摘要寫到 hybrid attention 結合 Compressed Sparse Attention(CSA)與 Heavily Compressed Attention(HCA),並提到 mHC。[4] SGLang / Miles 則稱其開源堆疊針對 hybrid sparse-attention、mHC 與 FP4 expert weights 做了適配。[5]

較穩妥的讀法是:V4 相關生態資料普遍指向「稀疏/壓縮/混合注意力,加上服務堆疊最佳化」這條路線;但具體模組名稱、實作細節與效果幅度,不宜只憑二手摘要或影片定論。若要做嚴肅技術判斷,最好回到 DeepSeek 透明中心列出的 Model Card 與 Technical Report 核對。[22]

API 落地:遷移成本被放進產品設計

DeepSeek 更新日誌顯示,API 已支援 V4-Pro 與 V4-Flash,並可透過 OpenAI ChatCompletions 介面和 Anthropic 介面呼叫;存取新模型時 base_url 不變,只需要把 model 參數改為 deepseek-v4-prodeepseek-v4-flash[18][19] 官方首次呼叫文件列出的 base URL,分別是 OpenAI 格式的 https://api.deepseek.com,以及 Anthropic 格式的 https://api.deepseek.com/anthropic[20][21]

text
model: deepseek-v4-pro
model: deepseek-v4-flash

OpenAI format base_url: https://api.deepseek.com
Anthropic format base_url: https://api.deepseek.com/anthropic

舊模型名稱也已有明確時間表:deepseek-chatdeepseek-reasoner 將於 2026 年 7 月 24 日棄用;過渡期內,兩者分別指向 deepseek-v4-flash 的非思考模式與思考模式。[18][19][21] 對既有應用而言,最先要做的是替換模型名稱、確認 Pro 或 Flash 的選擇,並針對長上下文、Tool Calls、輸出長度與成本重新做回歸測試。[17][18]

哪些說法還需要獨立驗證?

第一,性能領先幅度要謹慎看待。官方中文發布頁稱 V4-Pro 在 Agent、世界知識與推理能力上達到「國內與開源領域」領先,並提供與部分閉源模型的體驗對比;API 易也列出 SWE-Verified 等 benchmark 分數。[15][2] 這些可以視為發布方與生態方主張,但不同提示詞、成本限制與業務任務下的表現,仍應以獨立複測為準。

第二,內部機制細節要分層看待。Hybrid Attention、DSA、CSA、HCA、mHC 與 FP4 expert weights 已出現在不同公開資料中,但來源層級與命名並不一致。[2][4][5] 在官方技術報告之外,把每個術語都當成已完全驗證的實作事實,並不穩妥。[22]

第三,1M 上下文不自動等於所有滿窗請求都低延遲、低成本。官方與生態資料能確認 V4 的規格方向與可呼叫性;真實服務表現仍取決於你的文件長度、快取命中率、併發量、工具呼叫鏈與評測標準。[1][17][18]

實務結論

DeepSeek V4 的工程難度,重點在「組合」:V4-Pro 的 1.6T/49B active、V4-Flash 的 284B/13B active、最高 1M token 上下文,以及 OpenAI/Anthropic 相容 API,被放進同一條可呼叫產品線中。[1][14][17][18]

對開發者來說,短期最實際的行動不是重複宣傳語,而是拿自己的長文件、程式碼庫、RAG 與 Agent 工作流做端到端測試:該用 Pro 還是 Flash、長上下文是否真的改善任務、工具呼叫是否穩定、成本是否可控。若你仍在使用舊模型名稱,則應在 2026 年 7 月 24 日前完成遷移規劃與回歸測試。[18][21]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查證事實

重點整理

  • DeepSeek 透明中心列出 V4.0 DeepSeek V4 的發布日期為 2026 年 4 月 24 日;V4 Pro 為 1.6T/49B active,V4 Flash 為 284B/13B active,兩者最高支援 1M token 上下文。[22][1][14][17]
  • MoE 讓 total parameters 與 active parameters 必須分開解讀;但 1M 上下文真正考驗的是服務端的注意力計算、快取、GPU 記憶體/頻寬與吞吐量調度。[1][2][4][5]
  • 開發者的短期重點是改模型名稱:deepseek v4 pro 或 deepseek v4 flash;舊的 deepseek chat、deepseek reasoner 預計於 2026 年 7 月 24 日棄用。[18][20][21]

大家也會問

「DeepSeek V4 工程解析:1M 上下文、MoE 與 API 遷移重點」的簡短答案是什麼?

DeepSeek 透明中心列出 V4.0 DeepSeek V4 的發布日期為 2026 年 4 月 24 日;V4 Pro 為 1.6T/49B active,V4 Flash 為 284B/13B active,兩者最高支援 1M token 上下文。[22][1][14][17]

最值得優先驗證的重點是什麼?

DeepSeek 透明中心列出 V4.0 DeepSeek V4 的發布日期為 2026 年 4 月 24 日;V4 Pro 為 1.6T/49B active,V4 Flash 為 284B/13B active,兩者最高支援 1M token 上下文。[22][1][14][17] MoE 讓 total parameters 與 active parameters 必須分開解讀;但 1M 上下文真正考驗的是服務端的注意力計算、快取、GPU 記憶體/頻寬與吞吐量調度。[1][2][4][5]

接下來在實務上該怎麼做?

開發者的短期重點是改模型名稱:deepseek v4 pro 或 deepseek v4 flash;舊的 deepseek chat、deepseek reasoner 預計於 2026 年 7 月 24 日棄用。[18][20][21]

下一步適合探索哪個相關主題?

繼續閱讀「Claude Opus 4.7、GPT-5.5、DeepSeek V4、Kimi K2.6 基準比較:2026 年誰最值得信?」,從另一個角度查看更多引用來源。

開啟相關頁面

我應該拿這個和什麼比較?

將這個答案與「Northwest vs. Southeast Timber 彈性題解:為什麼是 larger; larger」交叉比對。

開啟相關頁面

繼續深入研究

研究對話

研究問題

研究「The insane engineering of Deepseek V4」

Studio Global AI26 個來源

附引用的答案

我把「The insane engineering of Deepseek V4」理解为:围绕 DeepSeek V4 的工程设计做一份可核查的研究摘要。结论是:V4 的“疯狂工程”主要不在单一算法,而在把超大 MoE、百万 token 上下文、稀疏/混合注意力、低活跃参数推理和服务栈适配组合到一起;但目前很多性能和架构细节仍主要来自官方或生态方材料,独立评测证据还不充分。

Key findings

  • DeepSeek-V4 预览版已上线,官方称其支持 1M 超长上下文,并分为 V4-Pro 与 V4-Flash 两个版本。[7]

  • V4-Pro 的公开规格是 1.6T 总参数、49B 激活参数;V4-Flash 的公开规格是 284B 总参数、13B 激活参数。[2][5]

  • 这说明 V4 继续采用稀疏激活的 MoE 思路:模型总容量很大,但每个 token 只激活一小部分参数,从而把“模型容量”和“推理成本”部分解耦。[2][5]

  • 百万 token 上下文是 V4 最核心的工程卖点之一,因为长上下文推理的瓶颈通常会集中在注意力计算、KV cache 存储、显存带宽和跨设备通信上。[2][7]

  • 第三方 API 文档称 V4 的 1M 上下文依赖 Hybrid Attention 与 DSA sparse attention,但这一点应视为生态方说明,而不是完整技术论文级证据。[3]

  • DeepSeek 官方 API 文档显示,V4-Pro 与 V4-Flash 可通过 OpenAI Chat Completions 接口和 Anthropic 兼容接口调用,模型名分别为 deepseek-v4-prodeepseek-v4-flash[12][16]

  • 官方更新日志称旧模型名 deepseek-chatdeepseek-reasoner 将在 2026-07-24 后停止使用,并在过渡期分别指向新的 V4 系列模型。[12]

  • NVIDIA 的开发者材料把 V4 定位为面向高效百万 token 上下文推理的模型,并提到可在 Blackwell 与 GPU 加速端点上构建应用。[2]

  • SGLang / LMSYS 生态方称其在发布日提供了 DeepSeek-V4 的推理与 RL 训练支持,这说明 V4 的工程影响不只是模型本身,还包括开源 serving / training stack 的适配。[11]

为什么说它“工程量很大”

  • 参数规模与激活规模的差异很大:V4-Pro 是 1.6T 总参数但每次只激活 49B 参数,这要求路由、专家并行、负载均衡和通信调度都足够稳定,否则 MoE 的理论效率会被系统开销吃掉。[2][5]

  • 1M 上下文会显著放大 KV cache 与注意力计算压力,因此如果没有稀疏注意力、分层缓存、分页 KV 或类似机制,推理成本会很难控制。[2][3]

  • V4-Flash 的 284B 总参数 / 13B 激活参数定位明显偏向低成本、高吞吐服务,而 V4-Pro 则偏向能力上限,这是一种“同架构、多成本档位”的产品工程策略。[2][5]

  • API 层同时兼容 OpenAI 与 Anthropic 格式,降低了迁移成本;这类兼容性本身不是模型创新,但对实际采用率很关键。[12][16]

  • Day-0 生态支持意味着模型权重、推理 kernel、调度器、并行策略和训练/强化学习工具链需要快速协同适配,这通常比单纯发布权重更复杂。[11]

Evidence notes

  • 最强证据来自 DeepSeek 官方 API/公告页面和 NVIDIA 开发者材料;这些来源能支持模型名称、参数规模、上下文长度和 API 支持等事实。[2][5][7][12]

  • 关于 Hybrid Attention、DSA sparse attention 等具体架构细节,目前我找到的强证据主要来自生态方或聚合文档,不等同于完整官方技术报告或同行评审论文。[3]

  • 学术搜索没有找到明确的 DeepSeek-V4 专门技术报告;只找到与长上下文、混合架构相关的相邻研究,因此不能用它来严格证明 V4 的内部实现。[1]

Limitations / uncertainty

  • Insufficient evidence:目前没有足够独立证据确认 V4 在所有公开 benchmark 上“比肩顶级闭源模型”的具体幅度。

  • Insufficient evidence:没有足够证据验证视频或文章中可能提到的所有内部工程细节,例如训练成本、具体 GPU 数量、完整数据配方、路由算法细节或真实线上延迟。

  • Insufficient evidence:若有人声称 V4 使用某些未被官方技术报告明确确认的专有机制,应先视为未经充分验证的说法。

Summary

DeepSeek V4 的核心看点是:用 MoE 把总容量做到万亿级,同时把每 token 激活参数压到几十 B;再用百万 token 上下文、稀疏/混合注意力和工程化 serving stack,把超长上下文模型做成可调用的 API 产品。[2][5][7][12] 这确实是复杂系统工程,但目前应把“规格与可用性”视为较可靠事实,把“性能领先幅度与内部实现细节”视为仍需独立验证的部分。

來源

  • [1] Build with DeepSeek V4 Using NVIDIA Blackwell and GPU ...developer.nvidia.com

    DeepSeek just launched its fourth generation of flagship models with DeepSeek-V4-Pro and DeepSeek-V4-Flash, both targeted at enabling highly efficient million-token context inference. DeepSeek-V4-Pro is the largest model in the family, with 1.6T total param...

  • [2] DeepSeek V4-Pro / V4-Flash Launch: 1M Context + Open ... - API易docs.apiyi.com

    - Two models launched : deepseek-v4-pro (1.6T total / 49B active) and deepseek-v4-flash (284B total / 13B active), both MoE - 1M context : Full 1,000,000-token context across the family, powered by a new Hybrid Attention architecture + DSA sparse attention...

  • [4] HyperAIbeta.hyper.ai

    We present a preview version of DeepSeek-V4 series, including two strong Mixture-of-Experts (MoE) language models — DeepSeek-V4-Pro with 1.6T parameters (49B activated) and DeepSeek-V4-Flash with 284B parameters (13B activated) — both supporting a context l...

  • [5] DeepSeek-V4 on Day 0: From Fast Inference to Verified RL with ...lmsys.org

    - HiSparse: Turbocharging Sparse Attention with Hierarchical Memory ... The SGLang and Miles TeamApril 25, 2026 We are thrilled to announce Day-0 support for DeepSeek-V4 across both inference and RL training. SGLang and Miles form the first open-source stac...

  • [14] Dedicated Optimizations For...api-docs.deepseek.com

    DeepSeek V4 Preview Release 🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length. 🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models. 🔹 D...

  • [15] DeepSeek-V4 预览版:迈入百万上下文普惠时代api-docs.deepseek.com

    DeepSeek-V4 预览版:迈入百万上下文普惠时代 今天,我们全新系列模型 DeepSeek-V4 的预览版本正式上线并同步开源。 DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。模型按大小分为两个版本: 即日起登录官网 chat.deepseek.com 或官方App,即可与最新的 DeepSeek-V4 对话,探索 1M 超长上下文记忆的全新体验。API 服务已同步更新,通过修改 model name 为 deepseek-v4-pr...

  • [17] 模型& 价格 - DeepSeek API Docsapi-docs.deepseek.com

    模型细节 ​ 模型 模型 deepseek-v4-flash^(1)^ deepseek-v4-pro -- -- -- -- BASE URL (OpenAI 格式) BASE URL (OpenAI 格式) BASE URL (Anthropic 格式) BASE URL (Anthropic 格式) 模型版本 模型版本 DeepSeek-V4-Flash DeepSeek-V4-Pro 思考模式 思考模式 支持非思考与思考模式(默认) 切换方式详见思考模式 支持非思考与思考模式(默认) 切换方式详见思考...

  • [18] 更新日志 - DeepSeek API Docsapi-docs.deepseek.com

    时间: 2026-04-24​ DeepSeek-V4​ DeepSeek API 已支持 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base url 不变, model 参数需要改为 或 旧有的 API 接口的两个模型名 与 将于三个月后(2026-07-24)停止使用。当前阶段内,这两个模型名分别 指向 的非思考模式与思考模式。 ... 我们非正式部署了 DeepSeek-V3.2-Speciale 的 API...

  • [19] Change Log | DeepSeek API Docsapi-docs.deepseek.com

    Date: 2026-04-24​ DeepSeek-V4​ The DeepSeek API now supports V4-Pro and V4-Flash, available via both the OpenAI ChatCompletions interface and the Anthropic interface. To access the new models, the base url remains unchanged, and the model parameter should b...

  • [20] DeepSeek API Docs: Your First API Callapi-docs.deepseek.com

    Your First API Call The DeepSeek API uses an API format compatible with OpenAI/Anthropic. By modifying the configuration, you can use the OpenAI/Anthropic SDK or softwares compatible with the OpenAI/Anthropic API to access the DeepSeek API. PARAM VALUE -- -...

  • [21] 首次调用APIapi-docs.deepseek.com

    DeepSeek API 使用与 OpenAI/Anthropic 兼容的 API 格式,通过修改配置,您可以使用 OpenAI/Anthropic SDK 来访问 DeepSeek API,或使用与 OpenAI/Anthropic API 兼容的软件。 PARAM VALUE -- -- base url (OpenAI) base url (Anthropic) api key apply for an API key model (将于 2026/07/24 弃用) (将于 2026/07/24 弃用...

  • [22] Transparency Center - DeepSeekdeepseek.com

    Learn about DeepSeek's published models Model Principles and Training Methodology View Details V4.0DeepSeek-V4New Release Date April 24, 2026 Model CardTechnical ReportV3.2DeepSeek-V3.2 Release Date December 1, 2025 Model CardTechnical Report