studioglobal
热门发现
报告已发布12 来源

DeepSeek V4: 1M token, MoE và những việc developer cần làm khi chuyển API

DeepSeek V4 Preview được DeepSeek ghi nhận phát hành ngày 24/4/2026; V4 Pro có 1.6T tổng tham số/49B tham số kích hoạt, còn V4 Flash có 284B/13B, cả hai hỗ trợ tối đa 1M token.[1][14][22] API đã hỗ trợ deepseek v4 pro và deepseek v4 flash qua định dạng tương thích OpenAI ChatCompletions và Anthropic; deepseek chat v...

12K0
DeepSeek V4 工程架构示意图,包含 1M 上下文、MoE 专家路由和 API 服务化元素
DeepSeek V4 工程解析:1M 上下文背后的 MoE 与 API 落地AI 生成的 DeepSeek V4 工程示意图,表现百万 token 上下文、MoE 专家路由与 API 服务化。
AI 提示

Create a landscape editorial hero image for this Studio Global article: DeepSeek V4 工程解析:1M 上下文背后的 MoE 与 API 落地. Article summary: DeepSeek V4 的核心是系统工程组合:2026 04 24 发布的 V4 Pro(1.6T/49B active)与 V4 Flash(284B/13B active)都面向 1M token 上下文;可靠事实是规格和 API 已公开,性能领先幅度与部分内部机制仍需独立验证。. Topic tags: ai, deepseek, llm, mixture of experts, long context. Reference image context from search candidates: Reference image 1: visual subject "# DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底. 2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——**DeepSeek-V4 预览版正式上线**。. | | **DeepSeek-V4-Flash** | **DeepSeek-V4-Pro** |. | 上下文长度 | **1M" source context "DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底 - iTech - 博客园" Reference image 2: visual subject "# DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底. 2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——**DeepSeek-V4 预览版正式上线**。. | | **DeepSeek-V4-Flash** | **DeepSeek-V4-Pro** |. | 上下文长度 | **1M" sour

openai.com

Nếu chỉ nhìn vào con số “1M token”, rất dễ hiểu sai DeepSeek V4 như một mô hình chỉ hơn nhau ở độ dài prompt. Cách đọc hợp lý hơn: đây là một lần phát hành kết hợp giữa mô hình và tầng dịch vụ, gồm hai bản V4-Pro và V4-Flash, công bố cả tổng tham số lẫn tham số kích hoạt, hỗ trợ cửa sổ ngữ cảnh tới 1 triệu token và có API tương thích OpenAI/Anthropic để đưa vào sản phẩm.[1][14][17][18][20]

DeepSeek Transparency Center liệt kê V4.0 DeepSeek-V4 với ngày phát hành 24/4/2026, đồng thời cung cấp lối vào Model Card và Technical Report.[22] Thông báo chính thức cũng cho biết DeepSeek-V4 Preview đã lên sóng và được công bố là mở nguồn.[14][15]

Thông số đã xác nhận: Pro nhắm trần năng lực, Flash nhắm hiệu quả

Hạng mụcDeepSeek-V4-ProDeepSeek-V4-Flash
Quy mô công bố1.6T tổng tham số / 49B tham số kích hoạt [1][14]284B tổng tham số / 13B tham số kích hoạt [1][14]
Cửa sổ ngữ cảnhTối đa 1M token [1][17]Tối đa 1M token [1][17]
Định vị sản phẩmMô hình lớn nhất trong gia đình V4 [1]Dành cho tải cần tốc độ và hiệu quả cao hơn [1]
Tên model khi gọi APIdeepseek-v4-pro [18][20]deepseek-v4-flash [18][20]

Trang mô hình và giá của DeepSeek còn ghi cả hai model có độ dài đầu ra tối đa 384K, hỗ trợ Json Output và Tool Calls.[17] Nói cách khác, trọng tâm kỹ thuật của V4 không chỉ là “làm model to hơn” hay “kéo ngữ cảnh dài hơn”, mà là đóng gói nhiều mức năng lực — bản mạnh và bản tiết kiệm hơn — thành sản phẩm có thể gọi được qua API.

MoE: vì sao “tổng tham số” và “tham số kích hoạt” đều quan trọng

API Yi và HyperAI đều mô tả V4-Pro và V4-Flash là các mô hình Mixture-of-Experts, thường gọi tắt là MoE — tức “hỗn hợp chuyên gia”.[2][4] Trong cách thiết kế này, tổng tham số phản ánh quy mô “bể chuyên gia”, còn tham số kích hoạt cho biết phần mô hình thực sự tham gia tính toán trong một lượt suy luận. Đây là lý do thông số V4 luôn nhấn mạnh cả total parameters và active parameters.[1][2][4][14]

Lợi ích của MoE là phần nào tách được dung lượng mô hình khỏi chi phí tính toán của từng yêu cầu. Nhưng cái giá nằm ở tầng hệ thống: máy chủ phải xử lý định tuyến chuyên gia, song song hóa, truyền thông giữa thiết bị và cân bằng tải. Sau khi V4 ra mắt, nhóm SGLang / Miles cho biết đã hỗ trợ suy luận và huấn luyện RL cho DeepSeek-V4, với các thích nghi cho hybrid sparse-attention, mHC và FP4 expert weights; điều này cho thấy độ khó đã lan từ bản thân mô hình sang cả serving/training stack.[5]

1M token: áp lực thật nằm ở phía phục vụ

Với người dùng cuối, 1M token có nghĩa là có thể đưa vào một lượng văn bản rất lớn — ví dụ nhiều tài liệu, nhiều file code hoặc lịch sử tác vụ dài hơn. Token không hoàn toàn tương đương “từ”; nó thường là mảnh từ, ký tự hoặc cụm ký tự, nên số trang thực tế còn tùy ngôn ngữ và nội dung. Dù vậy, về mặt sản phẩm, đây vẫn là một bước đáng chú ý cho các bài toán cần nhớ và tham chiếu dài.

Tài liệu dành cho nhà phát triển của NVIDIA định vị V4-Pro và V4-Flash là các mô hình hướng tới suy luận hiệu quả với ngữ cảnh triệu token, đồng thời nêu các tình huống như code dài, phân tích tài liệu, truy xuất thông tin và quy trình agentic AI.[1] Tài liệu API của DeepSeek cũng liệt kê độ dài ngữ cảnh của cả hai model là 1M.[17]

Nhưng với phía vận hành, cửa sổ 1M token sẽ phóng đại áp lực lên tính toán attention, bộ nhớ đệm ngữ cảnh, VRAM/băng thông và lịch điều phối throughput. Vì vậy, đánh giá V4 không nên dừng ở con số cửa sổ ngữ cảnh. Cần thử trong kho mã thật, bộ tài liệu dài, pipeline RAG và chuỗi công cụ Agent để đo độ trễ, chi phí, khả năng giữ tham chiếu xa và chất lượng Tool Calls.[1][17]

Attention: hướng đi rõ, nhưng tên gọi cần đọc thận trọng

Các tài liệu công khai hiện chưa thống nhất hoàn toàn về thuật ngữ cho phần attention dài ngữ cảnh. API Yi nói ngữ cảnh 1M của V4 được hỗ trợ bởi Hybrid Attention và DSA sparse attention.[2] HyperAI tóm tắt rằng hybrid attention kết hợp Compressed Sparse Attention, viết tắt CSA, và Heavily Compressed Attention, viết tắt HCA, đồng thời nhắc tới mHC.[4] Trong khi đó, SGLang / Miles nói stack mã nguồn mở của họ đã thích nghi cho hybrid sparse-attention, mHC và FP4 expert weights.[5]

Cách đọc an toàn là: các nguồn trong hệ sinh thái V4 cùng chỉ về một hướng lớn — kết hợp attention thưa/nén/lai với tối ưu tầng phục vụ. Tuy nhiên, tên module cụ thể, chi tiết triển khai và mức hiệu quả thực tế không nên được xem là đã chốt chỉ dựa trên tóm tắt thứ cấp hay video phân tích. Với các quyết định kỹ thuật quan trọng, nên đối chiếu Model Card và Technical Report mà DeepSeek Transparency Center liệt kê.[22]

API: chi phí chuyển đổi được đưa vào thiết kế sản phẩm

Nhật ký cập nhật của DeepSeek cho biết API đã hỗ trợ V4-Pro và V4-Flash, có thể gọi qua OpenAI ChatCompletions interface và Anthropic interface. Khi truy cập model mới, base_url không đổi; phần cần sửa là tham số model, chuyển sang deepseek-v4-pro hoặc deepseek-v4-flash.[18][19] Tài liệu “first API call” của DeepSeek ghi base_url theo định dạng OpenAI là https://api.deepseek.com, còn định dạng Anthropic là https://api.deepseek.com/anthropic.[20][21]

text
model: deepseek-v4-pro
model: deepseek-v4-flash

OpenAI format base_url: https://api.deepseek.com
Anthropic format base_url: https://api.deepseek.com/anthropic

Hai tên model cũ cũng có lịch rõ ràng: deepseek-chatdeepseek-reasoner sẽ bị ngừng dùng vào ngày 24/7/2026. Trong giai đoạn chuyển tiếp, chúng lần lượt trỏ tới chế độ không suy nghĩ và chế độ suy nghĩ của deepseek-v4-flash.[18][19][21]

Với ứng dụng đang chạy thật, việc nên làm trước tiên là thay tên model, quyết định dùng Pro hay Flash, rồi chạy regression test cho ngữ cảnh dài, Tool Calls, độ dài đầu ra và chi phí.[17][18]

Những điểm vẫn cần kiểm chứng độc lập

Thứ nhất là mức “dẫn đầu” về hiệu năng. Trang phát hành tiếng Trung của DeepSeek nói V4-Pro đạt mức dẫn đầu trong nước và trong nhóm mã nguồn mở ở năng lực Agent, kiến thức thế giới và suy luận; API Yi cũng liệt kê điểm benchmark như SWE-Verified.[15][2] Các thông tin này có giá trị như tuyên bố từ bên phát hành và hệ sinh thái, nhưng hiệu quả trong từng workload vẫn nên được đo lại với prompt, ngân sách và tiêu chí nghiệp vụ cụ thể.

Thứ hai là chi tiết cơ chế bên trong. Hybrid Attention, DSA, CSA, HCA, mHC và FP4 expert weights đã xuất hiện ở nhiều tài liệu công khai, nhưng cấp nguồn và cách đặt tên không hoàn toàn giống nhau.[2][4][5] Ngoài Technical Report chính thức, sẽ không thận trọng nếu coi mọi thuật ngữ là một sự thật triển khai đã được xác minh đầy đủ.[22]

Thứ ba, 1M token không tự động đồng nghĩa mọi yêu cầu dùng hết cửa sổ đều có độ trễ thấp và chi phí thấp. Tài liệu chính thức và tài liệu hệ sinh thái xác nhận hướng thông số và khả năng gọi API của V4; hiệu năng thực tế vẫn phụ thuộc vào độ dài tài liệu, cache hit, mức đồng thời, chuỗi gọi công cụ và bộ đánh giá của từng ứng dụng.[1][17][18]

Kết luận thực dụng cho developer

Điểm “nặng đô” của DeepSeek V4 nằm ở tổ hợp: V4-Pro với 1.6T tổng tham số/49B tham số kích hoạt, V4-Flash với 284B/13B, cửa sổ ngữ cảnh tối đa 1M token và API tương thích OpenAI/Anthropic trong cùng một dòng sản phẩm có thể triển khai.[1][14][17][18]

Với đội ngũ phát triển, hành động ngắn hạn không phải là lặp lại khẩu hiệu 1M token, mà là chạy thử end-to-end trên tài liệu dài, kho mã, RAG và workflow Agent của chính mình. Nếu đang dùng deepseek-chat hoặc deepseek-reasoner, cũng cần lên lịch chuyển sang deepseek-v4-flash hoặc deepseek-v4-pro trước ngày 24/7/2026.[18][21]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜索并核查事实

要点

  • DeepSeek V4 Preview được DeepSeek ghi nhận phát hành ngày 24/4/2026; V4 Pro có 1.6T tổng tham số/49B tham số kích hoạt, còn V4 Flash có 284B/13B, cả hai hỗ trợ tối đa 1M token.[1][14][22]
  • API đã hỗ trợ deepseek v4 pro và deepseek v4 flash qua định dạng tương thích OpenAI ChatCompletions và Anthropic; deepseek chat và deepseek reasoner dự kiến bị ngừng dùng vào ngày 24/7/2026.[18][19][20][21]
  • Khi đánh giá V4, điểm cần đo không chỉ là có nhét được 1M token hay không, mà là độ trễ, chi phí, độ ổn định khi truy xuất xa và Tool Calls trong luồng code, tài liệu dài, RAG và Agent.[1][17]

人们还问

“DeepSeek V4: 1M token, MoE và những việc developer cần làm khi chuyển API”的简短答案是什么?

DeepSeek V4 Preview được DeepSeek ghi nhận phát hành ngày 24/4/2026; V4 Pro có 1.6T tổng tham số/49B tham số kích hoạt, còn V4 Flash có 284B/13B, cả hai hỗ trợ tối đa 1M token.[1][14][22]

首先要验证的关键点是什么?

DeepSeek V4 Preview được DeepSeek ghi nhận phát hành ngày 24/4/2026; V4 Pro có 1.6T tổng tham số/49B tham số kích hoạt, còn V4 Flash có 284B/13B, cả hai hỗ trợ tối đa 1M token.[1][14][22] API đã hỗ trợ deepseek v4 pro và deepseek v4 flash qua định dạng tương thích OpenAI ChatCompletions và Anthropic; deepseek chat và deepseek reasoner dự kiến bị ngừng dùng vào ngày 24/7/2026.[18][19][20][21]

接下来在实践中我应该做什么?

Khi đánh giá V4, điểm cần đo không chỉ là có nhét được 1M token hay không, mà là độ trễ, chi phí, độ ổn định khi truy xuất xa và Tool Calls trong luồng code, tài liệu dài, RAG và Agent.[1][17]

接下来我应该探索哪个相关主题?

继续“Claude Opus 4.7、GPT-5.5、DeepSeek V4 与 Kimi K2.6:2026 基准对比与选型结论”以获得另一个角度和额外的引用。

打开相关页面

我应该将其与什么进行比较?

对照“Northwest vs. Southeast Timber 弹性题解:为什么是 larger; larger”交叉检查此答案。

打开相关页面

继续你的研究

研究对话

研究问题

研究「The insane engineering of Deepseek V4」

Studio Global AI26 来源

引用的答案

我把「The insane engineering of Deepseek V4」理解为:围绕 DeepSeek V4 的工程设计做一份可核查的研究摘要。结论是:V4 的“疯狂工程”主要不在单一算法,而在把超大 MoE、百万 token 上下文、稀疏/混合注意力、低活跃参数推理和服务栈适配组合到一起;但目前很多性能和架构细节仍主要来自官方或生态方材料,独立评测证据还不充分。

Key findings

  • DeepSeek-V4 预览版已上线,官方称其支持 1M 超长上下文,并分为 V4-Pro 与 V4-Flash 两个版本。[7]

  • V4-Pro 的公开规格是 1.6T 总参数、49B 激活参数;V4-Flash 的公开规格是 284B 总参数、13B 激活参数。[2][5]

  • 这说明 V4 继续采用稀疏激活的 MoE 思路:模型总容量很大,但每个 token 只激活一小部分参数,从而把“模型容量”和“推理成本”部分解耦。[2][5]

  • 百万 token 上下文是 V4 最核心的工程卖点之一,因为长上下文推理的瓶颈通常会集中在注意力计算、KV cache 存储、显存带宽和跨设备通信上。[2][7]

  • 第三方 API 文档称 V4 的 1M 上下文依赖 Hybrid Attention 与 DSA sparse attention,但这一点应视为生态方说明,而不是完整技术论文级证据。[3]

  • DeepSeek 官方 API 文档显示,V4-Pro 与 V4-Flash 可通过 OpenAI Chat Completions 接口和 Anthropic 兼容接口调用,模型名分别为 deepseek-v4-prodeepseek-v4-flash[12][16]

  • 官方更新日志称旧模型名 deepseek-chatdeepseek-reasoner 将在 2026-07-24 后停止使用,并在过渡期分别指向新的 V4 系列模型。[12]

  • NVIDIA 的开发者材料把 V4 定位为面向高效百万 token 上下文推理的模型,并提到可在 Blackwell 与 GPU 加速端点上构建应用。[2]

  • SGLang / LMSYS 生态方称其在发布日提供了 DeepSeek-V4 的推理与 RL 训练支持,这说明 V4 的工程影响不只是模型本身,还包括开源 serving / training stack 的适配。[11]

为什么说它“工程量很大”

  • 参数规模与激活规模的差异很大:V4-Pro 是 1.6T 总参数但每次只激活 49B 参数,这要求路由、专家并行、负载均衡和通信调度都足够稳定,否则 MoE 的理论效率会被系统开销吃掉。[2][5]

  • 1M 上下文会显著放大 KV cache 与注意力计算压力,因此如果没有稀疏注意力、分层缓存、分页 KV 或类似机制,推理成本会很难控制。[2][3]

  • V4-Flash 的 284B 总参数 / 13B 激活参数定位明显偏向低成本、高吞吐服务,而 V4-Pro 则偏向能力上限,这是一种“同架构、多成本档位”的产品工程策略。[2][5]

  • API 层同时兼容 OpenAI 与 Anthropic 格式,降低了迁移成本;这类兼容性本身不是模型创新,但对实际采用率很关键。[12][16]

  • Day-0 生态支持意味着模型权重、推理 kernel、调度器、并行策略和训练/强化学习工具链需要快速协同适配,这通常比单纯发布权重更复杂。[11]

Evidence notes

  • 最强证据来自 DeepSeek 官方 API/公告页面和 NVIDIA 开发者材料;这些来源能支持模型名称、参数规模、上下文长度和 API 支持等事实。[2][5][7][12]

  • 关于 Hybrid Attention、DSA sparse attention 等具体架构细节,目前我找到的强证据主要来自生态方或聚合文档,不等同于完整官方技术报告或同行评审论文。[3]

  • 学术搜索没有找到明确的 DeepSeek-V4 专门技术报告;只找到与长上下文、混合架构相关的相邻研究,因此不能用它来严格证明 V4 的内部实现。[1]

Limitations / uncertainty

  • Insufficient evidence:目前没有足够独立证据确认 V4 在所有公开 benchmark 上“比肩顶级闭源模型”的具体幅度。

  • Insufficient evidence:没有足够证据验证视频或文章中可能提到的所有内部工程细节,例如训练成本、具体 GPU 数量、完整数据配方、路由算法细节或真实线上延迟。

  • Insufficient evidence:若有人声称 V4 使用某些未被官方技术报告明确确认的专有机制,应先视为未经充分验证的说法。

Summary

DeepSeek V4 的核心看点是:用 MoE 把总容量做到万亿级,同时把每 token 激活参数压到几十 B;再用百万 token 上下文、稀疏/混合注意力和工程化 serving stack,把超长上下文模型做成可调用的 API 产品。[2][5][7][12] 这确实是复杂系统工程,但目前应把“规格与可用性”视为较可靠事实,把“性能领先幅度与内部实现细节”视为仍需独立验证的部分。

来源

  • [1] Build with DeepSeek V4 Using NVIDIA Blackwell and GPU ...developer.nvidia.com

    DeepSeek just launched its fourth generation of flagship models with DeepSeek-V4-Pro and DeepSeek-V4-Flash, both targeted at enabling highly efficient million-token context inference. DeepSeek-V4-Pro is the largest model in the family, with 1.6T total param...

  • [2] DeepSeek V4-Pro / V4-Flash Launch: 1M Context + Open ... - API易docs.apiyi.com

    - Two models launched : deepseek-v4-pro (1.6T total / 49B active) and deepseek-v4-flash (284B total / 13B active), both MoE - 1M context : Full 1,000,000-token context across the family, powered by a new Hybrid Attention architecture + DSA sparse attention...

  • [4] HyperAIbeta.hyper.ai

    We present a preview version of DeepSeek-V4 series, including two strong Mixture-of-Experts (MoE) language models — DeepSeek-V4-Pro with 1.6T parameters (49B activated) and DeepSeek-V4-Flash with 284B parameters (13B activated) — both supporting a context l...

  • [5] DeepSeek-V4 on Day 0: From Fast Inference to Verified RL with ...lmsys.org

    - HiSparse: Turbocharging Sparse Attention with Hierarchical Memory ... The SGLang and Miles TeamApril 25, 2026 We are thrilled to announce Day-0 support for DeepSeek-V4 across both inference and RL training. SGLang and Miles form the first open-source stac...

  • [14] Dedicated Optimizations For...api-docs.deepseek.com

    DeepSeek V4 Preview Release 🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length. 🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models. 🔹 D...

  • [15] DeepSeek-V4 预览版:迈入百万上下文普惠时代api-docs.deepseek.com

    DeepSeek-V4 预览版:迈入百万上下文普惠时代 今天,我们全新系列模型 DeepSeek-V4 的预览版本正式上线并同步开源。 DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。模型按大小分为两个版本: 即日起登录官网 chat.deepseek.com 或官方App,即可与最新的 DeepSeek-V4 对话,探索 1M 超长上下文记忆的全新体验。API 服务已同步更新,通过修改 model name 为 deepseek-v4-pr...

  • [17] 模型& 价格 - DeepSeek API Docsapi-docs.deepseek.com

    模型细节 ​ 模型 模型 deepseek-v4-flash^(1)^ deepseek-v4-pro -- -- -- -- BASE URL (OpenAI 格式) BASE URL (OpenAI 格式) BASE URL (Anthropic 格式) BASE URL (Anthropic 格式) 模型版本 模型版本 DeepSeek-V4-Flash DeepSeek-V4-Pro 思考模式 思考模式 支持非思考与思考模式(默认) 切换方式详见思考模式 支持非思考与思考模式(默认) 切换方式详见思考...

  • [18] 更新日志 - DeepSeek API Docsapi-docs.deepseek.com

    时间: 2026-04-24​ DeepSeek-V4​ DeepSeek API 已支持 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base url 不变, model 参数需要改为 或 旧有的 API 接口的两个模型名 与 将于三个月后(2026-07-24)停止使用。当前阶段内,这两个模型名分别 指向 的非思考模式与思考模式。 ... 我们非正式部署了 DeepSeek-V3.2-Speciale 的 API...

  • [19] Change Log | DeepSeek API Docsapi-docs.deepseek.com

    Date: 2026-04-24​ DeepSeek-V4​ The DeepSeek API now supports V4-Pro and V4-Flash, available via both the OpenAI ChatCompletions interface and the Anthropic interface. To access the new models, the base url remains unchanged, and the model parameter should b...

  • [20] DeepSeek API Docs: Your First API Callapi-docs.deepseek.com

    Your First API Call The DeepSeek API uses an API format compatible with OpenAI/Anthropic. By modifying the configuration, you can use the OpenAI/Anthropic SDK or softwares compatible with the OpenAI/Anthropic API to access the DeepSeek API. PARAM VALUE -- -...

  • [21] 首次调用APIapi-docs.deepseek.com

    DeepSeek API 使用与 OpenAI/Anthropic 兼容的 API 格式,通过修改配置,您可以使用 OpenAI/Anthropic SDK 来访问 DeepSeek API,或使用与 OpenAI/Anthropic API 兼容的软件。 PARAM VALUE -- -- base url (OpenAI) base url (Anthropic) api key apply for an API key model (将于 2026/07/24 弃用) (将于 2026/07/24 弃用...

  • [22] Transparency Center - DeepSeekdeepseek.com

    Learn about DeepSeek's published models Model Principles and Training Methodology View Details V4.0DeepSeek-V4New Release Date April 24, 2026 Model CardTechnical ReportV3.2DeepSeek-V3.2 Release Date December 1, 2025 Model CardTechnical Report