studioglobal
ค้นพบเทรนด์
รายงานเผยแพร่แล้ว12 แหล่งที่มา

DeepSeek V4 ไม่ใช่แค่โมเดล 1M context

DeepSeek V4 ควรมองเป็นการปล่อยทั้งโมเดลและบริการ: V4 Pro 1.6T/49B active และ V4 Flash 284B/13B active รองรับบริบทสูงสุด 1M token นักพัฒนาควรเปลี่ยนชื่อโมเดลเป็น deepseek v4 pro หรือ deepseek v4 flash; ชื่อเดิม deepseek chat และ deepseek reasoner มีกำหนดเลิกใช้วันที่ 24 กรกฎาคม 2026 จุดที่ควรวัดจริงไม่ใช่แค่ใส่คอนเท็...

12K0
DeepSeek V4 工程架构示意图,包含 1M 上下文、MoE 专家路由和 API 服务化元素
DeepSeek V4 工程解析:1M 上下文背后的 MoE 与 API 落地AI 生成的 DeepSeek V4 工程示意图,表现百万 token 上下文、MoE 专家路由与 API 服务化。
AI พรอมต์

Create a landscape editorial hero image for this Studio Global article: DeepSeek V4 工程解析:1M 上下文背后的 MoE 与 API 落地. Article summary: DeepSeek V4 的核心是系统工程组合:2026 04 24 发布的 V4 Pro(1.6T/49B active)与 V4 Flash(284B/13B active)都面向 1M token 上下文;可靠事实是规格和 API 已公开,性能领先幅度与部分内部机制仍需独立验证。. Topic tags: ai, deepseek, llm, mixture of experts, long context. Reference image context from search candidates: Reference image 1: visual subject "# DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底. 2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——**DeepSeek-V4 预览版正式上线**。. | | **DeepSeek-V4-Flash** | **DeepSeek-V4-Pro** |. | 上下文长度 | **1M" source context "DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底 - iTech - 博客园" Reference image 2: visual subject "# DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底. 2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——**DeepSeek-V4 预览版正式上线**。. | | **DeepSeek-V4-Flash** | **DeepSeek-V4-Pro** |. | 上下文长度 | **1M" sour

openai.com

อย่ามอง DeepSeek V4 ว่าเป็นเพียง “โมเดลที่ใส่คอนเท็กซ์ได้ 1 ล้านโทเคน” เท่านั้น ภาพที่แม่นกว่าคือ DeepSeek กำลังปล่อยทั้งตระกูลโมเดลและชั้นบริการไปพร้อมกัน: มี V4-Pro และ V4-Flash, ระบุทั้งพารามิเตอร์รวมและพารามิเตอร์ที่ถูกใช้งานจริง, รองรับหน้าต่างบริบทระดับ 1M token และเปิดให้เรียกผ่าน API ที่เข้ากันได้กับรูปแบบของ OpenAI และ Anthropic [18][20]

Transparency Center ของ DeepSeek ระบุวันเปิดตัว V4.0 DeepSeek-V4 เป็นวันที่ 24 เมษายน 2026 พร้อมลิงก์ Model Card และ Technical Report ส่วนประกาศทางการระบุว่า DeepSeek-V4 Preview เปิดใช้งานแล้วและเปิดซอร์สควบคู่กัน [22][14][15]

สเปกที่ยืนยันแล้ว: Pro เน้นเพดานความสามารถ, Flash เน้นประสิทธิภาพ

รายการDeepSeek-V4-ProDeepSeek-V4-Flash
ขนาดที่เปิดเผย1.6T total parameters / 49B active parameters [1][14]284B total parameters / 13B active parameters [1][14]
หน้าต่างบริบทสูงสุด 1M token [1][17]สูงสุด 1M token [1][17]
บทบาทผลิตภัณฑ์โมเดลที่ใหญ่ที่สุดในตระกูล V4 [1]ออกแบบมาสำหรับงานที่ต้องการความเร็วและประสิทธิภาพสูงกว่า [1]
ชื่อโมเดลใน APIdeepseek-v4-pro [18][20]deepseek-v4-flash [18][20]

หน้าโมเดลและราคาของ DeepSeek ยังระบุว่าโมเดลทั้งสองมีความยาวเอาต์พุตสูงสุด 384K และรองรับความสามารถอย่าง Json Output และ Tool Calls [17] เมื่อมองรวมกัน สเปกเหล่านี้บอกว่าโจทย์ของ V4 ไม่ใช่แค่เพิ่มจำนวนพารามิเตอร์หรือขยายคอนเท็กซ์ให้ใหญ่ขึ้น แต่คือการแยก “รุ่นเน้นความสามารถ” และ “รุ่นเน้นประสิทธิภาพ” ออกมาเป็นผลิตภัณฑ์ที่เรียกใช้งานได้จริง

MoE สำคัญอย่างไร: ขนาดโมเดลกับต้นทุนต่อคำตอบเริ่มแยกจากกัน

เอกสารจาก API易 และ HyperAI ระบุว่า V4-Pro และ V4-Flash เป็นโมเดลแบบ Mixture-of-Experts หรือ MoE [2][4] ในภาษาง่าย ๆ MoE คือแนวคิดที่มี “กลุ่มผู้เชี่ยวชาญ” หลายชุดอยู่ในโมเดล แต่ตอนประมวลผลหนึ่งครั้งจะเรียกใช้เพียงบางส่วน ไม่ได้ใช้พารามิเตอร์ทั้งหมดพร้อมกัน ดังนั้น total parameters จึงสะท้อนขนาดของคลังผู้เชี่ยวชาญ ส่วน active parameters คือส่วนที่ถูกใช้จริงในการอนุมานครั้งหนึ่ง ๆ [1][2][4][14]

ข้อดีคือความจุของโมเดลกับปริมาณคำนวณต่อคำตอบไม่จำเป็นต้องผูกกันแบบหนึ่งต่อหนึ่งอีกต่อไป แต่ต้นทุนก็ย้ายไปอยู่ที่ระบบเสิร์ฟโมเดล เช่น การเลือกเส้นทางไปยัง expert, expert parallelism, การสื่อสารข้ามอุปกรณ์ และการบาลานซ์โหลด ทีม SGLang / Miles ระบุหลังการเปิดตัวว่าได้รองรับทั้ง inference และ RL training สำหรับ V4 แล้ว และระบบของตนปรับให้เข้ากับ hybrid sparse-attention, mHC และ FP4 expert weights ซึ่งสะท้อนว่าความยากไม่ได้อยู่แค่ในไฟล์โมเดล แต่อยู่ลึกถึง serving/training stack ด้วย [5]

1M token context: ผู้ใช้ได้ความสะดวก แต่เซิร์ฟเวอร์รับภาระหนัก

เอกสารนักพัฒนาของ NVIDIA วางตำแหน่ง V4-Pro และ V4-Flash ว่าเป็นโมเดลสำหรับ million-token context inference ที่มีประสิทธิภาพ โดยยกตัวอย่างงานอย่างการเขียนโค้ดด้วยคอนเท็กซ์ยาว การวิเคราะห์เอกสาร การค้นคืนข้อมูล และเวิร์กโฟลว์แบบ agentic AI [1] เอกสาร DeepSeek API ก็ระบุคอนเท็กซ์ของทั้งสองรุ่นไว้ที่ 1M [17]

สำหรับผู้ใช้ 1M token ช่วยลดการหั่นเอกสารเป็นชิ้นเล็ก ๆ ลดการต่อชิ้นข้อมูลผิดจังหวะ และลดโอกาสที่ระบบ RAG หรือ retrieval จะพลาดบริบทสำคัญ แต่สำหรับฝั่งบริการ ความยาวระดับนี้ขยายแรงกดดันต่อ attention computation, context/KV cache, หน่วยความจำ, แบนด์วิดท์ และการจัดตาราง throughput อย่างชัดเจน ดังนั้นการประเมิน V4 ไม่ควรดูแค่ตัวเลขหน้าต่างบริบท แต่ควรทดสอบกับ repository โค้ดจริง เอกสารยาวจริง ระบบ RAG และ agent toolchain จริง พร้อมวัด latency, ค่าใช้จ่าย, ความเสถียรของการอ้างอิงข้อมูลไกล ๆ และพฤติกรรมของ Tool Calls [1][17]

สถาปัตยกรรม attention: ทิศทางชัด แต่ชื่อเทคนิคต้องอ่านอย่างระวัง

ข้อมูลสาธารณะเกี่ยวกับกลไก long context ของ V4 ใช้คำไม่เหมือนกันทั้งหมด API易 ระบุว่า 1M context ของ V4 อาศัย Hybrid Attention และ DSA sparse attention [2] ขณะที่ HyperAI สรุปว่า hybrid attention ผสาน Compressed Sparse Attention หรือ CSA กับ Heavily Compressed Attention หรือ HCA และกล่าวถึง mHC [4] ฝั่ง SGLang / Miles ระบุว่าชุดโอเพนซอร์สของตนปรับให้รองรับ hybrid sparse-attention, mHC และ FP4 expert weights [5]

การอ่านที่ปลอดภัยคือ ข้อมูลจากหลายแหล่งชี้ไปในทิศทางเดียวกันว่า V4 ใช้แนวทาง “attention แบบ sparse/ compressed/ hybrid + การปรับแต่งชั้นบริการ” เพื่อทำให้คอนเท็กซ์ยาวใช้งานได้จริง แต่รายละเอียดของแต่ละโมดูล ชื่อเรียกที่แน่นอน และผลลัพธ์เชิงปริมาณ ไม่ควรสรุปจากบทสรุปชั้นรองหรือวิดีโอเพียงอย่างเดียว หากต้องใช้ตัดสินใจเชิงระบบ ควรกลับไปตรวจ Model Card และ Technical Report ที่ DeepSeek ระบุไว้ใน Transparency Center [22]

API: ลดต้นทุนการย้ายระบบไว้ตั้งแต่ระดับผลิตภัณฑ์

Change log ของ DeepSeek ระบุว่า API รองรับ V4-Pro และ V4-Flash แล้ว โดยเรียกได้ผ่านทั้ง OpenAI ChatCompletions interface และ Anthropic interface การเข้าถึงโมเดลใหม่ไม่ต้องเปลี่ยน base_url แต่ต้องเปลี่ยนค่า model เป็น deepseek-v4-pro หรือ deepseek-v4-flash [18][19] เอกสารเริ่มต้นใช้งาน API ระบุ base URL เป็น https://api.deepseek.com สำหรับรูปแบบ OpenAI และ https://api.deepseek.com/anthropic สำหรับรูปแบบ Anthropic [20][21]

text
model: deepseek-v4-pro
model: deepseek-v4-flash

OpenAI format base_url: https://api.deepseek.com
Anthropic format base_url: https://api.deepseek.com/anthropic

ชื่อโมเดลเก่ามีกำหนดชัดเจนเช่นกัน: deepseek-chat และ deepseek-reasoner จะถูกเลิกใช้ในวันที่ 24 กรกฎาคม 2026 ระหว่างช่วงเปลี่ยนผ่าน ชื่อทั้งสองจะชี้ไปยัง deepseek-v4-flash ในโหมดไม่คิดและโหมดคิดตามลำดับ [18][19][21] สำหรับแอปที่ใช้งานอยู่แล้ว งานเร่งด่วนคือเปลี่ยนชื่อโมเดล เลือกระหว่าง Pro กับ Flash ให้ตรงกับงาน และทำ regression test เรื่อง long context, Tool Calls, ความยาวเอาต์พุต และต้นทุน [17][18]

ประเด็นที่ยังต้องพิสูจน์ด้วยงานจริง

ข้อแรกคือคำกล่าวเรื่องประสิทธิภาพนำหน้า ประกาศภาษาจีนของ DeepSeek ระบุว่า V4-Pro ทำได้ระดับนำในจีนและกลุ่มโอเพนซอร์สด้าน Agent, world knowledge และ reasoning พร้อมเทียบประสบการณ์กับโมเดลปิดบางรุ่น ส่วน API易 ก็ยกคะแนน benchmark เช่น SWE-Verified [15][2] ข้อมูลเหล่านี้ใช้เป็นจุดตั้งต้นได้ แต่ผลลัพธ์จริงยังควรยืนยันด้วย prompt, ข้อจำกัดด้านต้นทุน และงานเฉพาะของแต่ละทีม

ข้อที่สองคือรายละเอียดกลไกภายใน คำอย่าง Hybrid Attention, DSA, CSA, HCA, mHC และ FP4 expert weights ปรากฏในแหล่งข้อมูลคนละระดับกัน และชื่อเรียกยังไม่เป็นชุดเดียวกันทั้งหมด [2][4][5] นอกเหนือจากรายงานเทคนิคทางการ จึงไม่ควรถือว่าทุกคำเป็นข้อเท็จจริงเชิง implementation ที่ตรวจสอบครบแล้ว [22]

ข้อที่สามคือ 1M context ไม่ได้แปลว่าทุกคำขอที่อัดเต็มหน้าต่างจะ latency ต่ำและต้นทุนต่ำโดยอัตโนมัติ เอกสารทางการและเอกสารจาก ecosystem ยืนยันสเปกและการเรียกใช้ได้ แต่ประสบการณ์จริงยังขึ้นกับความยาวเอกสาร อัตรา cache hit จำนวนคำขอพร้อมกัน toolchain ที่ต่ออยู่ และเกณฑ์วัดผลของคุณเอง [1][17][18]

สรุปสำหรับทีมพัฒนา

จุดที่ทำให้ DeepSeek V4 น่าสนใจในเชิงวิศวกรรมคือการประกอบหลายชิ้นเข้าด้วยกัน: V4-Pro ที่ 1.6T/49B active, V4-Flash ที่ 284B/13B active, หน้าต่างบริบทสูงสุด 1M token และ API ที่เข้ากันได้กับรูปแบบ OpenAI/Anthropic อยู่ในสายผลิตภัณฑ์เดียวที่เรียกใช้งานได้ [1][14][17][18]

สำหรับนักพัฒนา งานที่คุ้มกว่าการท่องสเปกคือทดสอบ end-to-end กับเอกสารยาว โค้ดเบส ระบบ RAG และ workflow แบบ Agent ของตัวเอง แล้ววางแผนย้ายชื่อโมเดลเก่าให้เสร็จก่อนวันที่ 24 กรกฎาคม 2026 [18][21]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

ค้นหาและตรวจสอบข้อเท็จจริงด้วย Studio Global AI

ประเด็นสำคัญ

  • DeepSeek V4 ควรมองเป็นการปล่อยทั้งโมเดลและบริการ: V4 Pro 1.6T/49B active และ V4 Flash 284B/13B active รองรับบริบทสูงสุด 1M token
  • นักพัฒนาควรเปลี่ยนชื่อโมเดลเป็น deepseek v4 pro หรือ deepseek v4 flash; ชื่อเดิม deepseek chat และ deepseek reasoner มีกำหนดเลิกใช้วันที่ 24 กรกฎาคม 2026
  • จุดที่ควรวัดจริงไม่ใช่แค่ใส่คอนเท็กซ์ได้เต็ม 1M token แต่รวมถึง latency, ค่าใช้จ่าย, ความเสถียรของการอ้างอิงระยะไกล, RAG และ Tool Calls ในงานจริง

คนยังถาม

คำตอบสั้น ๆ สำหรับ "DeepSeek V4 ไม่ใช่แค่โมเดล 1M context" คืออะไร

DeepSeek V4 ควรมองเป็นการปล่อยทั้งโมเดลและบริการ: V4 Pro 1.6T/49B active และ V4 Flash 284B/13B active รองรับบริบทสูงสุด 1M token

ประเด็นสำคัญที่ต้องตรวจสอบก่อนคืออะไร?

DeepSeek V4 ควรมองเป็นการปล่อยทั้งโมเดลและบริการ: V4 Pro 1.6T/49B active และ V4 Flash 284B/13B active รองรับบริบทสูงสุด 1M token นักพัฒนาควรเปลี่ยนชื่อโมเดลเป็น deepseek v4 pro หรือ deepseek v4 flash; ชื่อเดิม deepseek chat และ deepseek reasoner มีกำหนดเลิกใช้วันที่ 24 กรกฎาคม 2026

ฉันควรทำอย่างไรต่อไปในทางปฏิบัติ?

จุดที่ควรวัดจริงไม่ใช่แค่ใส่คอนเท็กซ์ได้เต็ม 1M token แต่รวมถึง latency, ค่าใช้จ่าย, ความเสถียรของการอ้างอิงระยะไกล, RAG และ Tool Calls ในงานจริง

ฉันควรสำรวจหัวข้อที่เกี่ยวข้องใดต่อไป

ดำเนินการต่อด้วย "Claude Opus 4.7 เทียบ GPT-5.5, DeepSeek V4 และ Kimi K2.6: อ่านเบนช์มาร์กปี 2026 แบบไม่หลงตัวเลข" เพื่อดูอีกมุมหนึ่งและการอ้างอิงเพิ่มเติม

เปิดหน้าที่เกี่ยวข้อง

ฉันควรเปรียบเทียบสิ่งนี้กับอะไร?

ตรวจสอบคำตอบนี้กับ "โจทย์ความยืดหยุ่น Northwest vs. Southeast Timber: ทำไมคำตอบคือ larger; larger"

เปิดหน้าที่เกี่ยวข้อง

ทำการวิจัยต่อ

การสนทนาการวิจัย

คุณ

คำถามวิจัย

研究「The insane engineering of Deepseek V4」

Studio Global AI26 แหล่งที่มา

อ้างถึงคำตอบ

我把「The insane engineering of Deepseek V4」理解为:围绕 DeepSeek V4 的工程设计做一份可核查的研究摘要。结论是:V4 的“疯狂工程”主要不在单一算法,而在把超大 MoE、百万 token 上下文、稀疏/混合注意力、低活跃参数推理和服务栈适配组合到一起;但目前很多性能和架构细节仍主要来自官方或生态方材料,独立评测证据还不充分。

Key findings

  • DeepSeek-V4 预览版已上线,官方称其支持 1M 超长上下文,并分为 V4-Pro 与 V4-Flash 两个版本。[7]

  • V4-Pro 的公开规格是 1.6T 总参数、49B 激活参数;V4-Flash 的公开规格是 284B 总参数、13B 激活参数。[2][5]

  • 这说明 V4 继续采用稀疏激活的 MoE 思路:模型总容量很大,但每个 token 只激活一小部分参数,从而把“模型容量”和“推理成本”部分解耦。[2][5]

  • 百万 token 上下文是 V4 最核心的工程卖点之一,因为长上下文推理的瓶颈通常会集中在注意力计算、KV cache 存储、显存带宽和跨设备通信上。[2][7]

  • 第三方 API 文档称 V4 的 1M 上下文依赖 Hybrid Attention 与 DSA sparse attention,但这一点应视为生态方说明,而不是完整技术论文级证据。[3]

  • DeepSeek 官方 API 文档显示,V4-Pro 与 V4-Flash 可通过 OpenAI Chat Completions 接口和 Anthropic 兼容接口调用,模型名分别为 deepseek-v4-prodeepseek-v4-flash[12][16]

  • 官方更新日志称旧模型名 deepseek-chatdeepseek-reasoner 将在 2026-07-24 后停止使用,并在过渡期分别指向新的 V4 系列模型。[12]

  • NVIDIA 的开发者材料把 V4 定位为面向高效百万 token 上下文推理的模型,并提到可在 Blackwell 与 GPU 加速端点上构建应用。[2]

  • SGLang / LMSYS 生态方称其在发布日提供了 DeepSeek-V4 的推理与 RL 训练支持,这说明 V4 的工程影响不只是模型本身,还包括开源 serving / training stack 的适配。[11]

为什么说它“工程量很大”

  • 参数规模与激活规模的差异很大:V4-Pro 是 1.6T 总参数但每次只激活 49B 参数,这要求路由、专家并行、负载均衡和通信调度都足够稳定,否则 MoE 的理论效率会被系统开销吃掉。[2][5]

  • 1M 上下文会显著放大 KV cache 与注意力计算压力,因此如果没有稀疏注意力、分层缓存、分页 KV 或类似机制,推理成本会很难控制。[2][3]

  • V4-Flash 的 284B 总参数 / 13B 激活参数定位明显偏向低成本、高吞吐服务,而 V4-Pro 则偏向能力上限,这是一种“同架构、多成本档位”的产品工程策略。[2][5]

  • API 层同时兼容 OpenAI 与 Anthropic 格式,降低了迁移成本;这类兼容性本身不是模型创新,但对实际采用率很关键。[12][16]

  • Day-0 生态支持意味着模型权重、推理 kernel、调度器、并行策略和训练/强化学习工具链需要快速协同适配,这通常比单纯发布权重更复杂。[11]

Evidence notes

  • 最强证据来自 DeepSeek 官方 API/公告页面和 NVIDIA 开发者材料;这些来源能支持模型名称、参数规模、上下文长度和 API 支持等事实。[2][5][7][12]

  • 关于 Hybrid Attention、DSA sparse attention 等具体架构细节,目前我找到的强证据主要来自生态方或聚合文档,不等同于完整官方技术报告或同行评审论文。[3]

  • 学术搜索没有找到明确的 DeepSeek-V4 专门技术报告;只找到与长上下文、混合架构相关的相邻研究,因此不能用它来严格证明 V4 的内部实现。[1]

Limitations / uncertainty

  • Insufficient evidence:目前没有足够独立证据确认 V4 在所有公开 benchmark 上“比肩顶级闭源模型”的具体幅度。

  • Insufficient evidence:没有足够证据验证视频或文章中可能提到的所有内部工程细节,例如训练成本、具体 GPU 数量、完整数据配方、路由算法细节或真实线上延迟。

  • Insufficient evidence:若有人声称 V4 使用某些未被官方技术报告明确确认的专有机制,应先视为未经充分验证的说法。

Summary

DeepSeek V4 的核心看点是:用 MoE 把总容量做到万亿级,同时把每 token 激活参数压到几十 B;再用百万 token 上下文、稀疏/混合注意力和工程化 serving stack,把超长上下文模型做成可调用的 API 产品。[2][5][7][12] 这确实是复杂系统工程,但目前应把“规格与可用性”视为较可靠事实,把“性能领先幅度与内部实现细节”视为仍需独立验证的部分。

แหล่งที่มา

  • [1] Build with DeepSeek V4 Using NVIDIA Blackwell and GPU ...developer.nvidia.com

    DeepSeek just launched its fourth generation of flagship models with DeepSeek-V4-Pro and DeepSeek-V4-Flash, both targeted at enabling highly efficient million-token context inference. DeepSeek-V4-Pro is the largest model in the family, with 1.6T total param...

  • [2] DeepSeek V4-Pro / V4-Flash Launch: 1M Context + Open ... - API易docs.apiyi.com

    - Two models launched : deepseek-v4-pro (1.6T total / 49B active) and deepseek-v4-flash (284B total / 13B active), both MoE - 1M context : Full 1,000,000-token context across the family, powered by a new Hybrid Attention architecture + DSA sparse attention...

  • [4] HyperAIbeta.hyper.ai

    We present a preview version of DeepSeek-V4 series, including two strong Mixture-of-Experts (MoE) language models — DeepSeek-V4-Pro with 1.6T parameters (49B activated) and DeepSeek-V4-Flash with 284B parameters (13B activated) — both supporting a context l...

  • [5] DeepSeek-V4 on Day 0: From Fast Inference to Verified RL with ...lmsys.org

    - HiSparse: Turbocharging Sparse Attention with Hierarchical Memory ... The SGLang and Miles TeamApril 25, 2026 We are thrilled to announce Day-0 support for DeepSeek-V4 across both inference and RL training. SGLang and Miles form the first open-source stac...

  • [14] Dedicated Optimizations For...api-docs.deepseek.com

    DeepSeek V4 Preview Release 🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length. 🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models. 🔹 D...

  • [15] DeepSeek-V4 预览版:迈入百万上下文普惠时代api-docs.deepseek.com

    DeepSeek-V4 预览版:迈入百万上下文普惠时代 今天,我们全新系列模型 DeepSeek-V4 的预览版本正式上线并同步开源。 DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。模型按大小分为两个版本: 即日起登录官网 chat.deepseek.com 或官方App,即可与最新的 DeepSeek-V4 对话,探索 1M 超长上下文记忆的全新体验。API 服务已同步更新,通过修改 model name 为 deepseek-v4-pr...

  • [17] 模型& 价格 - DeepSeek API Docsapi-docs.deepseek.com

    模型细节 ​ 模型 模型 deepseek-v4-flash^(1)^ deepseek-v4-pro -- -- -- -- BASE URL (OpenAI 格式) BASE URL (OpenAI 格式) BASE URL (Anthropic 格式) BASE URL (Anthropic 格式) 模型版本 模型版本 DeepSeek-V4-Flash DeepSeek-V4-Pro 思考模式 思考模式 支持非思考与思考模式(默认) 切换方式详见思考模式 支持非思考与思考模式(默认) 切换方式详见思考...

  • [18] 更新日志 - DeepSeek API Docsapi-docs.deepseek.com

    时间: 2026-04-24​ DeepSeek-V4​ DeepSeek API 已支持 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base url 不变, model 参数需要改为 或 旧有的 API 接口的两个模型名 与 将于三个月后(2026-07-24)停止使用。当前阶段内,这两个模型名分别 指向 的非思考模式与思考模式。 ... 我们非正式部署了 DeepSeek-V3.2-Speciale 的 API...

  • [19] Change Log | DeepSeek API Docsapi-docs.deepseek.com

    Date: 2026-04-24​ DeepSeek-V4​ The DeepSeek API now supports V4-Pro and V4-Flash, available via both the OpenAI ChatCompletions interface and the Anthropic interface. To access the new models, the base url remains unchanged, and the model parameter should b...

  • [20] DeepSeek API Docs: Your First API Callapi-docs.deepseek.com

    Your First API Call The DeepSeek API uses an API format compatible with OpenAI/Anthropic. By modifying the configuration, you can use the OpenAI/Anthropic SDK or softwares compatible with the OpenAI/Anthropic API to access the DeepSeek API. PARAM VALUE -- -...

  • [21] 首次调用APIapi-docs.deepseek.com

    DeepSeek API 使用与 OpenAI/Anthropic 兼容的 API 格式,通过修改配置,您可以使用 OpenAI/Anthropic SDK 来访问 DeepSeek API,或使用与 OpenAI/Anthropic API 兼容的软件。 PARAM VALUE -- -- base url (OpenAI) base url (Anthropic) api key apply for an API key model (将于 2026/07/24 弃用) (将于 2026/07/24 弃用...

  • [22] Transparency Center - DeepSeekdeepseek.com

    Learn about DeepSeek's published models Model Principles and Training Methodology View Details V4.0DeepSeek-V4New Release Date April 24, 2026 Model CardTechnical ReportV3.2DeepSeek-V3.2 Release Date December 1, 2025 Model CardTechnical Report

DeepSeek V4 ไม่ใช่แค่โมเดล 1M context | การวิจัยเชิงลึก | Studio Global