可核實結論:DeepSeek V4 preview 已在 2026 年 4 月 24 日獲 TechCrunch、Fortune 報道,確實加劇 AI 模型競爭;但「GPT 5.6 被 DeepSeek 揭露」未見同等級可靠證據,應視為未證實。[30][31] V4 的硬資料包括 V4 Flash/V4 Pro、mixture of experts 架構,以及兩款模型各自 1 million token context window;這些比「全球 AI 戰」或「exposed」片名更值得留意。[30] DeepSeek 早於 R1 時已改變市場敘事:Harvard Law School 指 R1 發布後一星期 Nvidia 市...

Create a landscape editorial hero image for this Studio Global article: DeepSeek V4 引爆全球 AI 戰?GPT-5.6「被揭露」未有可靠證據. Article summary: 可核實結論:DeepSeek V4 preview 於 2026 年 4 月 24 日獲 TechCrunch、Fortune 報道,確實令 AI 模型競爭升溫;但「GPT 5.6 被 DeepSeek 揭露」未見可靠公開證據,應視為未證實。[30][31]. Topic tags: ai, deepseek, openai, chatgpt, ai models. Reference image context from search candidates: Reference image 1: visual subject "# 新浪看点. # 从DeepSeek V4、GPT 5.5同日更新,看中美科技生态对撞. 4月24日凌晨,OpenAI发布了GPT-5.5。消息很快传开,焦点之一是价格。标准版API,输入每百万token五美元,输出三十美元。Pro版本的价格更高。与此同时,OpenAI将它的模型更深地嵌入了Codex,这个工具不再只是帮忙写几行代码,而是试图接管整个工作流" source context "从DeepSeek V4、GPT 5.5同日更新,看中美科技生态对撞|OpenAI|GPT-5|DeepSeek-V4|Token|Qwen_新浪新闻" Reference image 2: visual subject "# 新浪看点. # 从DeepSeek V4、GPT 5.5同日更新,看中美科技生态对撞. 4月24日凌晨,OpenAI发布了GPT-5.5。消息很快传开,焦点之一是价格。标准版API,输入每百万token五美元,输出三十美元。Pro版本的价格更高。与此同时,OpenAI将它的模型更深地嵌入了Codex,这个工具不再只是帮忙写几行代码,而是试图接管整个工作流" source co
把「DeepSeek Just Started a Global AI War And Exposed GPT-5.6」拆開看,可信部分是 DeepSeek V4 preview 的確有公開報道支持;需要打問號的是 GPT-5.6「被揭露」。該影片摘要本身只說 DeepSeek V4「may have pushed」OpenAI 提早測試 GPT-5.6,語氣是推測,不是官方發布或獨立確認。[14]
目前較可靠的公開資料集中在 DeepSeek V4:TechCrunch 報道 DeepSeek 推出 V4 Flash 和 V4 Pro 兩個 preview 版本;Fortune 亦在 2026 年 4 月 24 日報道 DeepSeek 推出 V4 preview。[30][
31]
相反,「GPT-5.6 被揭露」暫時缺乏同等級證據。可核對資料中,GPT-5.6 的直接說法主要來自該 YouTube 影片摘要,而且摘要用的是「may have pushed OpenAI into testing GPT-5.6 earlier than expected」這種不確定措辭。[14]
| 說法 | 判斷 | 證據狀態 |
|---|---|---|
| DeepSeek V4 preview 已推出 | 可信 | TechCrunch、Fortune 均有報道。[ |
Studio Global AI
Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.
可核實結論:DeepSeek V4 preview 已在 2026 年 4 月 24 日獲 TechCrunch、Fortune 報道,確實加劇 AI 模型競爭;但「GPT 5.6 被 DeepSeek 揭露」未見同等級可靠證據,應視為未證實。[30][31]
可核實結論:DeepSeek V4 preview 已在 2026 年 4 月 24 日獲 TechCrunch、Fortune 報道,確實加劇 AI 模型競爭;但「GPT 5.6 被 DeepSeek 揭露」未見同等級可靠證據,應視為未證實。[30][31] V4 的硬資料包括 V4 Flash/V4 Pro、mixture of experts 架構,以及兩款模型各自 1 million token context window;這些比「全球 AI 戰」或「exposed」片名更值得留意。[30]
DeepSeek 早於 R1 時已改變市場敘事:Harvard Law School 指 R1 發布後一星期 Nvidia 市值曾蒸發 5,890 億美元,但 DeepSeek 的低成本能力敘事仍有未解之處。[1]
繼續“俄軍攻烏點解慢到「爬行」?數字顯示攻勢回報急跌”以獲得另一個角度和額外的引用。
Open related page對照「《Stellar Blade》續作自家發行:PS5 獨佔唔再係必然,但多平台未落實」交叉檢查此答案。
Open related pageOn January 20, 2025, Chinese company DeepSeek released its first artificial intelligence model, DeepSeek-R1. One week later, the value of AI tech company Nvidia plummeted $589 billion — the biggest single-day market cap loss in the history of the world. Why...
OpenAI chief executive Sam Altman said he would fast-track product releases and “deliver much better models” after advances by Chinese start-up DeepSeek undermined Silicon Valley’s lead in a global artificial intelligence arms race. DeepSeek’s generative AI...
DeepSeek just dropped V4, a cheap open-source AI model that may have pushed OpenAI into testing GPT-5.6 earlier than expected. The model slashed prices, runs on Nvidia and Huawei chips, brings stronger agent abilities, and adds a new vision system that can...
If you are deciding between DeepSeek V4 and GPT-5.5 for production work, the choice comes down to one core tension: open-weight cost efficiency versus proprietary capability. DeepSeek V4-Pro, released April 24, 2026, costs $1.74 per million input tokens. GP...
| V4 有 Flash/Pro 兩個 preview 版本 | 可信 | TechCrunch 指兩者都是 mixture-of-experts 模型。[ |
| V4 具 1 million token context window | 可信,但屬公司聲稱被報道 | TechCrunch 報道 DeepSeek 稱兩款 V4 模型各有 1 million token context window。[ |
| DeepSeek V4 令 AI 競爭升溫 | 有現實基礎 | DeepSeek R1 早前已引發市場震盪;OpenAI 亦被報道加快產品節奏。[ |
| DeepSeek「exposed GPT-5.6」 | 未證實 | 目前未見主流報道或官方資料確認;直接說法主要來自影片摘要的推測語氣。[ |
TechCrunch 指,DeepSeek V4 Flash 和 V4 Pro 都是 mixture-of-experts 模型;這種架構會在每次任務中只啟用部分參數,以降低 inference 成本。[30]
同一報道亦指,DeepSeek 稱兩款 V4 preview 模型各有 1 million token context window,足以把大型 codebase 或長文件放入 prompt。[30] 這是 V4 最值得核對的重點之一,因為長上下文能力直接影響程式碼庫分析、長文件處理和 agent 工作流。
Fortune 則報道,DeepSeek 發布 V4-Pro 和 V4-Flash,並稱 V4-Pro 的表現可媲美頂級閉源模型。[31] 不過,這類「媲美」說法應保留一點距離:報道呈現的是 DeepSeek 的主張,不等於所有場景都已被第三方全面、可重複地驗證。
DeepSeek 之所以容易被包裝成「全球 AI 戰」,不是完全沒有原因。Harvard Law School 的分析指,DeepSeek-R1 在 2025 年 1 月 20 日發布後,一星期內 Nvidia 市值蒸發 5,890 億美元;同一分析亦提到 DeepSeek 聲稱用遠低於美國大廠的成本開發模型,但具體如何做到仍未完全清楚。[1]
OpenAI 方面亦曾被報道作出回應。Irish Times 報道,Sam Altman 表示會加快產品發布並交付「更好模型」,背景是 DeepSeek 的進展削弱了矽谷在全球 AI 競爭中的領先敘事。[12]
所以,「DeepSeek 加劇 AI 競爭」是有脈絡的說法;但「競爭升溫」不等於「GPT-5.6 已外洩、已公開、或已被 DeepSeek 揭露」。前者有多個來源支持,後者目前仍停留在影片標題和推測式摘要層面。[12][
14][
30][
31]
如果要比較 OpenAI 與 DeepSeek,現有資料更常見的是 GPT-5.5 vs DeepSeek V4,而不是 GPT-5.6。DataCamp 的比較文章把兩者取捨概括為「open-weight cost efficiency versus proprietary capability」,並指 DeepSeek V4-Pro 於 2026 年 4 月 24 日推出,價格為每百萬 input tokens 1.74 美元;文章亦提到 GPT-5.5 Pro 在相近時間推出,但價格差距是按 DeepSeek 自己的比較計算。[21]
這些資料最多支持一個較穩陣的判斷:DeepSeek V4 正在挑戰 GPT-5.5 這類閉源模型的價格與能力敘事。[21] 它不支持「GPT-5.6 已被揭露」這個更強的說法。
睇 AI 爆料片,最重要是把「發布」、「測試」、「外洩」和「推測」分開。片名用「exposed」很吸引,但如果摘要只寫「may have pushed」,就不應當成已確認事實。[14]
第二,要優先核對主流科技報道和可追溯資料。今次較硬的事實是 DeepSeek V4 preview、V4 Flash/V4 Pro、mixture-of-experts 架構和 1 million token context window;這些都有 TechCrunch 或 Fortune 報道支持。[30][
31]
第三,價格和 benchmark 要看清來源。DeepSeek 的低成本敘事確實影響市場,但 Harvard Law School 的分析亦提醒,DeepSeek 如何以聲稱的低成本做到相應能力,仍有未解之處。[1]
「DeepSeek V4 令 AI 模型競爭升溫」是有證據支持的說法:V4 preview 已獲 TechCrunch 和 Fortune 報道,V4 Flash/V4 Pro、mixture-of-experts 架構和 1 million token context window 都是可核對重點。[30][
31]
但「DeepSeek exposed GPT-5.6」暫時未有同等級證據。較合理的判斷是:這是一個把真實趨勢包裝成爆炸性標題的說法,而不是已被證實的模型發布、外洩或 OpenAI 官方動作。[14][
30][
31]
Chinese AI lab DeepSeek has launched two preview versions of its newest large language model, DeepSeek V4, a much-awaited update to last year’s V3.2 model and the accompanying R1 reasoning model that took the AI world by storm. The company says both DeepSee...
Chinese AI company DeepSeek has unveiled its long-awaited V4 model. On Friday, the Hangzhou-based startup released its newest large language model in a preview capacity. The release comes over a year after it shook markets and reset the entire conversation...