美光於 2026 年 5 月宣布 256GB DDR5 RDIMM 送樣,採 1 gamma DRAM,最高可達 9,200 MT/s;但目前仍是客戶與平台驗證階段,不等於已大規模出貨 [1]。 這款模組強化的是 AI 與 HPC 伺服器的 CPU 端系統記憶體容量、DDR5 頻寬與模組級功耗效率,並不是取代 GPU/加速器旁邊的 HBM [1][2]。

Create a landscape editorial hero image for this Studio Global article: What does Micron’s new 256GB DDR5 server memory module mean for AI data centers, and how does its faster 9,200 MT/s speed, lower power use,. Article summary: Micron’s 256GB DDR5 RDIMM is best read as a strategic AI-infrastructure part, not just a bigger DIMM: it raises memory capacity and bandwidth per server while cutting power, which matters as AI clusters become constraine. Topic tags: general, general web, user generated. Reference image context from search candidates: Reference image 1: visual subject "# Micron Sets New Benchmark With the World's First High-Capacity 256GB LPDRAM SOCAMM2 for Data Center Infrastructure. (Nasdaq: MU) today extended its leadership in low-power server" source context "Micron Sets New Benchmark With the World's First High-Capacity 256GB LPDRAM SOCAMM2 for Data Center Infrastructure -
美光(Micron)的 256GB DDR5 RDIMM,表面上是一條容量更大的伺服器記憶體;放到 2026 年 AI 資料中心的脈絡裡看,意義更接近一個訊號:AI 基礎設施的瓶頸,正在從 GPU 與 HBM,擴散到整台伺服器的系統記憶體容量、CPU 記憶體頻寬、用電、散熱與合格供應。美光表示,這款模組已向主要伺服器生態系夥伴送樣,採用 1-gamma DRAM 技術,最高速度可達 9,200 MT/s [1]。
美光在 2026 年 5 月 12 日表示,已向主要伺服器生態系推動者送樣 256GB DDR5 RDIMM,也就是伺服器級 registered dual in-line memory module。該模組建立在美光的 1-gamma DRAM 技術上,最高可達每秒 9,200 百萬次傳輸(MT/s);美光稱,這比當時已量產的 DDR5 模組快逾 40% [1]。
另一份發布摘要指出,這款模組鎖定 AI 與 HPC(高效能運算)伺服器,使用進階 3DS TSV 封裝;單條 256GB 模組相較於兩條 128GB 模組,營運功耗可降低超過 40% [2]。
| 產品重點 | 為什麼重要 |
|---|---|
| 256GB DDR5 RDIMM | 單條容量更高,有助於 AI 與 HPC 伺服器在相同記憶體插槽條件下配置更大的系統記憶體池 [ |
Studio Global AI
Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.
美光於 2026 年 5 月宣布 256GB DDR5 RDIMM 送樣,採 1 gamma DRAM,最高可達 9,200 MT/s;但目前仍是客戶與平台驗證階段,不等於已大規模出貨 [1]。
美光於 2026 年 5 月宣布 256GB DDR5 RDIMM 送樣,採 1 gamma DRAM,最高可達 9,200 MT/s;但目前仍是客戶與平台驗證階段,不等於已大規模出貨 [1]。 這款模組強化的是 AI 與 HPC 伺服器的 CPU 端系統記憶體容量、DDR5 頻寬與模組級功耗效率,並不是取代 GPU/加速器旁邊的 HBM [1][2]。
產品推出時,2026 年 DRAM 與 HBM 市場正處於供應緊繃、價格上行的環境;這讓美光機會變大,也讓投資敘事更容易受到記憶體循環影響 [4][10][19]。
繼續閱讀「Meta 把 AI 帶進 Threads:Muse Spark 上線、@meta.ai 測試與「不能封鎖」爭議」,從另一個角度查看更多引用來源。
開啟相關頁面將這個答案與「PS6 記憶體傳聞轉彎:Sony 為何可能從 30GB 改看 24GB」交叉比對。
開啟相關頁面BOISE, Idaho, May 12, 2026 (GLOBE NEWSWIRE) -- Micron Technology, Inc. (Nasdaq: MU), today announced it has sampled 256GB DDR5 registered dual in-line memory modules (RDIMM) to key server ecosystem enablers. The module is built on the company’s leading-edge...
Micron (Nasdaq: MU) is sampling a 256GB DDR5 RDIMM built on its 1-gamma DRAM, targeting AI and HPC servers. The module supports up to 9,200 MT/s , over 40% faster than current volume DDR5, and uses advanced 3DS TSV packaging. A single 256GB module can cut o...
Micron Positioned to Monetize AI-Driven Memory Shortage as DRAM Prices Surge 90% Sequentially ... - Structural memory shortage drives 90-95% sequential DRAM price surge in Q1 2026, creating a seller's market with compressed inventory. - MicronMU-- leverages...
| 最高 9,200 MT/s | 更快的 DDR5 傳輸速率,可為資料密集型工作負載提供更多 CPU 端記憶體頻寬;美光稱其較發布時量產中的 DDR5 模組快逾 40% [ |
| 相較兩條 128GB 模組,營運功耗可降逾 40% | 這是模組層級的比較,不代表整台 AI 伺服器省電 40%;但對受限於供電與散熱的資料中心仍有實際價值 [ |
| 1-gamma DRAM | 這是美光用來支撐密度、速度與效率主張的製程技術基礎 [ |
| 送樣與共同驗證 | 送樣代表生態系驗證正在進行,不等於產品已經大規模商用出貨 [ |
談 AI 資料中心時,焦點常被 GPU、加速器與 HBM 吸走;但伺服器的 CPU 端仍需要大量系統記憶體,用來支撐資料前處理、推論服務、餵資料給加速器,以及記憶體需求很重的 HPC 工作負載。美光這款 RDIMM 明確鎖定 AI 與 HPC 伺服器,因此重點不只是容量變大,而是容量、頻寬與功耗密度一起提升 [1][
2]。
關鍵差別在於:這條 DDR5 RDIMM 不是 HBM 的替代品。HBM 是與 AI GPU、加速器緊密相關的高頻寬記憶體;市場報告曾形容 HBM 供應到 2026 年已售罄或完全被承諾採購 [11][
27]。美光的 256GB DDR5 RDIMM 則是在加速器周邊,補強伺服器的系統記憶體層。
換句話說,如果 AI 伺服器每個節點需要更多 CPU 可定址記憶體,256GB RDIMM 可在不單純堆更多低容量模組的情況下提高記憶體密度。若工作負載卡在 CPU 記憶體頻寬,最高 9,200 MT/s 的 DDR5 也能給平台設計者更多餘裕 [1]。
對資料中心營運者而言,最實際的指標之一可能是功耗。StockTitan 對這次發布的摘要稱,單條 256GB 模組相較兩條 128GB 模組,可讓營運功耗降低超過 40% [2]。
但這不代表一台 AI 伺服器整體用電突然少了 40%。在許多 AI 機櫃裡,GPU、CPU、網路設備與冷卻系統仍是耗電大戶。
真正的意義在於:模組級省電仍會累積成資料中心的配置空間。在受限於電力與熱設計的機房裡,記憶體少耗幾瓦,可能有助於守住機櫃功率上限、降低散熱壓力,或把更多電力預算留給運算。因此,高密度、低功耗的伺服器 DIMM,即使不是市場最熱議的 AI 加速器,仍然很有戰略價值。
目前來源能明確確認的是:美光表示這款模組採用其領先的 1-gamma DRAM 技術 [1]。對基礎設施買家與投資人而言,這才是應該抓住的核心:美光把這個製程節點與模組的容量、速度、效率連在一起。
若市場把這次發布放進 1-gamma/EUV 路線圖裡討論,商業上的提醒仍然相同:美光宣布的是送樣,不是全面供貨 [1]。送樣是必要里程碑,因為客戶與平台驗證通過後,後續才可能進入更大規模的收入貢獻;但它本身還不能回答平台認證要多久、產能爬坡多快,以及美光會如何在高密度 DDR5、HBM 與其他高價值記憶體產品之間分配產能。
這款產品之所以受到關注,時間點很關鍵。AInvest 形容,結構性記憶體短缺推動 2026 年第一季 DRAM 價格季增 90%~95%,庫存壓縮並形成賣方市場 [4]。Avnet 也指出,進入 2026 年時 DRAM 合約價季增超過 50%,部分追蹤機構把第一季預測上修至 90%~95%;同時,分析師估計 AI 資料中心在 2026 年可能消耗約 70% 的高階 DRAM [
10]。
這會改變市場解讀。若在一般景氣循環中,256GB DDR5 RDIMM 可能只是高階伺服器記憶體新品;但在供應吃緊的市場裡,它變成美光切入更高價值 AI 基礎設施需求的一張牌。
HBM 又讓供需畫面更複雜。Futurum 報導,美光管理層表示 2026 年 HBM 供應已完全承諾出去 [8];另一份市場報告也稱,美光 HBM 產能已承諾至 2026 曆年底 [
11]。Blocks & Files 則報導,HBM 需求與晶圓廠產能短缺,也帶動一般 DRAM 與 NAND 出現短缺與漲價 [
5]。
也就是說,這款 DDR5 模組受惠於同一波 AI 記憶體需求浪潮,但它不會消除供應瓶頸。相反地,它凸顯了 AI 伺服器的現實:加速器端需要 HBM,CPU 端也需要大量傳統伺服器記憶體。
對看多美光的人來說,這款產品強化了一個簡單故事:在 DRAM 價格強勁、HBM 供應緊張的時候,美光正把更多高價值記憶體賣進 AI 基礎設施。已有多位分析師因記憶體定價強勢與 AI 相關需求而上調美光目標價 [18]。UBS 將美光目標價由 450 美元上調至 475 美元,並表示短缺可能延續到 2027 年下半年,甚至進入 2028 年,尤其是 DRAM [
21]。
但保守看法也不能忽略:記憶體產業仍有循環性。TipRanks 對華爾街觀點的整理指出,美光確實受惠於 AI 驅動的記憶體需求,但分析師對供應緊張與價格強勢能維持多久看法分歧 [19]。256GB DDR5 RDIMM 可改善美光在 AI 伺服器市場的產品組合,卻不能保證目前的價格環境會永久存在。
幾個觀察重點相當直接:
美光 256GB DDR5 RDIMM 的重點,不只是容量更大,而是同時回應 AI 伺服器三個實際限制:系統記憶體容量、DDR5 頻寬與模組級功耗。最高 9,200 MT/s 的速度與官方主張的省電效果,讓它更像一個 AI 基礎設施零組件,而不只是規格表上的升級 [1][
2]。
更大的故事仍是時機。這款模組出現在 2026 年 DRAM/HBM 供應緊張、DRAM 價格上行、HBM 供應被高度承諾的市場環境中,讓美光的議價與產品組合機會更突出;但對投資人與買方而言,也意味著必須面對記憶體價格終究可能循環下行的風險 [4][
10][
19]。
Meta Muse Spark 擴張到 Threads:@meta.ai 測試為何引發反彈
The company earned an enormous $23.68 billion in revenues in its second fiscal 2026 quarter, ended February 26, 194 percent higher, almost 3x more than the year-ago $8.05 billion. Its near-extraordinary GAAP profit of $13.79 billion was, get this, 771.3 per...
Micron’s Q1 FY 2026 underscores accelerating AI data center demand, supply tightness across DRAM and NAND, and disciplined execution on pricing and mix. Management detailed a multi-year capacity expansion and product roadmap spanning HBM4, 1‑gamma DRAM, and...
This is being driven by unprecedented artificial intelligence (AI), infrastructure storage demand and AI-driven memory demand . ... - Supply displacement - AI data centers are absorbing a growing share of global memory supply. Analysts estimate AI data cent...
Micron Technology (NASDAQ: MU) has officially confirmed that its entire production capacity for High-Bandwidth Memory (HBM) is fully committed through the end of the 2026 calendar year. This landmark announcement underscores a historic supply-demand imbalan...
Micron rises after brokers lift price targets on strong memory pricing outlook Shares of Micron Technology (NASDAQ:MU) climbed more than 4% in premarket trading on Monday after several Wall Street analysts raised their price targets, citing continued streng...
Micron Technology (MU) continues to benefit from strong AI-driven memory demand, but Wall Street is divided on how long the current supply tightness can last. While some analysts expect earnings to rise well above consensus over the next two years, others a...
Investing.com - UBS raised its price target on Micron Technology (NASDAQ:MU) shares to $475 from $450 on Monday while maintaining a Buy rating. The stock currently trades at $412.37, up 342% over the past year, though InvestingPro analysis suggests shares a...
That's quite a way off; you might not realize that Micron (NASDAQ:MU) key product is already fully booked through 2026. It's the 2027 forecasts—uncertain in valuation by analysts—that will influence this stock in 2026. HBM memory, the memory powering the GP...