股票代號
| 公司 | 股票代號 | 交易所 註 |
|---|---|---|
| SanDisk | SNDK | NASDAQ (美國) |
| Micron | MU | NASDAQ (美國) |
| Samsung | 005930 | KRX (韓國) |
| SK hynix | 000660 | KRX (韓國) |
本文提及這些公司與代號,主要是為了說明它們在記憶體產業鏈中的位置,方便讀者做後續資料查閱;這裡不是在推薦任何交易市場或開戶方式。
詳細解釋:NAND Flash、DRAM、HBM 到底是什麼?
想像你的大腦在跑 AI(像 ChatGPT 在思考):
-
DRAM(Dynamic Random Access Memory)
- 比喻:正在用的工作桌
- 特點:超快讀寫,但斷電後資料會消失,像短期記憶
- 例子:電腦裡的 RAM 條(8GB、16GB 那種) → AI 用它來放「正在計算的資料」,速度要夠快
-
NAND Flash(或簡稱 NAND)
- 比喻:大容量檔案櫃 / 長期記憶硬碟
- 特點:斷電後資料仍保留、容量大,但讀寫速度比 DRAM 慢很多
- 例子:SSD 固態硬碟、手機儲存空間、隨身碟、記憶卡 → AI 用它來長期存訓練資料、模型參數、影片、圖片
-
HBM(High Bandwidth Memory,高頻寬記憶體)
- 比喻:給超級天才用的超大超快豪華工作桌
- 特點:比普通 DRAM 快得多、頻寬極高、成本也高,專門配合高階 AI GPU 使用
- 例子:直接配置在 NVIDIA 新一代 GPU 旁邊的記憶體 → 這是目前 AI 訓練中最關鍵、也最容易成為瓶頸的部件之一
AI 資料中心怎麼用它們
- HBM → 靠近 GPU,負責即時高速計算
- DRAM → 在伺服器主機板上,負責緩衝與中間結果
- NAND Flash → 以 SSD 形式提供大容量長期儲存
從 2025 年初到 2026 年初,市場如何重新定價這些公司?
若把 2025 年初到 2026 年初這一段當作回顧案例,可以看到市場對記憶體供應商的定價明顯改變。背後原因不是單一消息,而是整體敘事出現了幾個轉折:
- 市場開始更相信 AI 對 HBM、DRAM、企業級 SSD 的需求不是短期現象;
- 上游供應商的產能擴張速度,看起來仍追不上下游算力與數據中心需求;
- 投資人逐步把這些公司從傳統週期股,重新理解為 AI 基礎設施鏈的重要參與者。
因此,該時段許多記憶體相關股票都出現很大的波動與重估。這種回顧的價值,主要在於幫助讀者理解:當市場開始重寫一個產業的敘事時,估值變化可以非常劇烈,但這不等於未來走勢會按同一路徑重演。
當時市場怎樣看 2026 年的記憶體供需?
以 2026 年 1 月前後的市場討論來看,主流焦點大致集中在以下幾點:
- HBM:仍被視為供不應求最明顯的品項之一,市場特別關注 SK hynix、Micron、Samsung 的供應進度與良率。
- 一般 DRAM:AI 伺服器拉貨推高需求,市場關心價格與合約談判節奏。
- NAND Flash:除了傳統儲存需求外,市場開始討論它在 AI 系統中的新角色,特別是高性能企業級 SSD。
更重要的是,市場會同時討論風險:記憶體畢竟是週期性產業,如果未來產能擴張快過需求,或 AI 建設節奏放慢,敘事也可能改變。因此,這一段更適合作為「如何觀察週期」的材料,而不是簡化成一句「還會不會繼續漲」。
你可能不知道的話題:什麼是「超長 context」?為什麼這是難題?
想像 ChatGPT 或 Gemini 在跟你聊天:
- 以前的模型,一次能處理的內容只有幾千到幾萬個 token;
- 後來市場開始追求「超長 context」,希望一次放進整本書、整個程式碼庫、幾小時會議紀錄,甚至百萬級 token。
為什麼這麼難?
- 模型推理時會用到 KV cache(Key-Value cache),避免重複計算;
- context 越長,KV cache 佔用的記憶體就越大;
- 問題是 GPU / TPU 上的 HBM 容量有限,context 一拉長,就可能變慢、需要卸載資料,甚至根本跑不動。
所以,大家不只是想把模型做大,而是想解決「如何讓模型在超長內容下仍然可用」這件事。
AMD、Google TPU、NVIDIA 的新產品在做什麼?
從 2025 年底到 2026 年初的產業討論看,幾家主要平台商都在處理同一個問題:如何讓 AI 系統能承受更長的 context 與更大的記憶體壓力。
- NVIDIA:市場特別關注它如何把部分記憶體壓力從 GPU 上的 HBM 轉移到旁邊的高速儲存系統。這類設計若成熟,可能會提升高性能 SSD 的角色。
- Google TPU:強調大規模推理與整體系統效率,讓長序列處理變得更可行。
- AMD:重點之一是提升高頻寬記憶體容量與整體機櫃級設計,嘗試直接改善記憶體天花板。
總結來看,這些新產品的共同目標都不是單純「跑得更快」,而是讓 AI 可以處理更多內容而不被記憶體卡住。
對 NAND Flash、DRAM、HBM 的需求有什麼影響?
整體答案是:三者都可能受惠,但方式不同。
| 記憶體種類 | 主要角色(生活比喻) | 超長 context 怎麼影響? | 為什麼市場會特別關注? |
|---|---|---|---|
| HBM | GPU / TPU 上的超快工作桌 | context 變長,KV cache 壓力更大,市場會更在意容量、頻寬與供應節奏 | 它仍是最核心、最稀缺的高端記憶體之一 |
| DRAM | 伺服器主機板上的普通 RAM | 系統需要更多緩衝與中間層記憶體,伺服器數量增加也會推高需求 | AI 伺服器擴建不只拉動 GPU,也拉動整體主機配置 |
| NAND Flash | 大容量檔案櫃(SSD 儲存) | 若部分資料能卸載到高速 SSD,NAND 在 AI 系統中的角色就會從純儲存進一步擴大 | 容量需求龐大,高性能企業級 SSD 的重要性可能上升 |
最直觀的理解方式是:
- HBM 仍然是最核心的「快記憶體」;
- DRAM 是大量伺服器運作不可缺少的中間層;
- NAND Flash 則可能因為系統架構的演變,被賦予更多「延伸記憶體」的角色。
延伸話題:市場為什麼會關注 NVIDIA 的 NAND Flash 供應鏈?
因為如果未來 AI 平台真的把更多 context 或快取壓力轉移到高速 SSD,企業級 NAND 的戰略地位就會上升。這也是為什麼市場會把 SanDisk、Samsung、SK hynix、Micron、Kioxia 等公司放進同一個討論框架裡。
重點不在於誰是唯一贏家,而在於:
- 哪些公司有高性能企業級 SSD 能力;
- 哪些公司能配合新平台標準;
- 哪些公司在供應穩定性、耐用度與控制器整合上更強。
換句話說,這裡更像是一條供應鏈研究題,而不是一句簡單的「哪隻最值得看」。
現在誰能夠造 HBM4?以 2026 年初的產業進度為例
若以 2026 年初的公開產業討論為背景,HBM4 主要仍圍繞三家大廠:
- SK hynix:被廣泛視為 HBM 領先者之一,市場關注其樣品驗證與量產節奏;
- Samsung:擁有完整記憶體能力,市場焦點在於它如何追趕或重新爭取市占;
- Micron:作為美國主要玩家之一,市場留意它在 HBM4 時代的出貨與產能擴張。
因此,更準確的說法不是「只有誰能造」,而是「三家都在參與,差別在量產時點、良率、客戶驗證與供應份額」。
美光(Micron)什麼時候會有 HBM4?
若按當時市場流傳的節奏來看,Micron 的 HBM4 重點主要包括:
- 是否已進入樣品驗證階段;
- 量產大致會落在哪個年度或季度;
- 客戶預訂與產能規劃是否反映出需求能見度。
這類資訊對讀者來說,最有價值的地方不是拿來推導即時價格,而是用來理解一家公司在產業升級中的位置:它是在追趕、守住份額,還是有機會在下一代產品週期裡擴大存在感。
免責聲明: 本文內容僅供一般研究參考、教育用途與歷史案例討論,用於整理公司資料、業務變化或市場脈絡,不構成任何形式的投資建議、招攬、買賣訊號或個人化交易指示。Stock Fundamentals Lab 並非證監會持牌機構,文中不提供目標價、入市時機或買賣建議。股市有風險,請自行審慎評估並按需要諮詢持牌專業顧問。
