AI熱潮帶動HBM需求大增! 產能供應瓶頸下可能出現這項替代技術

【財經中心/台北報導】AI引爆熱潮,也讓記憶體晶片從配角躍升為當紅炸子雞,隨著大模型參數規模與訓練資料量的爆炸式成長,傳統記憶體技術已成為制約算力發揮的瓶頸,而HBM(高頻寬記憶體)憑藉其超高頻寬、低功耗和體積小特性,正成為AI晶片的主流選擇,全球科技巨頭也紛紛將HBM視為戰略要地。
在日前的財報會上,美光特別強調,預計半導體晶片、特別是HBM的供不應求情況將會加劇。公司執行長Sanjay Mehrotra透露,目前半導體儲存領域,DRAM庫存已低於目標水準,NAND庫存持續下滑;而HBM產能需求成長顯著,產能已被訂滿,預計2026年HBM出貨成長速度將超過整體DRAM水準,成為半導體業務核心成長動力。
美光表示,已與所有客戶就2026年絕大部分HBM3E產能達成定價協議,公司正在與客戶就HBM4進行討論,供應「非常緊張」。
客製化HBM成為效能差異化關鍵
根據科創板日報指出,為何儲存需求熱潮中,特別是HBM的供不應求情況可能會加劇?華爾街分析師指出,客製化HBM(cHBM)已從曾經的被動元件轉變為具備邏輯算力的主動部件,重塑儲存的角色。在這種情況下,AI基建中,儲存總體擁有成本(TCO)不斷上升。
客製化HBM可以整合不同功能、運算能力與邏輯Die設計,例如LPDDR與HBM並行工作,在HBM堆疊中加入計算邏輯,成為效能差異化的關鍵。
目前,儲存廠商已開始提供涵蓋HBM、邏輯die、LPDDR、PIM等的全端解決方案,並與客戶進行客製化HBM合作。

HBM能效每改善10%可帶來單機架2%節能
隨著AI能耗的增加,儲存廠商也開始強調HBM在節能上的價值,SK海力士預測,HBM能效每改善10%,可帶來單機架2%的節能效果,對系統級節能有重大意義。
以HBM為首的儲存需求急增背後,是AI推理的快速崛起。輝達執行長黃仁勳在最新訪談中,重申對AI推理的信心。他強調,AI推理將迎來10億倍成長,推理的量級已不是過去的「一次性回答」,而是逐步演進的「先思考再作答」的動態生成,思考得愈久,答案質量愈高。
AI技術的蓬勃發展推動大模型訓練走向規模化,但真正創造持續商業價值的核心環節在於推理過程。AI推理算力需求正快速超越訓練,成為成本與效能的關鍵瓶頸。在這背景下,記憶體受益於超長上下文和多模態推理需求,處理大量序列資料或多模態資訊時,高頻寬於大容量記憶體可降低存取延遲、提升並行效率。

「以存代算」技術為AI大規模落地提供可行路徑
廣發證券認為,隨著AI推理應用快速成長,對高性能記憶體和分層儲存的依賴愈發顯著,HBM、DRAM、SSD及HDD在超長上下文和多模態推理場景中發揮關鍵作用,高頻寬記憶體保障模型權重和激活值的高速訪問,SSD滿足高頻讀寫與短期存儲需求,HDD提供海量長期儲存支持,隨著AI推理需求快速成長,輕量化模型部署推動儲存容量需求快速攀升,預計未來整體需求將激增至數百EB等級。
但值得留意的是,「HBM供不應求情況加劇」的另一面,是供應瓶頸下可能出現的「技術替代」—「以存代算」。
天風證券認為,「以存代算」技術透過將AI推理過程中的向量資料(如KV Cache)從昂貴的DRAM和HBM顯存遷移至大容量、高性價比的SSD介質,實現儲存層從記憶體向SSD的策略擴展,而非簡單替代。其核心價值在於大幅降低首Token延遲、提升推理吞吐量,並大幅優化端到端的推理成本,為AI大規模落地提供可行路徑。
分析師進一步指出,QLC+PCIe/NVMe+CXL有望建構下一代AI SSD基座,推動SSD從單純儲存介質,升級為AI推理「長期記憶」載體。