廣告

SRAM能取代昂貴的HBM嗎 黃仁勳點出其致命缺陷

出版時間:2026/01/08 14:30
財經 科技新知
CC 文章
黃仁勳在CES發表主題演講。法新社 zoomin
黃仁勳在CES發表主題演講。法新社
分享 分享 連結 訂閱 APP

【財經中心╱台北報導】科技媒體Tom's Hardware報導指出,在CES 2026電子展期間的記者會上,輝達執行長黃仁勳回應了「是否可用更便宜的SRAM取代昂貴的HBM 。」

SRAM(Static Random Access Memory,靜態隨機存取記憶體)是高速小容量的靜態快取,使用稱為觸發器的一組晶體管存儲每個數據,因為這種設計,SRAM無需像DRAM那樣一遍又一遍地刷新數據,使得SRAM更快,更穩定,且對於需要快速訪問數據的任務而言,SRAM更加穩定,但是成本較高、密度較低;HBM 是超高頻寬、大容量的3D堆疊式主存(基於DRAM),透過垂直堆疊的高倍率堆疊高頻寬、尺寸是系統級高頻寬記憶體,共同服務AI算力需求。

IT之家指出,AI 產業正積極尋找降低成本的途徑,隨著SRAM加速器、GDDR 推理方案以及開放權重模型的興起,業界出現一種聲音,認為這些低成本方案可以緩解對輝達昂貴零件的依賴。

SRAM容量成長速度跟不上現代模型需求

特別是在基準測試(Benchmark)和受控演示中,SRAM憑藉著極高的存取速度和無延遲特性,展現出效能優勢,甚至被視為HBM的潛在替代者。

報導指出,黃仁勳並未否認SRAM的速度優勢。他直言,「對於某些特定工作負載,SRAM快得驚人。」然而,一旦進入生產級AI系統,SRAM的優勢便會因容量瓶頸而崩塌。

他表示,SRAM的容量成長速度遠跟不上現代模型的需求,其可容納的模型規模僅為HBM系統的百分之一,當模型因上下文增加或功能擴展而溢出SRAM時,系統被迫調用外部記憶體,導致效率優勢瞬間消失。

黃仁勳進一步剖析AI工作負載的不可預測性。現代AI模式形態各異,包含混合專家模式(MOE)、多模態任務、擴散模式及自我迴歸模型等。這些架構對硬體的壓力點截然不同:有的依賴顯示記憶體(VRAM)容量,有的依賴互連頻寬(NVLink),且需求時刻在變,如果硬體針對某一特定模式(如純SRAM)過度最佳化,一旦工作負載發生變化,昂貴的晶片就會閒置。

HBM成本較高但能硬體維持高利用率

基於此,輝達堅持選擇HBM路線,黃仁勳認為,就共享資料中心而言,靈活性是決定經濟效益的關鍵,即使某種專用硬體在5~10%的任務中表現極致,但如果無法處理其餘90%的通用任務,就會造成巨大的資源浪費。

相較之下,HBM方案雖然物料成本更高,但能適應不斷變化的演算法和模型架構,確保硬體在數周甚至數月的營運周期內維持高利用率。

針對「開放模型是否會削弱輝達障礙」的提問,黃仁勳表示,開放並不意味著降低基礎設施要求,隨著開放模型整合更長的上下文和更多模態,其記憶體佔用同樣會激增。

輝達願意承擔高昂的HBM成本和複雜的系統設計,正是為了保留「可選性」(Optionality),既防止客戶被鎖定在狹窄的性能範圍內,也保護自身硬體免受模型架構快速迭代的衝擊。

下載知新聞APP

⭐️ 即刻下載!無蓋版廣告純淨版《知新聞》App

# SRAM # HBM # AI # 黃仁勳 # CES