雖然三星的 HBM4 還沒有通過英偉達的驗證,但就在上周五(9 月 19 日),三星的 12 層 HBM3E 終于通過了英偉達的測試認證,也意味著即將成為英偉達 GPU 的 HBM 供應(yīng)商之一。
一石激起千層浪。
AI 的火熱不只是讓人們爭相討論大模型和算力芯片,也徹底點燃了對內(nèi)存的需求。過去幾年,HBM(高帶寬內(nèi)存)成為了這場浪潮里最受追捧的「隱形明星」。沒有它,就沒有英偉達 A100、H200 以及其他 AI 芯片的爆火,也也不會有無數(shù)大模型在短時間內(nèi)跑出來并且迅速迭代。
正因如此,HBM 供不應(yīng)求,幾乎成了半導(dǎo)體行業(yè)的「硬通貨」,也讓 HBM 主要廠商 SK 海力士一舉超越三星,成為全球最大存儲芯片制造商。
收入榜,圖片來源:TrendForce
但問題隨之而來,HBM 的速度沒問題,帶寬夠快,延遲夠低,可容量依然有限,成本居高不下。AI 模型越大,對內(nèi)存的胃口越夸張,單靠 HBM 很難滿足未來幾年全球 AI 推理的龐大需求。尤其以 DeepSeek 為開端,MoE 模型(專家混合模型)減小了對算力的要求,內(nèi)存墻的問題變得更加突出。
而在本月早些時候,被稱為「HBM 之父」的韓國科學(xué)與技術(shù)研究院教授金正浩表示,未來決定內(nèi)存行業(yè)勝負的將會是 HBF(High Bandwidth Flash,高帶寬閃存)。
這并非空穴來風(fēng)。作為 HBM 的最大玩家,SK 海力士已經(jīng)和閃存領(lǐng)域的代表閃迪走到了一起,公開宣布聯(lián)合開發(fā) HBF 技術(shù),并推動行業(yè)標準化。但 HBF 到底是什么?當 HBM 不再夠用,HBF 能否成為下一個接力棒?
圖片來源:閃迪
內(nèi)存堆疊換閃存堆疊,HBF如何做到的?
在解釋 HBF 之前,先得把 HBM 擺在桌面上。HBM,全稱高帶寬內(nèi)存,可以理解為「GPU 專用的豪華內(nèi)存」。它的特點是把多層 DRAM 芯片像「積木」一樣堆疊在一起,然后通過超寬的接口直接連到 GPU 上。這樣一來,數(shù)據(jù)進出的通道變寬了,傳輸速度自然暴漲。比如英偉達 H200 搭載的 HBM3e,單卡內(nèi)存帶寬達到 4.8 TB/s,比普通 DDR 內(nèi)存快幾十倍。
問題在于,HBM 像跑車一樣速度驚人,但油箱太小。它的容量往往停留在幾十 GB 級別,即便 SK 海力士即將量產(chǎn)的 HBM4 單殼最高也只能做到 36GB(未來可達 64GB),而大模型的參數(shù)動輒上千億。更現(xiàn)實的問題是,HBM 的成本極高,良率低、產(chǎn)能有限,直接導(dǎo)致一塊 GPU 動輒數(shù)萬美元,成為 AI 行業(yè)的瓶頸。
HBF(高帶寬閃存)正是在這種背景下備受關(guān)注。簡單理解,HBF 就是把 NAND 閃存堆疊起來,用類似 HBM 的封裝方式,讓它既能像內(nèi)存一樣高速讀數(shù)據(jù),又能像硬盤一樣存更多內(nèi)容。它的目標并不是完全取代 HBM,而是作為「容量補位」:
HBM 繼續(xù)承擔最關(guān)鍵、延遲最敏感的工作,而 HBF 則用來裝下超大模型的權(quán)重、KV Cache 等「吃容量」的部分。
HBF 結(jié)構(gòu)圖,圖片來源:閃迪
換句話說,HBM 是短跑冠軍,HBF 是長途卡車,兩者搭配,才能既快又大。這也是「HBM 之父」看好 HBF 的核心理由。
韓國科學(xué)技術(shù)院(KAIST)教授金正浩,被譽為「HBM 之父」,他正是當年提出把內(nèi)存芯片豎著堆疊的關(guān)鍵人物。在 9 月初的演講中,他認為內(nèi)存行業(yè)未來的勝負手將會是 HBF,邏輯并不復(fù)雜,AI 的趨勢已經(jīng)從算力中心轉(zhuǎn)向內(nèi)存為中心,算力的增長再快,如果數(shù)據(jù)塞不進去、模型放不下,都會卡住脖子。
而 HBF 剛好能補上 HBM 的容量短板,讓系統(tǒng)既保持高帶寬,又能擁有更大的可用空間和更低的成本。
這番話并不只是他的個人看法。在 8 月舉行的 FMS 未來存儲峰會上,閃迪透露了近兩年開發(fā)的 HBF,并且宣布與 SK 海力士推動 HBF 的技術(shù)標準化。SK 海力士的優(yōu)勢在于封裝和堆疊工藝——這正是 HBM 成功的關(guān)鍵;閃迪則是 NAND 閃存領(lǐng)域的長期玩家,擁有獨特的直鍵合工藝。
更關(guān)鍵的是,HBF 在設(shè)計之初就針對 AI 推理的特點:讀多寫少、批量順序訪問。AI 模型在推理時,幾乎不改動權(quán)重,主要是高速讀??;這讓 NAND 的「寫入短板」不再是致命問題,而它的高密度、低成本、穩(wěn)定性則被發(fā)揮到極致。
不斷拉長的上下文長度,也在吞噬存儲,圖片來源:閃迪
因此,金正浩的判斷、SK 海力士的布局、閃迪的押注,其實都在指向一個共同邏輯:AI 的未來需要的不僅僅是更快的存儲,還需要更大的存儲池。HBM 已經(jīng)把速度推到極致,但如果沒有 HBF,AI 的發(fā)展遲早會撞上天花板。
從這個角度看,HBF 不僅是一個新技術(shù)點,更可能是整個 AI 硬件架構(gòu)變革的核心動力。
HBF徹底改變AI存儲:從數(shù)據(jù)中心到消費終端
HBF 的落地并不是遙不可及的未來。按照閃迪和 SK 海力士的路線規(guī)劃,2026 年下半年就會有首批 HBF 樣品出現(xiàn),2027 年初預(yù)計會有搭載 HBF 的 AI 推理設(shè)備面世。這意味著,它最快會在兩年內(nèi)走出實驗室,成為真實的硬件產(chǎn)品。
那么,這些首批設(shè)備會是什么?最有可能的,是 GPU 廠商和服務(wù)器廠商率先嘗鮮。以英偉達 H200 為例,是全球首款使用業(yè)內(nèi)最先進 HBM3e 顯存的 GPU,配備了 141 GB 的 HBM3e,成本極高。而 HBF 就像是為 GPU 接上了一個「外掛油箱」,不僅能讓更多模型一次性裝進來,還能大幅減少頻繁從 SSD 調(diào)數(shù)據(jù)的延遲。
但 HBF 的意義并不止于數(shù)據(jù)中心。在邊緣設(shè)備和個人計算領(lǐng)域,它同樣可能帶來巨大的改變。
今天我們看到 AI PC、AI 手機都在強調(diào)設(shè)備端運行大模型,可現(xiàn)實是,終端設(shè)備的內(nèi)存遠遠不夠支撐上百億參數(shù)的模型。HBF 如果能以小型化模組、甚至與處理器一體封裝的方式進入終端,就有機會讓用戶在本地調(diào)用更大的 AI 模型,帶來更流暢的語音助手、更聰明的生產(chǎn)力工具,甚至真正可離線運行的 AI 應(yīng)用。
圖/微軟
更重要的是,HBF 的成本和功耗優(yōu)勢,使它天然適合在終端場景擴展。HBM 成本高昂、功耗居高不下,而 HBF 基于 NAND 閃存,密度更高,單位容量價格更低。對于筆記本電腦、智能手機甚至 XR 設(shè)備來說,如何在有限的空間和電池里提供更強的 AI 能力?HBF 給出了一個現(xiàn)實的答案:
在云端,它緩解 GPU 內(nèi)存瓶頸,讓超大模型能夠跑得更高效;在終端,它可能成為 AI 普及化的關(guān)鍵一步。
當然,短期內(nèi)我們還很難看到 HBF 落地在邊緣終端或者個人計算平臺上,但通過 AI 數(shù)據(jù)中心的大規(guī)模更新,HBF 仍然會在未來幾年改變 AI 的推理,進而改變我們的 AI 體驗。
寫在最后
從 HBM 的爆發(fā),到 HBF 的登場,我們其實看到的是同一個趨勢:AI 已經(jīng)把內(nèi)存和存儲推到了舞臺中央。沒有 HBM,就沒有今天的算力繁榮;而如果沒有更大、更便宜、更低功耗的存儲介質(zhì),AI 的未來也可能被「卡脖子」。
HBF 之所以值得期待,不是因為它要全面取代 HBM,而是它補上了一個關(guān)鍵缺口——容量。它讓 GPU 不再像背著小油箱的跑車那樣捉襟見肘,也給未來的 AI PC、邊緣計算帶來了想象空間。當速度與容量形成合力,AI 的運行方式很可能會被徹底改寫。
但問題也隨之而來:
- HBF 真能像 HBM 一樣,從技術(shù)概念變成行業(yè)標配嗎?
- 在數(shù)據(jù)中心率先落地之后,它能否順利走向個人計算終端?
- 當存儲不再是瓶頸時,下一個掣肘 AI 的環(huán)節(jié),又會是什么?
這些問題的答案,或許要等到 2027 年 HBF 首批設(shè)備面世后才能揭曉。但可以肯定的是,定義 AI 的邊界,不只是算力,還在于儲存。而這場比賽,才剛剛開始。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.