作者|Hayward
原創(chuàng)首發(fā)|藍(lán)字計劃
一身皮衣黃仁勛,GTC 2025上意氣風(fēng)發(fā)。
雖然最近英偉達(dá)的股票跌得比較狠,甚至來到了10年來的最低點,但這不影響老黃,對最新的GPU們信心滿滿。
時間回?fù)艿?月初,DeepSeek的發(fā)布在AI領(lǐng)域掀起巨浪。一個中國團(tuán)隊的產(chǎn)品,僅用了少量的低端GPU(以A100為主)蒸餾現(xiàn)有超大模型就實現(xiàn)了高端GPU(以H100為代表)才有的性能。
高端GPU并非剛需,誰還成噸地采購你老黃的Hopper、Blackwell 核彈?過去在AI行業(yè)被奉為金科玉律的“Scaling Law”(規(guī)模定律),也就是“模型參數(shù)量、數(shù)據(jù)集、訓(xùn)練成本越多越好”的觀念也被嚴(yán)重沖擊。
這幾年谷歌、Meta、微軟等互聯(lián)網(wǎng)大廠成噸地采購H100芯片以維持規(guī)模,正是想以算力分勝負(fù)、定生死?,F(xiàn)在根本不需要如此恐怖的規(guī)模,也能讓大模型擁有媲美 OpenAI o1的性能。
一時間,宣稱DeepSeek能讓英偉達(dá)走上末路的聲音此起彼伏,特別是海外的社媒平臺發(fā)酵最快、傳播最兇。有X網(wǎng)友更坦言“英偉達(dá)的一切都將開始瓦解”,這段時間里英偉達(dá)的股票一天下跌13%、17%都成了常態(tài)。
不過,也有另一種聲音稱,從長期來看DeepSeek的成功反而利好英偉達(dá)。
DeepSeek揭示了可以通過“蒸餾現(xiàn)有超大模型”的方法訓(xùn)練性能出色的大模型,但只是不需要用到H100芯片這等性能怪獸而已,并非完全不依賴計算卡。A100計算卡,也是英偉達(dá)家的產(chǎn)品。
玩家的門檻降低了,入場的玩家自然會越來越多,從市場總量來說,對算力的需求還是會上升的。英偉達(dá)又是全世界最大的卡販子,總會賣出更多的計算卡。
再說了要蒸餾現(xiàn)有的超大模型,也得先有性能出色的超大模型存在才行,到底還是需要H100這樣的計算卡集群來訓(xùn)練超大模型,這似乎是個“先有雞還是有蛋”的問題。
只能說兩種聲音都有道理,不過大家最想知道的還是老黃本人的聲音。
這次GTC 2025,我們終于等到老黃的親自回應(yīng)。
還是那個GPU霸主
按照慣例,我們先來回顧一下這場光門票就要價1萬美元的“科技盛宴”。
簡單來說,英偉達(dá)主要發(fā)布了四款芯片架構(gòu)、兩款A(yù)I電腦、一款A(yù)I訓(xùn)練底層軟件和展示了具身機(jī)器人相關(guān)的進(jìn)展,其他內(nèi)容就不贅述了。
· 4款A(yù)I芯片架構(gòu),分別是將在2025下半年發(fā)布的Blackwell Ultra、2026下半年發(fā)布的Vera Rubin、2027下半年發(fā)布的Vera Rubin Ultra,和2028年的Feynman。
全新的超級芯片產(chǎn)品方面,基于Blackwell Ultra架構(gòu)的GB300 NVL72芯片是上代最強(qiáng)芯片GB200的繼任者,推理是GB200 NVL72的1.5倍,提升幅度不算大,甚至在大會上GB300的直接對比對象還是2年前的H100。
從市場的反應(yīng)來看大部分人對GB300不太買賬,它沒有上一代GB200的那種“橫空出世”的驚喜感,要說最大的升級點,可能是HBMe內(nèi)存提升至288GB,就是有點“蘋果今年發(fā)布的新機(jī)是2TB版本的iPhone 16 Pro Max”的味道了。
重頭戲是英偉達(dá)未來的芯片架構(gòu)規(guī)劃,下代超級芯片Rubin NVL144,比GB300 NVL72 強(qiáng)了3.3倍;下下代的Rubin Ultra NVL576性能是GB300 NVL72的14倍,從畫餅給出的性能來看,未來大概率還是會由英偉達(dá)掌握GPU算力王座。
· 兩款全新的AI電腦,分別是搭載了GB10 Grace Blackwell超級芯片的DGX Spark,每秒可提供高達(dá) 1000 萬億次 AI 運(yùn)算;搭載了GB300 Grace Blackwell Ultra的DGX Station,可以提供每秒可提供高達(dá)2000 萬億次 AI 運(yùn)算。目前DGX Spark已經(jīng)開始預(yù)售,要價3000美元。
· 開源軟件NVIDIA Dyamo,可以簡單理解為一款A(yù)I工廠(數(shù)據(jù)中心)的操作系統(tǒng),英偉達(dá)說在NVIDIA Blackwell上使用Dynamo優(yōu)化推理,能讓DeepSeek-R1的吞吐量提升30倍。
· 具身機(jī)器人的技術(shù)儲備,包括機(jī)器人通用基礎(chǔ)模型Isaac GR00T N1、一款配備了GR00T N1模型的機(jī)器人:Blue,和Google Mind、迪士尼合作的最新成果。
從發(fā)布的產(chǎn)品來看,英偉達(dá)還是那個GPU領(lǐng)域的霸主,甚至領(lǐng)導(dǎo)地位已經(jīng)開始向AI拓展。它們不僅將產(chǎn)品技術(shù)路線圖更新至一年一更,未來三年的產(chǎn)品堪稱“超級大餅”,圍繞AI相關(guān)的軟件建設(shè)也在飛速推進(jìn),NVIDIA Dyamo很可能會是未來數(shù)據(jù)中心的標(biāo)配。
對于DeepSeek的沖擊,英偉達(dá)似乎也有了解決的辦法。
進(jìn)入“token時代”
終于,黃仁勛首次在公開場合,正面回應(yīng)了DeepSeek誕生以來對公司造成的沖擊。
首先他把DeepSeek從頭到腳吹了一遍,說DeepSeek R1模型是“卓越的創(chuàng)新”和“世界級的開源推理模型”,而且他淡定地表示,不理解為什么大家會把DeepSeek當(dāng)成英偉達(dá)的末日。
至于因DeepSeek而起的關(guān)于Scaling Law撞墻的討論,老黃在會上給出了自己的理解。
首先,他在大會上對Scaling Law進(jìn)行了一次迭代更新:
現(xiàn)在他將Scaling Law細(xì)化為PRE-TRAINING SCALING、POST-TRAINING SCALING、TEST-TIME SCALING三個部分。老黃的意思是,隨著AI進(jìn)入到不同階段,對Scaling的需求是不斷提高的。
這里要提一下,老黃認(rèn)為AI的發(fā)展分為四個階段:感知人工智能(Perception AI)、生成式人工智能(Generative AI)、代理人工智能(Agentic AI)和未來的物理 AI(Physical AI)。而現(xiàn)在我們正處于代理人工智能階段。
現(xiàn)階段由于推理模型、AI代理的爆發(fā),實際上更加需要Scaling,更加需要算力。
其背后的關(guān)鍵是token。
以推理模型為例子,模型進(jìn)行推理時,token的消耗猛漲。用老黃的話,我們不僅需要讓token的吞吐量提升十倍,還需要過去10倍的算力來提升token的輸出速度,最終,需要的算力是之前的100倍。
從技術(shù)上來說,這不無道理。相比傳統(tǒng)的生成式模型,比如ChatGPT,我們觀察到它沒有列舉推理步驟。輸入問題 → 提供答案,沒中間商差價,答案所呈現(xiàn)的就是最終消耗的token數(shù)。
而擁有思維鏈的推理式模型,比如大家熟知的DeepSeek R1,會有一連串的推理過程,有些時候可能推理過程的字?jǐn)?shù)比答案還要多。
R1模型能夠?qū)崿F(xiàn)推理,是因為會將輸出的token返回上級重新思考、推理,正如比喻大師老黃所說的“每個token都會自我懷疑”,在不斷的懷疑-論證中,形成了推理的過程。但這也會更多地消耗算力和token,推理模型要比傳統(tǒng)生成式模型多消耗的token不是2倍,而是20倍。
所以,我們用推理模型時,一大串的思考、推理過程要在前臺展示出來,不僅因為用戶可以從大模型的推理過程介入修正答案,還因為它們不是白送的,不是免費(fèi)的,而是在消耗一個個token,都是真金白銀,花了錢的地方肯定得讓你看到。
而且市面上的推理模型越來越多,更多的傳統(tǒng)模型也陸續(xù)開始加入推理過程,比如谷歌的Gemini,最終token的消耗會呈指數(shù)級增長。
這就是老黃堅信Scaling Law沒有失效的底氣。在會上,老黃用傳統(tǒng)模型Llama 3.3 70B與DeepSeek R1 671B進(jìn)行了對比,統(tǒng)一回答一個復(fù)雜問題。最終前者消耗了400多個token但結(jié)果不可用,后者的結(jié)果堪稱完美,但足足消耗了8559個token。
或許從蒸餾大模型的點子中節(jié)約的算力,又會消耗到推理的過程中,說不準(zhǔn)這就是AI算力中的能量守恒呢。
DeepSeek讓英偉達(dá)GPU賣得更好
除了黃仁勛的激情論證,一個事實是,在這個高token消耗時代,英偉達(dá)的GPU的確賣得更猛了。
彭博社報道,OpenAI 預(yù)計在「星際之門」首期計劃中,建立一個可以容納40萬個英偉達(dá)的 AI 芯片的數(shù)據(jù)中心綜合體。全部裝滿的話,這會是世界最大的AI算力集群之一。
還有對算力推崇至極的馬斯克,旗下的 xAI 已與戴爾達(dá)成 50 億美元協(xié)議,用于在孟菲斯建設(shè)超級計算機(jī)的 AI 服務(wù)器;Meta也宣布計劃要擁有相當(dāng)于 600,000 塊英偉達(dá) H100 芯片的算力。
還有國內(nèi)的阿里、小米、騰訊等公司,也將部署海量算力作為主要目標(biāo)。這背后的顯卡供應(yīng)商,毫無疑問都主要來自英偉達(dá)。推理模型鋪開后大公司們對計算卡、算力的熱情絲毫不減,看來至少大公司們?nèi)韵嘈盼磥硎撬懔Φ臅r代。
在個人本地部署領(lǐng)域,DeepSeek R1也沒有真正地減輕個人用戶的算力負(fù)擔(dān)。
2月中,全網(wǎng)掀起了一陣本地部署DeepSeek R1蒸餾模型的熱潮,但從個人的經(jīng)驗來看,想要得到較好的模型性能,對電腦配置,也就是算力的要求一點都不低。
以RTX 4080 16GB顯卡為例,擁有9728個CUDA核心,16GB GDDR6X的顯存帶寬為736 GB/s,在顯卡中已經(jīng)算高端。
但用它在本地部署14B的DeepSeek R1蒸餾模型時,大部分的推理速度只有20-30 tokens/s,需要分析深度問題往往需要等待超過10分鐘。
如果更進(jìn)一步用它來部署32B的蒸餾模型,推理速度會進(jìn)一步下降到5-15 tokens/s,生成同樣的回答,就需要等待超過30分鐘。
這樣的效率顯然是不行的。如果想要提高推理速度,有兩個辦法:
選擇更小參數(shù)的蒸餾模型部署,但推理的精度、答案的可靠性會明顯下降;
選擇更高配置的硬件,比如RTX 5080/5090,用5090部署32B的蒸餾模型,推理速度也能達(dá)到50-60 tokens/s,效率明顯提升,但又讓老黃賣卡的計劃通了。
也許大多數(shù)人的算力條件,本地部署的大模型還不如直接打開騰訊元寶高效。
因此,從DeepSeek R1引申出來的“蒸餾模型節(jié)省訓(xùn)練算力”已經(jīng)被“推理模型消耗算力”抵消,這給了英偉達(dá)全新的機(jī)遇,可以說DeepSeek的出現(xiàn)為英偉達(dá)關(guān)上了一扇門,又打開了一扇窗。
最終,我們不得不承認(rèn)長遠(yuǎn)來看算力的需求還會不斷增加,還是利好英偉達(dá)。雖說今年Blackwell Ultra擠牙膏,但后面幾年的芯片架構(gòu)都會有明顯的算力提升。當(dāng)各大廠的算力吃緊時,老黃的核彈們,又有大展拳腳的機(jī)會了。
販賣token焦慮?
縱觀GTC 2025,只要是涉及AI、GPU、算力的部分,老黃都離不開token,甚至有好事的媒體專門統(tǒng)計了他在會上提到“token”的次數(shù),還怪幽默的。
在新Scaling Law時代,token仿佛成了英偉達(dá)的救命稻草。雖然從邏輯上看老黃的觀點說得通,但如此頻繁地重復(fù)一種邏輯,就像我們在文章中連續(xù)寫100次“token”,多少會有人覺得,英偉達(dá)有點歇斯底里。
自農(nóng)歷新年以來,英偉達(dá)的市值已經(jīng)跌去了將近30%,這次發(fā)布會的黃仁勛不再像一個技術(shù)大拿,不像是那個“全世界最聰明的科學(xué)家”、“全球最牛公司的CEO”,而像一個絮絮叨叨的金牌銷售,通過販賣token焦慮的方式,讓大家堅信英偉達(dá)仍掌握著未來。
不過投資者的信心不來自推銷和布道,而來自產(chǎn)品。事實就是今年下半年面世的GB300確實沒有太多亮點,畫的大餅又比較遙遠(yuǎn)。反映到股價上,發(fā)布會結(jié)束后英偉達(dá)的股價依然下跌了3.4%。
其實更令我哭笑不得的是價值3000美元的DGX Spark,根據(jù)官網(wǎng)披露的信息這款產(chǎn)品的128GB內(nèi)存,帶寬只有273GB/s。
盡管老黃將它定義為“可用于本地部署”的AI電腦,但這性能真不敢恭維。不說滿血版671B的DeepSeek R1,跑大部分32B的模型可能也只能實現(xiàn)2-5 tokens/s的輸出效率。用它來跑傳統(tǒng)的模型應(yīng)該還不賴,但推理模型估計是很困難了。
或許它存在的意義,停留在“讓大家買更強(qiáng)的DGX Station”上罷了。只是如果你一直在販賣token焦慮,最好能拿出更多能解決token焦慮的產(chǎn)品來。
英偉達(dá)現(xiàn)在缺乏的不是技術(shù)和產(chǎn)品,在GPU領(lǐng)域一騎絕塵,第二名都看不到車尾燈;真正缺乏的,是對消費(fèi)者的誠意。
參考資料:
APPSO 《剛剛,黃仁勛甩出三代核彈AI芯片!個人超算每秒運(yùn)算1000萬億次,DeepSeek成最大贏家》
第一財經(jīng) 《凌晨,黃仁勛重大宣布!》
圖片來源:GTC March 2025 Keynote with NVIDIA CEO Jensen Huang
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.