2025 年8月7日,恰逢開放計算技術(shù)大會開幕,立秋的北京酷熱難耐,仍然無法阻止全球ICT、智算從業(yè)者,以及不少想用好AI的企業(yè)前來參會的熱情。人潮涌動的展廳,座無虛席的會場,說明各個行業(yè)都有不少落地AI的困惑與問題,迫切渴望尋找解決之法。
企業(yè)做AI,一定都遇到過這樣的情況:
下載了開源大模型,想自己訓(xùn)練專有模型,但服務(wù)器顯存不夠,萬億參數(shù)模型的推理頻繁中斷,跑一次崩一次;
業(yè)務(wù)部門的同事對AI的響應(yīng)時間極為敏感,多個模型及智能體協(xié)同作業(yè)時,等待時間一長就怨聲載道,IT部門沒少吃投訴;
聽說超節(jié)點技術(shù)能解決算力問題,一打聽,這東西也太貴了,部署之前還得解決液冷、高壓供電、復(fù)雜互聯(lián)系統(tǒng)之類的要求,只有巨頭能玩,自家企業(yè)的現(xiàn)有IT設(shè)施無法上車。
如何在業(yè)務(wù)中用好開源大模型,是當(dāng)下企業(yè)智能化最迫切的任務(wù)。而具備開放架構(gòu)、成熟技術(shù)、穩(wěn)定高效部署的超節(jié)點,成了希望所在。2025開放計算技術(shù)大會現(xiàn)場,浪潮信息展廳的元腦SD200超節(jié)點,就吸引了不少觀眾駐足。
據(jù)了解,元腦SD200超節(jié)點AI服務(wù)器是浪潮信息面向萬億參數(shù)大模型AI時代而設(shè)計,以開放設(shè)計支持64路本土GPU芯片,可單機運行超萬億參數(shù)大模型,實現(xiàn)多模型機內(nèi)并行與智能體實時協(xié)作,采用創(chuàng)新多主機低延遲內(nèi)存語義通信架構(gòu),64卡整機推理性能呈超線性擴展,更重要的是已實現(xiàn)商用部署,可高效支持企業(yè)實現(xiàn)多開源大模型的規(guī)模化應(yīng)用。
實現(xiàn)AI普惠化需要開源大模型與開放超節(jié)點的協(xié)同創(chuàng)新。以DeepSeek、KIMI等開源大模型為基礎(chǔ),結(jié)合元腦SD200商用開放超節(jié)點的強大算力支撐,將產(chǎn)生怎樣的技術(shù)倍增效應(yīng)?
咱們就從這場開放計算技術(shù)大會上行業(yè)熱議的話題聊起。
先進的大模型開源了,意味著所有企業(yè)都能用好AI了?沒那么簡單。所謂智能平權(quán),是指不同規(guī)模的企業(yè)、組織乃至個人,都能公平獲取和運用AI能力。
開源大模型的普及,確實為各類企業(yè)提供了技術(shù)底座。但許多企業(yè)在部署開源大模型時,還會面臨一個共性問題:如何找到能高效承載萬億級模型的AI基礎(chǔ)設(shè)施,讓技術(shù)潛力真正落地為業(yè)務(wù)生產(chǎn)力?
首先,開源大模型邁向萬億級,穩(wěn)定運行的前提是放得下。KIMI-K2為代表的先進開源大模型參數(shù)量達萬億規(guī)模,特別是當(dāng)邁入Agentic AI(代理式AI)階段,企業(yè)一般不會只用一個大模型。為了充分發(fā)揮不同大模型的特色優(yōu)勢,多個超大規(guī)模參數(shù)的大模型同時跑起來,產(chǎn)生的KV Cache超過了傳統(tǒng)多卡服務(wù)器的承載極限,實時交互時往往因內(nèi)存溢出導(dǎo)致任務(wù)中斷。如何解決這個問題?
本次開放計算技術(shù)大會上,業(yè)內(nèi)討論了scale out(橫向擴展)與scale up(縱向擴展)兩條技術(shù)路線,共識是:超節(jié)點通過scale up在單機內(nèi)高密度集成計算單元,構(gòu)建單一統(tǒng)一計算域,實現(xiàn)超大統(tǒng)一顯存空間,是必然選擇。
其次,AI應(yīng)用不僅要能跑,還要跑得快。將多張加速卡連起來,但這還不夠。傳統(tǒng)架構(gòu)中,跨節(jié)點鏈路過長會導(dǎo)致通信延遲飆升,尤其在推理場景中,幾MB的小數(shù)據(jù)包高頻交互,對延遲極為敏感。特別是當(dāng)AI應(yīng)用從訓(xùn)練階段轉(zhuǎn)向推理與后訓(xùn)練為主,海量token的實時處理需要極致的通信效率,所以scale up系統(tǒng)還需要解決高效通信的問題。
更關(guān)鍵的是,技術(shù)方案必須能落地。再好的超節(jié)點系統(tǒng),如果不能被部署到企業(yè)現(xiàn)有設(shè)施中,不能響應(yīng)實際業(yè)務(wù)需求,那也只是畫餅而無法充饑。目前,企業(yè)普遍存在多品牌多批次芯片的混搭算力現(xiàn)狀,而模型在異構(gòu)算力平臺間遷移困難的問題,正成為AI落地的主要障礙。而開放架構(gòu)的超節(jié)點,可以兼容多元算力芯片,讓企業(yè)原來的IT投資不浪費,掌握選擇權(quán),并通過開源軟件生態(tài),支持模型的快速遷移與AI應(yīng)用的敏捷上線。
所以,能落地的開放超節(jié)點,也就和開源大模型一起,成為智能平權(quán)的兩大基本要素,讓企業(yè)真正實現(xiàn)“技術(shù)平權(quán)、智能平權(quán)”。
回應(yīng)最終用戶的所想所要,才是企業(yè)級市場真正需要的超節(jié)點,而以應(yīng)用導(dǎo)向、客戶需求來研發(fā),才能構(gòu)成對市場的正向引導(dǎo)。客觀來看,市面上成熟可商用的開放超節(jié)點,并不多見。所以,元腦SD200在此次大會上讓大家格外關(guān)注。
那么,打造開放超節(jié)點,究竟存在什么難點呢?
基于開放架構(gòu)的超節(jié)點,為開源大模型的規(guī)模化落地和應(yīng)用創(chuàng)新提供支撐,二者協(xié)同才能真正突破算法與算力的雙重壁壘。這個理想很豐滿,但把開放超節(jié)點從理念轉(zhuǎn)化為成熟可商用的產(chǎn)品,并非易事。
首要挑戰(zhàn)就是構(gòu)建大規(guī)模、高集成度的Scale Up系統(tǒng),Scale out技術(shù)比較成熟,實現(xiàn)起來更簡單。而Scale Up的復(fù)雜度更高,以前的一些成熟技術(shù)和管理軟件也不夠用,需要針對性地開發(fā)。
其次,便是工程化的問題。芯片的跨距離傳輸會受到光模塊的影響,故障率和功耗都會影響傳輸性能。銅纜又有連接極限,怎么在有限的空間內(nèi)堆積更多的計算芯片,需要創(chuàng)新的架構(gòu)設(shè)計和工程實踐。
顯然,要把開放超節(jié)點帶進現(xiàn)實,必須得系統(tǒng)性創(chuàng)新。因此,元腦SD200率先闖過重重難關(guān),為行業(yè)提供了有益的實踐參考。具體是怎么做的?
第一步,開放架構(gòu),構(gòu)建AI可用的算力底座。
基于OCM(開放算力模組)+OAM(開放加速模塊)融合架構(gòu),元腦SD200實現(xiàn)多元算力芯片兼容,單機可集成64路本土GPU芯片,滿足萬億規(guī)模大模型運行的算力需求。采用3D Mesh開放架構(gòu),實現(xiàn)8倍顯存擴增,單機可提供4TB顯存與64TB內(nèi)存,支持1.2萬億參數(shù)Kimi K2模型的流暢推理。這種模塊化設(shè)計支持靈活擴展,解決了傳統(tǒng)架構(gòu)在部署成本、擴展難度和長期運維上的痛點,顯著降低開源大模型的落地門檻。
第二步,軟硬協(xié)同,實現(xiàn)AI好用的性能優(yōu)化。
軟件在超節(jié)點復(fù)雜的系統(tǒng)當(dāng)中,發(fā)揮著非常重要的作用。元腦SD200通過智能總線管理,實現(xiàn)64卡全局最優(yōu)路由自動創(chuàng)建,支持多拓撲靈活切換與資源按需分配。結(jié)合預(yù)填充-解碼(Prefill-Decoder)分離推理框架,系統(tǒng)實現(xiàn)軟硬件深度協(xié)同,智能化調(diào)度復(fù)雜AI計算任務(wù)。
軟硬協(xié)同的創(chuàng)新設(shè)計,實現(xiàn)了性能的超線性擴展,讓元腦SD200在大模型場景中展示出非常好的性能表現(xiàn),比如,滿機運行DeepSeek R1全參模型推理性能超線性提升比為3.7倍,滿機運行Kimi K2全參模型推理性能超線性提升比為1.7倍。說明超節(jié)點并不是堆更多卡就夠了,還要有軟硬協(xié)同、系統(tǒng)優(yōu)化,才能拉開差距。
第三步,產(chǎn)業(yè)鏈整合,打造AI易用的成熟方案。
據(jù)了解,元腦SD200采用了很多開源開放的技術(shù),作為系統(tǒng)級廠商,浪潮信息牽引產(chǎn)業(yè)鏈上下游開展協(xié)同創(chuàng)新。比如,元腦SD200原生支持PyTorch、TensorFlow等主流框架,確保本土頂級開源模型的無縫遷移與Day0快速上線。其高效風(fēng)冷散熱設(shè)計無需改造現(xiàn)有機房,成熟度與穩(wěn)定性優(yōu)勢顯著,可以靈活部署到企業(yè)已有的數(shù)據(jù)中心機房里,快速上線業(yè)務(wù)。
這種系統(tǒng)性創(chuàng)新使元腦SD200成為開放超節(jié)點的標(biāo)桿產(chǎn)品。萬億級模型也放得下、跑得快、能落地,元腦SD200的成功闖關(guān),把智能平權(quán)從口號變成了可觸摸的現(xiàn)實,讓業(yè)內(nèi)看到了開放超節(jié)點的可行性。
今年一月,OpenAI CEO山姆?奧特曼坦言在開源問題上“OpenAI可能站錯了歷史的一邊”,中國的DeepSeek、通義千問等開源模型迅速崛起,特朗普政府呼吁美國AI 開發(fā)商更多開源技術(shù)……
這些2025年的AI產(chǎn)業(yè)新變化,可以匯總出一個清晰的趨勢:通過開源開放,讓AI成為全社會的生產(chǎn)力工具,實現(xiàn)智能平權(quán),是技術(shù)演進與產(chǎn)業(yè)發(fā)展的必然選擇。
但開源大模型爆發(fā)式增長的同時,大模型落地的算力門檻,卻讓不少企業(yè)只能望“智”興嘆。
這時候,浪潮信息以元腦SD200開放超節(jié)點為支點,將開放架構(gòu)與開源模型深度耦合,正站在歷史前進的方向上。
為什么浪潮信息會成為開放超節(jié)點的破局者?打造成熟可商用的開放超節(jié)點,要求企業(yè)具備橫跨硬件架構(gòu)、軟件棧優(yōu)化、生態(tài)協(xié)同的系統(tǒng)級能力。元腦SD200從芯片互連到應(yīng)用調(diào)度的全棧創(chuàng)新,正是系統(tǒng)級廠商獨有的技術(shù)壁壘。
更關(guān)鍵的是系統(tǒng)級廠商的產(chǎn)業(yè)鏈整合能力。
浪潮信息副總經(jīng)理趙帥表示,以應(yīng)用為導(dǎo)向,以系統(tǒng)為核心,聚焦系統(tǒng)架構(gòu)的創(chuàng)新,在當(dāng)前的成本和應(yīng)用性能約束的條件下,思考怎么為用戶創(chuàng)造更大的價值,這是最佳的突破路徑。
他提到,后續(xù)浪潮信息也會持續(xù)超節(jié)點架構(gòu)的開放戰(zhàn)略,通過技術(shù)共享促進產(chǎn)業(yè)鏈協(xié)同創(chuàng)新,加速超節(jié)點技術(shù)的產(chǎn)業(yè)化進程。隨著產(chǎn)業(yè)生態(tài)的成熟和市場選擇的多元化,企業(yè)將獲得更優(yōu)化的技術(shù)方案選擇:既能夠滿足高性能計算需求,又能實現(xiàn)更合理的成本。這一開放策略將有效降低技術(shù)應(yīng)用門檻,推動AI基礎(chǔ)設(shè)施的規(guī)?;占?。
當(dāng)更多企業(yè)加入超節(jié)點應(yīng)用陣營,智算產(chǎn)業(yè)的市場蛋糕將持續(xù)做大,整個產(chǎn)業(yè)鏈也將在規(guī)模效應(yīng)中共享增長價值。
不難發(fā)現(xiàn),開放的生態(tài)活力,最終會反哺系統(tǒng)級廠商自身。通過開放架構(gòu),浪潮信息的技術(shù)壁壘與標(biāo)準(zhǔn)壁壘,有望構(gòu)建起長期優(yōu)勢,在全球市場獲得更大競爭力,打開廣闊商業(yè)空間。
以開源開放牽引產(chǎn)業(yè)鏈升級,進擊全球智算市場,中國智算企業(yè)正站在歷史前進的方向上——這或許是開放計算技術(shù)大會和元腦SD200超節(jié)點,帶給我們的終極啟示。
這條智能平權(quán)之路,值得中國智算產(chǎn)業(yè)鏈全力以赴。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.