IT之家 10 月 18 日消息,南華早報今天(10 月 18 日)發(fā)布博文,報道稱在韓國首爾舉辦的第 31 屆操作系統(tǒng)原理研討會(SOSP)上,阿里云發(fā)布的“Aegaeon”的計算池化解決方案研究成果成功入選,可解決 AI 模型服務中普遍存在的 GPU 資源浪費問題。
IT之家查詢公開資料,SOSP 是計算機操作系統(tǒng)領(lǐng)域的頂尖會議,相當于計算機操作系統(tǒng)界的“奧斯卡”,其錄取率控制非常嚴格,平均每年收錄的論文數(shù)量僅有數(shù)十篇,入選論文代表了操作系統(tǒng)和軟件領(lǐng)域最具代表的研究成果。
博文稱云服務商當前在提供 AI 模型服務時,面臨著嚴重的資源效率低下問題。平臺需要同時托管數(shù)千個 AI 模型以處理海量并發(fā) API 調(diào)用,但用戶請求往往高度集中在少數(shù)幾個熱門模型上,例如阿里巴巴的 Qwen 系列模型。
研究人員發(fā)現(xiàn),這種“長尾效應”導致了嚴重的資源閑置:在阿里云的模型市場中,竟有 17.7% 的 GPU 算力僅被用于處理 1.35% 的請求,造成了巨大的成本浪費。
為解決這一痛點,Aegaeon 系統(tǒng)應運而生。它通過創(chuàng)新的 GPU 資源池化技術(shù),允許單個 GPU 動態(tài)服務于多個不同的 AI 模型,打破了以往 GPU 與特定模型綁定的低效模式。
在阿里云模型市場進行的為期超過三個月的 Beta 測試中,Aegaeon 系統(tǒng)展現(xiàn)了卓越的效能。測試數(shù)據(jù)顯示,服務數(shù)十個參數(shù)量高達 720 億的大模型,所需的英偉達 H20 GPU 數(shù)量從 1192 個成功減少至 213 個,數(shù)量削減高達 82%。
這項由北京大學與阿里云合作的研究成果,被認為是“首個揭示并解決市場上并發(fā)大語言模型服務存在過高成本”的公開工作,為行業(yè)提供了全新的優(yōu)化思路。
值得一提的是,阿里云首席技術(shù)官周靖人也是該論文的作者之一。周靖人是國際電氣與電子工程師協(xié)會會士(IEEE Fellow),國際計算機協(xié)會會士(ACM Fellow),阿里巴巴集團副總裁,阿里云智能 CTO、達摩院副院長。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.