整理 | 鄭麗媛
出品 | CSDN(ID:CSDNnews)
到底是誰說,今天的主要工作是等放假?明明是(被迫)跟著各家AI團隊卷生卷死:
繼昨晚、今日凌晨,智譜、阿里、螞蟻、智源也都趕在節(jié)前最后一天“卷”起來了!
(即夢AI生成)
智譜:GLM-4.6重磅上線,目前國內(nèi)最強的Coding模型
今天下午14:53,智譜正式發(fā)布并開源新一代大模型GLM-4.6,在真實編程、長上下文處理、推理能力、信息搜索、寫作能力與智能體應用等多個方面實現(xiàn)全面提升。
據(jù)官方介紹,GLM-4.6在公開基準和真實編程任務中的表現(xiàn)已對齊Claude Sonnet 4、超越DeepSeek V3.2-Exp,是目前國內(nèi)最強的Coding模型:
(1)綜合評測:在8大權威測試(AIME 25、LCB v6、HLE、SWE-Bench Verified、BrowseComp、Terminal-Bench、τ^2-Bench、GPQA)中,GLM-4.6在部分榜單表現(xiàn)對齊Claude Sonnet 4/Claude Sonnet 4.5,穩(wěn)居國產(chǎn)模型首位;
(2)真實編程評測:在Claude Code環(huán)境下完成74個場景任務,結果顯示,GLM-4.6實測超過Claude Sonnet 4,同時平均token消耗比GLM-4.5低30%,為同類模型最低。
值得一提的是,GLM-4.6已在寒武紀國產(chǎn)芯片上實現(xiàn)FP8+Int4混合量化部署,這是首套投產(chǎn)的芯片一體化方案,同時基于vLLM框架,也能在摩爾線程新一代GPU上以原生FP8精度穩(wěn)定運行。
目前,GLM-4.6已全面上線智譜MaaS平臺bigmodel.cn、z.ai、智譜清言,海外用戶可通過z.ai使用 API,同時將在Hugging Face和ModelScope開源,遵循MIT協(xié)議。
阿里通義Qwen:Qwen3-LiveTranslate-Flash,視、聽、說全模態(tài)同傳大模型
而僅僅時隔半小時后,阿里通義Qwen團隊在下午15:22,重磅介紹了視、聽、說全模態(tài)同傳大模型Qwen3-LiveTranslate-Flash。
Qwen3-LiveTranslate-Flash是一款高精度、高響應、高魯棒性的多語言實時音視頻同傳大模型,依托于Qwen3-Omni強大的基座能力、海量多模態(tài)數(shù)據(jù)、百萬小時音視頻數(shù)據(jù),實現(xiàn)了覆蓋18種語言的離線和實時兩種音視頻翻譯能力。
不僅如此,Qwen3-LiveTranslate-Flash可實現(xiàn)最低3秒延遲的同傳體驗,采用語義單元預測技術緩解跨語言調(diào)序問題,實現(xiàn)與離線翻譯幾乎無損的翻譯質(zhì)量。海量語音數(shù)據(jù)訓練也保證了音色自然,可根據(jù)原語音內(nèi)容自適應調(diào)節(jié)語氣和表現(xiàn)力。
從公開測試集的結果來看,Qwen3-LiveTranslate-Flash在中英及多語言語音翻譯準確度方面顯著優(yōu)于Gemini-2.5-Flash、GPT-4o-Audio-Preview和Voxtral Small-24B等主流大模型:
在不同領域和復雜聲學環(huán)境下,Qwen3-LiveTranslate-Flash的翻譯性能也依然保持領先:
同時,Qwen3-LiveTranslate-Flash還首次引入視覺上下文增強技術,讓模型不僅“聽得懂”,還能“看得懂”,進一步提升了對嘈雜音頻、一詞多譯及專有名詞翻譯的精度,在實時場景中的優(yōu)勢也更為明顯。
事實上早在上周,阿里Qwen團隊負責人就曾在X平臺上透露,阿里Qwen團隊要發(fā)布6個“新東西”,包括1個產(chǎn)品,2個開源模型,3個API接口,具體為Qwen3Guard、Qwen Chat、Qwen3-LiveTranslate-Flash、Qwen3-Coder升級、Qwen3-VL和Qwen3-Max發(fā)布。
螞蟻:開源首個萬億參數(shù)推理大模型!
在今日凌晨Claude Sonnet4.5發(fā)布的同時,螞蟻集團也宣布開源自研的首個萬億參數(shù)大模型Ring-1T-preview。
據(jù)介紹,Ring-1T-preview是萬億參數(shù)推理大模型Ring-1T的預覽版,但其自然語言推理能力已相當亮眼。例如,在數(shù)學能力測試AIME 25上,Ring-1T-preview取得92.6分,超越所有已知開源模型及Gemini 2.5 Pro,更接近GPT-5(無工具使用)的94.6分;在代碼生成領域的CodeForces測試中,Ring-1T-preview更是斬獲94.69分,直接超過GPT-5。
不僅如此,在LiveCodeBench、ARC-AGI-v1等權威榜單上,Ring-1T-preview也位列開源模型首位。據(jù)悉,螞蟻百靈團隊還在國際奧林匹克數(shù)學競賽(IMO25)上對其推理能力進行了測試:Ring-1T-preview能一次性解對第三題,并在第1、2、4、5題可一次推理出部分正確答案,展現(xiàn)出其強大的邏輯與數(shù)學推理潛力。
螞蟻百靈團隊還透露,當前正在投入Ling2.0家族1T語言基座的后訓練工作,以進一步激發(fā)萬億規(guī)?;P偷臐摿?,正式版Ring-1T也在訓練中,未來將進一步其極限能力。
智源:開源RoboBrain-X0,加速通用具身智能
除此之外,今天下午智源也開源了RoboBrain-X0——一個能夠在零樣本泛化、少量樣本微調(diào)條件下,驅動多種不同真實機器人完成復雜任務的跨本體基座大模型。
根據(jù)智源介紹,RoboBrain-X0 源自 RoboBrain 的多模態(tài)基座能力,在 RoboBrain 2.0 數(shù)據(jù)基礎上,進一步融合了真實機器人動作數(shù)據(jù)。通過統(tǒng)一建模視覺、語言與動作,RoboBrain-X0實現(xiàn)了跨本體的泛化與適配,具備從感知到執(zhí)行的一體化能力。
為了支撐這一能力,智源還同步開源了RoboBrain-X0-Dataset,其涵蓋多模態(tài)問答、開源動作、產(chǎn)業(yè)合作及自采數(shù)據(jù),構建了覆蓋“感知—思考—行動”的全鏈路訓練基石。這一開放舉措旨在打破“數(shù)據(jù)孤島”,為開發(fā)者提供開箱即用的研發(fā)資源,加速機器人智能走向真實世界。
智源表示,RoboBrain-X0已全面開源,包括預訓練模型、數(shù)據(jù)集和技術文檔,并接入RoboBrain 2.0工具鏈。未來,團隊將持續(xù)迭代,結合指令微調(diào)和強化學習,推動機器人在開放環(huán)境下的泛化與決策能力提升。
如此看來,雙節(jié)前的最后一天,AI圈可謂是一點也沒消停,甚至卷勢還更勝以往……由此,不少圈內(nèi)人都在喊話:別卷了別卷了,咱們要不國慶歇一歇呢?
最后由于時間有限,文中或許還遺漏了一些大模型動態(tài),也歡迎大家在評論區(qū)留言補充~
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.