作者:劉曉潔 責(zé)編:彭海斌
8月21日,業(yè)界千呼萬喚的R2模型沒來,但DeepSeek官方正式發(fā)布了新模型V3.1。從命名來看這或許不是一次大的版本更新,更像是前一代DeepSeek-V3模型的小版本迭代。
在X上,DeepSeek將V3.1稱為“我們邁向智能體時代的第一步”(our first step toward the agent era)。本次升級主要有三大亮點,其中包括更強的Agent能力、混合思考模式和更高的思考效率。
官方表示,通過后訓(xùn)練優(yōu)化,新模型在工具使用與智能體任務(wù)中的表現(xiàn)有較大提升。在編程智能體、搜索智能體測評中, V3.1相比之前的DeepSeek系列模型都有明顯提高。
DeepSeek-V3.1是混合推理架構(gòu),一個模型同時支持思考模式和非思考模式。目前用戶可在官方App與網(wǎng)頁端體驗新模型,通過“深度思考”按鈕,實現(xiàn)思考模式與非思考模式的自由切換。DeepSeek API也已同步升級,deepseek-chat對應(yīng)非思考模式,deepseek-reasoner對應(yīng)思考模式,且上下文均已擴展為128K。
“混合推理非常棒。擁有一個能夠在深度思考和快速響應(yīng)之間切換的模型,感覺就像是實用人工智能的未來。”X上有網(wǎng)友表示,“在深度推理和快速反應(yīng)之間切換真是天才之舉?!备鶕?jù)查詢調(diào)整深度,可以避免在簡單任務(wù)上過度耗時,同時在需要時進行全面分析。
與之前的版本相比,V3.1也有更高的思考效率。官方表示,DeepSeek-V3.1-Think在保持與 DeepSeek-R1-0528相當(dāng)?shù)拇鸢纲|(zhì)量的同時,響應(yīng)速度更快。
官方測試結(jié)果顯示,經(jīng)過思維鏈壓縮訓(xùn)練后,V3.1-Think 在輸出 token 數(shù)減少20%-50% 的情況下,各項任務(wù)的平均表現(xiàn)與 R1-0528持平。
在各項評測指標(biāo)得分基本持平的情況下,R1-0528與 V3.1-Think 的 token 消耗量對比圖
同時,V3.1在非思考模式下的輸出長度也得到了有效控制,相比于 DeepSeek-V3-0324 ,能夠在輸出長度明顯減少的情況下保持相同的模型性能。
同步地,DeepSeek進行了價格調(diào)整,模型的API接口調(diào)用價格有所上漲。自9月6日凌晨起,取消夜間時段優(yōu)惠,輸入價格上,緩存命中時為0.5元/百萬tokens,緩存未命中的價格則為4元/百萬tokens(此前V3為2元/百萬tokens);輸出價格為12元/百萬tokens(此前V3為8元/百萬tokens)。
官方提到,V3.1的基礎(chǔ)模型在V3的基礎(chǔ)上重新做了外擴訓(xùn)練,一共增加訓(xùn)練了840B tokens。基礎(chǔ)模型與后訓(xùn)練模型均已在Huggingface與魔搭開源。
值得一提的是,DeepSeek此次還宣布增加了對海外模型Anthropic API格式的支持,官方提到這是“為了滿足大家對 Anthoripic API 生態(tài)的使用需求”,用戶可以將 DeepSeek-V3.1的能力接入Claude Code框架。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.