數(shù)據(jù)是個(gè)寶
數(shù)據(jù)寶
投資少煩惱
剛剛,DeepSeek放大招!
今日,DeepSeek宣布,官方App、網(wǎng)頁端、小程序均已同步更新為DeepSeek-V3.2-Exp。DeepSeek介紹,得益于新模型服務(wù)成本的大幅降低,官方API價(jià)格也相應(yīng)下調(diào),新價(jià)格即刻生效。在新的價(jià)格政策下,開發(fā)者調(diào)用DeepSeek API的成本將降低50%以上。
在DeepSeek-V3.2發(fā)布前夕,有消息稱,智譜新模型GLM-4.6也將于近日發(fā)布,目前已可通過API接口調(diào)用。在Z.ai官網(wǎng)可以看到,GLM-4.5已被標(biāo)識(shí)為上一代旗艦?zāi)P汀?/p>
DeepSeek-V3.2-Exp發(fā)布
9月29日,DeepSeek-V3.2-Exp模型正式在Hugging Face平臺(tái)發(fā)布并開源。
該版本作為邁向下一代架構(gòu)的重要中間步驟,在 V3.1-Terminus 的基礎(chǔ)上引入了團(tuán)隊(duì)自研的 DeepSeek Sparse Attention (DSA) 稀疏注意力機(jī)制,旨在對(duì)長(zhǎng)文本的訓(xùn)練和推理效率進(jìn)行探索性優(yōu)化與驗(yàn)證。這種架構(gòu)能夠降低計(jì)算資源消耗并提升模型推理效率。
目前,華為云已完成對(duì)DeepSeek-V3.2-Exp模型的適配工作,最大可支持160K長(zhǎng)序列上下文長(zhǎng)度。
寒武紀(jì)也在官方公眾號(hào)同步稱,公司已同步實(shí)現(xiàn)對(duì)深度求索公司最新模型DeepSeek-V3.2-Exp的適配,并開源大模型推理引擎vLLM-MLU源代碼。開發(fā)者可以在寒武紀(jì)軟硬件平臺(tái)上第一時(shí)間體驗(yàn)DeepSeek-V3.2-Exp的亮點(diǎn)。
DeepSeek宣布官方App、網(wǎng)頁端、小程序均已同步更新為DeepSeek-V3.2-Exp。
DeepSeek Sparse Attention(DSA)首次實(shí)現(xiàn)了細(xì)粒度稀疏注意力機(jī)制。DeepSeek方面表示,這項(xiàng)技術(shù)在幾乎不影響模型輸出效果的前提下,大幅提升了長(zhǎng)文本場(chǎng)景下的訓(xùn)練和推理效率。
為了確保評(píng)估的嚴(yán)謹(jǐn)性,DeepSeek-V3.2-Exp 的訓(xùn)練設(shè)置與前代 V3.1-Terminus 進(jìn)行了嚴(yán)格對(duì)齊。測(cè)試結(jié)果顯示,該模型在各大公開評(píng)測(cè)集上的表現(xiàn)與 V3.1-Terminus 基本持平,有效性得到了初步驗(yàn)證。
DeepSeek宣布,得益于新模型服務(wù)成本的大幅降低,官方API價(jià)格也相應(yīng)下調(diào),新價(jià)格即刻生效。
在新的價(jià)格政策下,輸入方面,緩存命中時(shí)價(jià)格為0.2元/百萬tokens,緩存未命中時(shí)價(jià)格為2元/百萬tokens,輸出方面則為3元/百萬tokens,開發(fā)者調(diào)用DeepSeek API的成本將降低50%以上。
DeepSeek現(xiàn)已將DeepSeek-V3.2-Exp模型在 Huggingface 和 ModelScope 平臺(tái)上全面開源,相關(guān)論文也已同步公開。
作為一款實(shí)驗(yàn)性版本,DeepSeek認(rèn)識(shí)到模型仍需在更廣泛的用戶真實(shí)場(chǎng)景中進(jìn)行大規(guī)模測(cè)試。為便于開發(fā)者進(jìn)行效果對(duì)比,DeepSeek為V3.1-Terminus 版本臨時(shí)保留了 API 訪問接口,且調(diào)用價(jià)格與 V3.2-Exp 保持一致。該對(duì)比接口將保留至北京時(shí)間2025年10月15日23:59。
此外,為支持社區(qū)研究,DeepSeek還開源了新模型研究中設(shè)計(jì)和實(shí)現(xiàn)的GPU算子,包括 TileLang和CUDA 兩種版本。團(tuán)隊(duì)建議社區(qū)在進(jìn)行研究性實(shí)驗(yàn)時(shí),優(yōu)先使用基于TileLang的版本,以便于調(diào)試和快速迭代。
值得一提的是,DeepSeek似乎有在節(jié)前發(fā)布新版本或更新的慣例。
回顧此前,2024年12月27日,也就是元旦前DeepSeek發(fā)布了 DeepSeek V3。
2025年5月28日,其在端午節(jié)前發(fā)布了 DeepSeek-R1-0528,官方稱其為端午節(jié)特別獻(xiàn)禮。
DeepSeek最新一次更新則是在一周前的9月22日,DeepSeek在其官方API平臺(tái)發(fā)布了DeepSeek-V3.1-Terminus模型,并宣布模型開源,同時(shí)公布了開源版本下載地址。
智譜GLM-4.6即將發(fā)布
在DeepSeek-V3.2發(fā)布前夕,有消息稱,智譜GLM-4.6也即將發(fā)布,官方也在微信群提示,GLM-4.6即將帶來更大的上下文。
目前在智譜Z.ai官網(wǎng)上,其主力模型GLM-4.5已被標(biāo)識(shí)為“上一代旗艦?zāi)P汀薄?/p>
據(jù)悉,GLM-4.5V基于智譜新一代旗艦文本基座模型GLM-4.5-Air,延續(xù)GLM-4.1V-Thinking 技術(shù)路線,在41個(gè)公開視覺多模態(tài)榜單中綜合效果達(dá)到同級(jí)別開源模型SOTA性能,涵蓋圖像、視頻、文檔理解以及GUI Agent等常見任務(wù)。
據(jù)介紹,多模態(tài)推理被視為通向通用人工智能(AGI)的關(guān)鍵能力之一,讓AI能夠像人類一樣綜合感知、理解與決策。其中,視覺-語言模型(Vision-Language Model, VLM)是實(shí)現(xiàn)多模態(tài)推理的核心基礎(chǔ)。
智譜此前表示,GLM-4.5 在前端開發(fā)、跨文件修改、全棧項(xiàng)目構(gòu)建等典型場(chǎng)景中展現(xiàn)出穩(wěn)定、實(shí)用的表現(xiàn)。根據(jù)反饋,其解決實(shí)際問題的能力已接近 Claude Sonnet 4。在多個(gè)開源評(píng)測(cè)中,GLM-4.5 也與國(guó)際主流模型保持同等競(jìng)爭(zhēng)力:
WebDev Arena:與全球領(lǐng)先模型并列第二;
SWE-bench Verified:性能優(yōu)于 Gemini-2.5-Pro 和 GPT-4.1;
BFCL v4 基準(zhǔn):全球第一,超過 Claude Opus 4.1,成本僅為其 1.5%。
來源:券商中國(guó)
聲明:數(shù)據(jù)寶所有資訊內(nèi)容不構(gòu)成投資建議,股市有風(fēng)險(xiǎn),投資需謹(jǐn)慎。
責(zé)編:何予
校對(duì):高源
數(shù)據(jù)寶
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.