該說(shuō)不說(shuō),都 2025 年了,我問(wèn) AI 一個(gè)問(wèn)題,體驗(yàn)卻常常兩極分化。
簡(jiǎn)單的事,它秒回,但答得跟沒(méi)答一樣。
復(fù)雜的事,讓它深度思考,它又要琢磨 30 秒以上。
而每一次回答,AI 都在不斷「燃燒」token。
對(duì)企業(yè)來(lái)說(shuō),token 消耗量直接等于成本。當(dāng)模型開(kāi)啟深度思考時(shí),效果確實(shí)能提升一大截,可延遲高了,token 燒得更猛了,成本也就跟著水漲船高。
這是整個(gè)行業(yè)的痛點(diǎn)。
尤其是 AI 應(yīng)用越來(lái)越多,token 消耗也在暴漲。以豆包大模型為例,到 9 月底的日均 token 調(diào)用量已經(jīng)突破 30 萬(wàn)億+,比 5 月底暴漲超 80%。而這,還只是市場(chǎng)的一部分。
當(dāng) AI 需求以這樣的速度增長(zhǎng)時(shí),要么忍著用效果差的輕量模型省錢,要么咬牙燒錢用頂級(jí)模型保效果。問(wèn)題也就在擺在眼前——要效果,還是要成本?
10 月 16 日,火山引擎在武漢的 FORCE LINK AI 創(chuàng)新巡展上,用四款新品告訴你:小孩子才做選擇。
豆包大模型 1.6 原生支持 4 檔思考長(zhǎng)度調(diào)節(jié),豆包 1.6 lite 腰斬成本還能提升效果,還有豆包語(yǔ)音合成模型 2.0 和聲音復(fù)刻模型 2.0。
根據(jù) IDC 報(bào)告,2025 年上半年中國(guó)公有云大模型服務(wù)市場(chǎng)里,火山引擎拿下 49.2% 的份額,穩(wěn)坐第一。
什么概念?
每?jī)蓚€(gè)用云端大模型的企業(yè),就有一個(gè)在用火山引擎。
今天發(fā)布會(huì)上提到,深度思考模式雖然能讓效果提升 31%,但因?yàn)檠舆t、成本和 token 消耗的暴漲,實(shí)際使用占比只有 18%。說(shuō)白了,企業(yè)想用,但真燒不起。
針對(duì)這個(gè)痛點(diǎn),今天全新升級(jí)的豆包大模型 1.6 提供了 Minimal、Low、Medium、High 四檔思考長(zhǎng)度。
這是國(guó)內(nèi)首個(gè)原生支持「分檔調(diào)節(jié)思考長(zhǎng)度」的模型。
怎么理解?
就是給 AI 裝了個(gè)「變速器」:簡(jiǎn)單查詢用 Minimal 檔省 token,復(fù)雜推理切 High 檔保效果。
企業(yè)可以根據(jù)場(chǎng)景靈活平衡效果、時(shí)延和成本,思考效率還進(jìn)一步提升了。
拿低思考檔舉例。
相比升級(jí)前的單一思考模式,總輸出 tokens 直接砍掉 77.5%、思考時(shí)間暴降 84.6%。
效果呢?保持不變。
當(dāng)每個(gè) token 的成本可以被精確控制時(shí),買得越多,省得越多;優(yōu)化得越細(xì),賺得越多。
火山引擎還推出了豆包大模型 1.6 lite,相比旗艦款更輕量、推理速度更快。
效果層面,這個(gè)模型超越豆包 1.5 pro,在企業(yè)級(jí)場(chǎng)景測(cè)評(píng)中提升 14%。
成本層面,在 0-32k 輸入?yún)^(qū)間里,綜合使用成本較豆包 1.5 pro 狂降 53.3%。
效果更好,成本腰斬。
這種「單位 token 價(jià)值密度」的提升,本質(zhì)上就是讓每一分錢都花在刀刃上。
大會(huì)上,火山引擎還發(fā)布了豆包語(yǔ)音合成模型 2.0 和聲音復(fù)刻模型 2.0。
語(yǔ)音正在成為 AI 應(yīng)用的核心交互方式。
但比起什么情感表現(xiàn)力更強(qiáng)、指令遵循更精準(zhǔn),更值得關(guān)注的是——它們終于能準(zhǔn)確朗讀復(fù)雜公式了。
這事聽(tīng)著不起眼,但在教育場(chǎng)景里,復(fù)雜公式和符號(hào)的朗讀一直是業(yè)界老大難。
目前市面上同類模型朗讀準(zhǔn)確率普遍低于 50%。
新發(fā)布的兩大語(yǔ)音模型針對(duì)性優(yōu)化后,在小學(xué)到高中全學(xué)科的復(fù)雜公式朗讀中,準(zhǔn)確率直接飆到 90%。
這背后是基于豆包大語(yǔ)言模型研發(fā)的全新語(yǔ)音合成架構(gòu),讓合成和復(fù)刻的聲音都具備深度語(yǔ)義理解能力,還拓展出上下文推理功能。
AI 不再無(wú)腦把文字轉(zhuǎn)成聲音,而是先「理解」內(nèi)容,再進(jìn)行「精準(zhǔn)情感表達(dá)」。
用戶可以通過(guò)自然語(yǔ)言精準(zhǔn)調(diào)整語(yǔ)速、情緒、聲線、音調(diào)、風(fēng)格變化,語(yǔ)音可控性直接拉滿。
想要溫柔一點(diǎn)?「來(lái)點(diǎn)溫柔的感覺(jué)」。
想要激昂一些?「讀得激動(dòng)點(diǎn)」。
在發(fā)布會(huì)現(xiàn)場(chǎng),火山引擎展示了一個(gè)挺有意思的 demo:
以武漢保護(hù)青頭潛鴨為主題創(chuàng)作兒童繪本,豆包圖像創(chuàng)作模型 Seedream4.0 生成插圖,豆包語(yǔ)音合成模型 2.0 進(jìn)行情感演繹。
過(guò)程中還能通過(guò)指令實(shí)時(shí)控制朗讀效果。
自去年 5 月首發(fā)以來(lái),豆包語(yǔ)音模型家族已覆蓋語(yǔ)音合成、語(yǔ)音識(shí)別、聲音復(fù)刻、實(shí)時(shí)語(yǔ)音、同聲傳譯、音樂(lè)創(chuàng)作、播客創(chuàng)作等 7 大領(lǐng)域,接入超過(guò) 4.6 億臺(tái)智能終端。
在今天的發(fā)布會(huì)現(xiàn)場(chǎng),譚待指出了全球 AI 大模型的三大發(fā)展趨勢(shì):
深度思考模型正與多模態(tài)理解能力深度融合,視頻、圖像、語(yǔ)音模型逐步達(dá)到生產(chǎn)級(jí)應(yīng)用水平,企業(yè)級(jí)復(fù)雜 Agent 正在走向成熟。
等等,我們停一下。
當(dāng)模型越來(lái)越多,面對(duì)具體需求時(shí)如何選擇最有性價(jià)比的模型?
這可能是很多企業(yè)的靈魂拷問(wèn)。
火山引擎發(fā)布了智能模型路由(Smart Model Router),這是國(guó)內(nèi)首個(gè)針對(duì)模型智能選擇的解決方案。
即日起,用戶可以在火山方舟上選擇「智能模型路由」功能。
該功能支持「平衡模式」、「效果優(yōu)先模式」和「成本優(yōu)先模式」三種方案,能針對(duì)任務(wù)請(qǐng)求自動(dòng)選擇最合適的模型。
為什么需要這個(gè)?
因?yàn)椴煌蝿?wù)對(duì) token 的「價(jià)值密度」需求完全不同。
客服系統(tǒng)回答「怎么退貨」,用輕量級(jí)模型就夠了。
但醫(yī)療診斷分析病例,必須調(diào)用最強(qiáng)模型。
雖然 token 消耗相同,但價(jià)值密度天差地別。
智能模型路由的本質(zhì),就是讓 AI 自己判斷「這個(gè)任務(wù)值得燒多少 token」。
目前,火山引擎智能模型路由已支持豆包大模型、DeepSeek、Qwen、Kimi 等多種主流模型。
拿 DeepSeek 舉例,實(shí)測(cè)數(shù)據(jù):
在效果優(yōu)先模式下,智能路由后模型效果相比直接用 DeepSeek-V3.1 提升 14%。
在成本優(yōu)先模式下,在實(shí)現(xiàn) DeepSeek-V3.1 相似效果的條件下,模型綜合成本最高下降超 70%。
當(dāng)模型選擇本身也被 AI 接管時(shí),整個(gè)行業(yè)就形成了一個(gè)正反饋循環(huán):
更強(qiáng)的模型能力解鎖新的應(yīng)用場(chǎng)景 → 新應(yīng)用的爆發(fā)推高 token 消耗量 → 消耗量的增長(zhǎng)倒逼智能路由不斷優(yōu)化 → 路由優(yōu)化進(jìn)一步降低單位成本 → 成本下降釋放更多需求彈性 → 需求的釋放又推高整體消耗。
這讓人想起 1882 年,當(dāng)愛(ài)迪生建成世界第一座商用發(fā)電廠時(shí),沒(méi)人能預(yù)見(jiàn)「千瓦時(shí)」這個(gè)單位會(huì)催生整個(gè)現(xiàn)代工業(yè)體系。
現(xiàn)如今,token 正在成為 AI 時(shí)代的「千瓦時(shí)」。
前不久 OpenAI 公布的「萬(wàn)億 token 俱樂(lè)部」名單、Google 每月燃燒的 130 萬(wàn)億 token,都印證著這股生產(chǎn)力的蓬勃涌動(dòng)。
當(dāng)然,好模型只是起點(diǎn),好體驗(yàn)才是最終目標(biāo)。
當(dāng)你問(wèn) AI 一個(gè)問(wèn)題時(shí),不應(yīng)該再糾結(jié)是要快還是要好。分檔思考讓簡(jiǎn)單問(wèn)題秒回且準(zhǔn)確,復(fù)雜問(wèn)題深度推理且高效。
智能路由讓你不用操心該選哪個(gè)模型,AI 會(huì)自己找最合適的。
用自然語(yǔ)言就能精準(zhǔn)控制語(yǔ)音模型,而不是被一堆參數(shù)搞暈。這些技術(shù)的每一次迭代,最終目的只有一個(gè):讓用戶用得起、更要用得好。
或許這才是 AI 該有的樣子。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.