一輛能對盲區(qū)風(fēng)險識別、讀懂路標(biāo)、與你對話的汽車正駛?cè)氍F(xiàn)實。
2025年8月26日,元戎啟行發(fā)布全新一代輔助駕駛平臺——DeepRoute IO 2.0,該平臺搭載自研的VLA(Vision-Language-Action)模型。
VLA模型融合了視覺感知、自然語言理解和動作決策能力,其將大語言模型的推理能力應(yīng)用于智能駕駛領(lǐng)域,增加了空間語義理解,形成了推理能力,提高了應(yīng)對復(fù)雜路況的能力。
在此次發(fā)布會上,元戎啟行同步展示VLA模型的4大功能:空間語義理解、異形障礙物識別、文字類引導(dǎo)牌理解、記憶語音控車,這些功能將根據(jù)實際部署節(jié)奏逐步釋放。
從元戎啟行此前客戶來看,這意味著長城汽車、Smart等品牌可能也會很快迎來VLA輔助駕駛上車。
01
VLA模型的三重突破
在VLA模型出現(xiàn)之前,行業(yè)主流的基于CNN(卷積神經(jīng)網(wǎng)絡(luò))實現(xiàn)BEV(鳥瞰圖)的端到端系統(tǒng),長期存在三大難以突破的瓶頸:盲區(qū)感知受限、缺乏邏輯推理能力、泛化能力不足。
對此,元戎啟行CEO周光在發(fā)布會上舉了一個例子:BEV(鳥瞰視角)架構(gòu)如同玩坦克大戰(zhàn),墻后的物體看不到就被認(rèn)為不存在,真實的視角更像CS(游戲《反恐精英》),人類司機能夠通過空間關(guān)系預(yù)判風(fēng)險并謹(jǐn)慎通過,這是CNN系統(tǒng)無法做到的。
相比CNN的端到端模型,VLA模型主要有以下幾個突破。
一是,思維鏈推理:算得比人類更準(zhǔn)。
VLA模型的核心優(yōu)勢在于其思維鏈(Chain of Thought, CoT)能力。它能夠進行長時序因果推理,將離散信息串聯(lián)分析,從而做出更擬人化的決策。
傳統(tǒng)端到端模型駕駛經(jīng)驗單一,只能推理幾秒內(nèi)的路況;而VLA支持高級語義理解和長時序推理,擅長應(yīng)對復(fù)雜路況。
二是,海量知識庫:自帶“駕駛百科全書”。
通過互聯(lián)網(wǎng)規(guī)模的數(shù)據(jù)蒸餾與訓(xùn)練,VLA模型積累了豐富的常識知識。
這種知識泛化能力是傳統(tǒng)系統(tǒng)無法企及的。傳統(tǒng)方案需要依賴地圖數(shù)據(jù)更新,至少需要一周時間處理新出現(xiàn)的交通標(biāo)識,而VLA模型可以實時理解。
三是,多模態(tài)融合:視覺+語言+動作的協(xié)同。
VLA模型首次實現(xiàn)了視覺感知、語言理解和動作決策的深度融合。它不僅能“看見”道路,還能“讀懂”路標(biāo),“理解”指令,并做出合理決策。
這種融合讓系統(tǒng)能夠處理更加復(fù)雜的場景:識別盲區(qū)風(fēng)險、理解文字引導(dǎo)牌、支持自然語音交互,能夠更好地適應(yīng)復(fù)雜多變的真實道路環(huán)境。
02
四大功能重新定義智能駕駛
發(fā)布會上,周光詳細介紹了VLA模型的四大核心功能,這些功能并非單純的技術(shù)展示,而是針對真實駕駛中的痛點場景設(shè)計,將根據(jù)量產(chǎn)節(jié)奏逐步應(yīng)用。
空間語義理解:駕駛“透視眼”
空間語義理解是VLA模型的最大亮點。在公交車遮擋、復(fù)雜路口、橋洞等視野受限的場景中,VLA能夠感知潛在風(fēng)險,主動對盲區(qū)進行“預(yù)防性預(yù)判”。系統(tǒng)可在風(fēng)險出現(xiàn)前提前減速、穩(wěn)妥通行,具備高度擬人化的防御性駕駛策略。
異形障礙物識別:駕駛“百事通”
系統(tǒng)能夠識別并靈活應(yīng)對各種非結(jié)構(gòu)化障礙物,不再僅提示“障礙物”,而是具體識別出物體類型,并采取相應(yīng)的避讓策略。
文字類引導(dǎo)牌理解:駕駛“翻譯官”
VLA模型能夠準(zhǔn)確解析潮汐車道、公交專用道等道路文字信息,減少誤判與違章,讓復(fù)雜路況通行如“開卷考試”般從容。
記憶語音控車:個性化交互體驗
系統(tǒng)支持自然語言指令交互,并能夠?qū)W習(xí)用戶偏好,實現(xiàn)個性化駕駛體驗。用戶可通過語音指令控制車輛,系統(tǒng)會優(yōu)先考慮安全,其次才是用戶指令與原定規(guī)劃。
03
商業(yè)化落地前景樂觀
技術(shù)突破的背后,是元戎啟行在商業(yè)化領(lǐng)域的堅實積累。截至2025年8月,元戎啟行已實現(xiàn)近10萬輛搭載城市領(lǐng)航輔助系統(tǒng)的車型交付,涵蓋SUV、MPV、越野車等多種品類,合作車型超過10款,進入行業(yè)“10萬級別交付”第一梯隊。
這些量產(chǎn)成果,為VLA模型的應(yīng)用奠定了基礎(chǔ),畢竟大模型也需要真實路況數(shù)據(jù)持續(xù)優(yōu)化,而10萬輛車的行駛數(shù)據(jù),正是VLA改進的重要支撐。
DeepRoute IO 2.0平臺作為VLA模型的載體,以“多模態(tài)+多芯片+多車型”為核心設(shè)計理念,可面向多種主流乘用車平臺開展定制化部署。
傳感器適配方面,該平臺可同時支持激光雷達和純視覺方案,用戶可根據(jù)車型定位進行選擇,高端車型用激光雷達提升精度,中端車型靠純視覺控制成本。
車型覆蓋方面,周光認(rèn)為,VLA模型完全可適配15萬元以上車型,10萬元級車型通過算力優(yōu)化也有望搭載。
周光透露,2025年元戎已達成5個車型的VLA模型的定點合作。
不過,VLA模型仍處于發(fā)展階段。周光表示,VLA目前還未完全實現(xiàn)思維鏈(COT),這是關(guān)鍵差距。長遠來看,語言和推理能力是實現(xiàn)完全無人化自動駕駛的核心。比如遇到“左轉(zhuǎn)不受燈控”這種臨時標(biāo)識,依賴地圖更新是不夠的,第一次遇到就需實時理解。VLA在這條路上任重道遠,需要更多技術(shù)沉淀。“特斯拉之所以投入十倍算力和參數(shù),正是因為GPT架構(gòu)是明確方向,CNN無法支撐這種擴展?!?/strong>
除此之外,元戎啟行還有更為宏大的目標(biāo)。根據(jù)其RoadAGI戰(zhàn)略,VLA模型不僅將應(yīng)用于乘用車,還將拓展至Robotaxi業(yè)務(wù),從道路場景拓展到小區(qū)、電梯、辦公室等室內(nèi)外環(huán)境,讓機器人擺脫遙控或巡線依賴,實現(xiàn)真正的自主移動。
“我們將持續(xù)推動RoadAGI業(yè)務(wù),實現(xiàn)“AGI for Robot”,最終打開物理世界的通用人工智能的大門。”周光最后說道。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.