夜夜躁很很躁日日躁麻豆,精品人妻无码,制服丝袜国产精品,成人免费看www网址入口

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

LLaVA-OneVision-1.5開源,8B模型預(yù)訓(xùn)練只需4天、1.6萬美元

0
分享至



LLaVA 于 2023 年提出,通過低成本對(duì)齊高效連接開源視覺編碼器與大語言模型,使「看圖 — 理解 — 對(duì)話」的多模態(tài)能力在開放生態(tài)中得以普及,明顯縮小了與頂級(jí)閉源模型的差距,標(biāo)志著開源多模態(tài)范式的重要里程碑。



LLaVA 用低成本對(duì)齊打通「視覺編碼器 + 大語言模型」起步,LLaVA?1.5 以更大更干凈的數(shù)據(jù)與高分辨率輸入強(qiáng)化理解,LLaVA?NeXT 拓展 OCR / 數(shù)理與多場(chǎng)景任務(wù);隨后分支為 LLaVA?NeXT?Video 處理時(shí)序視頻、多幀推理,及 LLaVA-NeXT-Interleave 支持交替多圖文與跨圖聯(lián)推;最終在 LLaVA?OneVision 匯聚為統(tǒng)一接口,覆蓋圖像 / 文檔 / 圖表 / 多圖 / 視頻,兼顧效果與效率。

盡管多模態(tài)對(duì)齊的接口與架構(gòu)趨于收斂,真正「可復(fù)現(xiàn)」的開源路徑仍與「僅開放權(quán)重」存在間距。Qwen2.5?VL、InternVL3.5 在 OCR、文檔理解、數(shù)理與跨圖推理上樹立高基線,但完整的數(shù)據(jù)清單、清洗與混合比例,以及對(duì)齊 / 采樣與訓(xùn)練日程多為部分披露,難以端到端重現(xiàn)。Molmo 以更干凈的數(shù)據(jù)流水線與精細(xì)化設(shè)計(jì),在多項(xiàng)評(píng)測(cè)與偏好中逼近閉源強(qiáng)基線;Open?Qwen2VL 則表明在更高效范式下,即便原始多模態(tài) token 占比較低亦能取得強(qiáng)對(duì)比性能。當(dāng)前主要鴻溝在于 「配方與工程細(xì)節(jié)的可復(fù)現(xiàn)性」,而非單一的模型架構(gòu)選擇。



靈感實(shí)驗(yàn)室團(tuán)隊(duì)聯(lián)合 LMMs-Lab 圍繞「高性能 — 低成本 — 強(qiáng)復(fù)現(xiàn)」三大目標(biāo),在 LLaVA-OneVision 體系上推出完整開放的概念均衡 85M 預(yù)訓(xùn)練數(shù)據(jù)集(LLaVA-OV-1.5-Mid-Training-85M)與精篩 22M 指令數(shù)據(jù)集(LLaVA-OV-1.5-Instruct-22M),并沿用緊湊的三階段流程(語言–圖像對(duì)齊 Stage?1、概念均衡與高質(zhì)量知識(shí)注入 Stage?1.5、指令微調(diào) Stage?2),結(jié)合離線并行數(shù)據(jù)打包(最高約 11× padding 壓縮)與 Megatron?LM + 分布式優(yōu)化器,將 8B 規(guī)模 VL 模型的 Stage?1.5 預(yù)訓(xùn)練在 128 張 A800 上控制在約 4 天內(nèi)完成,預(yù)算控制在 1.6 萬美元。

在此基礎(chǔ)上,我們提出LLaVA?OneVision?1.5,繼承并擴(kuò)展 LLaVA 系列:引入 RICE?ViT 支持原生分辨率與區(qū)域級(jí)細(xì)粒度語義建模、強(qiáng)化圖表 / 文檔 / 結(jié)構(gòu)化場(chǎng)景理解,延續(xù)緊湊三階段范式以避免冗長 curriculum,構(gòu)建并強(qiáng)調(diào)「質(zhì)量 — 覆蓋 — 均衡」的 85M 預(yù)訓(xùn)練與 22M 指令集合,并真正意義上實(shí)現(xiàn)全鏈條透明開放(數(shù)據(jù)、訓(xùn)練與打包工具鏈、配置腳本、日志與可復(fù)現(xiàn)評(píng)測(cè)命令及其構(gòu)建與執(zhí)行細(xì)節(jié)),以確保社區(qū)低成本復(fù)現(xiàn)與可驗(yàn)證拓展。

實(shí)驗(yàn)結(jié)果顯示,LLaVA?OneVision 在多項(xiàng)公開多模態(tài)基準(zhǔn)上較 Qwen2.5?VL 展現(xiàn)出競爭性乃至更優(yōu)性能(詳見技術(shù)報(bào)告)。



  • 論文標(biāo)題:LLaVA-OneVision-1.5: Fully Open Framework for Democratized Multimodal Training
  • 代碼地址:
  • https://github.com/EvolvingLMMs-Lab/LLaVA-OneVision-1.5
  • 技術(shù)報(bào)告地址:
  • https://arxiv.org/abs/2509.23661
  • 數(shù)據(jù) / 模型地址:
  • https://huggingface.co/collections/lmms-lab/llava-onevision-15-68d385fe73b50bd22de23713
  • Demo:
  • https://huggingface.co/spaces/lmms-lab/LLaVA-OneVision-1.5

數(shù)據(jù)構(gòu)建要點(diǎn)



用于通用視覺語言的預(yù)訓(xùn)練集(85M)與指令微調(diào)數(shù)據(jù)集(22M)。其中 85M 預(yù)訓(xùn)練數(shù)據(jù)融合 COYO-700M、Obelics、DataComp-1B、LAION-CN、ImageNet-21K、SAM-1B、MINT、Zero250M 等 8 大異構(gòu)來源,形成約 2,000 萬中文與 6,500 萬英文圖文對(duì)。

為破解長尾概念稀疏與原始 caption 噪聲 / 缺失問題,我們不再依賴原始文本詞頻,而是采用特征驅(qū)動(dòng)的「概念均衡」策略:利用 MetaCLIP 編碼器將全部圖像與 50 萬規(guī)模概念詞嵌入共享向量空間,對(duì)每張圖像檢索 Top-K 最相似概念,統(tǒng)計(jì)概念頻次后按逆頻加權(quán)重采樣,抑制高頻背景類并提升罕見細(xì)粒度實(shí)體、屬性與場(chǎng)景占比,顯著平坦化長尾分布;隨后使用高質(zhì)量 Captioner 生成對(duì)齊的中英文增強(qiáng)描述。系統(tǒng)實(shí)驗(yàn)表明,在相同或更低 token 預(yù)算下,擴(kuò)大高質(zhì)量數(shù)據(jù)規(guī)模并結(jié)合概念均衡采樣,可在多模態(tài)理解、長尾識(shí)別與指令泛化等核心指標(biāo)上獲得顯著且可復(fù)現(xiàn)的性能提升。



指令數(shù)據(jù) 22M 覆蓋八大類別:Caption、Chart & Table、Code & Math、Domain-specific、General VQA、Grounding & Counting、OCR、Science。通過多源聚合、格式統(tǒng)一、指令重寫、雙語互轉(zhuǎn)、模板去同質(zhì)化與安全篩除,保持類別與難度分布均衡。并且我們的指令數(shù)據(jù)疊加 FineVision 數(shù)據(jù)集之后,結(jié)果會(huì)繼續(xù)增加。



訓(xùn)練策略

1. 視覺編碼器預(yù)訓(xùn)練

為了讓模型在 OCR、表格 / 文檔、區(qū)域理解與后續(xù)指令推理上具有更高的下限,我們?cè)?LLaVA-OneVision-1.5 中采用自研的 MVT v1.5(RICE-ViT) 作為視覺主干。

相較僅做全局對(duì)齊的 CLIP / SigLIP 類對(duì)比模型,RICE-ViT 針對(duì)「實(shí)例只用單一全局向量」這一結(jié)構(gòu)性瓶頸,引入統(tǒng)一的 Region Cluster Discrimination 機(jī)制:在 4.5 億圖像與 24 億候選區(qū)域上訓(xùn)練,利用區(qū)域聚類判別 + 區(qū)域感知注意力顯式建模局部實(shí)體 / 文本塊與上下文關(guān)系,并結(jié)合 2D 旋轉(zhuǎn)位置編碼(2D RoPE)實(shí)現(xiàn)多分辨率原生支持。

與 SigLIP2 依賴多套專用損失(SILC、TIPS、LocCa 等)不同,我們用單一聚類判別范式同時(shí)強(qiáng)化通用語義、OCR 識(shí)別與定位能力,訓(xùn)練與推理鏈路更簡潔、可維護(hù)性更高。在多模態(tài)融合階段,通過輕量投影與后續(xù)全參數(shù)聯(lián)合訓(xùn)練,將這一細(xì)粒度語義底座無縫接入語言模型,減少冗余適配模塊并提升跨任務(wù)遷移效率。



2. 三階段學(xué)習(xí)流程

  • Stage-1:語言–圖像對(duì)齊

使用 LLaVA-1.5 558K 數(shù)據(jù)集訓(xùn)練視覺投影層,將視覺編碼輸出映射到語言模型詞嵌入空間。此階段控制參數(shù)更新范圍以快速穩(wěn)定收斂。

  • Stage-1.5:高質(zhì)量知識(shí)中期預(yù)訓(xùn)練

在概念均衡的 85M 預(yù)訓(xùn)練數(shù)據(jù)上進(jìn)行全參數(shù)訓(xùn)練,注入廣域視覺語義與世界知識(shí),強(qiáng)調(diào)數(shù)據(jù)質(zhì)量與覆蓋而非盲目擴(kuò)張 token 規(guī)模。

  • Stage-2:視覺指令對(duì)齊

基于 22M 指令數(shù)據(jù)與 FineVision 等多源視覺指令語料繼續(xù)全參數(shù)訓(xùn)練,提升任務(wù)泛化、推理組織與響應(yīng)格式控制能力。

3. 離線并行數(shù)據(jù)打包

為降低多模態(tài)樣本長度差異帶來的 padding 浪費(fèi)、提升有效 token 利用率,我們采用離線并行數(shù)據(jù)打包:先按樣本長度或長度區(qū)間進(jìn)行哈希桶聚類,減少全局排序與掃描成本;再在數(shù)據(jù)準(zhǔn)備階段以多線程將多條短樣本拼接為接近目標(biāo)長度的定長序列。該流程一次性處理全量語料,具備確定性與可復(fù)現(xiàn)性,避免在線動(dòng)態(tài)打包引入的運(yùn)行時(shí)不穩(wěn)定與額外 CPU 開銷。

在 85M 規(guī)模的預(yù)訓(xùn)練樣本上,相比原始方案可實(shí)現(xiàn)最高約 11× 的 padding 有效壓縮(定義:原始方案總 padding token / 打包后總 padding token)。

4. 混合并行與長上下文高效訓(xùn)練,訓(xùn)練端采用混合并行與長上下文優(yōu)化

張量并行(TP)+ 流水并行(PP)+ 序列 / 上下文并行(Sequence/Context Parallel)與分布式優(yōu)化器協(xié)同,以在大規(guī)模集群中同時(shí)提升算力利用與顯存效率;同時(shí)采用原生分辨率策略,保留圖表、文檔與密集文本區(qū)域的結(jié)構(gòu)細(xì)節(jié),避免統(tǒng)一縮放帶來的信息損失。

在 128×A800 集群上,8B 規(guī)模模型的 Stage?1.5(85M 樣本、原生分辨率)約 3.7 天完成,兼顧吞吐與成本。

結(jié)論

LLaVA-OneVision-1.5 證明:依托概念均衡的 85M 預(yù)訓(xùn)練數(shù)據(jù)與高質(zhì)量指令數(shù)據(jù),結(jié)合 RICE?ViT 細(xì)粒度視覺底座和緊湊的三階段策略(對(duì)齊–高質(zhì)量知識(shí)注入–指令泛化),再配合離線并行打包(最高約 11× padding 減少)與混合并行 / 原生分辨率等工程優(yōu)化,8B 規(guī)模即可在更低 token 與算力成本下,對(duì)標(biāo)乃至部分超越主流開源與部分閉源多模態(tài)模型,體現(xiàn)「高質(zhì)量結(jié)構(gòu)化數(shù)據(jù) + 系統(tǒng)效率協(xié)同」相較單純堆量的優(yōu)勢(shì)。

這是一次非常簡單的復(fù)現(xiàn)工作:我們完整開放數(shù)據(jù)、工具鏈、腳本、配置、日志與評(píng)測(cè)配方,復(fù)現(xiàn)路徑清晰、依賴明確,無需復(fù)雜調(diào)參即可跑通。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
烏克蘭再次重?fù)艨死锩讈喿畲笥蛶?!摧毀俄軍發(fā)電廠

烏克蘭再次重?fù)艨死锩讈喿畲笥蛶?!摧毀俄軍發(fā)電廠

項(xiàng)鵬飛
2025-10-13 17:09:37
朝鮮閱兵式,中俄被安排第二排,但看到坐第一排的人時(shí)任何人都服

朝鮮閱兵式,中俄被安排第二排,但看到坐第一排的人時(shí)任何人都服

史閣
2025-10-13 11:42:54
中科院立大功!固態(tài)電池續(xù)航1000km起,車企搶破頭:誰先量產(chǎn)?

中科院立大功!固態(tài)電池續(xù)航1000km起,車企搶破頭:誰先量產(chǎn)?

胖福的小木屋
2025-10-13 17:55:31
沖上熱搜!小沈陽女兒說爸爸媽媽抱團(tuán)很嚴(yán)重,網(wǎng)友曬圖:這樣“抱團(tuán)”嗎?

沖上熱搜!小沈陽女兒說爸爸媽媽抱團(tuán)很嚴(yán)重,網(wǎng)友曬圖:這樣“抱團(tuán)”嗎?

極目新聞
2025-10-13 14:12:27
我活到68歲才明白:退休后,真不能給別人知道太多自己的生活狀態(tài)

我活到68歲才明白:退休后,真不能給別人知道太多自己的生活狀態(tài)

朗威談星座
2025-10-14 03:48:50
清華大學(xué)“一人食”現(xiàn)象:為什么強(qiáng)者,都是孤獨(dú)的

清華大學(xué)“一人食”現(xiàn)象:為什么強(qiáng)者,都是孤獨(dú)的

洞見
2025-10-12 22:00:07
姆巴佩:上次世界杯阿根廷理應(yīng)奪冠,這次世界杯我們不想再輸

姆巴佩:上次世界杯阿根廷理應(yīng)奪冠,這次世界杯我們不想再輸

雷速體育
2025-10-13 16:51:06
胸比頭大,真的被她的身材驚艷到了,感覺一個(gè)胸都比她的臉還大了

胸比頭大,真的被她的身材驚艷到了,感覺一個(gè)胸都比她的臉還大了

草莓解說體育
2025-10-12 12:03:15
男子因鉀過低不幸離世!醫(yī)生提醒:平時(shí)寧愿少吃點(diǎn)肉,要多吃這幾種食物

男子因鉀過低不幸離世!醫(yī)生提醒:平時(shí)寧愿少吃點(diǎn)肉,要多吃這幾種食物

華醫(yī)網(wǎng)
2025-10-13 05:42:02
微信員工回應(yīng)好友互刪后互動(dòng)清除:一直都是這樣

微信員工回應(yīng)好友互刪后互動(dòng)清除:一直都是這樣

界面新聞
2025-10-13 15:43:26
為巴西鋒線量身定制!安帥的戰(zhàn)術(shù)革命,欲創(chuàng)造史無前例的成就!

為巴西鋒線量身定制!安帥的戰(zhàn)術(shù)革命,欲創(chuàng)造史無前例的成就!

體壇關(guān)鍵幀
2025-10-13 23:12:29
閨蜜用我人脈談成300萬訂單,給我500答謝費(fèi),我笑著打了個(gè)電話

閨蜜用我人脈談成300萬訂單,給我500答謝費(fèi),我笑著打了個(gè)電話

清茶淺談
2025-10-10 19:15:26
真正的電摩終結(jié)者,不是本田 Today 50,而是6980塊的雅馬哈巧格i!

真正的電摩終結(jié)者,不是本田 Today 50,而是6980塊的雅馬哈巧格i!

沙雕小琳琳
2025-10-13 07:12:31
孫藝珍剪短發(fā)換新發(fā)型,帶兒子外出游玩,玄彬?yàn)樗恼蘸锰鹈?>
    </a>
        <h3>
      <a href=笑貓說說
2025-10-14 02:32:30
女子提前半年規(guī)劃歐洲蜜月游,抵歐后導(dǎo)游卻失聯(lián),回應(yīng):證件被偷后遭海關(guān)扣留,會(huì)退款

女子提前半年規(guī)劃歐洲蜜月游,抵歐后導(dǎo)游卻失聯(lián),回應(yīng):證件被偷后遭海關(guān)扣留,會(huì)退款

瀟湘晨報(bào)
2025-10-13 14:11:35
特朗普以色列議會(huì)講話時(shí)爆發(fā)混亂

特朗普以色列議會(huì)講話時(shí)爆發(fā)混亂

魯中晨報(bào)
2025-10-13 20:32:08
獲得高爾夫職業(yè)首冠,扣除上繳協(xié)會(huì),劉國梁女兒獎(jiǎng)金還剩下多少?

獲得高爾夫職業(yè)首冠,扣除上繳協(xié)會(huì),劉國梁女兒獎(jiǎng)金還剩下多少?

樂聊球
2025-10-13 10:24:05
1950年代,臺(tái)灣地下黨為何會(huì)全軍覆沒?是時(shí)候告訴大家真相了!

1950年代,臺(tái)灣地下黨為何會(huì)全軍覆沒?是時(shí)候告訴大家真相了!

小松歷史菌
2025-10-13 18:50:48
美論壇:一旦特朗普取消與中國的貿(mào)易關(guān)系,2025中國經(jīng)濟(jì)將如何?

美論壇:一旦特朗普取消與中國的貿(mào)易關(guān)系,2025中國經(jīng)濟(jì)將如何?

顧史
2025-10-13 20:40:24
寧波一特斯拉銷售員試駕展示車輛功能撞上橋墩,致車內(nèi)4名客戶受傷?回應(yīng):店長在處理

寧波一特斯拉銷售員試駕展示車輛功能撞上橋墩,致車內(nèi)4名客戶受傷?回應(yīng):店長在處理

瀟湘晨報(bào)
2025-10-13 17:03:39
2025-10-14 06:35:00
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
11450文章數(shù) 142478關(guān)注度
往期回顧 全部

科技要聞

楊強(qiáng)院士:AGI真正到來時(shí) 人與AI將和諧共生

頭條要聞

男子駕車失控撞行人致2死3傷 警方通報(bào)

頭條要聞

男子駕車失控撞行人致2死3傷 警方通報(bào)

體育要聞

29+12后24+10:韋爾生涯第二年沖MIP

娛樂要聞

王詩齡16歲生日:李湘王岳倫同框

財(cái)經(jīng)要聞

2025諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng):創(chuàng)新、毀滅與增長

汽車要聞

小米SU7高速碰撞后起火 事發(fā)前速度或超200km/h

態(tài)度原創(chuàng)

家居
藝術(shù)
親子
旅游
游戲

家居要聞

重奏外灘 都市微度假地

藝術(shù)要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫法

親子要聞

流感季或提前!國內(nèi)首款四價(jià)流感亞單位疫苗擴(kuò)齡至 嬰幼兒接種在滬啟動(dòng)

旅游要聞

熱聞|清明假期將至,熱門目的地有哪些?

《黑神話:悟空》重大更新上線 / Steam 同時(shí)在線人數(shù)創(chuàng)新高

無障礙瀏覽 進(jìn)入關(guān)懷版 久久久 高清无码| 又色又爽又黄的视频软件app| 亚洲av无码不卡久久| 国产精品一线二线三线区| 成人做爰69片免费看网站| 婷婷综合久久中文字幕| 丝袜脚在线国产| 日韩精品内射视频免费观看| 性猛交XXXXX富婆免费视频| 青青青青国产免费线在线观看| 久久丫精品国产亚洲AV妖女| 呦系列视频一区二区三区| 99久久精品熟女高潮喷水免费| 国产乱人伦偷精精品视频| yyyyyy111111少妇影院| 日韩精品一区二区三区AV| 人妻综合蜜桃| 国产粉嫩高中无套进入| 老熟妇露脸嗷嗷叫91九色| 超碰caopeng| 人人色在线观看| 天天爽天天爽天天爽| 狠狠色狠狠色综合网| 忘忧草日本高清频道| 亚洲色无码中文字幕在线| 国产熟女真实乱精品视频| 中文字幕黑人av| 久久AV一区二区三区四区| 白白久久免费视频能看| 扒开双腿疯狂进出爽爽爽水视频| 中文字幕厨房| 久草热视频99| 成人免费无码大片a毛片软件| 国内精品99| 香蕉eeww99国产在线观看| 亚洲AV永久无码精品无码孕妇| 无码人妻丰满熟妇区五十路在线| 亚洲精品无码不卡在线播放he| 亚洲小说图区综合在线| 欧美大屁股xxxx| 精品女同同性视频在线网|