夜夜躁很很躁日日躁麻豆,精品人妻无码,制服丝袜国产精品,成人免费看www网址入口

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

小紅書提出首個(gè)社交大模型:八大社交任務(wù)平均提升14.02%

0
分享至

小紅書NLP團(tuán)隊(duì) 投稿
量子位 | 公眾號(hào) QbitAI

大模型也能“通人情”?

行業(yè)首個(gè)社交大模型全景解析:既能兼顧社交理解與平臺(tái)規(guī)則,又能洞察理解用戶。

小紅書重磅推出RedOne——一款面向SNS(社交網(wǎng)絡(luò)服務(wù))領(lǐng)域的定制化LLM,旨在突破單一任務(wù)基線模型的性能瓶頸,并且構(gòu)建全面覆蓋SNS任務(wù)的基座模型。



相較于基礎(chǔ)模型,RedOne在8個(gè)主要的SNS任務(wù)上平均提升14.02%,在SNS雙語評(píng)測(cè)基準(zhǔn)上提升7.56%。同時(shí),在線上測(cè)試中,相較于單任務(wù)微調(diào)的基線模型,RedOne將有害內(nèi)容檢測(cè)(Harmful Content Detection)中的曝光率降低11.23%,將瀏覽后搜索(Post-view Search)中的點(diǎn)擊頁面率提升14.95%。


圖1:不同模型在SNS領(lǐng)域上的平均表現(xiàn)


RedOne訓(xùn)練框架

隨著在線平臺(tái)和移動(dòng)應(yīng)用的高速發(fā)展,SNS成為當(dāng)前信息傳播的核心載體,覆蓋著交流溝通、知識(shí)分享、情感表達(dá)等多元場(chǎng)景。然而,SNS的數(shù)據(jù)與通用領(lǐng)域的文本語料又呈現(xiàn)出截然不同的特征:

1)高度非規(guī)范化:縮寫、諧音梗、跨語種表達(dá)層出不窮;
2)強(qiáng)上下文依賴:同一句話在不同話題或社群文化中意義迥異;
3)顯著情緒化:用戶情感張力隨熱點(diǎn)事件劇烈波動(dòng)。

因此,多元的場(chǎng)景疊加復(fù)雜的數(shù)據(jù),不僅帶來語言形式的極端多樣化、用戶角色的頻繁切換,還伴隨著隱性而微妙的對(duì)話規(guī)范,使依賴傳統(tǒng)自然語言處理(Nature Language Processing, NLP)的平臺(tái)內(nèi)容管理和交互質(zhì)量?jī)?yōu)化面臨前所未有的挑戰(zhàn)。

面對(duì)上述SNS的治理困境,社區(qū)開始嘗試引入LLM尋求突破,但大多聚焦于單一任務(wù)層面。這一方面導(dǎo)致了同一場(chǎng)景內(nèi)Data Scaling Law的邊際收益呈現(xiàn)遞減并逐漸消失的趨勢(shì),另一方面難以在多語言、多文化、多任務(wù)的真實(shí)場(chǎng)景中靈活遷移。

這一現(xiàn)象的根源在于:當(dāng)前SNS領(lǐng)域?qū)S媚P偷挠?xùn)練過程無法充分學(xué)習(xí)多元領(lǐng)域知識(shí),導(dǎo)致性能觸頂、泛化失靈,無法滿足平臺(tái)內(nèi)容治理、交互質(zhì)量?jī)?yōu)化等現(xiàn)實(shí)中的迫切需求。

因此,研究團(tuán)隊(duì)重磅推出RedOne——首款全面覆蓋SNS各種場(chǎng)景的定制化LLM。

依托超大規(guī)模的真實(shí)數(shù)據(jù),RedOne采用“繼續(xù)預(yù)訓(xùn)練(CPT)→ 監(jiān)督微調(diào)(SFT)→ 偏好優(yōu)化(PO)”的三階段訓(xùn)練策略:先注入社交文化知識(shí)基礎(chǔ),再強(qiáng)化多元任務(wù)能力,最終對(duì)齊平臺(tái)規(guī)范和人類偏好,讓模型“既懂社交、又懂規(guī)則、更懂用戶”。


圖2:RedOne的訓(xùn)練框架


繼續(xù)預(yù)訓(xùn)練(Continue Pretraining,CPT)

為了給LLM注入SNS領(lǐng)域的基礎(chǔ)知識(shí),研究人員開展了分為三個(gè)子階段的CPT:數(shù)據(jù)收集與構(gòu)建、數(shù)據(jù)篩選與混合、以及領(lǐng)域繼續(xù)預(yù)訓(xùn)練。

數(shù)據(jù)收集與構(gòu)建

研究者從以下兩個(gè)來源收集所需的數(shù)據(jù):

1) 通用高質(zhì)量數(shù)據(jù)。他們選擇了若干高質(zhì)量的開源預(yù)訓(xùn)練語料庫,以保持模型的基本泛化能力,并且為了提高訓(xùn)練效率,他們將所有通用數(shù)據(jù)統(tǒng)一構(gòu)建為單句文本格式,并根據(jù)預(yù)定義的文本長(zhǎng)度閾值進(jìn)行分割和拼接處理。

2) SNS領(lǐng)域數(shù)據(jù)。他們從社交網(wǎng)絡(luò)平臺(tái)和開放網(wǎng)頁收集了大規(guī)模的訓(xùn)練數(shù)據(jù),涵蓋了多種社交溝通模式,包括非正式討論、短評(píng)論、諷刺語句、情緒化內(nèi)容等,并且為了更好地學(xué)習(xí)預(yù)訓(xùn)練數(shù)據(jù)中的潛在信息,他們結(jié)合了用戶互動(dòng)數(shù)據(jù)來指導(dǎo)訓(xùn)練過程。具體來說,他們將上下文與其對(duì)應(yīng)的用戶互動(dòng)數(shù)據(jù)進(jìn)行分組,這樣可以自然地聚類語義相關(guān)的SNS內(nèi)容,無需額外的處理。

結(jié)合以上兩種預(yù)料,他們構(gòu)建了一個(gè)包含超過千億tokens的大規(guī)模數(shù)據(jù)集,為后續(xù)的任務(wù)處理打下基礎(chǔ)。

數(shù)據(jù)篩選與混合

考慮到數(shù)據(jù)質(zhì)量對(duì)模型訓(xùn)練至關(guān)重要,他們精心設(shè)計(jì)了一個(gè)數(shù)據(jù)篩選流程,包含面向任務(wù)的規(guī)則篩選和基于小型LLM的篩選。前者主要識(shí)別HTML標(biāo)簽、重復(fù)語句等錯(cuò)誤內(nèi)容,后者則關(guān)注全文一致性和語氣適當(dāng)性等評(píng)價(jià)角度。

此外,他們又應(yīng)用了RegMix方法來識(shí)別最優(yōu)的數(shù)據(jù)混合分布并篩除不必要的數(shù)據(jù)。最終,他們構(gòu)建了一個(gè)包含200億tokens的高質(zhì)量數(shù)據(jù)集供訓(xùn)練使用。

領(lǐng)域繼續(xù)預(yù)訓(xùn)練

通過以上的數(shù)據(jù)收集、構(gòu)建、篩選與混合,他們得到了一個(gè)全面覆蓋SNS領(lǐng)域的超大規(guī)模高質(zhì)量數(shù)據(jù)集,以指導(dǎo)領(lǐng)域繼續(xù)預(yù)訓(xùn)練。具體來說,他們基于Qwen2.5的開源模型繼續(xù)訓(xùn)練,并使用相同的配置參數(shù),充分發(fā)揮其在多個(gè)領(lǐng)域的強(qiáng)大能力。

通過這一領(lǐng)域特定的繼續(xù)預(yù)訓(xùn)練過程,他們最終獲得了一個(gè)能夠有效捕捉SNS特有語言模式的模型,同時(shí)保持了通用語言建模能力的最小衰減。

監(jiān)督微調(diào)(Supervised Fine-Tuning,SFT)

為了彌合預(yù)訓(xùn)練目標(biāo)與實(shí)際應(yīng)用需求之間的差距,他們精心設(shè)計(jì)了以下的SFT任務(wù)。

任務(wù)定義與數(shù)據(jù)構(gòu)建

SFT訓(xùn)練數(shù)據(jù)對(duì)模型在領(lǐng)域任務(wù)中的最終指令跟隨能力具有重要影響。為此,他們整理了大量的生成內(nèi)容,包括筆記、評(píng)論和互動(dòng)信息等,以期通過源于真實(shí)環(huán)境的信號(hào)來改善模型的決策行為。


表1:SNS任務(wù)和能力的映射


特別在數(shù)據(jù)整理過程中,他們著重保留了具有典型SNS特征的語言風(fēng)格,以確保數(shù)據(jù)在 SNS 場(chǎng)景中的代表性和實(shí)用性。在這之后,他們整合得到SNS應(yīng)用所需的六項(xiàng)核心能力:內(nèi)容理解、信息提取、語義匹配、用戶行為建模、對(duì)話和角色模擬、以及翻譯能力,并將每項(xiàng)能力映射到具體任務(wù)上,以對(duì)齊現(xiàn)實(shí)世界中的挑戰(zhàn),如上圖所示。

此外,在SFT過程中,他們還引入了開源的通用領(lǐng)域指令數(shù)據(jù),以緩解模型的災(zāi)難性遺忘,保持良好的泛化能力。

雙步訓(xùn)練

在領(lǐng)域特定的SFT中,雙步混合微調(diào)已被證明能夠有效增強(qiáng)領(lǐng)域特定能力。

對(duì)于RedOne,他們第一步使用結(jié)合大規(guī)模通用數(shù)據(jù)的完整SNS數(shù)據(jù)集對(duì)模型進(jìn)行訓(xùn)練,使模型能夠?qū)W習(xí)SNS領(lǐng)域內(nèi)多樣化的任務(wù)格式,同時(shí)保持其通用能力;第二步,他們將SNS領(lǐng)域數(shù)據(jù)比例提高,進(jìn)一步精調(diào)模型,顯著提升其在領(lǐng)域關(guān)鍵任務(wù)上的表現(xiàn)。

偏好優(yōu)化(Preference Optimization,PO)

在SNS場(chǎng)景中,像查詢-筆記相關(guān)性建模這樣的任務(wù)常常會(huì)生成多個(gè)合理但質(zhì)量差異較大的輸出。雖然SFT能夠改善指令跟隨能力,但它未能充分利用這些候選輸出中的隱性偏好信號(hào),導(dǎo)致過擬合和泛化能力不足。

為了克服這一局限,研究人員精心構(gòu)建了偏好數(shù)據(jù)集,并通過直接偏好優(yōu)化(Direct Preference Optimization,DPO)進(jìn)一步提升模型的領(lǐng)域適應(yīng)能力。

偏好數(shù)據(jù)構(gòu)建

為了更好地與人類偏好對(duì)齊并利用數(shù)據(jù)標(biāo)簽中蘊(yùn)含的信息,他們根據(jù)不同任務(wù)類型的特點(diǎn),采用了不同的偏好對(duì)構(gòu)建策略。具體來說,他們將數(shù)據(jù)分為兩類,并針對(duì)每類任務(wù)采取不同的策略:

1) 主觀任務(wù)。對(duì)于情感對(duì)話和角色扮演等主觀任務(wù),他們的主要目標(biāo)是實(shí)現(xiàn)與人類偏好對(duì)齊。因此,他們首先邀請(qǐng)領(lǐng)域?qū)<覍?duì)模型生成的回應(yīng)進(jìn)行偏好標(biāo)注,然后訓(xùn)練與人類偏好能夠匹配的判別模型,最后利用這些判別模型擴(kuò)展特定數(shù)據(jù)。

2) 客觀任務(wù)。對(duì)于答案明確的客觀任務(wù),他們的目標(biāo)則側(cè)重于提取并利用數(shù)據(jù)標(biāo)簽中的隱性結(jié)構(gòu)信息。具體來說,他們采用了兩種方法:首先利用問題本身包含正確答案和錯(cuò)誤選項(xiàng)的內(nèi)在結(jié)構(gòu)來構(gòu)建偏好對(duì);其次結(jié)合模型生成的答案和真實(shí)標(biāo)簽構(gòu)建偏好對(duì),以針對(duì)模型的特定不足進(jìn)行優(yōu)化。

通過整合以上的定制化方法,他們系統(tǒng)性地處理了所有數(shù)據(jù),構(gòu)建了能夠有效捕捉人類偏好和隱性數(shù)據(jù)信息的偏好優(yōu)化數(shù)據(jù)集,為模型性能的進(jìn)一步提升打下基礎(chǔ)。

直接偏好優(yōu)化

為了充分利用偏好數(shù)據(jù)集中的豐富信號(hào),他們采用DPO作為基于偏好的微調(diào)算法,使模型能夠更好地與平臺(tái)規(guī)則和人類偏好對(duì)齊,同時(shí)充分挖掘真實(shí)標(biāo)簽中蘊(yùn)含的潛在信息。

RedOne顯著優(yōu)于基礎(chǔ)模型


表2:7B規(guī)模LLM對(duì)比實(shí)驗(yàn)



表3:32B規(guī)模LLM對(duì)比實(shí)驗(yàn)



圖3:RedOne與基礎(chǔ)模型的對(duì)比


他們?cè)诙鄠€(gè)通用和SNS領(lǐng)域任務(wù)上對(duì)RedOne和各種開閉源模型進(jìn)行了全面對(duì)比,如表2和表3所示。同時(shí),他們還對(duì)比了RedOne與其基座模型(Qwen2.5)在六種通用和SNS任務(wù)維度上的表現(xiàn),如圖3所示。

可以看到,RedOne不僅在通用任務(wù)中保持優(yōu)異的表現(xiàn),甚至在部分任務(wù)上超越了其基座模型,而且在SNS領(lǐng)域展現(xiàn)了卓越的效果,甚至在大多數(shù)任務(wù)中都達(dá)到了與更大模型相當(dāng)?shù)男阅?。另外,RedOne隨著模型規(guī)模的增加性能持續(xù)提升,表現(xiàn)出了巨大的潛力。


表4:RedOne與基于任務(wù)微調(diào)模型的對(duì)比


為了進(jìn)一步探討基礎(chǔ)模型對(duì)任務(wù)特定微調(diào)的影響,并驗(yàn)證RedOne的有效性,他們?cè)u(píng)估了基于基座模型Qwen2.5-7B和RedOne-7B的任務(wù)微調(diào)對(duì)比結(jié)果,如表4所示。

基于RedOne的微調(diào)(RedOne-Finetuned)在所有數(shù)據(jù)集上均超過了基于Qwen2.5的微調(diào)(Qwen2.5-Finetuned),表明領(lǐng)域后訓(xùn)練能夠?yàn)橄掠稳蝿?wù)特定微調(diào)提供更強(qiáng)的基礎(chǔ)。同時(shí),即使未經(jīng)微調(diào)的RedOne表現(xiàn)也十分強(qiáng)勁,進(jìn)一步驗(yàn)證了領(lǐng)域適配的優(yōu)勢(shì)。

消融實(shí)驗(yàn)


表5:關(guān)于三階段訓(xùn)練策略的消融實(shí)驗(yàn)結(jié)果


為量化每個(gè)訓(xùn)練階段的貢獻(xiàn),他們進(jìn)行了一系列消融實(shí)驗(yàn),結(jié)果如表5所示。

引入CPT后,模型在通用任務(wù)上的表現(xiàn)僅出現(xiàn)基本可以忽略的下降,卻在所有SNS任務(wù)上取得大幅提升,證明以領(lǐng)域數(shù)據(jù)進(jìn)行CPT可有效注入社交語境知識(shí)。在CPT基礎(chǔ)上進(jìn)行SFT,模型在SNS、社交翻譯等任務(wù)上性能進(jìn)一步提升,說明精細(xì)的任務(wù)定義與雙步混合微調(diào)策略能夠有效釋放模型在特定領(lǐng)域的潛能。最后引入PO,使模型輸出更加契合平臺(tái)規(guī)則與用戶偏好,整體性能得到再一步提升,印證了定制偏好數(shù)據(jù)與DPO算法協(xié)同的效果。

綜合來看,三階段訓(xùn)練呈現(xiàn)“層層遞進(jìn)、相互增強(qiáng)”的正向疊加,有力保證了RedOne在通用性能幾乎無損的前提下,取得SNS場(chǎng)景的全面領(lǐng)先。

線上實(shí)驗(yàn)


表6:線上實(shí)驗(yàn)的結(jié)果


為進(jìn)一步驗(yàn)證RedOne在真實(shí)場(chǎng)景中的應(yīng)用價(jià)值,他們?cè)趦?nèi)部的多個(gè)SNS業(yè)務(wù)線上對(duì)其落地,并與當(dāng)前基于單任務(wù)微調(diào)的模型進(jìn)行A/B對(duì)照,如表6所示。

結(jié)果顯示:在有害內(nèi)容檢測(cè)中,RedOne將違規(guī)筆記曝光率降低11.23%,顯著強(qiáng)化了平臺(tái)的安全屏障;在瀏覽后搜索中,用戶點(diǎn)擊頁面率提升14.95%,有效增強(qiáng)了筆記閱讀后的內(nèi)容發(fā)現(xiàn)與深度互動(dòng)。

泛化性實(shí)驗(yàn)


圖4:不同規(guī)模模型在OOD任務(wù)上的表現(xiàn)


為了評(píng)估在領(lǐng)域適配過程中保留通用能力的價(jià)值,他們?cè)O(shè)計(jì)了OOD魯棒性實(shí)驗(yàn),結(jié)果如圖4所示。

具體來說,他們從SNS Benchmark中選取了Note?Taxonomy、Note?Hashtag和Note?MRC三項(xiàng)任務(wù)來構(gòu)造測(cè)試數(shù)據(jù),其中第一項(xiàng)原本并不存在于訓(xùn)練集中,后兩者在SFT階段中被刻意移除。然后他們對(duì)比了結(jié)合通用語料和SNS數(shù)據(jù)與僅使用SNS數(shù)據(jù)兩種設(shè)定下不同規(guī)模模型訓(xùn)練后的性能。

可以看到引入通用領(lǐng)域數(shù)據(jù)能夠顯著提升模型在OOD任務(wù)上的泛化能力,且這一優(yōu)勢(shì)隨模型規(guī)模增大而愈發(fā)明顯。這表明,在進(jìn)行特定領(lǐng)域后訓(xùn)練時(shí),適當(dāng)混合通用知識(shí)不僅不會(huì)影響專業(yè)任務(wù)上的表現(xiàn),反而有助于提升模型的泛化能力。

實(shí)例研究


表7:RedOne和基礎(chǔ)模型在SNS任務(wù)中的回答示例展示


為直觀展示RedOne的用戶行為建模能力,他們?cè)跒g覽后搜索任務(wù)上進(jìn)行了案例研究,如表7所示。

輸入的上下文是一條關(guān)于“增高樂福鞋”的種草筆記,具有明顯的購買意向。Qwen生成了一條寬泛的購物查詢,關(guān)鍵詞籠統(tǒng),難以直接定位目標(biāo)商品。而RedOne則精準(zhǔn)鎖定了 “增高樂福鞋” 等核心產(chǎn)品詞,清晰地反映了用戶的需求。

未來與展望

SNS?的治理難和LLM的適配難為現(xiàn)實(shí)里如平臺(tái)內(nèi)容管理、交互質(zhì)量?jī)?yōu)化等應(yīng)用場(chǎng)景提出了嚴(yán)峻挑戰(zhàn)。作為首個(gè)全面覆蓋SNS領(lǐng)域的定制化LLM,RedOne通過三階段訓(xùn)練策略,實(shí)現(xiàn)了 “懂社交、懂規(guī)則、懂用戶” 的三重躍遷。

研究人員希望RedOne所采用的方法能夠?yàn)楹罄m(xù)專用垂域LLM的落地提供一定參考,同時(shí)助力社交媒體在內(nèi)容治理與高質(zhì)量互動(dòng)的進(jìn)一步探索,推動(dòng)構(gòu)建更可信、可控、可持續(xù)的社交網(wǎng)絡(luò)生態(tài)。

論文鏈接:https://www.arxiv.org/pdf/2507.10605

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
以前我們沒有稀土出口時(shí),美國的航母飛機(jī)和芯片是怎么造出來的?

以前我們沒有稀土出口時(shí),美國的航母飛機(jī)和芯片是怎么造出來的?

阿七說史
2025-08-04 12:40:07
全國范圍內(nèi),公職人員退休后養(yǎng)老金過萬的,到底有多少人?

全國范圍內(nèi),公職人員退休后養(yǎng)老金過萬的,到底有多少人?

科學(xué)發(fā)掘
2025-08-05 09:03:09
娃哈哈老員工爆料:宗馥莉與杜建英都不算太厲害,真正厲害的是她

娃哈哈老員工爆料:宗馥莉與杜建英都不算太厲害,真正厲害的是她

史行途
2025-07-16 15:17:48
18億美金只是煙霧彈!又發(fā)現(xiàn)一個(gè)真相 宗馥莉想要的不是18億美金

18億美金只是煙霧彈!又發(fā)現(xiàn)一個(gè)真相 宗馥莉想要的不是18億美金

探源歷史
2025-08-05 09:32:18
弟弟結(jié)婚我隨禮8萬,母親卻在婚禮上扇我耳光:就給800你好意思?

弟弟結(jié)婚我隨禮8萬,母親卻在婚禮上扇我耳光:就給800你好意思?

曉艾故事匯
2025-08-05 08:00:14
中國駐韓大使館被砸,韓國警察冷眼旁觀,李在明為何選擇“沉默”

中國駐韓大使館被砸,韓國警察冷眼旁觀,李在明為何選擇“沉默”

通文知史
2025-08-04 08:50:03
成龍與巴特勒“切磋”武藝,并獲贈(zèng)勇士10號(hào)球衣

成龍與巴特勒“切磋”武藝,并獲贈(zèng)勇士10號(hào)球衣

懂球帝
2025-08-05 09:54:04
開始清算!釋永信再迎3大噩耗,他做的丑事,遠(yuǎn)比你想象得更惡劣

開始清算!釋永信再迎3大噩耗,他做的丑事,遠(yuǎn)比你想象得更惡劣

小蜜情感說
2025-08-03 10:50:00
清華大學(xué)教授發(fā)飆!如果武大不糾錯(cuò),就不給武大審稿,不收武大生

清華大學(xué)教授發(fā)飆!如果武大不糾錯(cuò),就不給武大審稿,不收武大生

火山詩話
2025-08-03 05:59:06
40歲女星宣布造人成功,為生子打三百多針做試管!

40歲女星宣布造人成功,為生子打三百多針做試管!

毒舌八卦
2025-08-02 14:04:38
女排主力二傳即將退役,王媛媛配合面臨考驗(yàn),刁琳宇轉(zhuǎn)型引關(guān)注。

女排主力二傳即將退役,王媛媛配合面臨考驗(yàn),刁琳宇轉(zhuǎn)型引關(guān)注。

溫柔嘗
2025-08-05 09:57:29
想跑路?集團(tuán)負(fù)債千億,前掌門人套現(xiàn)巨款,在登機(jī)口被帶走調(diào)查

想跑路?集團(tuán)負(fù)債千億,前掌門人套現(xiàn)巨款,在登機(jī)口被帶走調(diào)查

游古史
2025-07-09 13:49:34
“不穿高跟、能選褲裝”,多航司調(diào)整乘務(wù)員著裝,網(wǎng)友:早該這樣

“不穿高跟、能選褲裝”,多航司調(diào)整乘務(wù)員著裝,網(wǎng)友:早該這樣

新京報(bào)
2025-08-04 12:28:59
美聯(lián)儲(chǔ)釋放鴿派言論,九月降息概率大幅提升,金價(jià)連續(xù)走強(qiáng)丨黃金早參

美聯(lián)儲(chǔ)釋放鴿派言論,九月降息概率大幅提升,金價(jià)連續(xù)走強(qiáng)丨黃金早參

每日經(jīng)濟(jì)新聞
2025-08-05 10:03:11
1人下棋,5萬人陪葬

1人下棋,5萬人陪葬

漢周讀書
2024-01-03 13:54:36
貴州省人民政府關(guān)于鐘汰甬職務(wù)調(diào)整的通知

貴州省人民政府關(guān)于鐘汰甬職務(wù)調(diào)整的通知

貴陽網(wǎng)
2025-08-05 10:36:37
1場(chǎng)沒打,即將拆隊(duì)!馬刺三大后衛(wèi)至少走一個(gè),小哈登地位很危險(xiǎn)

1場(chǎng)沒打,即將拆隊(duì)!馬刺三大后衛(wèi)至少走一個(gè),小哈登地位很危險(xiǎn)

嘴炮體壇
2025-08-05 12:01:49
怎么做到的?上賽季50+勝場(chǎng)球隊(duì)首發(fā)正負(fù)值:僅一人為負(fù)!

怎么做到的?上賽季50+勝場(chǎng)球隊(duì)首發(fā)正負(fù)值:僅一人為負(fù)!

運(yùn)籌帷幄的籃球
2025-08-05 11:40:50
江蘇大學(xué)及其現(xiàn)任校領(lǐng)導(dǎo)基本情況

江蘇大學(xué)及其現(xiàn)任校領(lǐng)導(dǎo)基本情況

文雅筆墨
2025-08-05 01:16:22
驚了!他們居然在飛機(jī)上鼓掌(PaPa),邊上還有孩子!

驚了!他們居然在飛機(jī)上鼓掌(PaPa),邊上還有孩子!

閑侃閑侃
2025-08-05 08:12:04
2025-08-05 12:35:00
量子位 incentive-icons
量子位
追蹤人工智能動(dòng)態(tài)
11027文章數(shù) 176218關(guān)注度
往期回顧 全部

科技要聞

集體捅刀!友商銷售圍剿小米YU7"絕密話術(shù)"

頭條要聞

牛彈琴:特朗普侮辱攻擊印度 印度發(fā)飆開始發(fā)動(dòng)反擊

頭條要聞

牛彈琴:特朗普侮辱攻擊印度 印度發(fā)飆開始發(fā)動(dòng)反擊

體育要聞

曾凡博簽籃網(wǎng),跑龍?zhí)走€是真有戲?

娛樂要聞

魚死網(wǎng)破!趙露思直播“解約”

財(cái)經(jīng)要聞

王貽芳院士:AI離人腦還有巨大差距

汽車要聞

蔚來十年投入600億 在樂道L90上花了多少?

態(tài)度原創(chuàng)

親子
數(shù)碼
游戲
健康
公開課

親子要聞

如何讓小朋友拔牙,少一點(diǎn)恐懼?

數(shù)碼要聞

這么美又那么能打!RO姬X870主板超有實(shí)力

真急了?《怪物獵人:荒野》推出全新鷺鷹龍補(bǔ)丁!

呼吸科專家破解呼吸道九大謠言!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版 五级黄高潮片90分钟视频| 欧洲一区在线观看| 无码中文人妻| 亚洲天堂网址| 扒开双腿被两个男人玩弄视频| 亚洲成AV人无码综合在线观看| 伊人久久大香线蕉AV色中文HD| 综合亚洲网| 女人考逼久久久久久久| 成人高潮毛片不卡毛片一二三四区| 97狠狠狠狼鲁亚洲综合网| 欧美人与动牲交精品| 好看的日韩av| 尤物最新网址| 精品免费av一区二区三区| 久久夜夜免费视频| 老熟女操B视频| 最近最新中文字幕大全免费3| 337p人体粉嫩胞高清视频| 久久www免费人成一看片| 精品无码一区二区的天堂| 日韩国产图片区视频一区| 2020AV天堂手机版| 樱桃视频在线视频观看| 99热99热99| 亚洲天堂888| 亚洲一级电影在线观看| 国产每日实时更新在线视频| 国产午夜精品久久一二区| 成人国产亚洲卡通av| 久久综合九色综合97婷婷| 69无码白浆流出| aaaaa少妇高潮大片| 91精品国产91久久久无码95| 在线精品成人| 精品欧美一区二区在线观看| 波多野结衣36分钟无码| 人妻网站成熟人妻VA网站| 国产精品午夜精品福利| 日韩免费一区二区三区高清| 亚洲AV成人一区二区三区网站|