夜夜躁很很躁日日躁麻豆,精品人妻无码,制服丝袜国产精品,成人免费看www网址入口

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

量子神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集蒸餾 Dataset Distillation for Quantum Neural Networks

0
分享至

Dataset Distillation for Quantum Neural Networks

量子神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集蒸餾

https://arxiv.org/pdf/2503.17935


摘要:

在大量經(jīng)典數(shù)據(jù)上訓(xùn)練量子神經(jīng)網(wǎng)絡(luò)(QNN)既耗時(shí)又昂貴。訓(xùn)練數(shù)據(jù)量越大,達(dá)到收斂所需的梯度下降步數(shù)就越多;相應(yīng)地,QNN 需要執(zhí)行更多次量子線路運(yùn)算,從而顯著推高其總體執(zhí)行成本。在本工作中,我們提出對 QNN 進(jìn)行數(shù)據(jù)集蒸餾(dataset distillation),其中我們采用一種新穎的量子版經(jīng)典 LeNet 模型:該模型在 QNN 的參數(shù)化量子線路(PQC)中引入了殘差連接和可訓(xùn)練的厄米可觀測量(Hermitian observable)。該方法可在保持與原始數(shù)據(jù)相近性能的前提下,生成高度信息豐富但數(shù)量極少的訓(xùn)練樣本。我們對 MNIST 和 Cifar-10 數(shù)據(jù)集開展了蒸餾實(shí)驗(yàn);與經(jīng)典模型對比發(fā)現(xiàn),蒸餾后的數(shù)據(jù)在量子 LeNet 上取得的推理后準(zhǔn)確率(MNIST 為 91.9%,Cifar-10 為 50.3%)與經(jīng)典 LeNet(MNIST 為 94%,Cifar-10 為 54%)相當(dāng)。我們還引入了一個(gè)不可訓(xùn)練的厄米可觀測量,以增強(qiáng)蒸餾過程的穩(wěn)定性;實(shí)驗(yàn)表明,該設(shè)置會導(dǎo)致性能略有下降(MNIST 最多降低 1.8%,Cifar-10 降低 1.3%)。

索引術(shù)語——數(shù)據(jù)集蒸餾,量子神經(jīng)網(wǎng)絡(luò),量子 LeNet

I. 引言

量子神經(jīng)網(wǎng)絡(luò)(QNN)已成為在高維數(shù)據(jù)及含噪聲訓(xùn)練環(huán)境中實(shí)現(xiàn)超越經(jīng)典神經(jīng)網(wǎng)絡(luò)(NN)計(jì)算優(yōu)勢的有力候選者 [1,?2]。例如,隨著問題復(fù)雜度上升,QNN 表現(xiàn)出更優(yōu)的可擴(kuò)展性:相比經(jīng)典 NN,其所需參數(shù)減少 56%,浮點(diǎn)運(yùn)算量(FLOPs)減少 73% [3]。然而,在大型經(jīng)典數(shù)據(jù)集上訓(xùn)練 QNN 仍成本高昂——費(fèi)用隨量子比特?cái)?shù)線性增長(單個(gè)量子比特成本超過 10 萬美元)[4,?5]。每次梯度下降步均需大量量子線路執(zhí)行,使得在 MNIST 或 Cifar-10 這類數(shù)據(jù)集上的收斂過程緩慢且資源密集。

這一挑戰(zhàn)促使我們采用數(shù)據(jù)集蒸餾技術(shù)——該技術(shù)旨在將大型經(jīng)典數(shù)據(jù)集壓縮為少量但蘊(yùn)含原始數(shù)據(jù)全部信息的合成樣本 [6]。據(jù)我們所知,此前尚無針對 QNN 的數(shù)據(jù)集蒸餾相關(guān)研究。原始工作結(jié)果表明:對于固定初始化的模型(如 LeNet [7]),將 MNIST 的 60,000 個(gè)訓(xùn)練樣本蒸餾至僅 10 個(gè)合成樣本(每類 1 張圖像),并在此蒸餾數(shù)據(jù)上訓(xùn)練該模型,可達(dá)到近 94% 的推理準(zhǔn)確率,接近使用原始訓(xùn)練集訓(xùn)練所得的 99%。

受此啟發(fā),我們提出對 QNN 實(shí)施數(shù)據(jù)蒸餾。具體而言,我們采用一種新穎的混合量子-經(jīng)典 LeNet 模型變體進(jìn)行 MNIST 與 Cifar-10 數(shù)據(jù)集的蒸餾:其前端使用經(jīng)典卷積層進(jìn)行特征提取,后接經(jīng)典與量子線性層,對提取出的特征完成分類任務(wù)。為緩解梯度消失問題,我們在量子層中增加了殘差連接;同時(shí),在量子層測量過程中采用了可訓(xùn)練的厄米可觀測量。這些改進(jìn)使量子 LeNet 能達(dá)到與原始工作中經(jīng)典 LeNet 相近的準(zhǔn)確率。為保障蒸餾過程的穩(wěn)定性,我們還引入了一個(gè)不可訓(xùn)練的厄米可觀測量。實(shí)驗(yàn)結(jié)果表明:

  1. 蒸餾后,量子 LeNet 的推理準(zhǔn)確率(MNIST 為 91.9%,Cifar-10 為 50.3%)與經(jīng)典 LeNet(MNIST 為 94%,Cifar-10 為 54%)基本相當(dāng);
  2. 相比采用可訓(xùn)練厄米可觀測量的量子 LeNet,采用不可訓(xùn)練厄米可觀測量的版本性能略有下降(MNIST 低 1.8%,Cifar-10 低 1.3%),但其潛在優(yōu)勢在于提升了蒸餾過程的穩(wěn)定性。

本文結(jié)構(gòu)如下:第 2 節(jié)介紹相關(guān)背景與已有工作;第 3 節(jié)詳述 LeNet 向所提量子變體的改造過程;第 4 節(jié)展示蒸餾實(shí)驗(yàn)結(jié)果。

最后,我們在第5節(jié)展開討論,并在第6節(jié)進(jìn)行總結(jié)。

II. 背景與相關(guān)工作

量子計(jì)算:與經(jīng)典計(jì)算類似,量子計(jì)算是一種基于量子力學(xué)原理的計(jì)算范式[9]。量子計(jì)算機(jī)的基本單元是量子比特(quantum bit,簡稱qubit),它是經(jīng)典比特的量子對應(yīng)物。然而,不同于經(jīng)典比特在任一時(shí)刻只能取 0 或 1 的確定狀態(tài),量子比特處于一種概率性疊加態(tài)。具體而言,一個(gè)量子比特可表示為向量


量子神經(jīng)網(wǎng)絡(luò):QNN 通常由三部分組成:1)狀態(tài)制備或嵌入電路,用于將經(jīng)典數(shù)據(jù)嵌入到量子希爾伯特空間中;2)包含 QNN 可訓(xùn)練參數(shù)的 PQC;3)在計(jì)算基(通常是 Pauli-Z 基)上執(zhí)行的測量操作,以對量子態(tài)進(jìn)行經(jīng)典測量[10]。在完成該經(jīng)典測量并計(jì)算出所需屬性后,損失函數(shù)會計(jì)算測量輸出與期望輸出之間的誤差,然后利用該誤差在經(jīng)典計(jì)算機(jī)上計(jì)算梯度,并更新 PQC 的旋轉(zhuǎn)參數(shù)。

LeNet 架構(gòu):LeNet [7] 是一種卷積神經(jīng)網(wǎng)絡(luò)(CNN)[11],旨在對 MNIST 數(shù)據(jù)集進(jìn)行分類。LeNet 模型由兩部分組成:第一部分是一系列卷積層,用于提取 MNIST 數(shù)字圖像的關(guān)鍵特征;第二部分是一系列線性/全連接層,用于將提取的特征分類到正確的圖像類別中。在本工作中,我們主要基于 LeNet 模型來得出我們的結(jié)果。


原始工作[6]中提出的這種數(shù)據(jù)集蒸餾方法被稱為性能匹配(performance matching)(如圖1所示),其目標(biāo)是使蒸餾數(shù)據(jù)在測試集上的表現(xiàn)盡可能接近原始訓(xùn)練數(shù)據(jù)的表現(xiàn)。隨后,文獻(xiàn)中又提出了具有不同目標(biāo)的數(shù)據(jù)蒸餾方法。


在文獻(xiàn)中提出的方法包括:1)參數(shù)匹配(parameter matching)[12],該方法通過匹配在真實(shí)數(shù)據(jù)和合成數(shù)據(jù)上訓(xùn)練的模型的參數(shù)軌跡,使模型權(quán)重盡可能對齊。該方法經(jīng)過進(jìn)一步數(shù)學(xué)推導(dǎo),通常簡化為梯度匹配(gradient matching)[13],有助于避免陷入局部極小值;2)分布匹配(distribution matching)[14],其目標(biāo)是使用最大均值差異(MMD)等度量方法,最小化原始訓(xùn)練數(shù)據(jù)與蒸餾數(shù)據(jù)之間的分布距離。在本工作中,我們僅關(guān)注所提出的 QNN 模型所采用的性能匹配數(shù)據(jù)蒸餾方法。

III. 量子 LeNet 模型與蒸餾實(shí)驗(yàn)設(shè)置

經(jīng)典 LeNet 由兩部分組成:第一部分通過連續(xù)的卷積層提取特征,第二部分則利用多個(gè)全連接(dense)層對提取出的特征進(jìn)行分類。該架構(gòu)最初用于文獻(xiàn)[7]中對手寫體 MNIST 數(shù)字進(jìn)行分類。在本工作中,我們保留了與原始 LeNet 完全相同的特征提取部分;在分類器部分的全連接層之間,我們插入了一個(gè)含 6 個(gè)量子比特的 QNN 層,該層包含以下三個(gè)關(guān)鍵組件:

  1. 振幅嵌入(amplitude embedding),用于將經(jīng)典特征嵌入并制備為量子態(tài);
  2. 含可訓(xùn)練參數(shù)的PQC(所選的量子線路結(jié)構(gòu)為強(qiáng)糾纏層[8]);
  3. 一個(gè)可訓(xùn)練的厄米測量可觀測量(trainable Hermitian measurement observable)。

通常,可觀測量選用單位算符(如 Pauli-Z 算符),其測量值被限制在 [ ? 1 , 1] 區(qū)間內(nèi)。然而,在深度神經(jīng)網(wǎng)絡(luò)中,此類輸出限幅易引發(fā)梯度消失問題[15]。為克服此限制,我們以可訓(xùn)練的厄米算符替代單位算符——與單位算符不同,厄米算符不限制輸出范圍。為進(jìn)一步緩解梯度消失效應(yīng),我們還在 QNN 層周圍添加了殘差連接(residual connections)[16]。圖 2 展示了所提出的量子 LeNet 整體架構(gòu);圖 3 則進(jìn)一步詳述了其中 QNN 子模塊的結(jié)構(gòu)。



我們采用了與原始工作[6]類似的實(shí)驗(yàn)設(shè)置:蒸餾過程在兩種情形之一下進(jìn)行,即模型初始化固定的情形。該設(shè)置同時(shí)應(yīng)用于 MNIST 與 Cifar-10 數(shù)據(jù)集:其中 MNIST 數(shù)據(jù)集被蒸餾至 10 張圖像,Cifar-10 被蒸餾至 100 張圖像(即每類各 1 張與 10 張);蒸餾過程中分別執(zhí)行 1 次與 3 次梯度下降步,訓(xùn)練輪數(shù)(epochs)均為 3。

IV. 蒸餾結(jié)果

我們將經(jīng)典 LeNet 模型與所提出的量子 LeNet 模型的蒸餾結(jié)果進(jìn)行了對比。特別地,針對量子 LeNet 模型,我們展示了以下三種配置下的結(jié)果:

  1. 無殘差連接,且測量可觀測量為 Pauli-Z 單位算符;
  2. 無殘差連接,但測量可觀測量為可訓(xùn)練的厄米算符
  3. 含殘差連接,且測量可觀測量為可訓(xùn)練的厄米算符

固定初始化情形:兩個(gè)數(shù)據(jù)集的結(jié)果匯總于表 I。我們觀察到,對于量子 LeNet 模型:

  • 既無殘差連接、又采用 Pauli-Z 單位算符的變體表現(xiàn)最差(MNIST:82.3%,Cifar-10:28.5%);
  • 無殘差連接、但采用可訓(xùn)練厄米算符的變體次之(MNIST:86.5%,Cifar-10:31.3%);
  • 同時(shí)具備殘差連接和可訓(xùn)練厄米算符的變體性能最佳(MNIST:91.8%,Cifar-10:50.3%)。

這些結(jié)果表明:缺乏殘差連接并使用受限的 Pauli-Z 單位算符易導(dǎo)致梯度消失等問題,從而顯著降低推理性能。當(dāng)以可訓(xùn)練厄米算符替代 Pauli-Z 算符后,可觀測量不再保持量子態(tài)的范數(shù)(norm-preserving),也解除了 [ ? 1 , 1 ] 的輸出限幅,從而緩解了梯度消失。最后,在 QNN 層外圍進(jìn)一步引入殘差連接,可更有效地抑制梯度消失效應(yīng)。

圖 4 展示了對應(yīng)于上述結(jié)果的最終蒸餾圖像,以供直觀對比——涵蓋經(jīng)典與量子 LeNet 模型在 MNIST 和 Cifar-10 上的表現(xiàn)。與原始工作[6]的結(jié)論一致,在固定初始化情形下,蒸餾所得圖像在視覺上并不與原始類別的圖像相似。例如,MNIST 中蒸餾得到的類別 0 圖像,在經(jīng)典與量子 LeNet 中均未呈現(xiàn)“0”的形狀;其余類別圖像亦是如此;Cifar-10 數(shù)據(jù)集同樣如此。


可訓(xùn)練厄米算符 vs. 不可訓(xùn)練厄米算符
盡管采用可訓(xùn)練的厄米算符有助于提升推理性能,但其可訓(xùn)練性也可能使損失函數(shù)曲面(loss landscape)變得更加復(fù)雜,從而在蒸餾過程中引發(fā)不穩(wěn)定性。因此,我們進(jìn)一步考慮另一種情形:即隨機(jī)初始化厄米算符,且在整個(gè)數(shù)據(jù)集蒸餾過程中保持其固定、不進(jìn)行訓(xùn)練,并將該情形與厄米算符可訓(xùn)練的情形進(jìn)行對比。為獲得最佳蒸餾效果,兩種情形下均保留殘差跳躍連接(residual skip connection)。對比結(jié)果見表 II。其中,可訓(xùn)練厄米算符的情形直接復(fù)用表 I 中“含殘差連接 + 厄米算符”(R, H)的結(jié)果。我們發(fā)現(xiàn),將厄米算符設(shè)定為不可訓(xùn)練僅對結(jié)果產(chǎn)生微小影響:在 MNIST(Cifar-10)數(shù)據(jù)集上,準(zhǔn)確率分別僅下降了1.8%(1.3%)。



V. 討論與局限性

量子 LeNet 性能略低于經(jīng)典 LeNet
從實(shí)驗(yàn)結(jié)果可見,量子 LeNet 的最佳變體性能仍略遜于經(jīng)典 LeNet。例如,如表 I 所示,當(dāng) QNN 層采用可訓(xùn)練厄米可觀測量并輔以殘差連接時(shí),蒸餾后量子 LeNet 的推理準(zhǔn)確率為 91.6%(MNIST)與 50.3%(Cifar-10),而經(jīng)典 LeNet 則分別達(dá)到 94% 與 54%。其潛在原因可能在于 QNN 層中采用了振幅嵌入(amplitude embedding)。雖然振幅嵌入能高效地將 2 n
維經(jīng)典特征映射至 n n 個(gè)量子比特上(本例中為將 64 維特征映射至 6 個(gè)量子比特),但已有研究表明,由振幅嵌入生成的量子態(tài)的統(tǒng)計(jì)均值傾向于集中于某一特定量子態(tài)附近[17]。這種“集中效應(yīng)”易導(dǎo)致 QNN 出現(xiàn)損失壁壘(loss barrier)現(xiàn)象——即損失函數(shù)存在一個(gè)理論下界,無法通過優(yōu)化進(jìn)一步降低。


對此問題的一種潛在緩解策略是:在量子嵌入之前,進(jìn)一步通過經(jīng)典全連接層將 2 n 維特征壓縮至 n n 維,隨后改用角度嵌入(angle embedding)[10]將低維特征載入 QNN。相比振幅嵌入,角度嵌入雖效率較低(僅能以一對一方式嵌入 n n 維特征至 n 個(gè)量子比特),但其態(tài)空間分布更均勻,有助于緩解集中性問題,從而提升優(yōu)化潛力。



由于單個(gè)泡利算符和單位矩陣在量子計(jì)算機(jī)上是可實(shí)際實(shí)現(xiàn)的[18, 19],它們的線性組合——即厄米算符 O ——同樣可在量子計(jì)算機(jī)上實(shí)現(xiàn)。這對于量子 LeNet 架構(gòu)而言已足夠,因?yàn)?QNN 層僅使用單量子比特厄米可觀測量。然而,對此的一種擴(kuò)展是實(shí)現(xiàn)多量子比特厄米可觀測量,其中每個(gè)多量子比特厄米算符將表示為泡利矩陣張量積的線性組合。此類可觀測量可用于捕捉特征間的糾纏信息,但其實(shí)現(xiàn)成本可能較高,因?yàn)橐粋€(gè) n n量子比特的厄米可觀測量最多可包含 4 n 個(gè)泡利項(xiàng)[20]。

在 LeNet 的特征提取部分加入量子組件:可以在 LeNet 架構(gòu)的特征提取部分引入量子組件。量子卷積層(也稱為“quanvolutional”層)已在文獻(xiàn)[21]中被提出,其中傳統(tǒng)的卷積層被隨機(jī)量子線路所取代,作為核心變換層。相較于經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)(CNN),該量子卷積神經(jīng)網(wǎng)絡(luò)在 MNIST 數(shù)據(jù)集上的推理準(zhǔn)確率高出約 5%。通過用量子卷積層替代部分傳統(tǒng)卷積層,我們有望在蒸餾后提升 MNIST(甚至 Cifar-10)數(shù)據(jù)集上的推理性能。

VI. 結(jié)論

在本工作中,我們提出了一種新穎的量子 LeNet 模型,并將其應(yīng)用于數(shù)據(jù)集蒸餾過程。實(shí)驗(yàn)結(jié)果表明,性能最優(yōu)的量子變體——即同時(shí)引入可訓(xùn)練厄米可觀測量與殘差連接的版本——在 MNIST 與 Cifar-10 數(shù)據(jù)集上的推理準(zhǔn)確率均接近經(jīng)典 LeNet 模型。

原文鏈接: https://arxiv.org/pdf/2503.17935

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
86歲范曾太清醒!繼子范仲達(dá)想不到,當(dāng)年一行為,讓徐萌成功上位

86歲范曾太清醒!繼子范仲達(dá)想不到,當(dāng)年一行為,讓徐萌成功上位

阿纂看事
2025-12-11 15:07:16
為什么校園問題越來越多?社會壓力 → 家庭失衡 → 情緒傳導(dǎo) → 學(xué)校爆發(fā)

為什么校園問題越來越多?社會壓力 → 家庭失衡 → 情緒傳導(dǎo) → 學(xué)校爆發(fā)

知識圈
2025-12-11 18:45:23
關(guān)鍵時(shí)刻,特朗普、馬克龍、斯塔默、默茨通話

關(guān)鍵時(shí)刻,特朗普、馬克龍、斯塔默、默茨通話

極目新聞
2025-12-11 15:18:16
裁判連掏2張黃牌也擋不?。∠蝙i暴沖覺醒,撕碎韓流晉級八強(qiáng)

裁判連掏2張黃牌也擋不?。∠蝙i暴沖覺醒,撕碎韓流晉級八強(qiáng)

曹老師評球
2025-12-11 14:41:42
給女同事發(fā)不雅“小視頻”被開除!男子:我是下班后發(fā)的!反將公司告上法庭!法院怎么判?

給女同事發(fā)不雅“小視頻”被開除!男子:我是下班后發(fā)的!反將公司告上法庭!法院怎么判?

極目新聞
2025-12-11 12:21:48
黃慧頤曝保劍鋒出軌細(xì)節(jié)!偷她的香水送何珈好,撒謊稱瓶子扔了

黃慧頤曝保劍鋒出軌細(xì)節(jié)!偷她的香水送何珈好,撒謊稱瓶子扔了

萌神木木
2025-12-11 13:06:42
銷量突然飆漲!線上店開始斷貨,醫(yī)務(wù)人員:沒必要囤!

銷量突然飆漲!線上店開始斷貨,醫(yī)務(wù)人員:沒必要囤!

荔枝新聞
2025-12-11 16:21:14
訂1600元一晚的別墅套餐,還沒住進(jìn)去,妻子摔骨折了

訂1600元一晚的別墅套餐,還沒住進(jìn)去,妻子摔骨折了

瀟湘晨報(bào)
2025-12-11 19:47:43
隨著孫穎莎4-0王藝迪,總決賽女單八強(qiáng)出爐:國乒占5席,日本2人

隨著孫穎莎4-0王藝迪,總決賽女單八強(qiáng)出爐:國乒占5席,日本2人

侃球熊弟
2025-12-11 21:03:14
A股:做好準(zhǔn)備吧,今天調(diào)整到3862,不出意外,周五很可能這樣走

A股:做好準(zhǔn)備吧,今天調(diào)整到3862,不出意外,周五很可能這樣走

好賢觀史記
2025-12-11 15:55:12
范曾87歲生子,打破了中國男性最高齡生育紀(jì)錄

范曾87歲生子,打破了中國男性最高齡生育紀(jì)錄

深度財(cái)線
2025-12-11 15:52:54
8個(gè)小時(shí)對決,紅旗12導(dǎo)彈苦戰(zhàn)F-16戰(zhàn)機(jī):柬軍5千發(fā)火箭彈絕地反擊

8個(gè)小時(shí)對決,紅旗12導(dǎo)彈苦戰(zhàn)F-16戰(zhàn)機(jī):柬軍5千發(fā)火箭彈絕地反擊

古史青云啊
2025-12-11 14:25:26
快手實(shí)習(xí)生離職被索賠近五千,當(dāng)事人:我一月工資才4000元,電腦只是磕碰不影響正常使用

快手實(shí)習(xí)生離職被索賠近五千,當(dāng)事人:我一月工資才4000元,電腦只是磕碰不影響正常使用

中國能源網(wǎng)
2025-12-11 15:32:05
87歲范曾喜得獨(dú)子后續(xù):曝和兒女?dāng)嘟^關(guān)系原因,還是范一夫聰明!

87歲范曾喜得獨(dú)子后續(xù):曝和兒女?dāng)嘟^關(guān)系原因,還是范一夫聰明!

古希臘掌管松餅的神
2025-12-11 13:08:12
張水華已離職?醫(yī)院回應(yīng):沒這回事;她近50天4次參賽,獲得超20萬元獎金

張水華已離職?醫(yī)院回應(yīng):沒這回事;她近50天4次參賽,獲得超20萬元獎金

每日經(jīng)濟(jì)新聞
2025-12-11 20:18:05
41歲女演員郭碧婷回應(yīng)與向佐分居兩地:不用嫁雞隨雞、嫁狗隨狗,他只用和孩子維持感情就好;坦言婆婆向太給了自己和孩子很多錢

41歲女演員郭碧婷回應(yīng)與向佐分居兩地:不用嫁雞隨雞、嫁狗隨狗,他只用和孩子維持感情就好;坦言婆婆向太給了自己和孩子很多錢

極目新聞
2025-12-11 17:04:37
中央經(jīng)濟(jì)工作會議:倡導(dǎo)積極婚育觀 努力穩(wěn)定新出生人口規(guī)模

中央經(jīng)濟(jì)工作會議:倡導(dǎo)積極婚育觀 努力穩(wěn)定新出生人口規(guī)模

財(cái)聯(lián)社
2025-12-11 17:46:07
中央經(jīng)濟(jì)工作會議:著力穩(wěn)定房地產(chǎn)市場,因城施策控增量、去庫存、優(yōu)供給

中央經(jīng)濟(jì)工作會議:著力穩(wěn)定房地產(chǎn)市場,因城施策控增量、去庫存、優(yōu)供給

財(cái)聯(lián)社
2025-12-11 17:42:17
社保斷繳1次,這些待遇全部取消!12月起正式執(zhí)行

社保斷繳1次,這些待遇全部取消!12月起正式執(zhí)行

會計(jì)人
2025-12-11 12:04:25
官媒親宣,34歲韋東奕再破天花板,辦公室內(nèi)景曝光,新水杯未開封

官媒親宣,34歲韋東奕再破天花板,辦公室內(nèi)景曝光,新水杯未開封

烏娛子醬
2025-12-11 16:37:45
2025-12-11 22:36:49
CreateAMind incentive-icons
CreateAMind
CreateAMind.agi.top
1056文章數(shù) 17關(guān)注度
往期回顧 全部

科技要聞

豆包剛被微信淘寶們"群毆" ,又有人來搶位

頭條要聞

男子訂1600元一晚的別墅套餐 妻子摔骨折鋼板陪伴終生

頭條要聞

男子訂1600元一晚的別墅套餐 妻子摔骨折鋼板陪伴終生

體育要聞

你最看不上的人,關(guān)鍵時(shí)刻卻最想救你...

娛樂要聞

黃慧頤曝保劍鋒出軌細(xì)節(jié)!

財(cái)經(jīng)要聞

明年經(jīng)濟(jì)工作怎么干 中央經(jīng)濟(jì)工作會議定調(diào)

汽車要聞

長途穿越更輕松 二代哈弗H9穿越版限時(shí)售23.29萬

態(tài)度原創(chuàng)

教育
親子
房產(chǎn)
旅游
家居

教育要聞

多校官宣,26年起延長研究生學(xué)制!

親子要聞

03年寶媽曬和兒子合照!被玩具槍"爆頭",網(wǎng)友:生吧,一生一個(gè)不吱聲

房產(chǎn)要聞

成交量漲了!??谶@10個(gè)小區(qū),二手房最好賣!

旅游要聞

琴島觀瀾丨海鷗IP賦能,冷資源變熱經(jīng)濟(jì)!冬游青島如何破局?

家居要聞

歐式風(fēng)格 純粹優(yōu)雅氣質(zhì)

無障礙瀏覽 進(jìn)入關(guān)懷版 激情综合激情| 亚洲国产精品无码久久一线| 波多野结衣无码电影一区 | 欧洲精品色在线观看| 欧美伦理片一区二区三区| 国产精品成人影视在线观看| 91久久国产一区二区色欲| 天堂网AV噜噜| 福利一区二区不卡国产| 美女视频黄是免费| 中文字幕无线码在线观看| 奇米影视第四色都市激情| 无码人妻丝袜在线视频| 人妻精品久久无码专区涩涩| 欧美大胆老熟妇乱子伦视频| 中文字幕你懂的| 国产区免费精品视频| 亚洲日韩国产成网在线观看| 国产免费又爽又色又粗视频 | 少妇高潮喷水久久久影院| 四虎影视永久在线精品| 精品国色天香新区卡一卡二| 俄罗斯xxx毛片| 国产大屁股喷水视频在线观看| Chinese高潮呻吟天美传媒| 色爱av综合网国产精品| H在线日本欧美风| 色欲AⅤ精品无码一区二区pro| 新版天堂资源中文8在线| 天天爽夜夜爽人人爽一区二区| 激情淫荡的少妇| 波多野结衣在线精品视频| 短篇公交车高h肉辣全集目录| 在线观看片免费视频无码| 亚洲天堂888| 亚洲午夜久久久久久久国产| 亚洲国产综合专区在线播放| 日韩少妇无码XXXXXXX| 国产精品每日更新在线观看| 寡妇裸交全过程| 少妇人妻偷人精品系列|