夜夜躁很很躁日日躁麻豆,精品人妻无码,制服丝袜国产精品,成人免费看www网址入口

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

最具爭議性研究:大模型中間層輸出可 100% 反推原始輸入

0
分享至



Transformer 語言模型具有單射性,隱藏狀態(tài)可無損重構(gòu)輸入信息。

作者丨鄭佳美

編輯丨馬曉寧

最近,一篇名為《Language Models are Injective and Hence Invertible》的論文在學(xué)術(shù)界和科技圈引起了廣泛討論,甚至連老馬的 Grok 官方也下場轉(zhuǎn)發(fā)。


這篇論文出自意大利羅馬第一大學(xué)(Sapienza University of Rome)的GLADIA Research Lab,文中提出了一個頗有爭議卻又耐人尋味的觀點:主流的 Transformer 語言模型在信息處理過程中幾乎不會丟失任何輸入內(nèi)容,從數(shù)學(xué)意義上看,它們是可逆的。

換句話說,模型的隱藏狀態(tài)并不是模糊的語義壓縮,而是一種能夠完整保留輸入信息的精確重編碼。這一發(fā)現(xiàn)不僅挑戰(zhàn)了人們對語言模型“理解”機制的傳統(tǒng)認識,也讓研究者開始思考一個更具體的問題:這種理論上的信息保持,在實際模型中是否真的存在?

為了回答這一問題,作者設(shè)計并實施了一系列大規(guī)模實驗,試圖從實證角度驗證 Transformer 的可逆性與單射特性。


01

Transformer 幾乎不會丟失信息

這篇論文的核心實驗結(jié)果指出:主流 Transformer 語言模型在實際應(yīng)用中幾乎總是單射的(injective),即不同的輸入文本會被映射到完全不同的隱藏狀態(tài)表示,沒有發(fā)生任何“碰撞”現(xiàn)象。


研究者在六個主流模型(GPT-2、Gemma-3、LLaMA-3.1、Mistral、Phi-4 和 TinyStories)上進行了超過50 億次輸入對比測試,在所有模型的各個層中都未發(fā)現(xiàn)兩條不同輸入對應(yīng)相同隱藏表示的情況,驗證了模型在理論上所具備的單射性在實踐中同樣成立。


此外,作者提出的SIPIT(Sequential Inverse Prompt via Iterative Updates)算法成功地從模型的隱藏狀態(tài)中以 100% 準(zhǔn)確率重建了原始輸入文本,并且在運行效率上顯著優(yōu)于傳統(tǒng)方法。

無論是自然語言文本還是代碼樣本,SIPIT 都能在理論保證的線性時間內(nèi)完成精確恢復(fù)。這一結(jié)果表明,Transformer 模型不僅在數(shù)學(xué)上是信息保持的系統(tǒng),在實際訓(xùn)練與推理中也確實保留了輸入的全部信息,驗證了語言模型的可逆性與結(jié)構(gòu)性無損特征。


02

Transformer 的自我驗證

這項研究的實驗經(jīng)過分為兩個主要階段:首先通過大規(guī)模實驗驗證 Transformer 模型在實踐中是否真的具備單射性,其次通過新的算法驗證模型是否能夠被完全反演。整個實驗設(shè)計嚴密、層層遞進,目的是從理論和實證兩個層面證明語言模型不會丟失輸入信息。


在實驗準(zhǔn)備階段,研究團隊選擇了六種具有代表性的語言模型,包括 GPT-2、Gemma-3、LLaMA-3.1、Mistral、Phi-4-mini 和 TinyStories。這些模型涵蓋了不同規(guī)模與訓(xùn)練方式的 Transformer 架構(gòu)。

為了保證實驗的全面性,研究者從多個語料庫中抽取樣本數(shù)據(jù),包括 Wikipedia、C4、The Pile 以及 GitHub 上的 Python 代碼數(shù)據(jù),共計十萬條輸入樣本,內(nèi)容既包含自然語言文本,也包含編程語言代碼。所有模型均在統(tǒng)一的硬件和軟件環(huán)境下運行,確保實驗結(jié)果可復(fù)現(xiàn)且無外部干擾。


實驗的第一部分旨在檢驗?zāi)P褪欠裾娴膶Σ煌斎氡3謪^(qū)分能力。研究者將每一條輸入依次輸入模型,提取各層中最后一個 token 的隱藏狀態(tài),并計算所有樣本兩兩之間的歐氏距離。

如果出現(xiàn)距離小于 10?? 的情況,就意味著模型把兩個不同輸入映射到了幾乎相同的表示上,即發(fā)生“碰撞”。經(jīng)過超過五十億次樣本對比,結(jié)果顯示無論模型規(guī)?;?qū)訑?shù),所有隱藏狀態(tài)之間的最小距離都遠高于這一閾值,沒有出現(xiàn)任何碰撞現(xiàn)象。

進一步的測試中,研究者挑選出十條語義最相近的樣本,針對這些樣本生成全部可能的組合輸入,并計算了超過三千億對比樣本的結(jié)果。即便在這樣極端的條件下,模型仍未出現(xiàn)任何隱藏狀態(tài)重合的情況。

這表明,Transformer 模型在實際運行中確實能保持輸入信息的唯一性。


第二部分實驗驗證模型是否具有可逆性,即能否從隱藏狀態(tài)恢復(fù)出原始輸入文本。研究者提出了一種名為 SIPIT 的新算法,其思想基于 Transformer 的因果結(jié)構(gòu):第 t 個隱藏狀態(tài)僅依賴前 t?1 個 token 和當(dāng)前 token,因此可以從隱藏狀態(tài)逐步推理出輸入序列。

為了驗證算法的有效性,研究者僅將隱藏狀態(tài)作為輸入,不提供任何原始文本,讓算法從中反推出完整輸入。實驗結(jié)果顯示,SIPIT 能在理論保證的線性時間復(fù)雜度內(nèi),以百分之百的準(zhǔn)確率恢復(fù)出所有原始輸入,并且運行速度顯著快于傳統(tǒng)的暴力枚舉方法。

無論是自然語言文本還是代碼數(shù)據(jù),算法都能高效、準(zhǔn)確地完成輸入重建。


在驗證模型結(jié)構(gòu)特性的同時,研究團隊還分析了訓(xùn)練過程對單射性的影響。他們從數(shù)學(xué)上證明,梯度下降和隨機梯度下降都是可逆的連續(xù)變換,每一次參數(shù)更新都會保持模型參數(shù)分布的絕對連續(xù)性,不會讓模型坍縮到非單射狀態(tài)。

也就是說,Transformer 模型從初始化到訓(xùn)練完成的整個過程中,都能保持這種“信息不丟失”的特征。


總體而言,這一系列實驗以嚴格的理論推導(dǎo)為基礎(chǔ),通過海量數(shù)據(jù)驗證和可逆算法的實踐檢驗,完整地證明了 Transformer 模型在結(jié)構(gòu)上和行為上都是單射的,并且能夠被完全反演。實驗的全過程充分體現(xiàn)了這一結(jié)論的普適性與穩(wěn)健性,表明語言模型在訓(xùn)練和推理中并不會丟失任何輸入信息。

03

突破與質(zhì)疑并存的「可逆性」研究

更進一步地,這些結(jié)果不僅回答了“模型能否保持信息”的問題,也為理解 Transformer 的工作原理提供了新的視角。

從理論上看,這項研究打破了人們長期以來的假設(shè) —— 語言模型在內(nèi)部會壓縮信息,只保留語義層面的抽象特征。研究團隊證明,Transformer 實際上是一個信息保持的系統(tǒng):模型在處理輸入時并不會丟失信息,而是以不同的方式對原始內(nèi)容進行重編碼,而非降維或壓縮。

換句話說,模型的“理解”不是模糊的抽象,而是一種高度精確的重參數(shù)化。這為解釋 Transformer 的內(nèi)部機制提供了新的數(shù)學(xué)框架,也為研究模型的表示空間結(jié)構(gòu)和上下文依賴關(guān)系開辟了方向。

在實踐層面,這一發(fā)現(xiàn)帶來了重要的隱私與安全啟示。由于隱藏狀態(tài)在理論上可以反推出輸入文本,模型的中間層輸出在性質(zhì)上幾乎等同于原始數(shù)據(jù)。如果這些表示被存儲、傳輸或共享,可能會導(dǎo)致用戶輸入信息被間接暴露。

由此,開發(fā)者需要更加謹慎地處理模型內(nèi)部的激活值,重新審視安全接口設(shè)計,并在模型壓縮或蒸餾過程中考慮可逆性帶來的潛在風(fēng)險。與此同時,該研究也為模型可解釋性提供了新的研究思路:通過分析隱藏層信息的重構(gòu)方式,可以更清晰地理解模型語義抽象的形成過程。

然而,這一結(jié)論也在學(xué)術(shù)界和業(yè)界引發(fā)了討論。部分研究者指出,“可逆性”的數(shù)學(xué)證明并不意味著現(xiàn)實中的模型可以直接恢復(fù)輸入或提取訓(xùn)練數(shù)據(jù)。實際的大規(guī)模模型受到數(shù)值近似、量化誤差和隨機性等因素影響,難以實現(xiàn)嚴格意義上的單射性,不同輸入仍可能產(chǎn)生相似的內(nèi)部表示。

因此,即使掌握了中間層激活值,也并不意味著能準(zhǔn)確還原原文或繞過安全機制。

研究團隊在后續(xù)說明中也強調(diào),他們的研究主要旨在從理論角度理解信息流動特征,而非提供可被濫用的攻擊途徑。其核心目標(biāo)是加深對語言模型內(nèi)部機制的認識,并提醒業(yè)界在模型開發(fā)與部署中加強數(shù)據(jù)安全和隱私保護。


04

GLADIA Research Lab 是誰

這個 2025 年 5 月份才注冊 的神秘機構(gòu) GLADIA Research Lab 是意大利羅馬第一大學(xué)計算機科學(xué)系下的一個前沿人工智能研究團隊。

官方信息顯示,GLADIA Research Lab 目前共有 39 名研究人員,成員來自計算機科學(xué)、物理學(xué)、工程學(xué)和數(shù)學(xué)等多個學(xué)科。實驗室專注于探索人工智能系統(tǒng)的結(jié)構(gòu)創(chuàng)新與高效復(fù)用,其核心研究方向涵蓋模型合并與操控、無需額外訓(xùn)練的模型拼接、多模態(tài)學(xué)習(xí),以及神經(jīng)網(wǎng)絡(luò)的重用與組合性。


而 GLADIA Research Lab 的研究愿景,是讓人工智能模型的開發(fā)與組合變得更加高效與靈活,他們希望把“構(gòu)建一個新模型”的周期,從過去的幾個月縮短到幾秒鐘。

這個團隊近段時間也在國際頂級學(xué)術(shù)會議上頻頻亮相,例如在ICML 2025CVPR 2025上展示了關(guān)于模型合并與任務(wù)干擾優(yōu)化的研究成果,展現(xiàn)出他們在模型融合和生成式人工智能領(lǐng)域的創(chuàng)新實力與前沿地位。

除了模型結(jié)構(gòu)方面的研究,GLADIA 還在探索生成模型的更廣泛應(yīng)用。他們嘗試將 AI 的能力延伸到音樂創(chuàng)作、多模態(tài)內(nèi)容生成等更具創(chuàng)造性的方向,希望推動人工智能從“計算工具”邁向“創(chuàng)意伙伴”,在藝術(shù)與認知交匯處開拓新的可能性。

未經(jīng)「AI科技評論」授權(quán),嚴禁以任何方式在網(wǎng)頁、論壇、社區(qū)進行轉(zhuǎn)載!

公眾號轉(zhuǎn)載請先在「AI科技評論」后臺留言取得授權(quán),轉(zhuǎn)載時需標(biāo)注來源并插入本公眾號名片。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
南京博物館已暫停金獸展覽,網(wǎng)購平臺出現(xiàn)大量仿制品

南京博物館已暫停金獸展覽,網(wǎng)購平臺出現(xiàn)大量仿制品

映射生活的身影
2025-12-25 22:58:40
龐家在香港發(fā)布會上“火力全開”,龐家發(fā)言怒懟:你們也配是記者

龐家在香港發(fā)布會上“火力全開”,龐家發(fā)言怒懟:你們也配是記者

范剬舍長
2025-12-23 22:52:07
中國電信員工爆出年終獎已到賬,這個數(shù)!

中國電信員工爆出年終獎已到賬,這個數(shù)!

通信頭條
2025-12-27 20:25:18
逃亡王妃哈雅罕見現(xiàn)身。變胖變老了,女兒逃離王室后面相都變了

逃亡王妃哈雅罕見現(xiàn)身。變胖變老了,女兒逃離王室后面相都變了

黃謀仕
2025-12-28 12:33:05
076型配套艦載無人機,至少已經(jīng)有了兩款

076型配套艦載無人機,至少已經(jīng)有了兩款

三叔的裝備空間
2025-12-28 14:27:26
揚眉吐氣!一年后,王星昊再完勝韓第一人申真谞,晉級棋仙戰(zhàn)4強

揚眉吐氣!一年后,王星昊再完勝韓第一人申真谞,晉級棋仙戰(zhàn)4強

L76號
2025-12-28 11:50:56
統(tǒng)一已成定局,五角大樓通告全球:美軍介入臺海,恐被解放軍殲滅

統(tǒng)一已成定局,五角大樓通告全球:美軍介入臺海,恐被解放軍殲滅

南宗歷史
2025-12-27 13:48:16
冠軍拼圖!上海申花簽下前德甲銀靴安德烈·席爾瓦!身價300萬歐!

冠軍拼圖!上海申花簽下前德甲銀靴安德烈·席爾瓦!身價300萬歐!

海浪星體育
2025-12-26 15:15:44
小孩子哪里會撒謊呢?美國一萌娃走丟,畫出其父畫像,超級抽象

小孩子哪里會撒謊呢?美國一萌娃走丟,畫出其父畫像,超級抽象

趣筆談
2025-12-25 10:42:34
今天傍晚至夜間北風(fēng)漸強,明天起氣溫進入下行道

今天傍晚至夜間北風(fēng)漸強,明天起氣溫進入下行道

新浪財經(jīng)
2025-12-28 12:00:59
弘一法師:人最大的悲哀,是一輩子都沒參透,這些簡單的道理

弘一法師:人最大的悲哀,是一輩子都沒參透,這些簡單的道理

木言觀
2025-12-28 09:37:17
徐湖平夫妻被帶走!紅二代身份曝光,一家三口精密布局盜寶

徐湖平夫妻被帶走!紅二代身份曝光,一家三口精密布局盜寶

西門老爹
2025-12-25 18:42:42
57年張愛萍參加軍委會議后,彭德懷約他談話:你今天的講話過激了

57年張愛萍參加軍委會議后,彭德懷約他談話:你今天的講話過激了

海佑講史
2025-12-28 14:10:06
宋慶齡不愿與孫中山合葬,直言緣由:“這個人陪了我 53年,我早就答應(yīng)過,要和她葬在一起。”

史海孤雁
2025-12-27 20:40:17

呂良偉70大壽:楊受成彎腰舉杯、章小惠胖出水桶腰、王晶鍋蓋頭

呂良偉70大壽:楊受成彎腰舉杯、章小惠胖出水桶腰、王晶鍋蓋頭

小小李娛
2025-12-25 20:50:09
驚天互換?巴薩被曝想用德容+3000萬,砸切爾西“億元先生”!

驚天互換?巴薩被曝想用德容+3000萬,砸切爾西“億元先生”!

田先生籃球
2025-12-27 20:30:38
12年視同繳費+42年工齡,退休金3644?這2個數(shù)決定高低

12年視同繳費+42年工齡,退休金3644?這2個數(shù)決定高低

趣味萌寵的日常
2025-12-28 13:31:52
53歲吳越自曝單身生活,為父母買上海大平層,坦言孤獨是一種福報

53歲吳越自曝單身生活,為父母買上海大平層,坦言孤獨是一種福報

好賢觀史記
2025-12-16 17:01:31
鄭麗文揮刀清黨,盧秀燕180度轉(zhuǎn)向表忠誠,韓流5萬力挺掀變局

鄭麗文揮刀清黨,盧秀燕180度轉(zhuǎn)向表忠誠,韓流5萬力挺掀變局

星辰夜語
2025-12-24 23:11:11
U22國足首位落選U23亞洲杯后衛(wèi)人選預(yù)測,曾是主帥愛將,引發(fā)熱議

U22國足首位落選U23亞洲杯后衛(wèi)人選預(yù)測,曾是主帥愛將,引發(fā)熱議

安海客
2025-12-28 14:10:32
2025-12-28 15:35:00
AI科技評論 incentive-icons
AI科技評論
點評學(xué)術(shù),服務(wù)AI
7025文章數(shù) 20717關(guān)注度
往期回顧 全部

科技要聞

AR眼鏡第一案,究竟在爭什么?

頭條要聞

四川原副省長葉寒冰被通報:長期出入私人會所聚餐飲酒

頭條要聞

四川原副省長葉寒冰被通報:長期出入私人會所聚餐飲酒

體育要聞

83分鐘絕殺!曼城2-1年度收官:英超6連勝狂飆

娛樂要聞

姚晨打卡絕版機位 高崎機場背后的遺憾

財經(jīng)要聞

英偉達的收購史

汽車要聞

理想的2026:L9不容有失,i9再戰(zhàn)純電?

態(tài)度原創(chuàng)

本地
藝術(shù)
游戲
教育
健康

本地新聞

云游安徽|踏訪池州,讀懂山水間的萬年史書

藝術(shù)要聞

360天津總部,以“0與1”打造科技地標(biāo)!

《街頭霸王6》春麗1/4比例雕像公布 肉腿很還原

教育要聞

孩子職業(yè)規(guī)劃越早越好

這些新療法,讓化療不再那么痛苦

無障礙瀏覽 進入關(guān)懷版 免费看黄色的视频婷婷| 亚洲精品无码成人影院| 国产成人精品无码片区调教| 欧美不卡视频一区发布| 国产麻豆剧果冻传媒| 91中文字幕在线一区| 成人区视频去| 日本道免费精品一区二区| 99亚洲男女激情在线观看| 天天爽夜夜爽出水多| 天堂一码二码三码四码区乱码| 久久久久久中文字幕有精品| 国产A级毛多妇女视频| 亚洲人妻自拍视频| 激情文学另类小说亚洲图片| 亚洲狠狠婷婷综合久久久久图片| 人人悽人人爽| 亚洲AV成人片不卡无码| 午夜精品久久久久久久久久蜜桃 | 国产最新视频| 国产永久免费视频m3u8| 久久久久久久成人无码专区| 国产亚洲精品超碰| 欧美日韩一区二区免费午夜成人| 爆乳熟妇一区二区三区爆乳漫画| 99久久99精品久久久久久| 含羞草亚洲AV无码久久精品小说 | 秋霞鲁丝无码一区二区三区| av免费在线观看无码| 亚洲一区高清无码| 精品无码一区二区三区在线| 把腿张开老子臊烂你多p视频软件| 国产一二三精品无码| 国产精品人一区二区三区| 亚洲AV优女天堂波多野结衣| 97人人模人人爽人人喊网| 熟睡人妻被讨厌的公侵犯深田咏美| 久久,久久久美女黄色网址| 日本少妇內射ⅩⅩⅩXXⅩ| 国产av大陆精品一区二区三区| 亚洲中文字幕无码一区|