夜夜躁很很躁日日躁麻豆,精品人妻无码,制服丝袜国产精品,成人免费看www网址入口

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

最火、最全的Agent記憶綜述,NUS、人大、復(fù)旦、北大等聯(lián)合出品

0
分享至



在過去兩年里,記憶(Memory)幾乎從 “可選模塊” 迅速變成了 Agent 系統(tǒng)的 “基礎(chǔ)設(shè)施”:對話型助手需要記住用戶習(xí)慣與歷史偏好;代碼 / 軟件工程 Agent 需要記住倉庫結(jié)構(gòu)、約束與修復(fù)策略;深度研究型 Agent 需要記住已閱讀的證據(jù)鏈、關(guān)鍵假設(shè)與失敗路徑,沒有 memory 的智能體難以跨任務(wù)保留有效經(jīng)驗,難以穩(wěn)定維護用戶偏好與身份設(shè)定,也難以在長周期協(xié)作中保持行為一致、避免反復(fù)犯同樣的錯誤。與此同時 Memory 概念在迅速膨脹、也在迅速碎片化:很多論文都聲稱自己在做 “agent memory”,但實現(xiàn)方式、目標(biāo)假設(shè)、評價協(xié)議差別巨大,多術(shù)語并行又進一步模糊了邊界。

在這樣的背景下,來自新加坡國立大學(xué)、中國人民大學(xué)、復(fù)旦大學(xué)、北京大學(xué)等頂級學(xué)術(shù)機構(gòu)共同撰寫并發(fā)布了百頁綜述《Memory in the Age of AI Agents: A Survey》,嘗試用統(tǒng)一視角為快速擴張、卻日益碎片化的 “Agent Memory” 重新梳理技術(shù)路徑。



  • 論文鏈接: https://arxiv.org/abs/2512.13564
  • Github 鏈接: https://github.com/Shichun-Liu/Agent-Memory-Paper-List

綜述首先指出傳統(tǒng)的 “長 / 短期記憶” 二分法,已經(jīng)不足以描述當(dāng)代系統(tǒng)里更復(fù)雜的結(jié)構(gòu)形態(tài)與動態(tài)機制:有的記憶是顯式 token 存儲,有的寫進參數(shù),有的駐留在潛在狀態(tài);有的服務(wù)于事實一致性,有的服務(wù)于經(jīng)驗遷移,有的服務(wù)于單次任務(wù)的工作臺管理 —— 如果繼續(xù)用簡單時間尺度切分,就很難真正解釋這些差異。

基于此,該綜述提出一個統(tǒng)一的分析框架:Forms–Functions–Dynamics(三角框架)。它試圖分別回答三類核心問題:



記憶以什么形式存在(Forms)——What Carries Memory? 是外部 token、參數(shù),還是潛在狀態(tài)?

記憶解決什么問題(Functions)——Why Agents Need Memory? 它服務(wù)于事實一致、經(jīng)驗成長,還是任務(wù)內(nèi)工作記憶?

記憶如何運轉(zhuǎn)與演化(Dynamics)——How Memory Evolves? 它如何形成、如何被維護與更新、又如何在決策時被檢索與利用?

概念辨析:Agent Memory 到底

和 LLM Memory、RAG、Context Engineering 有何不同?

在大量工程實踐中,“Memory” 這個詞往往被迅速簡化為幾個具體實現(xiàn):一個向量數(shù)據(jù)庫加上相似度檢索,或者干脆等同為更長的上下文窗口、更大的 KV cache。在這種理解下,只要模型 “還能看到過去的信息”,系統(tǒng)似乎就已經(jīng)具備了記憶能力。然而,綜述明確指出:這些技術(shù)與 Agent Memory 確實存在交集,但在研究對象和問題層級上并不等價



Agent Memory:持久的、可自我演化的 “認(rèn)知狀態(tài)”

Agent Memory 關(guān)注的是智能體持續(xù)維持的認(rèn)知狀態(tài),它不僅 “存”,還要能在交互中不斷更新、整合、糾錯、抽象,并跨任務(wù)保持一致性。獨特性在于維護一個persistent and self-evolving cognitive state,并把事實與經(jīng)驗整合在一起。Agent Memory 關(guān)心的是 “智能體知道什么、經(jīng)歷過什么,以及這些東西如何隨時間變化”,包括把反復(fù)交互沉淀成知識、從成功 / 失敗中抽象程序性知識、跨任務(wù)保持身份一致性等。

LLM Memory:“模型內(nèi)部機制 / 長序列處理”

確實存在一條與 Agent Memory 不同、但同樣重要的研究路線 —— 真正意義上的 LLM-internal memory。這類工作關(guān)注的不是智能體如何在長期交互中積累經(jīng)驗,而是模型在內(nèi)部計算過程中如何更有效地保留和利用序列信息。這些方法的核心問題是:在一次或有限次推理過程中,如何避免早期 token 的信息衰減,如何在計算與顯存受限的前提下保持對長距離依賴的建模能力。其研究對象,本質(zhì)上是模型內(nèi)部的狀態(tài)與動態(tài)。它們并不假設(shè)模型是一個長期存在、需要跨任務(wù)保持身份與目標(biāo)的自主體,也不要求模型與環(huán)境進行持續(xù)交互或做出一系列有后果的行動決策。換言之,這些方法即便不引入 agentic 行為,也完全成立:模型依然可以在單次問答、長文檔理解或摘要等任務(wù)中受益。

RAG:“靜態(tài)知識訪問”

RAG 通常強調(diào)從外部知識庫檢索靜態(tài)信息以提升回答事實性;它可以是 Agent Memory 的一部分實現(xiàn),但如果系統(tǒng)沒有長期一致性、沒有演化機制、沒有跨任務(wù)的 “自我”,那么它更像 “知識訪問模塊”,而非完整記憶系統(tǒng)。這個差別在綜述的概念對照圖說明里也被點明:RAG 更接近 “static knowledge access”。

Context Engineering:“當(dāng)下推理的外部腳手架”

Context Engineering 的目標(biāo)常常是:在上下文窗口受限時,如何組織提示、壓縮信息、構(gòu)建工具輸出格式等 —— 它優(yōu)化的是 “此刻模型看到什么”。而論文強調(diào):Context Engineering 是外部腳手架;Agent Memory 是支持學(xué)習(xí)與自主性的內(nèi)部基底。前者優(yōu)化當(dāng)下接口,后者維持跨窗口、跨任務(wù)的持續(xù)認(rèn)知狀態(tài)。

Forms:記憶的載體是什么?

綜述把 agent memory 的形式歸納為三大類:token-level /parametric/latent

這三類的差別聚焦于:信息以什么表示、在哪里存、如何讀寫、以及可解釋性與可塑性的取舍

Token-level Memory:最 “顯式” 的記憶層

token-level memory 的定義非常直觀:它把信息存成持久、離散、可外部訪問與檢查的單元;這里的 token 不僅是文字 token,也可以是視覺 token、音頻幀等,只要是可寫、可檢索、可重排、可修改的離散元素即可。

為什么它在工程里最常見?因為它天然具備三種優(yōu)勢:

1.透明:你能看到存了什么;

2.可編輯:能刪改、能糾錯;

3.易組合:適合作為檢索、路由、沖突處理的 “中間層”,并與 parametric/latent memory 協(xié)同。

但 token-level 并不是 “一個向量庫” 那么簡單。進一步按 “拓?fù)浣Y(jié)構(gòu)復(fù)雜度” 可以把它分成三種組織方式:



  • Flat Memory(1D):沒有顯式拓?fù)潢P(guān)系,記憶像序列 / 離散單元一樣累積(例如片段、軌跡)。它的優(yōu)點是實現(xiàn)簡單、寫入快;缺點是檢索與更新容易退化成 “相似度匹配 + 越存越亂”。
  • Planar Memory(2D):單層結(jié)構(gòu)化組織,記憶單元之間通過圖、樹、表等關(guān)系連接,但不分層。它更適合多跳推理、關(guān)系約束與一致性維護;代價是構(gòu)建與維護結(jié)構(gòu)更復(fù)雜。
  • Hierarchical Memory(3D):多層結(jié)構(gòu)并帶跨層鏈接,形成 “分層 / 立體化” 的記憶體系。它的動機往往是:既要保留細(xì)節(jié),又要形成抽象總結(jié),并讓檢索可以在不同粒度之間切換。

這反應(yīng)了當(dāng)記憶規(guī)模增大,單純堆歷史就會暴露弊端,必須引入結(jié)構(gòu)(2D)與分層抽象(3D),才能讓長期存在的外部記憶真正可用。

Parametric Memory:把記憶 “寫進權(quán)重”

Parametric memory 的定義是:信息存儲在模型參數(shù)中,通過參數(shù)空間的統(tǒng)計模式編碼,并在前向計算中被隱式訪問。它更像人類 “內(nèi)化后的直覺”:不用每次檢索外部庫,模型直接學(xué)會并記住這些內(nèi)容。但代價同樣明顯:

  • 需要訓(xùn)練 / 更新權(quán)重(成本高)
  • 難以精確編輯與審計
  • 容易和遺忘、分布漂移、災(zāi)難性遺忘問題糾纏在一起



Latent Memory:藏在隱狀態(tài) / 連續(xù)表示里的 “動態(tài)記憶”

Latent memory 的定義是:記憶以模型內(nèi)部隱狀態(tài)、連續(xù)表示或演化的潛在結(jié)構(gòu)存在,可在推理時或交互周期中持續(xù)更新,用于捕捉上下文相關(guān)的內(nèi)部狀態(tài)。



它介于 “外部顯式存儲” 和 “權(quán)重內(nèi)化” 之間:比 token-level 更緊湊、更接近模型計算過程;比 parametric 更容易在推理期更新,但也往往更難解釋、更難審計。



Functions:記憶的功能是什么?

這一分類角度是這篇綜述的核心觀點之一,它不再用 “長 / 短期” 這種時間尺度粗分,而是用功能角色把 agent memory 分成三類:

  • Factual memory(事實記憶):記錄來自用戶與環(huán)境交互的知識
  • Experiential memory(經(jīng)驗記憶):從任務(wù)執(zhí)行中增量提升解決問題的能力
  • Working memory(工作記憶):管理單個任務(wù)實例中的工作區(qū)信息

這三個概念的價值在于:它們對應(yīng)的是三種完全不同的 “記憶失敗模式”,也對應(yīng)三類不同的系統(tǒng)設(shè)計。



Factual Memory:讓智能體 “記住世界”,并且可核查

事實記憶的一個關(guān)鍵目標(biāo),是提供一個可更新、可檢索、可治理(governable)的外部事實層,讓系統(tǒng)在跨 session / 跨階段時有穩(wěn)定參考。 這類記憶不只面向 “用戶偏好”,也面向 “環(huán)境事實”:長文檔、代碼庫、工具狀態(tài)、交互軌跡等。

環(huán)境事實記憶能成為持續(xù)可更新、可審計、可復(fù)用的外部事實層;在協(xié)作維度還能維持跨 agent、跨階段一致性,從而支撐多來源信息與長周期任務(wù)下的穩(wěn)健執(zhí)行。

如果你做過 “多輪對話 + 多工具 + 多資料” 的系統(tǒng),你會非常熟悉這種痛點:事實一旦散落在歷史對話里,就會反復(fù)被遺忘、被誤引、被編造。事實記憶的意義,就是把 “可核查的世界狀態(tài)” 從臨時上下文里抽出來,變成可維護的對象。

Experiential Memory:讓智能體 “吃一塹長一智”

經(jīng)驗記憶的定義更像能力的積累:它把歷史軌跡、提煉后的策略、交互結(jié)果編碼為可持久檢索的表示。它與工作記憶不同:工作記憶管 “眼前這一題”,經(jīng)驗記憶關(guān)心 “跨 episode 的長期積累與遷移”。

綜述把經(jīng)驗記憶與認(rèn)知科學(xué)里的非陳述性記憶(程序性 / 習(xí)慣系統(tǒng))類比,同時指出 agent 的獨特優(yōu)勢:它往往用顯式數(shù)據(jù)結(jié)構(gòu)存儲,因此反而具備生物體沒有的能力 ——可以內(nèi)省、編輯、并對自己的程序性知識做推理。經(jīng)驗記憶給了智能體一種避免頻繁參數(shù)更新的持續(xù)學(xué)習(xí)路徑,把交互反饋轉(zhuǎn)化為可復(fù)用知識,幫助系統(tǒng)糾錯、抽象啟發(fā)式、編譯常規(guī)行為,從而減少重復(fù)計算并提升決策質(zhì)量。

經(jīng)驗記憶按抽象層級分成三類:

  • Case-based:幾乎不加工的歷史記錄,強調(diào)保真度,用作 in-context exemplars;
  • Strategy-based:從軌跡中蒸餾可遷移的推理模式 / 工作流,作為規(guī)劃腳手架;
  • Skill-based:把策略進一步落到可執(zhí)行技能(代碼片段、API 協(xié)議等),成為可組合的執(zhí)行底座。



Working Memory:讓智能體在 “單次任務(wù)里” 不被信息淹沒

工作記憶聽起來像短期記憶,但在 agent 場景里,它最典型的問題不是時間短,而是:即時輸入太大、太雜、模態(tài)太高維(長文檔、網(wǎng)頁 DOM、視頻流……),在固定 attention / 上下文預(yù)算下必須建立一個 “可寫工作區(qū)”。

  • 一類是 single-turn working memory:目的就是單次調(diào)用之內(nèi) “減 token”,包括 hard/soft/hybrid 壓縮,以及輸入內(nèi)容結(jié)構(gòu)化、抽象化;
  • 另一類為 multi-turn working memory:關(guān)注多輪之間的狀態(tài)維持與壓縮、針對子任務(wù)的折疊剪切、使用 planning 管理記憶等等。



Dynamics:記憶是如何運轉(zhuǎn)的?

如果說 Forms 解決 “記憶放哪兒”、Functions 解決 “記憶干嘛用”,那 Dynamics 解決的就是:記憶系統(tǒng)如何運轉(zhuǎn)。

記憶的生命周期可以概括為三段:Memory Formation(形成)—Memory Evolution(演化)—Memory Retrieval(檢索),并強調(diào)三者構(gòu)成一個相互反饋的循環(huán):形成階段抽取新信息;演化階段做整合、沖突消解與剪枝;檢索階段提供面向當(dāng)前任務(wù)的訪問;推理結(jié)果與環(huán)境反饋又反過來影響下一輪形成與演化。



Formation:從 “原始上下文” 到 “可存可取的知識”

Formation 階段把原始上下文(對話、圖像等)編碼成更緊湊的知識。動機非常直接:full-context prompting 會帶來計算開銷、內(nèi)存壓力、以及在超長輸入上的推理退化,因此需要把關(guān)鍵信息蒸餾成更高效的表示。

formation 操作進一步分成五類:語義總結(jié)、知識蒸餾、結(jié)構(gòu)化構(gòu)建、潛在表示、以及參數(shù)內(nèi)化。這五類幾乎對應(yīng)了 Forms 的三種載體:總結(jié) / 結(jié)構(gòu)化更偏 token-level;潛在表示偏 latent;參數(shù)內(nèi)化對應(yīng) parametric。

Retrieval:決定 “記憶是否真的能幫你做決策”

retrieval 形式化為一個操作:在每個時間步,根據(jù)當(dāng)前觀察與任務(wù)構(gòu)造查詢,并返回相關(guān)記憶內(nèi)容;返回的記憶信號會被格式化成 LLM 策略可直接消費的文本片段或結(jié)構(gòu)化摘要。

檢索不必每步發(fā)生,可能只在任務(wù)初始化發(fā)生,也可能間歇觸發(fā)或持續(xù)觸發(fā);而 “短期 / 長期” 效果往往不是因為搭載了兩個模塊,而是由 formation/evolution/retrieval 的觸發(fā)節(jié)奏決定的。這點對工程實踐有指導(dǎo)意義:很多系統(tǒng)并非缺一個長期庫,而是觸發(fā)策略不對、導(dǎo)致記憶無法進入決策回路。



Evolution:記憶庫也需要 “維護與新陳代謝”

Evolution 階段的任務(wù)是把新增記憶與已有記憶整合,通過合并相關(guān)條目、沖突消解、剪枝等機制,讓記憶保持可泛化、連貫且高效。

這也是為什么 “記憶系統(tǒng)” 遲早會走向更復(fù)雜的治理問題:刪什么、留什么、如何避免自相矛盾、如何避免隱私泄漏、如何給多智能體共享時加規(guī)則…… 這些都屬于 evolution 的范疇。



資源整理:Benchmark 與開源框架

綜述專門用 Section 6 匯總 benchmarks 與開源框架資源,這是支持實證研究與落地開發(fā)的關(guān)鍵基礎(chǔ)設(shè)施,方便相關(guān)科研工作者查閱。





前沿展望:下一代記憶系統(tǒng)走向何方?

與其把記憶當(dāng)作一個檢索插件,不如把它當(dāng)作智能體長期能力的 first-class primitive,作為 agent 的核心功能之一:

  • Memory RetrievalMemory Generation(記憶從 “找出來” 變成 “生成出來”);
  • Hand-craftedAutomated Memory Management(記憶系統(tǒng)從 “人工寫規(guī)則” 變成 “自動管理”);
  • Heuristic PipelinesRL-driven Control(從啟發(fā)式流程走向強化學(xué)習(xí)端到端優(yōu)化);

并進一步討論這些變化如何與多模態(tài)、多智能體協(xié)作、可信安全等主題交織。

記憶檢索 vs 記憶生成:從 “取片段” 到 “做抽象”

傳統(tǒng)檢索范式把記憶看成一個已經(jīng) “寫好” 的倉庫:當(dāng)前任務(wù)需要什么,就從向量庫 / 圖結(jié)構(gòu) / 重排器里把最相關(guān)的片段找出來拼進上下文,核心指標(biāo)是檢索的 precision/recall。大量工作圍繞索引、相似度、重排、結(jié)構(gòu)化來提升 “找得準(zhǔn)不準(zhǔn)”。 但 Agent 真正的長期能力不只依賴 “取回舊文本”,而更依賴一種面向未來的抽象

  • 記憶不必是原始碎片,它可以被壓縮、重組、重寫成更適合后續(xù)推理的表示;
  • 尤其當(dāng)原始記錄冗余、噪聲大、與任務(wù)不對齊時,“拼接式檢索” 往往把上下文塞滿,卻不一定讓模型更會做事。

這有兩條主線:

1)Retrieve-then-Generate:先檢索,再把檢索到的材料重寫成更緊湊、更一致、更任務(wù)相關(guān)的 “可用記憶”,如 ComoRAG、G-Memory、CoMEM 這類思路,保留可追溯的歷史 grounding,同時提升可用性;

2)Direct Generation:不顯式檢索,直接從當(dāng)前上下文 / 交互軌跡 / 潛在狀態(tài)中生成記憶表示,比如用 “潛在記憶 token” 的方式繞開傳統(tǒng)查庫。

而未來則更關(guān)注三個方面:

  • Context-adaptive(上下文自適應(yīng)):不是一刀切總結(jié),而要能隨任務(wù)階段與目標(biāo)動態(tài)調(diào)整粒度與抽象層次;
  • Integrate heterogeneous signals(融合異質(zhì)信號):把文本、代碼、工具輸出、環(huán)境反饋等碎片 “熔成” 統(tǒng)一表示;
  • Learned & self-optimizing(可學(xué)習(xí)且自優(yōu)化):什么時候生成、生成成什么樣,不再靠人工規(guī)則,而由優(yōu)化信號(例如 RL 或長期任務(wù)表現(xiàn))驅(qū)動,與推理 / 決策共同進化。

自動化記憶管理:從 “寫規(guī)則” 到 “讓 Agent 自己管記憶”

如今很多搭載 memory 的 Agent 其記憶行為本質(zhì)仍是工程規(guī)則—— 寫什么、什么時候?qū)憽⒃趺锤?/ 怎么取,都靠提示詞、閾值、人工策略。這樣做的好處是成本低、可解釋、可復(fù)現(xiàn),適合快速原型;但缺點也同樣致命:僵硬、難泛化,在長程或開放式交互里容易失效。因此近期開始出現(xiàn)讓 Agent自主參與記憶管理的方向

  • 讓模型把細(xì)粒度條目自動聚類成更高層抽象單元;
  • 引入專門的 “memory manager” 代理來處理更新。



但很多方法仍被手工規(guī)則牽引,或只在狹窄目標(biāo)上優(yōu)化,因此離通用自動記憶還有距離。而未來可能的路線有兩條:

第一條是把記憶操作顯式接入決策

不再把記憶當(dāng)外部模塊,而是讓 Agent 在每一步都能通過工具調(diào)用式接口執(zhí)行 add/update/delete/retrieve,并且 “知道自己做了什么記憶動作”。這會讓記憶行為更連貫、更透明、更能與當(dāng)前推理狀態(tài)對齊。

第二條是走向自優(yōu)化的記憶結(jié)構(gòu)

不僅僅 “分層存儲”,更要讓記憶庫能動態(tài)鏈接、索引、重構(gòu),使存儲結(jié)構(gòu)本身隨時間自組織,從而減少對手工規(guī)則的依賴,最終支持更魯棒、可擴展的自主記憶。

強化學(xué)習(xí) × 記憶:記憶控制正在被 RL “內(nèi)化” 進策略

在 Memory 中引入 RL 是一種從 pipeline 到 model-native 的轉(zhuǎn)向:早期大量系統(tǒng)要么是閾值 / 語義檢索 / 拼接等啟發(fā)式;要么看起來很 “agentic”,但其實只是 prompt 驅(qū)動,模型并沒受過任何有效記憶控制的訓(xùn)練。

隨后出現(xiàn)RL-assisted memory:只對記憶生命周期的某一環(huán)節(jié)上 RL,比如:

  • 用輕量 policy gradient 給檢索到的 chunk 排序(后重排);
  • 訓(xùn)練記憶寫入 / 壓縮 / 折疊工作記憶的策略(Context Folding、Memory-as-Action、MemSearcher、IterResearch 等)。這一類已經(jīng)展示出很強的潛力,RL 很可能會在未來記憶系統(tǒng)里扮演更中心角色。

下一階段則更可能是Fully RL-driven memory。它需要滿足兩個理想特點:

1)盡量減少人類先驗

目前很多記憶系統(tǒng)借鑒人類認(rèn)知(海馬體 / 皮層類比)、預(yù)設(shè)層級(episodic/semantic/core),這些抽象對早期探索很有價值,但未必是人工智能體在復(fù)雜環(huán)境中的最優(yōu)結(jié)構(gòu)。若進入 fully RL-driven,Agent 有機會在優(yōu)化驅(qū)動下 “發(fā)明” 新的記憶組織形式、存儲 schema、更新規(guī)則。

2)讓 Agent 對全生命周期擁有完整控制

許多 RL 方法只覆蓋 “寫入” 或 “短期折疊”,卻沒把長期整合、演化、檢索策略真正統(tǒng)一起來。論文認(rèn)為,要讓形成 - 演化 - 檢索多粒度協(xié)同運轉(zhuǎn),幾乎必然需要端到端 RL,因為僅靠啟發(fā)式或提示詞無法在長時域里協(xié)調(diào)這些復(fù)雜交互。

當(dāng)記憶成為可學(xué)習(xí)、可自組織、與 Agent 共進化的子系統(tǒng)時,它就不再是外掛,而會成為長期能力與持續(xù)學(xué)習(xí)的基礎(chǔ)設(shè)施。

多模態(tài)記憶:缺的不是 “能存圖”,而是 “跨模態(tài)統(tǒng)一語義與時間”

隨著 Agent 走向具身、交互式環(huán)境,信息來源天然是多模態(tài)的:視覺、動作、環(huán)境反饋等都會進入記憶系統(tǒng)。未來真正的難點不是把圖片 / 視頻 “塞進庫”,而是讓記憶支持異質(zhì)信號的統(tǒng)一存取與推理。當(dāng)前的兩個關(guān)鍵缺口在于:

  • 目前沒有真正 “omnimodal” 的記憶系統(tǒng),大多仍是單模態(tài)特化或松耦合;
  • 多模態(tài)記憶需要從被動存儲走向支持抽象、跨模態(tài)推理與長期適應(yīng)。

多智能體共享記憶:從 “各聊各的” 到 “共享認(rèn)知底座”

MAS 的早期范式:每個 agent 有自己的局部記憶,通過消息傳遞來協(xié)作。這避免直接干擾,但會帶來冗余、上下文割裂、溝通開銷爆炸,團隊規(guī)模和任務(wù)時長一上來就撐不住。因此出現(xiàn)中心化共享記憶,其作為團隊共同 ground truth:支持聯(lián)合注意、減少重復(fù)、利于長程協(xié)作;但也引入新問題:記憶污染、寫沖突、缺少基于角色 / 權(quán)限的訪問控制。

共享記憶會從倉庫進化為主動管理的集體表示,有三條可能的方向:

  • agent-aware shared memory:讀寫與角色、專長、信任綁定,使聚合更結(jié)構(gòu)化、更可靠;
  • learning-driven management:不靠手工同步 / 總結(jié) / 沖突解決策略,而訓(xùn)練 agent 在長期團隊收益下決定何時寫、寫什么、怎么寫;
  • 面向開放與多模態(tài)場景,共享記憶需要保持時間與語義一致性,作者認(rèn)為 latent memory 可能是一條有前景的路徑。

可信記憶:隱私、可解釋與抗幻覺,必須成為 “第一原則”

當(dāng)記憶進入長期、個性化、跨會話存儲后,問題已經(jīng)不再是傳統(tǒng) RAG 的 “是否會胡說”,而是一個更大的可信系統(tǒng)工程:因為 Agent 記憶會保存用戶偏好、歷史交互、行為痕跡等潛在敏感信息,風(fēng)險維度從 factuality 擴展到隱私、安全、可控與可審計。

隱私保護:需要更細(xì)粒度的權(quán)限記憶、由用戶主導(dǎo)的保留策略、加密或端側(cè)存儲、必要時的聯(lián)邦訪問;并可結(jié)合差分隱私、記憶脫敏 / 刪改、以及可驗證的 “遺忘” 機制(例如衰減式遺忘或用戶擦除接口)來降低泄露風(fēng)險。

可解釋性:不僅要看到 “記憶內(nèi)容”,還要能追蹤 “訪問路徑”:哪些條目被取了、如何影響生成、是否被誤用;甚至支持反事實分析(“如果不取這條記憶,會怎樣”)。論文提出未來可能需要可視化記憶注意、因果圖、面向用戶的調(diào)試工具等成為標(biāo)配。

抗幻覺與沖突魯棒性:在沖突檢測、多文檔推理、不確定性建模上繼續(xù)推進;包括低置信檢索時的拒答 / 保守策略、回退到模型先驗、或用多智能體交叉核驗等。論文還特別提到,機制可解釋性方法(例如在表示層面定位幻覺來源)可能會成為 “診斷 + 干預(yù)” 的新工具箱。

結(jié)語:把 “記憶” 當(dāng)作

智能體的 first-class primitive

通過 Forms/Functions/Dynamics 的統(tǒng)一視角,記憶不再是附屬插件,而是智能體實現(xiàn)時間一致性、持續(xù)適應(yīng)與長程能力的關(guān)鍵基底;未來隨著 RL 融合、多模態(tài)與多智能體場景興起,以及從檢索中心走向生成式記憶的趨勢,記憶系統(tǒng)將變得更可學(xué)習(xí)、更自組織、更具適應(yīng)性。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
無解,狂轟53+11,勇士雙巨頭打瘋了,庫里再創(chuàng)歷史第一神跡

無解,狂轟53+11,勇士雙巨頭打瘋了,庫里再創(chuàng)歷史第一神跡

行舟問茶
2025-12-22 15:45:42
卡拉格:范德芬防守動作不是有意的,只能說伊薩克運氣太差了

卡拉格:范德芬防守動作不是有意的,只能說伊薩克運氣太差了

懂球帝
2025-12-23 05:31:06
科學(xué)家掃描了25萬個大腦發(fā)現(xiàn):決定孩子一生的,不是智商,而是父母的這三件事

科學(xué)家掃描了25萬個大腦發(fā)現(xiàn):決定孩子一生的,不是智商,而是父母的這三件事

閱讀第一
2025-12-13 08:34:34
家屬推死了的89歲老太登機,裝成睡著?!乘客無語:還正常起飛了呢...

家屬推死了的89歲老太登機,裝成睡著?!乘客無語:還正常起飛了呢...

英國那些事兒
2025-12-22 23:25:15
這幾個指標(biāo)正常,證明你的心臟基本沒啥大問題,不要再亂檢查了

這幾個指標(biāo)正常,證明你的心臟基本沒啥大問題,不要再亂檢查了

健康之光
2025-12-17 07:35:04
對手:我們?nèi)桥嗣肺!梅西那場比?進球5助攻!

對手:我們?nèi)桥嗣肺鳎∶肺髂菆霰荣?進球5助攻!

氧氣是個地鐵
2025-12-22 19:01:09
曾醫(yī)生號源秒空:是給網(wǎng)上那些滿嘴仁義道德的人一記響亮耳光

曾醫(yī)生號源秒空:是給網(wǎng)上那些滿嘴仁義道德的人一記響亮耳光

詩意世界
2025-12-22 11:28:27
心痛!30歲男銷售確認(rèn)死亡,目擊者講述事發(fā)經(jīng)過,車主懵了

心痛!30歲男銷售確認(rèn)死亡,目擊者講述事發(fā)經(jīng)過,車主懵了

魔都姐姐雜談
2025-12-20 09:19:55
造成毛岸英犧牲的罪魁禍?zhǔn),讓毛主席痛恨得罪人,他們下場如何?>
    </a>
        <h3>
      <a href=風(fēng)笛悠揚聲
2025-12-04 10:08:06
高市政府叫囂擁核,中美第一時間表態(tài),魯比奧的回應(yīng)堪稱絕殺

高市政府叫囂擁核,中美第一時間表態(tài),魯比奧的回應(yīng)堪稱絕殺

愛下廚的阿釃
2025-12-23 06:35:26
南京導(dǎo)航失靈原因查明!小干擾器惹大禍,北斗受影響?

南京導(dǎo)航失靈原因查明!小干擾器惹大禍,北斗受影響?

小弓長追熱點
2025-12-22 07:30:07
壽命與起夜次數(shù)有關(guān)?研究發(fā)現(xiàn):壽命長的人,每晚起夜在這個次數(shù)

壽命與起夜次數(shù)有關(guān)?研究發(fā)現(xiàn):壽命長的人,每晚起夜在這個次數(shù)

九天攬月1
2025-12-21 18:57:31
靴子終于落地,堅持不妥協(xié)的TikTok,給中國出海企業(yè)打了個樣

靴子終于落地,堅持不妥協(xié)的TikTok,給中國出海企業(yè)打了個樣

智谷趨勢
2025-12-22 11:20:00
中方通告全球,自12月23日起,對27國采取反制,馬克龍怕啥來啥

中方通告全球,自12月23日起,對27國采取反制,馬克龍怕啥來啥

史料布籍
2025-12-22 22:46:57
主板存嚴(yán)重漏洞用于作弊:拳頭封殺所有未更新BIOS玩家!

主板存嚴(yán)重漏洞用于作弊:拳頭封殺所有未更新BIOS玩家!

快科技
2025-12-21 18:33:05
獨居女孩凌晨點夜宵,配送員發(fā)來短信:有個男人拿著刀站在你家門口

獨居女孩凌晨點夜宵,配送員發(fā)來短信:有個男人拿著刀站在你家門口

罪案洞察者
2025-12-18 13:57:07
43歲賈玲近況:退出春晚、淡出綜藝,解散公司,她把自己作沒了?

43歲賈玲近況:退出春晚、淡出綜藝,解散公司,她把自己作沒了?

無處不風(fēng)景l(fā)ove
2025-12-22 16:36:32
李小璐寫真生圖高清

李小璐寫真生圖高清

翩翩明星
2025-11-14 09:39:36
已爆單!外媒嘆:這波中國又趕上了

已爆單!外媒嘆:這波中國又趕上了

觀察者網(wǎng)
2025-12-22 17:57:28
征信系統(tǒng),正在把全社會逼成"老賴溫床"。

征信系統(tǒng),正在把全社會逼成"老賴溫床"。

大嘴説
2025-07-23 17:34:48
2025-12-23 07:47:00
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
11971文章數(shù) 142516關(guān)注度
往期回顧 全部

科技要聞

直播間現(xiàn)大量色情內(nèi)容,快手:遭黑灰產(chǎn)攻擊

頭條要聞

爆雷高達200億 浙商大佬涉嫌犯罪被采取刑事強制措施

頭條要聞

爆雷高達200億 浙商大佬涉嫌犯罪被采取刑事強制措施

體育要聞

戴琳,中國足球的反向代言人

娛樂要聞

張柏芝不再隱瞞,三胎生父早有答案?

財經(jīng)要聞

直播間涉黃?快手:遭到黑灰產(chǎn)攻擊已報警

汽車要聞

可享88元抵2000元等多重權(quán)益 昊鉑A800開啟盲訂

態(tài)度原創(chuàng)

本地
手機
時尚
教育
公開課

本地新聞

云游安徽|走進銅陵,照見三千年不滅的爐火

手機要聞

華為nova 15系列及全場景發(fā)布會價格匯總:6款新品 1488元起

珍珠配美人,最老派也最高級的時髦

教育要聞

還記得《一年級》里的陳思成嗎?參加藝考上熱搜了?

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版 成在线人av免费无码高潮喷水| 亚洲欧美闷骚影院| 亚洲综合憿情五月丁香五月网| 亚洲精品9999久久久久无码| 少妇人妻无码| 亚洲色图激情小说| 内谢少妇xxxxx8老少交| 国产一区国产二区在线精品| 经典国产乱子伦精品视频| 欧美成 人版在线观看| www.啊,啊| 亚洲熟妇AV乱码在线观看黑木| 人人操人人鲁人人摸| 激情成人毛片免费看| 亚欧AV无码乱码在线观看性色| 欧洲成人精品久久大片老妇毛| 97无码精品人妻一区二区爱爱| 亚洲多毛老熟女| av综合无码| 欧美一级成人免费观看苍井空| 极品主播精品视频99久久久久| 亚洲国产精品尤物yw在线观看| 天天操欧美老肥逼| 蜜桃久久久久| 色婷AV在线| 人妻洗澡被公日日操| 国产精品久久久精品三级无码| 日韩经典精品无码一区| 综合色88| 欧美黑人牲交videossexeso| 亚洲久热无码av中文字幕| 精品福利国产| 亚洲欧美日韩中文无线码| 国产精品无码一区二区果冻视频| 视频二区亚洲精品| 日韩欧美一区二区三区推特| 99久久人妻精品无码二区| www.爽上天con| 欧美性猛交xxxx乱大交丰满| 亚洲av国产精品色午夜洪2| 亚洲福利影视|