<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      ICLR 2026 | LightMem:把大模型「長期記憶」的成本打下來

      0
      分享至



      大模型已經很強,但一旦進入 “長對話、跨多輪、多任務” 的真實智能體交互場景,模型很快就會遇到兩類老問題:

      一是上下文窗口有限,越聊越長時不可避免地 “塞不下”;二是經典的 lost in the middle,即使塞得下也未必用得好。

      于是,給大模型配 “外部記憶系統” 尤為重要:把對話寫進長期記憶、需要時再檢索出來。但現實很快給出了代價 —— 記憶系統往往非常貴:頻繁調用大模型做總結 / 抽取、實時做沖突消解與更新、長鏈路的維護開銷,最終讓 “有記憶的智能體” 在工程上難以承受。

      這篇工作提出 LightMem:一個在 “效果” 和 “效率” 之間更平衡的記憶系統。核心目標很直接:

      在不犧牲準確率的前提下,把 token、API 調用次數和運行時延降下來。



      • 論文標題:LightMem: Lightweight and Efficient Memory-Augmented Generation
      • 論文鏈接:https://arxiv.org/abs/2510.18866
      • 代碼鏈接:https://github.com/zjunlp/LightMem

      為什么現有記憶系統 “能用但太貴”?

      從主流范式來看,LLM 記憶系統大多是這樣工作的:把原始對話按 turn/session 切分;每一段都讓 LLM 做總結 / 抽取,寫入向量庫 / 知識圖譜;新信息到來時,再讓 LLM 在線做更新 (add/delete/merge/ignore);推理時檢索相關記憶拼到 prompt 里回答。



      問題在于,不管是 user 側還是 assistant 側,真實對話場景中含有非常多的冗余信息:寒暄、重復確認、冗余解釋等等。現有系統往往 照單全收,導致:

      1) 冗余信息直接進入管線:token 消耗飆升,而且可能反而干擾 in-context learning;

      2) 切分粒度僵硬:按 turn 太細會導致總結調用爆炸,按 session 太粗又容易主題混雜,最后總結不準;

      3) 在線更新太重:更新與遺忘在 test time 強綁定,長任務延遲高,而且 LLM 還可能在更新時 “誤刪” 信息。

      LightMem 的出發點是:人類記憶并不是 “所有信息都進長期記憶”,而是有一套高效的分層機制:

      感官記憶先過濾 → 短時記憶組織整合 → 長時記憶在睡眠時離線鞏固。

      LightMem 的核心思路:三段式 “類人記憶” 管線

      LightMem 把記憶系統拆成三個輕量模塊 (對應如下的 Light1/Light2/Light3):

      Light1:感官記憶 (Sensory Memory)

      目標:快速過濾無用信息、把輸入壓縮到 “值得記” 的部分,并進行主題切分。

      Light2:短時記憶 (Short-Term Memory, STM)

      目標:按主題把對話組織成結構化單元,降低總結調用次數,同時減少主題混雜。

      Light3:長時記憶 (Long-Term Memory, LTM)+ 睡眠更新 (Sleep-time Update)

      目標:把昂貴的記憶更新從在線推理中 “拿出來”,在離線并行地做去重、合并、修復與鞏固。



      Light1:感官記憶 —— 先壓縮,再切主題

      輕量壓縮:把冗余 token 在系統輸入端過濾掉

      LightMem 使用一個輕量壓縮模型 (論文默認采用 LLMLingua-2) 對原始輸入做預壓縮:

      保留信息量更高、語義更關鍵的 token,把大量冗余 token 提前過濾掉并擋在 pipeline 之外。

      論文實驗也驗證:在合理壓縮率下 (50% 到 80%),LLM 依然能理解壓縮后的上下文,準確率基本不受影響。

      混合主題切分:避免 “按窗口切” 的粗暴做法

      僅靠固定窗口 (turn/session) 很難適配開放對話。LightMem 做了一個混合切分策略:

      • 用注意力信號找到候選 topic 邊界 (局部峰值);
      • 再用相鄰片段的語義相似度做二次確認;
      • 取二者交集作為最終切分點,降低 attention sink、注意力稀釋等噪聲影響。

      Light2:主題感知 STM—— 用 “內容邊界” 替代 “窗口邊界”

      在拿到 topic segments 后,LightMem 把它們以 {topic, turns} 的結構送入 STM buffer。

      當 buffer 達到 token 閾值時,才觸發一次 LLM 總結,對每個 topic 生成更結構化的 summary,并寫入 LTM。

      相比 “每一輪都總結一次”,這種做法直接帶來兩點收益:

      • 調用次數降低:總結不再是 N 次,而是按 buffer 觸發的更少次數;
      • 總結更準確:輸入被 topic 約束,不容易 “把 A 主題的細節總結進 B 主題里”。

      論文的消融實驗也顯示:去掉 topic segmentation 會帶來明顯準確率下降 (GPT/Qwen 都一致)。

      Light3:睡眠更新 —— 把開銷最高的部分從在線推理中剝離

      記憶系統最貴、也最容易出錯的一步,往往是 “更新 / 遺忘”。

      現有系統經常在 test time 做 hard update:合并、刪改、沖突消解都在線執行,延遲高且風險大。

      LightMem 的策略是 “兩段式更新”:

      在線只做 Soft Update:先寫入,不糾結

      測試時新記憶條目到來,LightMem 直接插入 LTM (帶時間戳),不做復雜更新。

      這極大降低了在線延遲,并避免 LLM 在實時更新中誤判沖突導致信息丟失。

      離線做 Parallel Update:每條記憶維護 “可更新隊列”

      離線階段 (sleep time) 觸發更新:

      對每個條目構建一個 update queue (只允許 “新的更新舊的”,即時間戳約束 tj ≥ ti),然后把這些更新操作并行執行。

      并行化的關鍵好處是:

      傳統在線更新存在順序依賴 (讀寫約束) 導致串行累計延遲;而 LightMem 把更新拆成多個獨立隊列,可以離線并行,整體更快。

      結果:不僅更準,而且便宜很多

      論文在兩個長記憶基準上驗證了 LightMem 的效果與效率:

      • LongMemEval (LongMemEval-S)
      • LoCoMo

      并在不同 backbone 上測試:GPT-4o-mini 、 Qwen3-30B-A3B、GLM4.6。





      整體結論非常清晰:LightMem 在準確率上超過基線,同時把成本打下來。

      論文報告的代表性結果包括:

      • 在 LongMemEval 上,LightMem 相比強基線準確率最高提升約 7.7% / 29.3% (不同設置與 backbone);
      • 總 token 消耗降低最高可達 38× / 20.9×,API 調用次數降低最高可達 30× / 55.5×;
      • 如果只看在線 test-time 成本,節省幅度更夸張:token 最高 106× / 117×,API 調用最高 159× / 310×。

      LightMem 是一套面向真實長交互場景的 “輕量記憶系統” 答案:

      它不追求讓記憶機制越來越復雜,而是用更接近人類記憶分工的方式,把冗余擋在入口,把維護放到離線,把代價控制在可部署的范圍內。

      如果你正在做長對話助手、長期在線 agent、或者任何需要 “記憶但又怕貴” 的系統,這篇工作值得細讀。

      我們將 LightMem 的方法論與工程經驗沉淀到 OpenMem 社區 ,推動記憶機制的開放共建與演進。

      OpenMem 旨在共建一個 AI 記憶科學探索與產業實踐的全球協作社區,讓記憶成為 AI 的新 computer layer,促進 Memory Engineering 開源開放,成為 “記憶研究者的家” 與 “記憶技術的標準化基地”,支撐企業級學術級開發者級的記憶應用生態。

      作者簡介

      方繼展,浙江大學人工智能碩士在讀,師從張寧豫副教授。研究方向為 Continual Learning、LLM/Agent Memory 與大模型知識編輯,聚焦記憶系統、自進化 Agent 與模型可控更新。以第一/共一作者身份在 ICLR、ACL、ACM MM等國際頂級會議發表/接收多篇論文。提出并開源面向 Agent 的輕量化長期記憶框架 LightMem,獲得較高社區關注(GitHub 600+ Star),受到MIT technology review邀請專訪,并收到國內多家投資機構/大模型廠商的創業交流邀請。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      津門虎1-2!輸球不可怕,可怕的是于根偉賽后一席話,看不到希望!

      津門虎1-2!輸球不可怕,可怕的是于根偉賽后一席話,看不到希望!

      煙潯渺渺
      2026-05-16 10:17:44
      玄學提醒:你永遠不要操心你孩子的命運,看完這段話讓你釋懷

      玄學提醒:你永遠不要操心你孩子的命運,看完這段話讓你釋懷

      金沛的國學筆記
      2026-05-13 10:55:09
      故宮建造時使用的木材,來自哪里?為何這些木材至今沒有腐爛

      故宮建造時使用的木材,來自哪里?為何這些木材至今沒有腐爛

      云霄紀史觀
      2026-05-15 01:49:45
      我去女孩家相親,她奶奶慌的盯著我看了好久:小伙子我好像認識你

      我去女孩家相親,她奶奶慌的盯著我看了好久:小伙子我好像認識你

      人間百態大全
      2026-05-16 06:40:03
      成功還是失敗了?問界M6,上市當月銷量3773臺

      成功還是失敗了?問界M6,上市當月銷量3773臺

      車市速遞
      2026-05-15 12:03:39
      范冰冰重回顏值巔峰的真相!

      范冰冰重回顏值巔峰的真相!

      八卦瘋叔
      2026-05-16 11:00:45
      白左圣母被驅趕出家:還會說有一天我們也是難民嗎

      白左圣母被驅趕出家:還會說有一天我們也是難民嗎

      番外行
      2026-05-15 09:08:27
      中國領空不再免費!外國飛機過華須審批,日本最慌:怕被卡脖子

      中國領空不再免費!外國飛機過華須審批,日本最慌:怕被卡脖子

      聞識
      2026-05-14 13:25:29
      調查發現:老年人若經常吃香蕉,用不了多久,身體或迎來3大改變

      調查發現:老年人若經常吃香蕉,用不了多久,身體或迎來3大改變

      芹姐說生活
      2026-05-15 15:06:08
      北京官方收廢品小程序上線!上門回收

      北京官方收廢品小程序上線!上門回收

      家住昌平
      2026-05-15 18:18:36
      遲到成癮!教練都管不住!被隊友吐槽!!

      遲到成癮!教練都管不住!被隊友吐槽!!

      柚子說球
      2026-05-15 22:03:01
      馬克龍沒想到,特朗普訪華剛落地,鞏俐就在法國引起了“中國潮”

      馬克龍沒想到,特朗普訪華剛落地,鞏俐就在法國引起了“中國潮”

      阿傖說事
      2026-05-15 19:47:18
      別笑雷軍那一蹲

      別笑雷軍那一蹲

      財經無忌
      2026-05-15 18:03:42
      砍14分5助還被指責!頂級后衛在場上出工不出力,張云松看走眼了

      砍14分5助還被指責!頂級后衛在場上出工不出力,張云松看走眼了

      老葉評球
      2026-05-16 10:50:18
      大俄創紀錄無人機空襲的代價不小:烏對等回應后,自身損失相當大

      大俄創紀錄無人機空襲的代價不小:烏對等回應后,自身損失相當大

      戰刃
      2026-05-15 20:07:57
      不是幡然悔悟,是活不下去了!日本經濟界敲響中國大門的真實原因

      不是幡然悔悟,是活不下去了!日本經濟界敲響中國大門的真實原因

      鄉土舒四
      2026-05-16 10:16:24
      文班13+4+2!馬刺74-61森林狼,看數據:他才是頭號功臣!

      文班13+4+2!馬刺74-61森林狼,看數據:他才是頭號功臣!

      運籌帷幄的籃球
      2026-05-16 11:03:14
      8球4助攻!曝內馬爾將入選巴西隊26人名單,第4次率隊沖擊世界杯

      8球4助攻!曝內馬爾將入選巴西隊26人名單,第4次率隊沖擊世界杯

      夏侯看英超
      2026-05-16 11:34:33
      國內品牌金飾克價跌破1400元

      國內品牌金飾克價跌破1400元

      界面新聞
      2026-05-16 10:54:04
      5萬人怒砸東京街,高市早苗終于服軟認慫,中方冷回:不糾錯免談

      5萬人怒砸東京街,高市早苗終于服軟認慫,中方冷回:不糾錯免談

      泠泠說史
      2026-05-14 21:52:49
      2026-05-16 12:24:49
      機器之心Pro incentive-icons
      機器之心Pro
      專業的人工智能媒體
      13006文章數 142650關注度
      往期回顧 全部

      科技要聞

      漲的是車價,要的是老命

      頭條要聞

      美國媒體在天壇里尋找俄勒岡木材 被指非常耐人尋味

      頭條要聞

      美國媒體在天壇里尋找俄勒岡木材 被指非常耐人尋味

      體育要聞

      35歲坎特,干了一件這輩子最吵的事

      娛樂要聞

      張嘉譯和老婆的差距讓人心酸

      財經要聞

      造詞狂魔賈躍亭

      汽車要聞

      高爾夫GTI刷新紐北紀錄 ID. Polo GTI迎全球首秀

      態度原創

      本地
      藝術
      家居
      房產
      公開課

      本地新聞

      用蘇繡的方式,打開江西婺源

      藝術要聞

      19位當代畫家油畫作品欣賞

      家居要聞

      110㎡淡而有致的生活表達

      房產要聞

      老黃埔熱銷之下,珠江春,為何去化僅3成?

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 亚洲丰满老熟女激情av| 乱乱网| 污网站免费在线| 久久精品麻豆日日躁夜夜躁妓女| 色综合久久88色综合天天| 精品亚洲成a人在线看片| 莫力| 亚洲色拍拍噜噜噜最新网站| 午夜亚洲一区| av无码免费岛国动作片| 国产高清第一页| 亚洲国产精品一二三区| 欧美色爽| 最新av中文字幕无码专区| 青青青草亚洲视频在线| 中文字幕?自拍| 新香蕉少妇视频网站| 亚洲精品国偷自产在线99正片 | 国产成人亚洲合集青青草原精品 | 国产美女裸身网站免费观看视频| 国产成+人+综合+亚洲专| 极品尤物萌白酱福利天仙tv| 黑色丝袜国产精品| 99久久99这里只有免费费精品 | 日韩秘 无码一区二区三区 | 亚洲热线99精品视频| 少妇尿尿一区二区在线免费| 熟女荡漾在线| 中文日产幕无线码一区中文 | 免费人成视网站在线不卡| 日韩精品一区二区三区免费在线观看| 国产精品成人一区二区三区| 三级免费进入有大又粗又爽| 国产精品毛片一区二区| 777亚洲精品乱码久久久久久| AV无码岛国免费动作片| 亚洲综合色在线观看一区二区| 国产成人免费av片在线观看| 精品人妻无码专区在线无广告视频 | 日韩一区二区三| 中文字幕人妻一区二区|