<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      ICLR 2026 | LightMem:把大模型「長期記憶」的成本打下來

      0
      分享至



      大模型已經很強,但一旦進入 “長對話、跨多輪、多任務” 的真實智能體交互場景,模型很快就會遇到兩類老問題:

      一是上下文窗口有限,越聊越長時不可避免地 “塞不下”;二是經典的 lost in the middle,即使塞得下也未必用得好。

      于是,給大模型配 “外部記憶系統” 尤為重要:把對話寫進長期記憶、需要時再檢索出來。但現實很快給出了代價 —— 記憶系統往往非常貴:頻繁調用大模型做總結 / 抽取、實時做沖突消解與更新、長鏈路的維護開銷,最終讓 “有記憶的智能體” 在工程上難以承受。

      這篇工作提出 LightMem:一個在 “效果” 和 “效率” 之間更平衡的記憶系統。核心目標很直接:

      在不犧牲準確率的前提下,把 token、API 調用次數和運行時延降下來。



      • 論文標題:LightMem: Lightweight and Efficient Memory-Augmented Generation
      • 論文鏈接:https://arxiv.org/abs/2510.18866
      • 代碼鏈接:https://github.com/zjunlp/LightMem

      為什么現有記憶系統 “能用但太貴”?

      從主流范式來看,LLM 記憶系統大多是這樣工作的:把原始對話按 turn/session 切分;每一段都讓 LLM 做總結 / 抽取,寫入向量庫 / 知識圖譜;新信息到來時,再讓 LLM 在線做更新 (add/delete/merge/ignore);推理時檢索相關記憶拼到 prompt 里回答。



      問題在于,不管是 user 側還是 assistant 側,真實對話場景中含有非常多的冗余信息:寒暄、重復確認、冗余解釋等等。現有系統往往 照單全收,導致:

      1) 冗余信息直接進入管線:token 消耗飆升,而且可能反而干擾 in-context learning;

      2) 切分粒度僵硬:按 turn 太細會導致總結調用爆炸,按 session 太粗又容易主題混雜,最后總結不準;

      3) 在線更新太重:更新與遺忘在 test time 強綁定,長任務延遲高,而且 LLM 還可能在更新時 “誤刪” 信息。

      LightMem 的出發點是:人類記憶并不是 “所有信息都進長期記憶”,而是有一套高效的分層機制:

      感官記憶先過濾 → 短時記憶組織整合 → 長時記憶在睡眠時離線鞏固。

      LightMem 的核心思路:三段式 “類人記憶” 管線

      LightMem 把記憶系統拆成三個輕量模塊 (對應如下的 Light1/Light2/Light3):

      Light1:感官記憶 (Sensory Memory)

      目標:快速過濾無用信息、把輸入壓縮到 “值得記” 的部分,并進行主題切分。

      Light2:短時記憶 (Short-Term Memory, STM)

      目標:按主題把對話組織成結構化單元,降低總結調用次數,同時減少主題混雜。

      Light3:長時記憶 (Long-Term Memory, LTM)+ 睡眠更新 (Sleep-time Update)

      目標:把昂貴的記憶更新從在線推理中 “拿出來”,在離線并行地做去重、合并、修復與鞏固。



      Light1:感官記憶 —— 先壓縮,再切主題

      輕量壓縮:把冗余 token 在系統輸入端過濾掉

      LightMem 使用一個輕量壓縮模型 (論文默認采用 LLMLingua-2) 對原始輸入做預壓縮:

      保留信息量更高、語義更關鍵的 token,把大量冗余 token 提前過濾掉并擋在 pipeline 之外。

      論文實驗也驗證:在合理壓縮率下 (50% 到 80%),LLM 依然能理解壓縮后的上下文,準確率基本不受影響。

      混合主題切分:避免 “按窗口切” 的粗暴做法

      僅靠固定窗口 (turn/session) 很難適配開放對話。LightMem 做了一個混合切分策略:

      • 用注意力信號找到候選 topic 邊界 (局部峰值);
      • 再用相鄰片段的語義相似度做二次確認;
      • 取二者交集作為最終切分點,降低 attention sink、注意力稀釋等噪聲影響。

      Light2:主題感知 STM—— 用 “內容邊界” 替代 “窗口邊界”

      在拿到 topic segments 后,LightMem 把它們以 {topic, turns} 的結構送入 STM buffer。

      當 buffer 達到 token 閾值時,才觸發一次 LLM 總結,對每個 topic 生成更結構化的 summary,并寫入 LTM。

      相比 “每一輪都總結一次”,這種做法直接帶來兩點收益:

      • 調用次數降低:總結不再是 N 次,而是按 buffer 觸發的更少次數;
      • 總結更準確:輸入被 topic 約束,不容易 “把 A 主題的細節總結進 B 主題里”。

      論文的消融實驗也顯示:去掉 topic segmentation 會帶來明顯準確率下降 (GPT/Qwen 都一致)。

      Light3:睡眠更新 —— 把開銷最高的部分從在線推理中剝離

      記憶系統最貴、也最容易出錯的一步,往往是 “更新 / 遺忘”。

      現有系統經常在 test time 做 hard update:合并、刪改、沖突消解都在線執行,延遲高且風險大。

      LightMem 的策略是 “兩段式更新”:

      在線只做 Soft Update:先寫入,不糾結

      測試時新記憶條目到來,LightMem 直接插入 LTM (帶時間戳),不做復雜更新。

      這極大降低了在線延遲,并避免 LLM 在實時更新中誤判沖突導致信息丟失。

      離線做 Parallel Update:每條記憶維護 “可更新隊列”

      離線階段 (sleep time) 觸發更新:

      對每個條目構建一個 update queue (只允許 “新的更新舊的”,即時間戳約束 tj ≥ ti),然后把這些更新操作并行執行。

      并行化的關鍵好處是:

      傳統在線更新存在順序依賴 (讀寫約束) 導致串行累計延遲;而 LightMem 把更新拆成多個獨立隊列,可以離線并行,整體更快。

      結果:不僅更準,而且便宜很多

      論文在兩個長記憶基準上驗證了 LightMem 的效果與效率:

      • LongMemEval (LongMemEval-S)
      • LoCoMo

      并在不同 backbone 上測試:GPT-4o-mini 、 Qwen3-30B-A3B、GLM4.6。





      整體結論非常清晰:LightMem 在準確率上超過基線,同時把成本打下來。

      論文報告的代表性結果包括:

      • 在 LongMemEval 上,LightMem 相比強基線準確率最高提升約 7.7% / 29.3% (不同設置與 backbone);
      • 總 token 消耗降低最高可達 38× / 20.9×,API 調用次數降低最高可達 30× / 55.5×;
      • 如果只看在線 test-time 成本,節省幅度更夸張:token 最高 106× / 117×,API 調用最高 159× / 310×。

      LightMem 是一套面向真實長交互場景的 “輕量記憶系統” 答案:

      它不追求讓記憶機制越來越復雜,而是用更接近人類記憶分工的方式,把冗余擋在入口,把維護放到離線,把代價控制在可部署的范圍內。

      如果你正在做長對話助手、長期在線 agent、或者任何需要 “記憶但又怕貴” 的系統,這篇工作值得細讀。

      我們將 LightMem 的方法論與工程經驗沉淀到 OpenMem 社區 ,推動記憶機制的開放共建與演進。

      OpenMem 旨在共建一個 AI 記憶科學探索與產業實踐的全球協作社區,讓記憶成為 AI 的新 computer layer,促進 Memory Engineering 開源開放,成為 “記憶研究者的家” 與 “記憶技術的標準化基地”,支撐企業級學術級開發者級的記憶應用生態。

      作者簡介

      方繼展,浙江大學人工智能碩士在讀,師從張寧豫副教授。研究方向為 Continual Learning、LLM/Agent Memory 與大模型知識編輯,聚焦記憶系統、自進化 Agent 與模型可控更新。以第一/共一作者身份在 ICLR、ACL、ACM MM等國際頂級會議發表/接收多篇論文。提出并開源面向 Agent 的輕量化長期記憶框架 LightMem,獲得較高社區關注(GitHub 600+ Star),受到MIT technology review邀請專訪,并收到國內多家投資機構/大模型廠商的創業交流邀請。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      阿森納沒壓力了!曼城3-3先丟分,打馬競+西漢姆1勝1平可爭2冠軍

      阿森納沒壓力了!曼城3-3先丟分,打馬競+西漢姆1勝1平可爭2冠軍

      體育知多少
      2026-05-05 06:16:42
      紫牛熱點 | 夫妻入住千元帳篷民宿險遭陌生男子入室,酒店回應:深表歉意,已加裝門鎖

      紫牛熱點 | 夫妻入住千元帳篷民宿險遭陌生男子入室,酒店回應:深表歉意,已加裝門鎖

      揚子晚報
      2026-05-04 21:13:40
      淚目!父親為吳宜澤賣掉唯一房子+到英國住地下室 英媒直呼太感動

      淚目!父親為吳宜澤賣掉唯一房子+到英國住地下室 英媒直呼太感動

      風過鄉
      2026-05-05 07:45:46
      硅谷華裔工程師回國兩周后,反而更看好美國了?

      硅谷華裔工程師回國兩周后,反而更看好美國了?

      回旋鏢
      2026-05-04 11:10:15
      失蹤135年!上次出現還是清光緒十一年,2020年浙江山區發現5棵

      失蹤135年!上次出現還是清光緒十一年,2020年浙江山區發現5棵

      萬象硬核本尊
      2026-05-04 15:51:49
      “加價”門票、落石區爬墻拍照 總臺記者獨家調查懸空寺景區亂象

      “加價”門票、落石區爬墻拍照 總臺記者獨家調查懸空寺景區亂象

      極目新聞
      2026-05-04 22:08:41
      諷刺拉滿!國乒男團兩連敗,樊振東淪陷,瑞典球員的話字字戳心窩

      諷刺拉滿!國乒男團兩連敗,樊振東淪陷,瑞典球員的話字字戳心窩

      阿纂看事
      2026-05-04 21:14:03
      1-3大爆冷!蒯曼遭逆轉原因揭曉;輸不起!張本智和炮轟國際乒聯

      1-3大爆冷!蒯曼遭逆轉原因揭曉;輸不起!張本智和炮轟國際乒聯

      大秦壁虎白話體育
      2026-05-04 22:12:11
      14年前曾來華授業 57歲臺球皇帝祝賀吳宜澤奪冠 曬出兩人合影炫耀

      14年前曾來華授業 57歲臺球皇帝祝賀吳宜澤奪冠 曬出兩人合影炫耀

      我愛英超
      2026-05-05 07:03:46
      足壇最大實錘!凱塔親口承認,當年睡了伊卡爾迪的老婆旺達?

      足壇最大實錘!凱塔親口承認,當年睡了伊卡爾迪的老婆旺達?

      羅氏八卦
      2026-05-04 18:05:03
      中國地震局迅即開展四川省成都市邛崍市3.1級地震應急處置工作

      中國地震局迅即開展四川省成都市邛崍市3.1級地震應急處置工作

      環球網資訊
      2026-05-04 20:44:50
      鐵娘子倒了,權力大到沒人敢查,她到底動了誰的奶酪?

      鐵娘子倒了,權力大到沒人敢查,她到底動了誰的奶酪?

      小鹿姐姐情感說
      2026-05-04 13:53:49
      這世界瘋了,博主教邏輯學竟被舉報“居心叵測”

      這世界瘋了,博主教邏輯學竟被舉報“居心叵測”

      蔥哥說
      2026-05-04 22:43:36
      看了長假全網破防的“8萬人集體自爆丑照”,我才頓悟什么是人生頂級心態!

      看了長假全網破防的“8萬人集體自爆丑照”,我才頓悟什么是人生頂級心態!

      脆皮先生
      2026-05-04 19:42:03
      三件大事!美軍機抵達北京,王毅掛掉美外長電話,特朗普訪華有變

      三件大事!美軍機抵達北京,王毅掛掉美外長電話,特朗普訪華有變

      起喜電影
      2026-05-04 23:59:50
      埃梅里輪換7人“送”三分背后:熱刺的保級陽謀與英超的江湖人情

      埃梅里輪換7人“送”三分背后:熱刺的保級陽謀與英超的江湖人情

      落夜足球
      2026-05-04 19:53:17
      馬斯克治好了幾億人看火箭流眼淚的毛病

      馬斯克治好了幾億人看火箭流眼淚的毛病

      浪子說
      2026-05-03 09:55:21
      總冠軍懸念不大!次輪這4隊有望晉級,湖人機會渺茫!哈登要奪冠

      總冠軍懸念不大!次輪這4隊有望晉級,湖人機會渺茫!哈登要奪冠

      毒舌NBA
      2026-05-05 08:03:37
      中日2連敗!驚天大逆轉!0-2絕境3-2翻盤!

      中日2連敗!驚天大逆轉!0-2絕境3-2翻盤!

      最愛乒乓球
      2026-05-04 10:44:07
      新老球王恭喜吳宜澤 趙心童:這是中國斯諾克 丁俊暉:我們的時代

      新老球王恭喜吳宜澤 趙心童:這是中國斯諾克 丁俊暉:我們的時代

      風過鄉
      2026-05-05 06:27:29
      2026-05-05 08:47:00
      機器之心Pro incentive-icons
      機器之心Pro
      專業的人工智能媒體
      12905文章數 142640關注度
      往期回顧 全部

      科技要聞

      OpenAI/Anthropic同日被曝拉攏華爾街建合資公司

      頭條要聞

      00后吳宜澤獲斯諾克世錦賽冠軍 丁俊暉發文祝賀

      頭條要聞

      00后吳宜澤獲斯諾克世錦賽冠軍 丁俊暉發文祝賀

      體育要聞

      騎士破猛龍:加雷特·阿倫的活力

      娛樂要聞

      張敬軒還是站上了英皇25周年舞臺

      財經要聞

      魔幻的韓國股市,父母給嬰兒開戶買股票

      汽車要聞

      同比大漲190% 方程豹4月銷量29138臺

      態度原創

      親子
      藝術
      數碼
      本地
      公開課

      親子要聞

      隔杯猜物挑戰,意想不到的結局

      藝術要聞

      震驚!43歲媽媽曬女兒合影,30萬網友猜測身份!

      數碼要聞

      華碩推出ZenScreen OLED MQ16FC便攜顯示器:16英寸,280歐元起

      本地新聞

      用青花瓷的方式,打開西溪濕地

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 中文字幕av国产精品| 亚洲少妇人妻无码视频| 久久91这里精品国产2020| 国产精品视频yy9299| 日韩AV无码精品一二三区| 婷婷色怡春院| 99精品国产在热久久婷婷| 久久青草亚洲AV无码麻豆| 欧美大胆A级视频免费| 狠狠躁夜夜躁人人爽超碰97香蕉 | 日本丰满的人妻hd高清在线| 国产99视频精品免费视看6| 国产女人水多毛片18| 一本一本久久a久久精品综合| 少妇被无套内谢免费看| wwww性生活| 五月婷婷久久中文字幕| 大伊香蕉精品一区二区| 996免费视频国产在线播放| 污网站免费| 欧美啪啪一区| 中文国产人精品久久蜜桃| 亚洲国产精品羞羞| 欧美极品少妇性运交| 日韩久久久久久| 亚洲精品无码不卡在线播放he| www.一区二区三区在线 | 中国 | 久久精品成人无码观看不卡| 超清AV在线播放不卡无码| 国产成人精品日本亚洲77美色| 久久福利网| 国产短视频精品一区二区| 国产性在线| 成人3d动漫一区二区三区| 国产三区二区| 美日一区| 无码av中文字幕一区二区三区| 内射无码专区久久亚洲| 亚洲区一区二区| 特级毛片爽www免费版| 成人午夜福利视频|