![]()
作者 | 吳瑞琪
郵箱 | rachelwu@pingwest.com
“人類智能 = 推理 + 長期記憶”。
當AI 推理能力的競賽進入白熱化,整個行業(yè)開始意識到:infra層面的記憶缺失,正成為限制 AI 走向個性化與自進化的最大瓶頸。
沒有長期記憶的 Agent,就像一個雖然考上了清華、但每天醒來都不認識親媽的天才。而大量涌入記憶賽道的公司,很多本質上只是在做向量數(shù)據(jù)庫,把數(shù)據(jù)存起來,等人來檢索。
EverMind 想做點不一樣的。這家由盛大集團孵化的公司,定位是為所有AI Agent提供一個通用的"記憶層"(Memory Layer)。它的核心產(chǎn)品EverOS是一套開源的長期記憶系統(tǒng),開發(fā)者可以把它接入自己的Agent,讓AI不僅能記住用戶的歷史對話和偏好,還能像人一樣對記憶進行整理、更新,甚至從過去的經(jīng)驗中學習和進化。
EverMind的CEO鄧亞峰,是一位在AI領域深耕二十余年的老兵。他畢業(yè)于清華大學,曾任360集團副總裁兼AI研究院院長、格靈深瞳CTO,在計算機視覺、多模態(tài)AI和AI制藥等領域深耕多年。2025年,他加入盛大,帶隊從零啟動EverMind的長期記憶項目。團隊僅用四個月就在多項記憶評測上達到了SOTA。
我們與鄧亞峰進行了一次對話,聊了聊他為什么押注長期記憶,以及這項技術到底要解決什么問題。以下是對話實錄,為閱讀體驗稍作編輯。
![]()
為什么是 Long-term Memory(LTM)
硅星人:在視覺、多模態(tài)、AI制藥這些領域都做到過很好的成績之后,您是怎么鎖定"長期記憶"這個方向的?
鄧亞峰:做AI制藥的時候我最大的體會是,當數(shù)據(jù)產(chǎn)生得慢、不能快速迭代,技術進步就是有限的。所以之后選方向,我就想找一個能快速做數(shù)據(jù)迭代閉環(huán)的領域。也考慮過機器人,但落地周期太長、數(shù)據(jù)獲取困難。轉向語言模型之后,又面臨大模型在吞噬一切的問題。OpenAI、Anthropic車輪滾滾,創(chuàng)業(yè)公司的空間越來越小,必須找到一個有獨特性的細分賽道。
長期記憶恰好滿足這幾個條件:它是下一代AI的必備特性,研究得很少,跟推理能力相對正交,有很強的戰(zhàn)略獨立性。當時這個方向相對冷門,大家還在做LLM模型、Agent、post-training,但我認為沒有記憶功能的Agent,用戶體驗一定是受限的。今天這已經(jīng)成了行業(yè)共識。
盛大這邊的視角也很獨特。陳天橋先生過去十多年一直在sponsor腦科學和mental health 的研究,對人類智能的機制機理非常感興趣。這幾年AI的發(fā)展讓他開始思考一個問題:人類智能恰好可以簡化為“推理+長期記憶”,推理這一半已經(jīng)有無數(shù)巨頭在卷了,長期記憶是不是一個極具戰(zhàn)略獨立性的方向?這個判斷和我自己的思考剛好吻合。
硅星人:在您看來,Long-term Memory到底要解決什么核心問題?
鄧亞峰:三件事。
第一,突破有限的上下文長度。現(xiàn)在模型上下文窗口基本到了1M token,但記憶數(shù)據(jù)量超過這個限制就沒法用了。現(xiàn)有的RAG或壓縮方案都是工程妥協(xié),不是最優(yōu)解。我們做memory,本質上是幫模型更好地管理上下文,在極高壓縮率、低token消耗的前提下,讓模型有效利用無限的歷史信息。
第二,實現(xiàn)真正的個性化。人在交流中會為對方建立profile:身份、偏好、價值觀、語言風格、目標。LTM就是幫Agent構建和維護這樣的用戶畫像,交互越多越懂你。當然,LTM的個性化設置不僅限于Profile Memory。
第三,Self-evolving,自進化。今天的AI靠offline training提升能力,在和用戶交互的過程中并不會變得更聰明。我認為下一代AI一定是在交互中學習的,是一種online learning。Long-term Memory是實現(xiàn)自進化的關鍵:通過記錄和分析交互的成功與失敗,總結最佳實踐,知識和思考方式都隨之進步。
這三件事和人類進化出長期記憶的原理是一樣的。遠古時代,哪里水草豐茂你要記住,哪里有危險你也要記住,同時你還要根據(jù)季節(jié)和天氣去預測未來,這片草地會變得更濕潤還是會發(fā)洪水。而且研究表明,長期記憶幫助人類組織訓練樣本,把不同經(jīng)驗分類聚合,所以人的泛化能力遠強于模型。模型是把所有數(shù)據(jù)不做區(qū)分地扔進去訓練,很容易過擬合,或無差別求概率。人腦的長期記憶機制讓學習更有結構,泛化更強。AI的Long-term Memory要做的,本質上也是這件事。
![]()
Memory Layer 和 Agent 層
硅星人:您提到的個性化和自進化,聽起來更像Agent應用層的功能,不像infra layer能做的事?
鄧亞峰:這是一個很好的點。Infra layer能做一部分。我們最近在做一個即將開源的feature,基于memory的自進化。不同Agent把運行的trace放到我的memory里,我可以根據(jù)成功和失敗的經(jīng)驗去總結最佳SOP。比如你做了一個任務成功了,我做了一個類似的任務失敗了,當我把大量用戶的經(jīng)驗積累下來,就可以learn from experience。這在記憶層是可以做到的。
如果想做得更深,比如基于用戶反饋做強化學習,那確實需要Agent層和Memory Layer協(xié)同。但Memory Layer在其中扮演關鍵角色:幫Agent層組織數(shù)據(jù),就像人腦長期記憶輔助學習的機制一樣。
硅星人:在您看來,接入Memory Layer,Agent最直觀的智能提升體現(xiàn)在哪?
鄧亞峰:四個維度。
第一是效率,token的極致壓縮。這對控制成本至關重要。如果我們的產(chǎn)品能讓token數(shù)極度下降,這件事的商業(yè)價值是非常大的。
第二是成功率。我們做了基于skill的自進化機制,Agent可以從過去經(jīng)驗中學習,某些指標實測提升了234.8%。比如你昨天用一個功能可能還會失敗,但這兩天有幾個人也用過了,系統(tǒng)學到了其中成功的經(jīng)驗之后,你今天再用就成功了。系統(tǒng)會變得越來越好。
第三是個性化。不同用戶有不同的上下文和記憶,每個人的助手體驗都獨一無二。我們內(nèi)部有個AI Native的協(xié)作平臺叫Tanka,提供基于長期記憶的AI助手。背后的LLM和推理技術是一樣的,但因為每個人的記憶不同,聊出來的效果就完全不一樣。
第四是主動性。記錄了用戶的行為歷史之后,Agent可以預測下一步需求。比如我知道你每天這個時候要買杯咖啡,我就可以提前提醒你。再進一步,我甚至可以提前把事情做了,再問你"這是不是你要的結果?"就像一個能預判需求的好員工,你沒有assign的工作他已經(jīng)做完了。
![]()
記憶怎么更新,怎么"忘記"
硅星人:我用GPT經(jīng)常遇到這個問題:我的生活已經(jīng)更新了,但它對我的理解還停在之前。比如之前跟它聊過的人事物,在我現(xiàn)階段的生活里已經(jīng)不重要了,但它還總是提起,就讓人覺得很煩。EverMind怎么處理記憶的沖突和過時信息?
鄧亞峰:我們的機制分兩步:在線提取(Online Memory Extraction)和離線進化(Offline Memory Evolution)。
在線提取,信息進來后做boundary detection,把同一topic的內(nèi)容聚到一起,提取事實性的情景記憶(episodic memory),再預測這個事實對未來的影響,我們叫forecast。記憶不只是存檔,要能服務于未來的決策。
離線進化,系統(tǒng)定期做幾件事:在更大范圍信息上提煉用戶profile;做反思和刷新,有點像Claude Code里"dream"做的事,讓模型回頭審視之前的判斷對不對;還有處理記憶更新,通過記憶聚類策略(merge),把相似話題聚在一起,沖突信息按時間線用最新的做update。
遺忘坦白講是更難的。Update相對容易,用最新的信息替代老的就行。但遺忘有一個周期性的問題:你昨天提到一個人,系統(tǒng)覺得他重要;一星期前呢?一個月前呢?是不是就該忘了?我們現(xiàn)在是在離線策略中把每條信息的時間放進去,結合我們的預測未來功能,讓模型自己去推測這條信息的時效性。坦白說,在當前這個時間點還沒有做到非常理想,但我認為它是一個會被逐步解決的問題。
我的判斷是:AI的"遺忘"不應該是物理刪除,數(shù)據(jù)存在磁盤上不貴,而是一種權重調整策略。近期信息權重高,遠期信息權重低,但需要時仍能找回。人類為什么需要遺忘?兩個原因:一是人腦是低能耗系統(tǒng),記太多東西能耗扛不住;二是你需要基于近期信息做決策和預測。AI不存在第一個限制,它只需要在決策中把時效性和重要性合理考慮進去。從這個角度說,AI的遺忘機制實際上可以比人類更優(yōu)。
![]()
開源生態(tài)與大廠競爭
硅星人:EverOS已經(jīng)在GitHub上開源。但OpenAI、Anthropic也都有自己的記憶功能,用戶已經(jīng)積累了很多偏好數(shù)據(jù)在他們的平臺上。第三方Memory Layer怎么找到自己的位置?
鄧亞峰:我們的定位是做一個memory layer for agents,未來所有Agent都需要記憶功能,但沒必要每個團隊都自己建一套infra。我們希望成為那個公約數(shù)。
大廠一定會做記憶,但第三方記憶層的空間來自一個簡單事實:用戶不會只用一個產(chǎn)品。你不會只用Claude,也不會只用OpenAI。你在各個產(chǎn)品上的歷史信息都有價值,所以反而需要一個真正屬于自己的跨平臺記憶管理工具。這件事的驅動力是用戶需要,不是我們想做還是大廠想做。
另外,memory管理不需要最頂尖的大模型。我們用4B的模型能做到235B級別的效果,更快、成本更低。對開發(fā)者來說,memory將來不是"能不能"的問題,而是性價比的問題。
開源策略上,我們非常徹底:開源版和本地部署等價,數(shù)據(jù)完全留在本地,滿足隱私要求高的用戶。同時也有云版本,讓不想自己部署的小團隊即插即用。最核心的算法全部開源。我們也在做一件事,幫用戶把Claude Code、OpenAI和其他Agent里的memory數(shù)據(jù)打通,跨平臺、跨端、統(tǒng)一管理。跟很多人聊完發(fā)現(xiàn),這是一個很剛的需求。
硅星人:記住的信息越多,安全風險也越大。這方面怎么平衡?
鄧亞峰:兩個層面。信息安全,也就是記憶會不會泄露,這跟云服務的安全挑戰(zhàn)是等價的,需要扎實的技術保障。另一個是系統(tǒng)要對敏感信息做過濾。比如用戶告訴你密碼、銀行賬號,我們有個vault機制,把高敏感信息隔離存放,只在特殊情況下激活。
部署模式上,記憶的理想形態(tài)是云端和端側結合。用戶的數(shù)字資產(chǎn)存在本地設備上,復雜處理借助云端,兩邊做同步。我們的模型已經(jīng)可以做得很小,將來設備能跑4B模型,計算就可以完全部署到端上。
![]()
如果 AI 記住了你的一切
硅星人:如果AI擁有了非常長周期、非常精確的記憶,它就不再只是工具了。您希望您的AI助理記住什么,不想讓它記住什么?
鄧亞峰:我覺得未來最理想的狀態(tài)有兩種。一種是"賈維斯",24小時跟著你的AI,你的任務和意圖都通過它完成,它只需要你確認結果。另一種是數(shù)字分身。AI足夠了解你之后,可以代表你去"打工",或者做Agent社交。我們每個人都有很多兩年都不會聊天的朋友,但彼此可能有值得交流的信息。人是串行的,AI是并行的,你的數(shù)字分身可以和他的數(shù)字分身聊天,發(fā)現(xiàn)共同話題了來告訴你,"你們兩個應該聊聊這件事兒。"這讓我覺得非常exciting。
至于記什么、不記什么,理想的AI要有邊界感和情商,知道哪些話題在情感上是敏感的。不過有意思的是,人和AI的相處有時比人和人更容易,你天然認為AI跟你是一邊的,反而更愿意傾訴一些不會跟朋友說的事情。
硅星人:我對memory有個感受:它有點像人類對時間感知的演變。在手表普及之前,你出門之后其實不知道現(xiàn)在是幾點幾分了,對時間只有一個模糊的感知。而現(xiàn)在有了手機,你可以隨時隨地知道現(xiàn)在的時間。而人類目前對記憶的感知,就像手表出現(xiàn)之前人類對時間的感知程度。您覺得,如果AI有了精確的長期記憶,人對自身經(jīng)歷的感知會不會也發(fā)生類似的轉變?
鄧亞峰:這個比喻非常好。現(xiàn)在的人類就像鐘表剛發(fā)明時的狀態(tài),對自己做過什么有大致感知,但不精確。如果AI能長周期地精確記錄和管理你的個人數(shù)據(jù),人對自我的了解會上升到一個現(xiàn)在無法想象的程度。
而且AI的記憶能力可以彌補人類的一個先天限制:人的能量有限,所以有人擅長宏觀規(guī)劃,有人擅長細節(jié),很少有人兩樣都強。但AI的Long-term Memory可以既幫你梳理三年來的大事脈絡、做更有遠見的規(guī)劃,又能在你需要時精確調出三年前某個時刻的具體細節(jié)。宏觀和微觀完美結合,這是AI在memory上真正讓人興奮的地方。
![]()
![]()
點個“愛心”,再走 吧
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.