仿生人會做夢嗎?如果他們做夢的話,會夢見電子羊嗎?
![]()
電影《銀翼殺手》截圖
1968 年,科幻電影《銀翼殺手》的原著小說作者菲利普·K·迪克,在打字機前敲下這個抽象又超前的問題時,他大概不會想到,半個多世紀后,硅谷的科技巨頭們會一臉嚴肅地給出答案。
會,他們不僅能夢到電子羊,還能把夢可視化。
昨天,Anthropic 在舊金山的開發者大會上,,記憶擴展、結果輸出、多智能體協作,以及「做夢 Dreaming」。
按 Anthropic 自己的說法,「memory(記憶)和 dreaming(做夢)共同構成了一個穩健的、能夠自我改進的 agent 記憶系統」。
![]()
又是做夢,又是記憶,對 AI 領域不太關注的朋友,大概都會滿頭問號,這些屬于人類的詞語,什么時候開始可以如此絲滑地套用在 AI 身上了。
早在 2024 年 OpenAI 推出 o1 系列時,「一系列被設計成在回應前花更多時間思考的 AI 模型」,「思考」二字用得極其自然,自然到沒人停下來追問一句,一個統計預測下一個 token 的程序,憑什么叫思考?
緊接著是 reasoning(推理)、memory(記憶)、reflection(反思)、Imagining(想象),一個一個把人類才會做的事情,挨個搬到產品發布會上。
![]()
探討夢的電影《紅辣椒》截圖
「思考」還能解釋成隱喻,「記憶」也勉強算技術行話的延伸,「做夢」真就有點過了。文史哲幾千年都沒研究清,AI 公司卻能直接說:我們不僅做出了能思考的機器,我們還做出了會做夢的機器。
什么是做夢,除了做夢,找不到任何一個能精確描述這件事的工程術語了嗎?
AI 做夢也要花錢
早在 Claude Code 代碼泄露事件中,就有網友發現 Anthropic 正在準備一項名為 Auto Dreaming 的功能。當時,大家都在想,難道 AI 也和我們人類一樣,需要睡覺,得到足夠的休息,才能變得注意力更集中,更聰明嗎?
![]()
但只要了解目前 AI Agent 的工作原理,就會發現所謂的「做夢」,本質上只是一次自動化的離線日志批處理。
AI Agent 現在擅長完成一些長鏈路的復雜任務。比如「幫我調研一下這五家競品的最新財報,并整理成表格」。在這個過程中,Agent 需要在不同的網頁間跳轉,讀取多個文檔,調用不同的工具,甚至可能因為遇到反爬蟲機制而碰壁重試。
當這一長串繁雜的在線任務結束后,Agent 的后臺會留下海量的運行日志。
![]()
圖片由 AI 生成
Anthropic 的「做夢」功能,就是讓 Agent 在閑置時間里,重新梳理這些歷史記錄。它會從中尋找模式,比如發現「每次遇到這種彈窗,點擊右上角就能關掉」,從而優化下一次的操作路徑。
「記憶」負責在工作時捕獲學到的東西,而「做夢」則在會話之間提煉這些記憶,并在不同的 Agent 之間共享。
說白了,這就是一種基于歷史數據的強化學習和自我糾錯機制。
![]()
夢的介紹:https://platform.claude.com/docs/en/managed-agents/dreams
這次開發者大會上更新 Managed Agents 里的 Dreams,是個后臺處理的任務,我們需要手動觸發。Claude 一次能讀最多 100 個 session 的對話歷史,然后產出一份全新的 memory,供我們審查后再決定要不要用上。
而之前在 Claude Code 里已經悄悄上線的 AutoDream,是每次跟 Agent 聊完一輪,Claude Code 就會在后臺檢查「該不該做夢」,默認是 24 小時跑一次。
類似做夢的功能,Hermes Agent 也有。,它不僅支持自動從過去的任務里面總結出經驗,放在記憶文件里。
![]()
上下滑動查看更多內容
其中一項叫 Curator 的功能,還能將這些提煉出來的操作指南,自動整理成 Skill。
這些 Skill 會被打分、重復的進行合并、長期不用的自動歸檔,甚至還有 active、stale、archived 這樣的生命周期。我們還能把重要 Skill Pin 住,不讓系統自動清掉。
OpenClaw 在最近的幾次更新里,也添加了相關的機制,像是跨對話的持久記憶、定時的任務調度、子 Agent 隔離執行,以及直接叫 Dreaming 的做夢功能。
![]()
OpenClaw 的做夢:https://docs.openclaw.ai/concepts/dreaming
在 OpenClaw 的做夢機制里,它把夢境的行程概括成三個階段,light、REM、deep。前兩者負責整理、反思和主題歸納,deep 才真正把內容寫入長期記憶 MEMORY.md。
![]()
而深度睡眠階段的鞏固,會由 6 個加權信號進行決定,是否需要寫入長期記憶。這六個信號包括頻率、相關性、查詢多樣性、時效性、跨天重復度、概念豐富度。
![]()
圖片由 AI 生成
寫入長期記憶,會生成兩份文件,一份面向機器的狀態文件,放在 memory/.dreams/;另一份是面向用戶的可讀記錄,寫入 DREAMS.md 和按階段生成的報告。
此外,Dreaming 可以自動定時運行,默認每天凌晨 3 點跑一次完整流程,順序是 light → REM → deep。
除了做夢的輸出,OpenClaw 還維護這一個叫 Dream Diary 的文檔, 系統會自動生成一份「夢境日記」,用敘事方式記錄記憶整理過程,強調可解釋、可審閱,而不是黑箱寫庫。
神經科學里有一個非常經典的理解:人類白天獲取的信息,先進入更偏臨時存儲的系統;而在睡眠過程中,大腦會對這些信息進行重放、鞏固和清理,把重要的留下,把無意義的丟掉。
![]()
圖片由 AI 生成
我們不會記得昨天上班路上每一輛車的顏色,但會記得怎么去公司。
這些夢,聽起來和我們人做夢確實一樣,非得找點不同,大概就是 Claude 做夢的時候,還是在消耗我們的 Token。
但 Anthropic、OpenClaw 都沒有選擇叫它「基于會話的優化(session-based optimization)」,或者是「任務后調優(post-task tuning)」等,偏向工程方面的名字。
畢竟,當把那些復雜名字,直接變成「做夢」,我們感受到的就不再是軟件功能,而像一個「有內心活動的數字生命」。
AI 的記憶,是瑣碎的上下文
既然提到了「做夢」,就不得不提它的前置條件,記憶(Memory)。
過去一段時間,AI 圈最火的詞從提示詞工程,變成上下文工程、Skill 工程、,但無論怎么變化,目前最有價值的還是上下文工程。
系統提示、用戶輸入、短期對話、長期記憶、檢索回來的文檔、工具和 Skill 調用的輸出、當前用戶狀態,這些層疊加起來,就是 agent 真正在用的「上下文」。
讓 Agent 能記得更多,記下更有用的內容,一直是過去很長一段時間以來的難題。
![]()
Manus 去年發了一篇技術博客,專門講 Manus 是如何優化上下文工程。里面提到了把 KV-Cache 緩存命中率,定義為生產環境中 AI Agent 最重要的單一指標之一。同時在工具調用層面,優先做「遮蔽」而不是「移除」;以及把文件系統作為終極上下文等方法。
要理解所謂的 KV Cache(鍵值緩存),我們可以把大模型想象成一個每次只能讀一個字的極度強迫癥患者。
當它處理一句話時,它會為每一個生成的 Token 計算出一個 Key(鍵)和一個 Value(值)向量。為了不每次都從頭重新算一遍,它會把這些 (K, V) 鍵值對存起來,這就是 KV Cache。
![]()
KV Cache(鍵值緩存)是大模型在生成文本時,用來「用空間換時間」的底層加速技術。緩存使得模型在預測下一個詞時,不需要把前面的所有詞重新計算一遍。圖片由 AI 生成。
只要對話在繼續,KV Cache 就會不斷的保存。一般情況下,在面對動輒 128k 上下文的大模型時,一個 70B 參數的模型跑滿 128k 上下文,單單是 KV Cache 就能一口吞掉 64 GB 的顯存。
這也是為什么大多數模型的上下文窗口,目前最多都是百萬級別。
昨天,一家拿到 2900 萬美元種子輪融資的新公司 Subquadratic,在 X 發布 SubQ 新模型,主打更長上下文。
![]()
SubQ 宣稱可支持最高 1200 萬 token 上下文窗口,這是目前所有大模型里面最大的上下文窗口。
雖然還沒有技術論文或模型說明文檔,介紹的視頻里提到,SubQ 的核心技術路線是從傳統 Transformer 的「稠密注意力」,轉向帶有稀疏注意力的「次二次 / 線性擴展」架構。新的架構有望能解決上下文越長、算力成本越爆炸的問題。
![]()
給出的測試結果也相當激進,在 100 萬 token 下,速度提升超 50 倍、成本降低超 50 倍;在 1200 萬 token 時,算力需求較前沿模型可降低近 1000 倍。
而在 RULER 128K 長上下文基準上,Subquadratic 稱 SubQ 以 95% 準確率、8 美元成本,對比 Claude Opus 的 94% 準確率、約 2600 美元成本,成本下降約 300 倍。
要不擴大上下文窗口,要不讓模型學會做夢,自己丟棄一些東西。
這也是為什么 Anthropic 等 Agent 產品,現在必須推出 Dreaming。在上下文窗口受限的情況下,更聰明的 AI 不能光靠塞進更多內容,還需要有的放矢。
承認機器只是機器,比想象中難
了解了 AI 的做夢與記憶機制,我們或許能知道它和人類活動之間的關系。
但把所有這些 AI 公司造出來用在機器上的詞放在一起,OpenAI 的 thinking 思考、行業通用的 memory 記憶和 hallucination 幻覺、Anthropic 這次的 dreaming 做夢,以及 Anthropic 那本憲法里的美德和智慧。
我們能看到,AI 公司遠不只是在賣產品,它們在重新分配「人」這個概念里的詞匯所有權。每挪用一個詞,機器和人的邊界就模糊一寸。
![]()
語言會塑造預期,預期塑造容忍度,容忍度決定我們愿意把多少東西交給它。這是一條很長的鏈條,但起點就是發布會上那些無害的詞。
更隱蔽的一層影響是責任分配。當工具被描述成有「思考」、「記憶」、「價值觀」的實體,它出問題時,我們會自然地把它當成一個獨立的「行為主體」來追責,是這個 AI 它需要被「教育」「調試」「校準」。
可真正應該被追問的,是把這個程序部署到我們工作流里的那家公司,和寫出「dreaming」這個詞的那個產品團隊。詞一換,「被告席」上坐著的人也換了。
而我們看著一臺會「思考」、會「記憶」、現在還會「做夢」的機器,也開始下意識地相信里面有什么東西。因為承認這只是一個機器,那種「我在跟一個會思考的存在對話」的體驗感就消散了,回到的是冷冰冰的工具關系。
![]()
白日夢功能介紹|圖片由 AI 生成
我已經想到了,Dreaming 做夢是處理過去的內容,接下來 AI 公司還會推出 Daydreaming,白日夢,用來預演未來。
介紹就是,白日夢或者走神,能讓 Agent 在活躍的狀態下,用一小部分的空閑算力,結合當前的正在進行的項目,同時去做探索性生成,準備未來可能的任務。
我們正在招募伙伴
簡歷投遞郵箱hr@ifanr.com
?? 郵件標題「姓名+崗位名稱」(請隨簡歷附上項目/作品或相關鏈接)
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.