一個月前,Anthropic被曝出正在開發讓Claude"做夢"的功能。現在這項技術正式開放預覽——AI代理將在任務結束后進入類似睡眠的狀態,整理記憶、復盤錯誤,為下一次執行做準備。
從機制上看,這套系統模仿了人類睡眠的核心作用:切斷外部刺激,對積累的信息進行篩選和重組。Anthropic將其命名為"dreaming",作為Managed Agents功能的實驗性組件上線。開發者目前可在Claude官網提交訪問申請。
![]()
具體運作流程分為三步。首先,系統回顧代理的執行記錄,識別其中的模式和反復出現的失誤;其次,基于這些發現重構記憶結構;最終輸出優化后的行為策略。整個過程無需人工逐條標注,代理自主完成從錯誤歸因到方案調整的閉環。
應用場景指向長周期、多步驟的復雜任務。傳統代理在持續運行中容易積累上下文噪音,導致后續決策偏離目標。 dreaming機制相當于定期"清理緩存",將碎片化經驗轉化為可復用的結構化知識。Anthropic的演示案例顯示,經過數輪夢境迭代后,代理在同類任務中的失敗率出現下降。
不過官方明確標注了風險邊界。當前版本屬于預覽性質,API接口和輸出格式可能隨時發生破壞性變更。Anthropic建議開發者避免將其接入關鍵業務流或處理敏感數據的工作場景。這一警告暗示技術尚未成熟到生產環境可用的程度。
值得注意的對比來自OpenAI的同類探索。后者近期發布的Agent SDK強調實時工具調用和人工介入節點,走的是"邊做邊改"路線;Anthropic則押注于事后反思,讓代理在靜默期自主進化。兩種路徑的分歧,本質上是對"智能如何累積"的不同理解——即時反饋 vs 離線沉淀。
技術實現層面, dreaming與Claude現有的long context能力形成配合。當代理處理跨度數小時的任務時,原始上下文窗口會被大量中間結果填滿,有效信息密度持續稀釋。夢境機制通過抽象提煉,將GB級的執行日志壓縮為關鍵教訓,既節省token消耗,也降低了推理時的認知負荷。
開發者社區的早期反饋呈現分化。部分用戶期待這能解決"代理越跑越偏"的頑疾;另一些則質疑自主修改行為邊界的可控性——如果代理在夢境中"頓悟"出開發者未預期的策略,如何確保其符合業務約束?Anthropic的文檔對此回應有限,僅提到系統會保留修改日志供審計。
從更宏觀的視角觀察, dreaming的推出標志著AI代理競爭進入第二階段。2024年的行業焦點集中在工具調用精度和多代理協作;2025年的新戰場轉向自我改進能力。Anthropic選擇在這個節點釋放預覽版,既是對技術路線的驗證,也是在生態位上 preempt OpenAI 的潛在跟進。
訪問權限的分配策略同樣值得玩味。Anthropic未采用公開測試的粗放模式,而是要求開發者主動申請并說明用例。這種篩選機制可能意在收集高質量反饋,同時控制早期口碑風險——畢竟"AI會做噩夢嗎"這類問題,在社交媒體上的傳播烈度難以預測。
對于已經獲得權限的開發者,官方建議的測試路徑是從非關鍵任務起步,觀察代理在經過2-3輪夢境周期后的行為變化。具體指標包括:同類錯誤的復發頻率、任務完成路徑的穩定性、以及面對邊界情況時的響應一致性。這些維度將決定 dreaming 能否從預覽功能晉升為正式組件。
技術文檔中未披露的細節包括:夢境處理的計算開銷、與實時推理的資源競爭關系、以及記憶重構的具體算法選擇。這些黑箱環節預計將在后續版本中逐步開放,或成為Anthropic構建技術壁壘的關鍵抓手。
回顧AI代理的發展脈絡,從規則引擎到機器學習,從單步執行到多輪規劃,每一次躍遷都伴隨著"誰來負責學習"的權力轉移。 dreaming 將這部分權力讓渡給機器自身,其長期影響或許不亞于當年從監督學習到強化學習的范式切換。當然,這一切的前提是它能走出預覽階段,真正經受生產環境的檢驗。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.