<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      對話唐波 x 伍斌:OpenClaw 最強的地方,為什么也成了它最大的短板? | AI 進化論

      0
      分享至

      大家比較的,可能已經不再只是模型強不強、代碼好不好,而是它能不能把經歷變成經驗,把“記住”變成“會用”。

      作者 | 王啟隆

      出品丨AI 科技大本營(ID:rgznai100)

      大家最早討論 OpenClaw 時,記憶幾乎總被當成它和普通聊天機器人的分界線。


      它有 workspace,有 MEMORY.md,有 daily memory,也有一整套試圖把智能體變成“長期協作者”的結構。和那些一問一答、對話結束就幾乎歸零的模型相比,它看上去更像一個能持續做事的系統。

      但很快,記憶也成了圍繞它最密集的抱怨來源

      不會經常存,不會穩定取,反復讀、反復壓縮、反復試錯。明明已經踩過的坑,下一次還會再踩一遍;明明已經講過的背景,過一輪任務又得重新交代。記憶原本是它最被期待的一部分,最后也成了它最早暴露問題的一部分。


      近日筆者整理文章時,正好遇到了 OpenClaw 在對話中途因上下文過載突然“斷線”。這就像一個原本和你并肩趕路、聊得熱火朝天的摯友,在眨眼間眼神忽然空洞。他依然維持著那個禮貌的坐姿,卻在下一秒開口時,用那種客氣而冰冷的陌生語調問你:“你好,請問有什么可以幫您?”

      在那一刻,你們共同度過的幾個小時,連同那些默契與共鳴,都被徹底格式化成了一片白噪音,實在是細思極恐。

      這當然不只是 OpenClaw 的問題。當 Agent 開始真正進入長期任務、長期協作,甚至多 Agent 配合的場景之后,一個更底層的分界線開始浮現:大家比較的,可能已經不再只是模型強不強、代碼好不好,而是它能不能把經歷變成經驗,把“記住”變成“會用”。

      聚焦 OpenClaw 引爆的智能體革命,我在 CSDN 最新一期《AI 進化論》直播里,對話了兩位能解答這些問題的專家:記憶張量 MemTensor 應用算法負責人、MemOS OpenClaw 項目技術負責人唐波和奇點智能研究院 AI 輔助軟件開發咨詢師、《氛圍編程》作者伍斌


      這一期,我們表面上聊的是記憶系統,實則是在拆解下一代 Agent 走向“長期主義”的底層邏輯。這也是這一季《AI 進化論》系列策劃的初衷——從起源、技術、產品、安全到未來,深度拆解 OpenClaw 引爆的智能體革命,為每一位試圖在 Agent 時代尋找坐標的開發者提供一份“生存指南”。


      OpenClaw 最強的地方,為什么也成了它最大的短板?

      王啟隆:為什么到了這一輪的 Agent 發展,大家又重新開始認真討論記憶的問題?如果往前看幾年,大家關心的就是模型能力本身,在 Benchmark 上打榜。現在大家真正發現 Agent 要進入 workflow,光能回答問題還不夠,它還得能延續偏好、上下文,以及已經踩過的坑和得到的結論。

      唐波:做 Memory 這件事很早,從 2023 年我們把 Memory 訓練到基座模型,一直到現在做了很長時間。為什么現在 Memory 變得愈發重要?關鍵在于 OpenClaw 把 Agent 推到了大家的面前,讓大家對任務的執行有了更多的理解。

      OpenClaw 在執行過程中,面對的是非常長期的任務,不像以前我們一問一答就結束了。那時直接用一些簡單的 RAG 方法,也可以檢索到它以前記過的簡單東西。但是現在 OpenClaw 已經到了任務級別。

      在執行任務的過程中,有很多內容,比如代碼、腳本、過往的執行情況,例如探查到哪個文件夾之類。在反復相似的任務執行過程中,它去記住這些東西是很重要的。這不只是說我之前看過什么東西,而是說“之前我遇到了這些情況,或者解決了這個問題,對我后續任務的執行有多大影響”。它應該像人一樣去理解,而不是簡單地記住。

      從“記住”到“會用”之間有很大不同。以前我們都要求絕對的匹配,完全一樣的詞才能檢索出來,或者講過某一個事情才能把它召回。但現在更多的是要在任務級別,或者在更長程的任務里面,形成一種相似的借鑒和依賴,來啟發模型完成從“記住”到“會用”的過程。

      伍斌:我是從使用工具的角度來看。在我去年出版《氛圍編程》的時候,大模型的能力還不是很強。今年就不太一樣了,大模型能力越來越強,再用氛圍編程寫代碼時,可以做的事情也越來越多。

      很多小伙伴可能會忽視掉,比如換一個話題,需要新建一個會話,但他們會把所有不相關的內容都放在一個 session 里面,這會導致模型出現幻覺,輸出質量非常差的結果。隨著模型越來越強大,工作越來越復雜,使用大模型的時間越來越長,該怎么樣去管理好這種記憶,是一個必然要面對的問題。


      從“記住”到“會用”,中間差的到底是什么?

      王啟隆:記憶算是現在 Agent 相比我們常用的 ChatBot 的顯著優點。但比較有趣的是,OpenClaw 現在最大的問題也是記憶。為什么 Agent 對記憶的需求現在會明顯增強?以及 OpenClaw 是在哪一方面做得不好,導致它的記憶問題成了一大缺陷?

      唐波:OpenClaw 本身對記憶這層做的工作還是蠻多的。最開始它的記憶都放在文件夾里面,做了一些壓縮,然后讓模型去讀。早期出現的問題是:

      第一,它不會經常去存東西。每天的聊天記錄是以文檔方式放進去,存到一個 .md 文件里,就像寫日記一樣記流水賬。在核心記憶和文件里,你必須明確告訴它“存”,它才會寫到文件夾里面去。不會經常存,而且檢索調用的頻次也不是很高,這是第一個問題。

      第二個問題是,之前的 Memory 無論如何會去讀最近兩天的文件,這個量其實非常大。如果你用 OpenClaw 比較多,一天就能積累非常多的內容。這就導致它不斷觸發壓縮存儲的策略,需要去加工,消耗的 Token 就會比較多。

      不經常存,也不穩定地取,就會導致有些問題它反復去試錯。其實這個問題它已經碰到過,但是這一次它沒有獲取到記憶,導致反復試錯,也包括跟人之間的交互。這就會導致Token 消耗變得很多,讓大家感覺 OpenClaw 怎么那么費錢。同時,有的時候感覺跟它說過了,它怎么又不記得了?或者因為它要反復讀最近兩天的內容,導致響應時間變長,反復壓縮又導致 Token 消耗大幅上漲。

      總結下來,現有的 OpenClaw 記憶效率沒有那么高;其次,圍繞記憶從“看到”、“知道”到“學會”、持續演進,以及群體協作方面,做得還不是很好。

      它不是簡簡單單說我之前看過什么東西,而是說之前我遇到了這些東西,或者解決這個問題,對我后續任務的執行有多大的影響。應該像人一樣,而不是只是簡單地記住它。從“記住”到“會用”之間是有很大不同的。就像你和 AI 說:“我之前已經跟你講過類似的東西,你怎么就記不得呢?”以前我們都是要求絕對的匹配,完全一樣的詞檢索出來,或者講過某一個事情把它召回。

      但現在更多的是要在任務級別,或者在更長程的任務里面,形成一種相似或職務上的借鑒和依賴,來啟發模型從“記住”到“會用”的過程。

      王啟隆:這種目標究竟是 Agent 技術,還是演進到一種持續學習、經驗壓縮和自我更新的能力?這也正是直播開始前提出的討論:如何讓 Agent 從“記住”(Remember)走向“學會”(Learn)。想請兩位老師定義一下,Agent 怎么樣才算“學會”?

      唐波:Agent 的“學會”,我們現在的定義是,相似的任務它知道怎么去解決。學會的邏輯在于能夠舉一反三,遇到相似的事情能快速處理掉。舉個具體例子,它在查文件夾時,看到里面都是視頻,那么下次查文檔就不會再去看一遍了。學會的標志就是以前踩過的坑,在新的任務下不會再重蹈覆轍,這非常重要。

      伍斌:“記憶”就好比有個地方存著,類似于從數據庫里去取。“學會”是智能體知道了這個知識,碰到情況就去調用工具干活。如果它能干活,并且知道以前踩過的坑,這就是學會了。

      唐波:但實際上像我們學數學,不是說那個公式你看過就完全理解了。更多的是首先看清楚公式是什么,接著理解它是什么,然后再把這個知識跟過往的知識融會貫通。以后在相似的場景下,你才能夠觸發。這個事情非常重要,直到現在 OpenClaw 也沒有解決。如果要讓我們的 Agent 從“記住”到“學會”,并且持續演化,這是非常重要的一環。

      王啟隆:很多開發者覺得 AI 不是不聰明,而是每次都得重新解釋,重復帶 AI 進入上下文,這是每天最煩的損耗。想切換到伍斌老師的視角,在您的工作中,有沒有哪些事情讓您明確覺得,沒有記憶系統,AI 永遠只能打下手,做不了真正的長期協作者?

      伍斌:我體會挺深的。寫了《氛圍編程》這本書之后,我開始嘗試拿它做一些感興趣的應用。去年 LangChain、LangGraph 比較熱的時候,我用它做了一個智能體,幫我孩子選大學專業,需要去網上搜“十四五”規劃,挑選國家重點投資的專業。

      這個事情要經過多輪對話,先澄清訴求,提出方案,再去執行。當時我沒有 Memory 的概念,以為大模型能支持,結果發現不行。第一輪對話之后,第二輪它就把前面全忘掉了。后來只能把前面的所有對話再發一遍。這就像你請了個新實習生,結果發現他是個失憶者,每次都要跟他講架構和規范,非常煩。這讓我印象非常深刻。


      記憶真正難的,不是存下來,而是在對的時候調出來

      伍斌:OpenClaw 有一個優勢,它的所有記憶都在你的 workspace 下面。一般來說會有一個大寫的MEMORY.md文件,把你希望它記住的長期內容、要點,比如踩過的坑,讓它整理存進去。還有一個目錄下面,按照時間戳來存日常的 memory,它會自動調用最近兩天的 memory。雖然是粗粒度,但至少能讓你看到。

      它的弊端是沒有過濾或處理,一股腦就把兩天的記錄,或者所有的 memory、tools、agents 都讀了進來,這會占用很多上下文。

      唐波:MemOS 提供了云上版本和本地版本。先講一下大家關注比較多的本地版本是怎么解決這個問題的。記憶進來以后,MemOS 本身會對它進行壓縮,提煉這究竟是一件什么樣的事情。其他記憶系統可能是一片一片先把對話內容分片放進去,因為太長檢索效果會下降。MemOS 的做法在這個部分是一樣的,我們會把片段內容先壓縮,然后再放進去。壓縮做的 summary 只是故事的概要。

      當來一個 query 去檢索相關的東西,它會先精準命中片段并召回。召回以后交給大模型,大模型會覺得這只是一個片段的信息。如果片段信息不能支持解決當前的 query,它就會去調用我們提供的工具,把這個記憶或者任務的全部內容拿出來:當前做這件事情的背景是什么,是怎么做的,拿到了什么結果。

      如果它覺得這是一個很復雜的系統工程,之前涉及過更困難的事情,它就會看以前做這件事情沉淀了哪些 Skill,是不是不需要反復試錯。那就把 Skill 拿過來,按照 Skill 去執行即可。

      整個 AI 執行過程中的信息,我們認為都是有用的。更重要的是怎么把正確的記憶調出來,這是至關重要的。所以我們做了記憶的版本。召回的時候,先召回相似的語義。如果有多個節點,我們再去看當時場景下用什么樣的記憶最合適。我們認為所有的信息都是有意義的,更重要的是在 query 的時候,通過時間、人物或具體 context 去判斷,當前應該用哪條記憶。

      王啟隆:我現在“養蝦”也輸入了幾千萬 Token 了,經常在想記憶膨脹之后,上下文越來越多怎么辦?我現在看到 MemOS 進入界面后,有一個很新穎的點,就是記憶可以自動管理。想問一下你們是怎么做記憶篩選的?包括不同會話、不同日志,從技術層面可以講一下嗎?

      唐波:整個 AI 執行過程中的信息,我們認為都是有用的。大家討論記憶遺忘這個事情,假設給你永久過目不忘的能力你要不要?我相信所有人都愿意要。所以我們認為所有東西都是有用的。應該發揮電腦本身的優勢,什么都能查到,只是應該在合適的地方和時間,把正確的記憶調回來

      我們不會把記憶刪掉,繁雜或重復的都會放進去。只是在檢索的時候,我們會對記憶做版本管理,對重復的記憶做標注。召回的時候,先召回相似的語義。如果有多個節點,我們再去看當時場景下用什么樣的記憶最合適。


      你以為你在省事,其實你只是換了一種管理方式

      王啟隆:我最近還有個直觀感受,沒裝 MemOS 之前,很多時候在做機械的事,不停地給 AI 補充背景 context,變成了“人給 AI 干活”。

      裝上之后以為可以輕松一點,全放給 AI 做。但其實人還是要干活,只是換了種做法:開始想哪些東西值得沉淀成 Skill,哪些是臨時信息,哪些值得整理成任務。這會不會反過來要求人未來學會另一種能力,不只是提問,還要學會管理上下文、管理經驗、管理協作方式?

      伍斌:我體會挺深的。寫了《氛圍編程》這本書之后,我開始嘗試拿它做一些感興趣的應用。這個事情要經過多輪對話,先澄清訴求,提方案,再去執行。當時我沒有 Memory 概念,以為大模型能支持,發現不行。第一輪對話之后,第二輪它就把前面全忘掉了。后來只能把前面的所有對話再發一遍。

      這就像你請了個新實習生,結果發現他是個失憶者,每次都要跟他講架構和規范,非常煩。這讓我印象非常深。

      唐波:目前人還是承擔很多工作,當然我們希望讓 AI 去做自動化的決策。我們希望記憶系統足夠好,就像雇的秘書一樣,給個眼神就知道該給什么東西。以后給一個 prompt,或者一句話讓他寫材料,他應該知道老板今天干了什么事、背景是什么,并自動補上。

      這個事情目前還沒做得很好,還在嘗試做 prompt 的自動化注入,以及跟場景的自動匹配。核心邏輯是,因為有了 MemOS,有了你的記憶,它從而更加懂你。指令發出后,它能根據場景和背景信息注入相關內容,不用你手動敲。我們希望實現的效果是:第一,有了記憶系統,驅動大模型的方式更快,輸入的字更少;第二,它更了解你,輸出的內容你會更滿意,不用反復修改。


      多個 Agent 共享記憶,會更聰明,還是更混亂?

      王啟隆:我進入 MemOS Viewer 界面之后還有一些感受。第一感覺是我的會話居然打通了。以前我的兩個會話是各司其職的,一個寫文章,一個寫提綱,記憶是分開的,比較干凈。結果接入 MemOS 后,我發現他們倆開始“串臺”了,其中一個會話也知道另一個會話發生的過程。

      現在這樣共享長期記憶,協作效率可能會提升,但是角色的邊界、上下文可能也被沖淡了。想問一下你們是怎么解決這個問題的?


      唐波:同一個 Agent 的多個會話,默認是打通的。因為一個 Agent 只有一個 prompt 文件,我們認為它的角色是一樣的,所以默認把系統記憶打通了。

      如果是不同的 Agent 之間,記憶是完全孤立的,A 智能體和 B 智能體之間記憶不會串臺。如果你想讓這兩個智能體協作怎么辦?可以在后臺操作,如果你覺得這條記憶需要共享給其他智能體,只要共享出去就好了,其他智能體就能檢索到這條記憶。

      伍斌:我是這樣想的。剛才說的只是單人場景,今年應該是多智能體協作的年代了。隨著智能體增多,任務越復雜,可能要并行多個智能體協作。每個智能體好比是一個人,比如一個產品經理、一個開發,他們對同一個記憶的理解可能不一樣。該怎么評判哪個智能體的記憶權重更大?遵循誰的記憶來做取舍?

      唐波:這兩個記憶理論上在解決這個問題上都是有用的,但場景不一樣。A 同學執行的電腦可能是個裸機,很多軟件沒安裝,確實要執行很多步。B 同學可能相關的軟件依賴都已經配置好了,下來就能用。這兩個記憶都有用。

      解決這個問題,更多的是要看 context 之間的匹配程度。每一條記憶都有它所屬的背景。現在的做法是先把背景信息重建出來,通過背景信息衡量記憶之間的匹配程度。我們也做了很多記憶效能的分配和匹配,看在當前的 context 下,什么樣的記憶最有用。哪怕看起來都是解決同一個問題,實際上背景信息的重建有天然的差別。

      MemOS 本地版本提供的方法是,首先可以組一個局域網,把信息共享上去,其他人在檢索時能拉到共享的東西。第二,檢索信息后可以加工成 Skill,推到團隊共享里,實現團隊技能的共同進步。用戶可以決定怎么把記憶共享出來,也可以提供對應的 Skill。如果系統處于群體智能感知狀態,它會看當前大家做什么任務,自動挑選工具把當前的記憶、task 或技能發到局域網里,實現自動化。

      王啟隆:很多人一聽多 Agent,會自動覺得分工更多、更協同、更聰明。但其實多 Agent 不一定是把智能體簡單的 1+1,可能是把復雜度乘以 N。


      群體智能真正難的,不是共享,而是治理

      伍斌:我能想到的坑,除了前面說到的哪個記憶權重更高,還有一個問題:哪些記憶是過時的,怎么判斷?人是有遺忘的,會把當前相關的記憶調出來,以前的就遺忘掉。但對于大模型來說,靠什么機制遺忘掉目前不相關的記憶?

      唐波:現在的解決方案做了一些時間衰減。第一是加版本;第二是召回時對記憶做時間上的衰減。老的記憶權重會低很多,這也是業界比較通用的方案。要實現更精準的識別,還是要依靠模型的 ICL (In-Context Learning) 能力去判斷。人也一樣,回憶相關事情時會想哪個跟當前情況更匹配。所以還是依靠模型 ICL 能力的提升,以及記憶片段構建的背景信息。

      王啟隆:多個 AI 一旦共享長期記憶,雖然會更聰明,但會不會慢慢失去原本分角色、分任務的邊界,以及上下文的干凈度?比如一個 Agent 學到了壞經驗,帶著錯誤繼續協作,導致錯誤在系統里被放大。系統會不會有自我糾錯、自我找 Bug 的能力?

      唐波:這個情況完全存在。共享記憶最困難的是隱私安全問題。信息共享給 A、B、C、D,對 AI 來說無所謂,但共享給 B 可能就有問題。比如公司老板和 HR 討論人事信息,在 HR 內部流通沒問題,放在普通員工那里流通就是大問題。

      另外在應用層,信息被帶偏的問題目前還稍微好一點。每條信息都有其存在的價值和使用場景。只要想辦法把 context 構建得足夠全,大概率就知道信息應該在什么情況下使用。另外,我們構建了記憶的效用,Skill 或記憶是有版本的。如果執行出錯,模型會反思環境反饋的結果,發現記憶過時了,然后在執行過程中反向糾錯,記憶就會構建成 V2 版本。

      伍斌:記憶是不是也要 Review 一下?或者讓智能體幫我們 Review,然后人再去看哪些記憶是有害的,進行干預。

      唐波:我們針對這個做了兩點工作。第一,下個版本會在夜間 12 點,把當天的記憶拎出來,篩選 Review 一下哪些重要、哪些有問題,同時構建 To-Do 事項,把今天回憶一遍,列出要做的事,并修正錯誤信息。第二,在 Viewer 記憶頁面上,支持用戶刪掉或修改錯誤的記憶。

      王啟隆:感覺權限開放得越多,Agent 越厲害。未來做 Agent 的記憶系統,會不會變成一個權限設計的問題,而不只是存儲的問題?

      伍斌:權限應該做到架構里去,而不是一個外部系統。現在是智能體時代,AI 能夠去干活了。如果它 7x24 小時幫你干活,聽起來不錯,但如果干的是離譜的活,你也沒盯著它,就會捅很多婁子。所以權限是非常重要的話題,記憶也應該和權限結合起來,而不是什么人都能看到所有人的記憶。


      真正拉開 AI 差距的,不再只是模型,而是持續學習能力

      王啟隆:如果讓兩位用一句話判斷我們這次的直播主題:未來真正拉開 AI 差距的可能不再是哪家模型更大、更會聊天,而是哪一種新的系統能力?你們會怎么回答?

      唐波:我覺得下一步讓模型能夠持續學習和演進才是最重要的。現在大模型訓完,智能就停留在那里,雖然衍生了各種 ICL 能力、RAG、記憶系統,仿佛不會忘記現在發生的事。但進一步的能力提升,比如糾錯、演進的能力,才是下一個 Agent 或智能再提升的核心關鍵點。

      伍斌:我不想說未來幾年,我想說今年。我希望我用的智能體至少能知道我想要什么。我說一句話,它應該知道上下文和意圖,而不是讓我反復重復以前說過的話。把這一點做好,今年就是一個非常大的成果。

      唐波:模型訓練完后能力已經基本確定了,但就像人大學畢業后還會學習很多東西。通過與現實環境交互,獲得反饋,對環境的認知會提升。這并不是說基礎能力提升了多少,而是你見過了、了解了、反思了,自然能舉一反三。

      所以我們希望 Memory 在 Agent 時代,能強調如何用記憶提取經驗,再反向用經驗引導模型決策,讓 AI 像人一樣思考和工作。這可能是 AI 在大模型完成訓練后,再次學習成長的一個重要關口。

      我們希望記憶系統足夠好,就像雇的秘書一樣,給個眼神就知道該給什么東西。以后給一個 prompt,或者一句話讓他寫材料,他應該知道老板今天干了什么事、背景是什么,并自動補上。現在啟動大模型很容易就要寫四五千字的 prompt,因為有太多背景信息和要求要給它。我們希望 OpenClaw 有了記憶系統后,能夠自動填充這些。最終希望用戶打字越來越少,拿到任務的速度越來越快,因為模型懂你。

      結語

      Agent 到底有沒有可能從一次次任務里慢慢長出經驗?

      對用戶來說,最直接的需求也許很簡單:別再讓我每次都從頭講起,就夠了。

      對系統來說,真正困難的也許是另一面:怎么把已經發生過的事,變成下一次還用得上的判斷。這也是為什么,記憶會在這一代 Agent 里變得越來越重要——它不再只是“記住了什么”,而開始決定一個智能體能不能真的成為長期協作者。

      但當 Agent 跨越了這道技術鴻溝,真正成為我們身邊的“長期協作者”時,另一場更猛烈的風暴也將隨之而來:當 Agent 能自主執行任務,傳統的 App 還需要存在嗎?流量與分發的規則將如何改寫?如果多個 Agent 開始在局域網內共享記憶與技能,企業的商業機密與系統安全又該由誰來兜底?作為普通開發者,我們又該如何在巨頭林立的生態中找到自己的位置?

      這些正是 CSDN《AI 進化論》系列接下來要深度拆解的命題。

      聚焦 OpenClaw 引爆的智能體革命,本期探討只是全系列的一環。在接下來的數期直播中,我們將繼續邀請行業頂尖專家、大廠技術負責人與獨角獸創始人,層層揭開 Agent 時代的終極謎題,歡迎關注 CSDN 視頻號,追蹤后續的精彩直播。


      【活動分享】"48 小時,與 50+ 位大廠技術決策者,共探 AI 落地真路徑。"奇點智能技術大會是由深耕多年的「全球機器學習技術大會」重磅升級而來。2026 奇點智能技術大會將于 4 月 17-18 日在上海環球港凱悅酒店正式召開,大會聚焦大模型技術演進、智能體系統工程、OpenClaw 生態實踐及 AI 行業落地等十二大專題板塊,特邀來自BAT、京東、微軟、小紅書等頭部企業的 50+ 位技術決策者分享實戰案例。旨在幫助技術管理者與一線 AI 落地人員規避選型風險、降低試錯成本、獲取可復用的工程方法論,真正實現 AI 技術的規模化落地與商業價值轉化。這不僅是一場技術的盛宴,更是決策者把握 2026 AI 拐點的戰略機會。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      孫儷女兒拉丁舞奪冠,身披國旗領獎氣質酷似鄧超

      孫儷女兒拉丁舞奪冠,身披國旗領獎氣質酷似鄧超

      天馬幸福的人生
      2026-05-15 10:28:09
      麒麟做夢沒想到,請了一堆流量大咖,卻被一位00后運動員搶了風頭

      麒麟做夢沒想到,請了一堆流量大咖,卻被一位00后運動員搶了風頭

      八斗小先生
      2026-05-15 16:52:12
      重慶一市區公園出現毒蛇?專家辨認系劇毒蛇,社區:有居民反映看到,排查暫未發現

      重慶一市區公園出現毒蛇?專家辨認系劇毒蛇,社區:有居民反映看到,排查暫未發現

      瀟湘晨報
      2026-05-15 17:05:36
      拒絕被挑撥站隊!12歲小玥兒戳破與馬筱梅真實交情,成年人別加戲

      拒絕被挑撥站隊!12歲小玥兒戳破與馬筱梅真實交情,成年人別加戲

      橙星文娛
      2026-05-15 13:59:15
      美國眾議院議員強行將援助烏克蘭的法案賦予投票

      美國眾議院議員強行將援助烏克蘭的法案賦予投票

      山河路口
      2026-05-14 12:33:23
      馬科斯姐姐突然偷家,菲律賓參議院變天,杜特爾特家族穩了

      馬科斯姐姐突然偷家,菲律賓參議院變天,杜特爾特家族穩了

      你笑的好甜美
      2026-05-14 20:41:42
      甘肅省副省長調研吳宜澤臺球俱樂部,看望慰問吳宜澤及家人

      甘肅省副省長調研吳宜澤臺球俱樂部,看望慰問吳宜澤及家人

      懂球帝
      2026-05-15 18:01:22
      2-3,大連英博3連敗,阿利米兩次失誤致丟球,李國旭太固執壓著打

      2-3,大連英博3連敗,阿利米兩次失誤致丟球,李國旭太固執壓著打

      替補席看球
      2026-05-15 22:07:51
      登上離開中國專機前,特朗普得到一個重要承諾,日媒:憑什么?

      登上離開中國專機前,特朗普得到一個重要承諾,日媒:憑什么?

      影孖看世界
      2026-05-15 19:07:30
      抽獎得來的Switch 2被老婆偷偷送人,37歲男玩家決心離婚

      抽獎得來的Switch 2被老婆偷偷送人,37歲男玩家決心離婚

      愛游戲的萌博士
      2026-05-14 15:08:52
      新合同起薪約3500萬美元?火箭后場新星值得起這樣的高價薪資嗎?

      新合同起薪約3500萬美元?火箭后場新星值得起這樣的高價薪資嗎?

      稻谷與小麥
      2026-05-15 23:07:15
      嫁給黃仁勛38年,一雙兒女都是公司總監,如今在美國生活安享晚年

      嫁給黃仁勛38年,一雙兒女都是公司總監,如今在美國生活安享晚年

      說故事的阿襲
      2026-05-15 12:54:20
      老人撿廢品14年攢幾萬塊,都買了“玉石床墊”,堅稱能治病,聽不進兒子的勸阻并反目成仇

      老人撿廢品14年攢幾萬塊,都買了“玉石床墊”,堅稱能治病,聽不進兒子的勸阻并反目成仇

      齊魯壹點
      2026-05-15 22:50:00
      鄭州再迎重磅首店,“必勝漢堡”三店同開切入“一人食”賽道

      鄭州再迎重磅首店,“必勝漢堡”三店同開切入“一人食”賽道

      大象新聞
      2026-05-15 16:54:40
      火箭續約消息:伊森2200萬,范喬丹降薪續約,阿門成最大輸家?

      火箭續約消息:伊森2200萬,范喬丹降薪續約,阿門成最大輸家?

      你的籃球頻道
      2026-05-15 08:25:08
      英偉達創始人黃仁勛身家逼近2000億美元,超越邁克爾·戴爾成為全球第七富豪

      英偉達創始人黃仁勛身家逼近2000億美元,超越邁克爾·戴爾成為全球第七富豪

      福布斯
      2026-05-15 18:42:20
      劉震云:如果你一聽到伴侶說話就煩躁,有股無名火,真正的原因不是你討厭他,也不是你脾氣不好,而是條件反射

      劉震云:如果你一聽到伴侶說話就煩躁,有股無名火,真正的原因不是你討厭他,也不是你脾氣不好,而是條件反射

      脆皮先生
      2026-05-13 19:42:42
      瞬間成為百萬富翁!有網友用AI某找回含有5枚比特幣的錢包密碼,激動的瘋狂爆粗

      瞬間成為百萬富翁!有網友用AI某找回含有5枚比特幣的錢包密碼,激動的瘋狂爆粗

      西游日記
      2026-05-14 10:46:28
      張子強勒索十億后,李嘉誠年砸一億為李澤楷配特種保鏢,頂級兵王洪立明為何瀕臨崩潰?

      張子強勒索十億后,李嘉誠年砸一億為李澤楷配特種保鏢,頂級兵王洪立明為何瀕臨崩潰?

      歷史回憶室
      2026-05-15 17:08:18
      不瞞了!馬斯克罕見承認:美國是第一,但第二到第十全都來自中國

      不瞞了!馬斯克罕見承認:美國是第一,但第二到第十全都來自中國

      瀲滟晴方DAY
      2026-04-25 23:29:34
      2026-05-15 23:59:00
      AI科技大本營 incentive-icons
      AI科技大本營
      連接AI技術的創造者和使用者
      2692文章數 7684關注度
      往期回顧 全部

      科技要聞

      直降千元起步!蘋果華為率先開啟618讓利

      頭條要聞

      特朗普稱中方同意購買200架波音飛機 外交部回應

      頭條要聞

      特朗普稱中方同意購買200架波音飛機 外交部回應

      體育要聞

      德約科維奇買的球隊,從第6級聯賽升入法甲

      娛樂要聞

      方媛為何要來《桃花塢6》沒苦硬吃?

      財經要聞

      騰訊掉隊,馬化騰戳破真相

      汽車要聞

      高爾夫GTI刷新紐北紀錄 ID. Polo GTI迎全球首秀

      態度原創

      本地
      手機
      旅游
      數碼
      公開課

      本地新聞

      用蘇繡的方式,打開江西婺源

      手機要聞

      華為Pura 90 Pro系列獲鴻蒙HarmonyOS 6.1.0.120 SP30升級

      旅游要聞

      別只冬天去哈爾濱,五月花海才是正確打開方式!

      數碼要聞

      七彩虹2026款iGame M15/M16 Origo筆記本發售,11499元起

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 国产精品无码制服丝袜| 一区二区免费视频中文乱码| 自拍偷区亚洲综合美利坚| 国产精品国产三级在线专区| 久久久久亚洲AV片无码下载蜜桃| 欧美激情视频二区三区| 日本久久精品一区二区三区| 日本丰满妇人成熟免费中文字幕 | 国产午夜无码片在线观看影院| 2021国产精品久久| 精品无码国产自产拍在线观看蜜| 亚洲不卡av一区二区三区| 亚洲成片在线观看12345| 久久涩综合一区二区三区| 熟女荡漾在线| 影音先锋2020色资源网| 91大神网址| √最新版天堂资源在线| 国产XXXX视频| 欧美性白人极品hd| 岳的下面好紧好爽视频| 国产乱子伦精品免费无码专区 | 欧美性猛交一区二区三区| 精品无码人妻一区二区三区不卡| 国产女人喷潮视频免费| 手机看片日韩| 成人自拍偷拍视频在线| 男女裸交免费无遮挡全过程| 99中文字幕国产精品| av无码免费在线观看| 丰满人妻一区二区三区视频54 | 久久国语对白| 新版天堂资源中文www连接 | 老司机亚洲精品| 中国极品少妇videossexhd| 国产AV无码专区亚洲AV桃花庵 | 精品国产网红主播在线观看| 日本免费完整中文字幕| 亚洲欧洲无卡二区视頻| 丰满女人又爽又紧又丰满| 亚洲韩国精品无码一区二区三区|