<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      中山大學郭裕蘭團隊:數據充足卻訓練失敗,多智能體到底卡在哪丨CVPR 2026

      0
      分享至


      MangoBench:評估多智能體在多目標任務中協作能力的離線基準。

      作者丨鄭佳美

      編輯丨岑 峰

      很多人其實已經在不知不覺中接觸到了多智能體協作帶來的變化。

      電商大促時,倉庫里往往不是一臺機器人在工作,而是一整組機器人同時分揀、運輸、避讓和交接。自動駕駛真正困難的地方,也不只是讓一輛車學會開,而是讓很多輛車在同一條路上彼此配合。現實中的很多復雜任務,本質上都不是單個智能體可以獨立完成的,智能系統也是一樣。

      但現實世界并不會給這些系統太多試錯機會。倉庫機器人撞一次貨架,工業機械臂裝錯一次零件,代價都是真實的。也正因為如此,越來越多研究開始轉向離線強化學習,也就是先利用已有數據訓練策略,而不是依賴實時試錯。

      可一旦從單智能體走向多智能體,難度會迅速上升,因為系統不僅要學會做決策,還要在反饋有限的條件下學會協作。

      這正是當前行業里的一個現實瓶頸。很多方法在實驗環境里效果不錯,但到了離線多智能體場景中,往往很快暴露出問題。

      一方面,真實任務里的獎勵通常非常稀疏,模型很難知道自己到底哪一步做對了。另一方面,多智能體協作還會帶來責任分配問題,也就是最后成功了,卻很難判斷到底是哪一個智能體起了關鍵作用。結果就是,系統明明有大量歷史數據,卻依然學不會穩定協作,更談不上面對新任務時的泛化能力。

      在這樣的背景下,來自中山大學的郭裕蘭團隊提出了MangoBench,并在研究《MangoBench A Benchmark for Multi-Agent Goal-Conditioned Offline Reinforcement Learning》中,嘗試重新回答一個關鍵問題,也就是當多個智能體不能隨便試錯時,怎樣才能真正學會協作。

      研究團隊沒有繼續依賴傳統獎勵驅動,而是把問題改寫成目標驅動,讓模型圍繞應該到達什么狀態去學習,從而為離線多智能體強化學習提供了一條更清晰的研究路徑。


      論文地址:https://wendyeewang.github.io/MangoBench/

      01


      性能分化的關鍵拐點

      在難度適中的導航任務里,不同方法的表現差距已經很明顯了。中山大學團隊提出的 IHIQL 的成功率能達到 80% 到 95%,說明它大多數時候都能把任務完成好。相比之下,ICRL 只有 40% 到 60%,GCMBC 只有 20% 到 40%,而 GCOMIGA 和 GCOMAR 基本接近 0%,幾乎等于沒學會。

      換句話說,同樣是面對離線數據,有的方法已經能比較穩定地找到路,有的方法卻連基本方向都抓不住。這說明在獎勵很少、反饋很弱的情況下,傳統的離線多智能體方法其實很容易失靈,而分層強化學習方法更容易學出效果。

      當任務再變難一點,這種差距會被進一步放大。所有方法的表現都會下降,但下降的程度并不一樣。IHIQL 雖然也會掉到 30% 到 40%,但至少還保留了一部分完成任務的能力。

      ICRL 和 GCMBC 會掉到 10% 到 20% 左右,其他方法則幾乎完全不行了。可以把它理解成,一開始大家都在考試,題目簡單的時候還能看出誰強誰弱,題目一難,很多方法就直接交白卷了,只有少數方法還能繼續答題。IHIQL 的優勢,正體現在它遇到更復雜的環境時沒有一下子垮掉。

      研究人員還專門看了另一件事,也就是把一個任務交給多個智能體時,具體怎么分工會不會影響結果。比如有的設置是每個智能體負責 4 個部分,有的是每個智能體只負責 2 個部分。

      結果發現,不管是 2×4 還是 4×2,IHIQL 在中等難度任務里都能穩定在約 90% 左右。這個結果可以理解成,它不是只會適應某一種固定分工,而是更像抓住了任務本身該怎么完成,所以換一種分工方式,它照樣能做得不錯。

      到了機械臂任務,這種差別就更容易看出來了。在同步協作的抬欄桿任務里,IHIQL 的成功率在 80% 以上,GCMBC 大約 60%,ICRL 大約 50%,模仿學習方法大約 40%。如果把這些方法想成幾組不同水平的工人,那么 IHIQL 這一組不但完成任務的概率更高,而且訓練時間只有模仿學習方法的約 5%。

      這說明它不只是做得更好,而且學得更快,效率也更高。通俗一點說,就是它不但更會做事,而且更快進入狀態。


      到了更復雜的異步協作任務,情況就不一樣了,原本領先的方法不一定還能繼續領先。以放置食物這個任務為例,這類任務不是大家一起同時發力,而是要一個智能體先完成前面的動作,另一個再接著往下做,所以更考驗先后配合。

      在這種情況下,ICRL 的表現最好,成功率大約在 30% 到 40% 之間,明顯高于 IHIQL 和 GCMBC,模仿學習方法甚至不到 10%。這說明當任務強調步驟之間的銜接時,對比學習方法更容易學到這種順序關系。更重要的是,它不僅做得更好,訓練時間還比模仿學習少了約 93%,也就是說,它不只是更會學,而且學得還更快。

      多目標和單目標的對比,則說明了另一件很容易被忽視的事,那就是測試方式本身也會影響我們對模型的判斷。如果只用一個目標去測試,同一個任務里,IHIQL 是 78%,GCMBC 是 22%,ICRL 是 37%。但換成多目標評估后,它們分別提升到 82%、47% 和 56%。

      這意味著很多方法其實并沒有我們原來想的那么差,只是單目標測試把它們的能力看窄了。換句話說,這些方法學到的并不只是某一個固定動作,而是面對不同目標時,仍然能夠做出調整的能力,也就是更接近真正的泛化。


      在訓練方式的對比里,研究人員發現,并不是拿到更多全局信息,效果就一定更好。分布式方法 IHIQL 在中等任務里成功率大約是 95%,任務規模變大后還有大約 85%,到了超大規模任務也還能保持在 50% 左右。

      相比之下,集中訓練方法 HIQL-CTDE 在中等任務里還有大約 70%,但任務一變復雜,很快就掉到 44%,再往上甚至只剩下 1%,幾乎等于學不動了。

      這個結果可以理解成,分布式方法更像是把問題拆開來,各個智能體先管好自己那一部分,所以任務變難時還能穩住。集中訓練方法看起來掌握的信息更多,但也正因為要同時處理太多全局信息,任務一復雜就容易顧不過來,最后訓練變得越來越不穩定。

      也就是說,在多智能體任務里,信息更多不一定更占優勢,關鍵還是系統能不能把復雜問題處理得足夠清楚。


      把所有實驗結果放在一起看,其實能得出幾個很清楚的判斷。首先,很多方法之所以一到復雜任務就失效,最根本的原因不是模型太弱,而是獎勵信號太少。

      因為在稀疏獎勵條件下,系統大部分時候都得不到明確反饋,很難知道自己到底哪一步做對了,所以訓練很容易陷入混亂。一旦把獎勵變得更密集,性能就會明顯恢復,這說明問題的關鍵不在模型本身,而在學習信號不夠。

      其次,目前表現最穩的還是分層方法。以 IHIQL 為代表的方法之所以更有效,是因為它不是讓模型一次性去解決整個復雜任務,而是把大任務拆成多個更小的步驟來學。

      這樣做的好處是,模型更容易在中間過程里得到反饋,也更不容易在任務變復雜時一下子崩掉。所以從實驗結果來看,分層策略更像是一種讓系統先學會一步一步完成任務的方法,而不是一上來就要求它掌握全部。

      最后,這項研究還說明了多智能體系統最難的地方,其實不只是學會做動作,而是學會彼此配合。在簡單任務里,多智能體有時還能比單智能體做得更好,因為大家分工之后效率更高。

      但一旦任務變復雜,需要更精細的協作和銜接時,問題就會立刻暴露出來。也就是說,真正卡住多智能體系統的,不只是學習能力,而是協同能力,這也是為什么協作會成為整個系統進一步提升表現的最大瓶頸。


      02


      從獎勵驅動到目標驅動

      在實驗設計上,研究團隊先做了一件很關鍵的事,就是把原本的離線數據重新整理了一遍。原始數據里只有狀態和動作,記錄的是系統當時看到了什么、做了什么。

      研究人員在這個基礎上又加進了目標和獎勵,也就是把原來的數據改造成了狀態、動作、目標、獎勵這樣的形式。具體來說,他們會從已有軌跡里隨機挑出一個狀態當作目標,再去判斷當前行為有沒有朝這個目標靠近,然后自動生成對應的獎勵。

      這樣一來,同一批歷史數據就不再只能拿來學一個任務,而是可以圍繞不同目標反復使用,相當于把原有數據的價值放大了。

      這樣做的意義在于,它把原來的學習方式換了一種思路。傳統強化學習更像是讓模型一邊做一邊等反饋,問題是這種反饋往往很少,很多時候模型根本不知道自己到底做得對不對。

      加入目標之后,情況就不一樣了。模型不再只是被動等獎勵,而是會一直圍繞一個明確目標去行動,判斷自己是不是在一步步接近它。換句話說,原本那種模糊又稀少的反饋,被變成了更直接、更容易理解的學習信號,所以模型更容易學出有效策略。

      為了讓結果更可靠,研究團隊在實驗設置上也做得比較嚴謹。運動任務一共訓練了 100 萬步,測試時還會換 5 個不同目標,并用 5 個隨機種子反復驗證,也就是不只看一次結果,而是看它在不同條件下是不是都能穩定表現。

      操作任務也一樣,訓練步數分別是 1.5 萬和 3.88 萬,測試時還用了 100 個隨機種子。這樣做的目的很明確,就是盡量避免某一次訓練碰巧表現好,確保最后看到的結果是穩定的,而不是偶然的。

      在任務安排上,研究人員也不是隨便選幾個場景,而是故意把難度一點點往上加。運動任務從較簡單的迷宮開始,逐漸增加到更復雜的迷宮,最后再加入隨機傳送這樣的高難度設置。

      操作任務則從需要同時配合的同步任務,發展到需要講究先后順序的異步任務。這樣設計,其實是想更系統地觀察模型在不同復雜度下的表現,不只是看它能不能完成任務,更想看它在任務越來越難時,是否還具備泛化能力、長期規劃能力和協作能力。

      換句話說,研究團隊想測試的不是模型會不會做一道題,而是題目一旦變難,它還能不能繼續做下去。


      研究人員還專門分析了,為什么 CTDE 這種看上去信息更多的方法,最后反而表現不好。按直覺來說,既然它在訓練時能看到更多全局信息,效果似乎應該更好,但問題恰恰也出在這里。

      因為它看到的東西太多了,全局狀態本質上就是把所有智能體的狀態都拼在一起,這會讓問題一下子變得非常大、非常復雜,模型需要同時處理的內容也會迅速增加。

      除此之外,CTDE 在訓練時和執行時其實并不是完全一致的。訓練階段,模型會利用全局信息來學習;但真正做決策時,每個智能體又只能根據自己的局部信息行動。這樣一來,就會出現一種情況:訓練時學到的東西,到了實際執行時不一定能順利用上,這會讓優化過程變得更困難。

      還有一個更隱蔽的問題在于目標本身。CTDE 一方面要處理整體任務的全局目標,另一方面又要讓每個智能體根據自己的局部目標去行動。這樣就容易出現兩套目標之間對不上的情況,也就是模型的一部分在學整體方向,另一部分卻在學局部細節,最后很難配合到一起。

      所以,CTDE 的問題并不是信息不夠,而是信息太多、結構太復雜,最后讓訓練變得不穩定。表面上看,它像是在幫模型看到更完整的全局;但實際上,正是這種額外的復雜性,讓它在任務一變難時更容易失效。

      03


      從方法到問題本質

      從實驗意義來看,研究團隊最重要的貢獻,不只是提出了一套新方法,而是更清楚地揭示了 Offline MARL 為什么一直很難真正做好。

      研究結果說明,問題的核心并不只是模型能力強不強,而是在訓練過程中存在兩個更根本的障礙。第一個障礙是學習信號太弱,因為 reward 很稀疏,模型在大多數時候得不到明確反饋,Q- function 很難穩定收斂,所以很多方法即使訓練很久,效果仍然很差。

      第二個障礙是責任分配問題,也就是在多智能體協作中,很難判斷到底是哪一個 agent 對最后的成功起了關鍵作用。一旦這個貢獻關系分不清,梯度更新就容易出錯,最后就會出現協作失敗。研究的價值就在于,它把多智能體離線強化學習最深層的困難點明確指出來了。

      研究團隊還說明了 goal-conditioned 真正有效的原因。它的作用并不只是給模型多加一個目標輸入,而是改變了整個學習方式。原來模型主要依賴 reward 來判斷行為好壞,這種信號很少,也不穩定。

      加入目標之后,每個 state 都能和某個 goal 聯系起來,學習信號就明顯變多了,模型也更容易知道自己應該往什么方向調整。

      這樣一來,強化學習就不再只是盲目地追逐獎勵,而更像是在學習如何從當前位置到達目標位置。這種形式比單純依賴 reward 更穩定,也更容易訓練。

      更重要的是,同一個模型可以面對不同目標完成不同任務,這說明模型學到的不是死記硬背的固定動作,而是具有一定泛化能力的行為策略。

      研究人員進一步說明了為什么分層方法會更有效。原因在于,分層方法同時解決了兩個難題。一方面,它通過設置中間目標緩解了稀疏獎勵問題,讓模型在任務還沒有最終完成之前,就已經能得到階段性的反饋。

      另一方面,它把原本很長、很復雜的任務拆成多個更短、更容易處理的小任務,從而減輕了長時間依賴帶來的學習難度。換句話說,分層方法之所以有效,本質上是因為它把一個很難直接學會的大問題,拆成了多個更容易逐步解決的小問題。

      這一點對于多智能體任務尤其重要,因為多智能體系統本來就比單智能體更難協調,如果沒有這種結構化拆分,訓練會更加不穩定。

      這項研究對普通人的影響也很實際。現實生活中很多場景并不允許系統反復試錯,比如自動駕駛、倉儲物流、工廠機械臂、醫院輔助機器人等。這些系統一旦出錯,代價往往很高,所以很多時候只能依賴已經收集好的歷史數據進行訓練,也就是離線學習。

      研究團隊所做的工作,本質上是在探索怎樣讓多個智能體在不能隨便試錯的情況下,依然學會穩定協作。這個方向如果繼續發展,未來普通人可能會直接受益于更安全的自動駕駛系統、更高效的物流配送機器人、更穩定的工業自動化設備,以及更可靠的醫療和家庭輔助機器人。

      04


      MangoBench 背后的科研工作者

      汪怡,中山大學在讀一年級博士生,主要研究方向為三維視覺和強化學習,師從郭裕蘭教授,于深圳河套學院實習,完成此論文時期在中山大學讀本科。在 CVPR 等 CCF A 類會議發表多篇論文,參與中國圖學學會“奮發圖強”博士生 workshop,參與 China3DV 墻報展示,曾獲中山大學研究生校長獎學金等。


      鐘檸澤,完成此論文時期在中山大學讀本科,與郭裕蘭教授合作,主要研究方向為機器人,三維視覺和強化學習。在 CVPR/ICLR/ACM MM 等 CCF A 類會議等發表論文,CVPR/NeurIPS/ECCV 審稿人,論文在China3DV/ChinaGraph 大會等展示,現在美國賓夕法尼亞大學 GRASP Lab 讀研究生,與 Vijay Kumar 院長合作。


      符智恒,西澳大學博士,香港理工大學博士后,主要研究方向為三維重建與生成。發表論文共 20 余篇(包括CVPR、ICCV、TIP、ECCV、IJCAI等),英文著作一部 Point Cloud Intelligence 。


      王龍光,中山大學博士后,主要研究方向為底層視覺和三維視覺。以第一作者身份發表 CCF A 類論文共 11 篇,谷歌學術總引用數為 7100 余次。入選中國科協青年人才托舉工程,連續三年入選全球前 2% 頂尖科學家榜單;主持國家及省部級項目 9 項。


      張曄,中山大學副研究員,主要研究方向為空間智能與三維視覺。發表學術論文 30 余篇,主持國家級和省部級項目3項,曾擔任首屆中國空間智能大會本地主席。


      郭裕蘭,中山大學教授,主要研究空間智能與三維視覺。主持國家自然科學基金聯合重點項目等 10 余項,發表學術論文 200 余篇,谷歌學術引用 2 萬余次,入選Clarivate全球高被引科學家。擔任中國圖象圖形學學會三維視覺專委會副主任,IEEE TIP 高級領域編輯(SAE)。曾擔任首屆中國空間智能大會主席,歷屆中國三維視覺大會組委會主席。


      這次去 CVPR 現場,一定不要錯過

      【認識大牛+賺外快】的機會

      需要你做什么:把你最關注的10個大會報告,每頁PPT都拍下來

      你能獲得什么?

      認識大牛:你將可以進入CVPR名師博士社群;

      錢多活少:提供豐厚獎金,任務量精簡;

      聽會自由:你的行程你做主,順手就把外快賺。拍下你最感興趣的10個報告PPT即可。

      如果你即將前往CVPR,想邊聽會邊賺錢,還能順便為AI學術社區做貢獻、認識更多大牛,歡迎聯系我們:[添加微信號:MS_Yahei]

      【限額5位,先到先得】

      未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社區進行轉載!

      公眾號轉載請先在「AI科技評論」后臺留言取得授權,轉載時需標注來源并插入本公眾號名片。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      廣西玉林村民自組草根“西游團隊”火了!發起人自費七八十萬圓夢 鄉土實景演繹取經生活

      廣西玉林村民自組草根“西游團隊”火了!發起人自費七八十萬圓夢 鄉土實景演繹取經生活

      封面新聞
      2026-05-15 17:48:04
      編外人員“清退”開始,城管協管、輔警、護士教師都在其中

      編外人員“清退”開始,城管協管、輔警、護士教師都在其中

      巢客HOME
      2026-05-14 05:55:06
      談判桌上攤牌!美方死咬 2500 萬噸大豆訂單,想把中國當接盤俠?

      談判桌上攤牌!美方死咬 2500 萬噸大豆訂單,想把中國當接盤俠?

      達文西看世界
      2026-05-15 08:35:02
      中美談判桌炸出4顆深水炸彈:特朗普千億訂單被中國反手撕碎?

      中美談判桌炸出4顆深水炸彈:特朗普千億訂單被中國反手撕碎?

      小莜讀史
      2026-05-14 13:43:45
      世乒賽剛結束,日本主帥評價梁靖崑,只字未提實力卻句句戳心

      世乒賽剛結束,日本主帥評價梁靖崑,只字未提實力卻句句戳心

      阿訊說天下
      2026-05-15 11:51:27
      丁海峰夫婦凌晨1點機場接娃,兒子身高超190,長相隨媽比爸爸還帥

      丁海峰夫婦凌晨1點機場接娃,兒子身高超190,長相隨媽比爸爸還帥

      八怪娛
      2026-05-14 11:08:39
      馬斯克帶兒子亮相人民大會堂,搶鏡的虎頭包,疑似馬斯克媽媽挑選

      馬斯克帶兒子亮相人民大會堂,搶鏡的虎頭包,疑似馬斯克媽媽挑選

      丁鸊驚悚影視解說
      2026-05-15 11:08:25
      2女共侍1夫,關系卻情同姐妹,生前“三人行”,死后三人葬同墓穴

      2女共侍1夫,關系卻情同姐妹,生前“三人行”,死后三人葬同墓穴

      史之銘
      2026-05-14 14:40:37
      會談結束后,中方的表述變了,特朗普本次訪華,達成了哪些共識?

      會談結束后,中方的表述變了,特朗普本次訪華,達成了哪些共識?

      混沌錄
      2026-05-15 18:17:59
      張柏芝和劉詩詩同框!張柏芝變樣了,臉太腫,劉詩詩滿臉疲憊

      張柏芝和劉詩詩同框!張柏芝變樣了,臉太腫,劉詩詩滿臉疲憊

      阿褲趣聞君
      2026-05-15 14:06:33
      武功山景區遭“臭屁蟲”圍攻?有游客調侃“張嘴能吃飽”,景區提醒:可自備防蟲藥物

      武功山景區遭“臭屁蟲”圍攻?有游客調侃“張嘴能吃飽”,景區提醒:可自備防蟲藥物

      瀟湘晨報
      2026-05-14 17:33:19
      難怪黃仁勛那么積極跟著特朗普訪華,一到北京就拿下了大額訂單。

      難怪黃仁勛那么積極跟著特朗普訪華,一到北京就拿下了大額訂單。

      魔都姐姐雜談
      2026-05-14 22:09:10
      四川武警營門推哨兵后續:大家都搞錯了罪名,她面臨的不是襲警罪

      四川武警營門推哨兵后續:大家都搞錯了罪名,她面臨的不是襲警罪

      奇思妙想草葉君
      2026-05-13 18:25:17
      成本超2億,票房僅41萬,收手吧黃渤,別讓百億影帝成一個笑話

      成本超2億,票房僅41萬,收手吧黃渤,別讓百億影帝成一個笑話

      靠譜電影君
      2026-05-14 18:02:24
      張雪宣布停產!博主:雷軍出問題你建議退款 自己出問題只補償

      張雪宣布停產!博主:雷軍出問題你建議退款 自己出問題只補償

      念洲
      2026-05-14 14:29:33
      故宮建造時使用的木材,來自哪里?為何這些木材至今沒有腐爛

      故宮建造時使用的木材,來自哪里?為何這些木材至今沒有腐爛

      云霄紀史觀
      2026-05-15 01:49:45
      加速心梗惡化的原因:飲酒排第8,排第1的,很多朋友天天做

      加速心梗惡化的原因:飲酒排第8,排第1的,很多朋友天天做

      芹姐說生活
      2026-05-15 15:08:06
      斯基拉:內馬爾已成功獲得意大利國籍,正式成為意大利公民

      斯基拉:內馬爾已成功獲得意大利國籍,正式成為意大利公民

      懂球帝
      2026-05-15 17:39:48
      重慶一市區公園出現毒蛇?專家辨認系劇毒蛇,社區:有居民反映看到,排查暫未發現

      重慶一市區公園出現毒蛇?專家辨認系劇毒蛇,社區:有居民反映看到,排查暫未發現

      瀟湘晨報
      2026-05-15 17:05:36
      突發:央視已獲世界杯版權,簽約價格揭曉!

      突發:央視已獲世界杯版權,簽約價格揭曉!

      仕道
      2026-05-15 15:59:40
      2026-05-15 19:43:00
      AI科技評論 incentive-icons
      AI科技評論
      點評學術,服務AI
      7278文章數 20751關注度
      往期回顧 全部

      科技要聞

      兩年聯姻一地雞毛,傳蘋果OpenAI瀕臨決裂

      頭條要聞

      美媒詢問是否認為現在的美國是"衰落國家" 外交部回應

      頭條要聞

      美媒詢問是否認為現在的美國是"衰落國家" 外交部回應

      體育要聞

      德約科維奇買的球隊,從第6級聯賽升入法甲

      娛樂要聞

      方媛為何要來《桃花塢6》沒苦硬吃?

      財經要聞

      騰訊掉隊,馬化騰戳破真相

      汽車要聞

      高爾夫GTI刷新紐北紀錄 ID. Polo GTI迎全球首秀

      態度原創

      房產
      時尚
      親子
      家居
      軍事航空

      房產要聞

      海口商業也是出息了!“友誼陽光城”,殺入北京最牛商街!

      56歲逆風翻盤,她怎么從全網群嘲變成了大家的天才女友?

      親子要聞

      這可是你自愿吃的啊~

      家居要聞

      110㎡淡而有致的生活表達

      軍事要聞

      烏克蘭首都基輔遭空襲 死亡人數增至12人

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: wwww亚洲熟妇久久久久| 中国国产xxxx| 天堂va亚洲va欧美va国产| 乱人妻人伦中文字幕| 久久久久青草大香综合精品| 久久国产精品99精品国产| 无码天堂亚洲国产AV| 99精品国产精品一区二区| 国产精品亚洲综合久久小说| 亚洲日本国产综合高清醉红楼| 久久久久国产精品麻豆ar影院| 免费无码国模国产在线观看| 级毛片内射视频| 国产激情A∨在线视频播放| 久久久久99精品成人品| 亚洲中文字幕无码天然素人在线| 国产亚洲精品久久久久久牛牛| 三级在线视频观看| 国产md视频一区二区三区| 九九热在线精品视频免费| 日韩肏屄| 丰满无码人妻热妇无码区| 天镇县| 亚洲一区二区三区十八禁| 中国国产XXXX免费视频| 久久伊人色AV天堂九九小黄鸭| 亚洲国产天堂在线观看| 欧美日韩中文字幕在线| 亚洲电影区图片区小说区| 天天鲁一鲁摸一摸爽一爽| 尤物视频官网| 亚洲中文字幕无码天然素人在线| h无码精品动漫在线观看| 国产精品偷伦视频免费观看国产 | 少妇人妻真实偷人精品| a片地址| 视频一区视频二区日韩专区| 亚洲精品6久久久久中文字幕| 久久频精品99香蕉国产| 青草青草久热精品视频在线观看| 看黄网址|