<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      何愷明團隊論文全景掃描:一場關(guān)于「生成范式」的多角度突破 | CVPR 2026

      0
      分享至


      高度依賴擴散模型的圖像生成范式,正在被重新審視。

      作者丨陳淑瑜

      編輯丨岑 峰

      2025 年到 2026 年,如果要問生成式 AI 領(lǐng)域最值得關(guān)注的研究方向,流匹配(Flow Matching) 是一個無法繞開的答案。

      從去年起,這個名字開始頻繁出現(xiàn)在頂會論文里、被工業(yè)界反復(fù)討論、被拿來和統(tǒng)治了圖像生成領(lǐng)域長達五年的擴散模型正面比較。

      所謂流匹配,本質(zhì)上是用常微分方程路徑(ODE path)替代擴散模型的隨機微分方程路徑,讓數(shù)據(jù)從噪聲到圖像的轉(zhuǎn)變不再依賴數(shù)百步迭代,從而在理論上實現(xiàn)更高效的生成。但從理論可行到工程落地,中間隔著無數(shù)技術(shù)細節(jié)——訓練目標怎么設(shè)計、架構(gòu)怎么選、速度和質(zhì)量如何兼顧,每一步都是坑。

      何愷明團隊正是在這個節(jié)點上,密集地交出了一份多角度的答卷。

      AI科技評論總結(jié)了何愷明團隊近期在CVPR大會上發(fā)表上的論文: 2025 年 5 月,他們提出了均值流(MeanFlow),首次將"均值速度場"引入生成建模;同年年底,BiFlow 在歸一化流框架上實現(xiàn)了 700 倍加速,將 FID 推到 2.39;幾乎同一時間,Improved MeanFlow(iMF)則以三個系統(tǒng)性修復(fù)將單步 FID 降至 1.72,首次在無蒸餾條件下超越所有蒸餾方法。

      生成模型之外,團隊在視覺推理(VARC,CVPR 2026)和自監(jiān)督學習(Pixo,CVPR 2026)上也同時出擊,共同勾勒出一個清晰的戰(zhàn)略意圖:擴散模型并不是圖像生成的終點,流匹配這條路,值得全力押注。

      這五篇論文之間沒有直接的方法傳承,方向各有側(cè)重,但貫穿其中的核心問題始終如一:在每一個被默認的技術(shù)選擇背后,到底藏著多少被低估的優(yōu)化空間?

      01


      讓"去噪"模型真正做一次去噪

      理解 JiT 的工作,需要從擴散模型一個被忽視已久的痛點說起。

      當前的擴散模型在訓練時,網(wǎng)絡(luò)學習預(yù)測的目標是噪聲 ε 或速度 v,而非干凈圖像 x。

      這個細節(jié)在大多數(shù)論文里被一筆帶過,但它有一個容易被忽視的含義:噪聲和速度并不在自然圖像的流形上。用大白話說,網(wǎng)絡(luò)在試圖預(yù)測一個"不屬于這個世界"的東西——它不在圖像分布內(nèi),是離群的量。這種預(yù)測天然地不穩(wěn)定,網(wǎng)絡(luò)需要額外的表達能力來處理那些本不應(yīng)該出現(xiàn)在預(yù)測目標里的高維噪聲。

      也就是說,預(yù)測噪聲和預(yù)測干凈圖區(qū)別很大。


      流形示意圖

      JiT 的核心洞察正是從這里切入的。既然 x(干凈圖像)在圖像流形上,那就讓網(wǎng)絡(luò)直接預(yù)測 x。直覺上這是一個退步——流形外的東西更難預(yù)測,流形內(nèi)的東西反而應(yīng)該更容易。但團隊指出,這個邏輯在擴散模型里是反的:噪聲 ε 分布在高維空間,目標分布極廣,網(wǎng)絡(luò)需要一個很強的先驗來"猜測"噪聲的真實值;而 x 就在流形上,是網(wǎng)絡(luò)見過的、理解的、可以自然逼近的東西。

      為了讓這個樸素的想法在工程上成立,JiT 采用了標準 Vision Transformer,但做了一個看似大膽的調(diào)整:patch 尺寸可以非常大——16×16、32×32 甚至 64×64,而不像標準擴散模型那樣在高分辨率下被迫使用極小的 patch。

      原因在于:x 在流形上,網(wǎng)絡(luò)不需要處理流形外的高維噪聲干擾,因此 patch 大小的增加不會導致信息缺失,也沒有帶來災(zāi)難性的效果退化。

      這是一種返璞歸真,直接預(yù)測目標圖像,對傳統(tǒng)認知發(fā)起了一次直接挑戰(zhàn).


      JiT模型生成的圖像樣本

      JiT 還完全去掉了 VAE Tokenizer,不需要預(yù)訓練的潛空間,不需要 GAN 損失或感知損失,就是最樸素的 Transformer 在像素上做去噪。模型規(guī)模 86M 參數(shù),從 256 到 1024 分辨率,計算量幾乎不變——只需要調(diào)整 patch 大小。這意味著一個原生模型可以在任意分辨率上生成,而不需要借助潛空間的壓縮-解壓機制。

      最終結(jié)果在 ImageNet 512×512 上實現(xiàn)了 FID 1.78,且 JiT-G 版本在更高分辨率下依然保持了競爭力的 FID。更值得關(guān)注的是,這個性能是在沒有任何蒸餾、沒有任何外部模型輔助的前提下從零訓練得到的。

      JiT 證明了"讓擴散模型真正做去噪"這件事本身,就足以帶來顯著的質(zhì)量提升——不需要更多的工程技巧,只需要把預(yù)測目標換回那個理所當然卻被忽視了五年的選項。


      論文鏈接:https://arxiv.org/abs/2511.13720

      02


      ARC:跳出語言模型的舒適圈

      ARC是 AI 領(lǐng)域歷史最久的推理能力測試之一,包含數(shù)百個"視覺謎題",要求模型從少數(shù)示例中推斷規(guī)則并泛化到新樣本。物體對稱、重力方向、顏色連續(xù)性、反射變換——這些概念本質(zhì)上是對物理世界的抽象,本不應(yīng)該和語言有任何關(guān)系。

      然而長期以來,整個社區(qū)把 ARC 當成了一個語言問題。GPT-4、Claude、Deepseek 幾乎都在 ARC 上刷過榜,原因是 ARC 的任務(wù)描述可以自然地翻譯成文字,語言模型恰好擅長這類文字推理。這在工程上無可厚非,但它制造了一個隱性的假設(shè):視覺抽象推理,必須借助語言才能完成。

      VARC 要挑戰(zhàn)的正是這個假設(shè)。

      把 ARC 任務(wù)重新建模為圖像到圖像的翻譯問題,用一個只有 18M 參數(shù)的 ViT 從頭訓練,不依賴任何語言能力,在 ARC-1 上達到了單模型 54.5%、集成 60.4% 的準確率。60.4% 是什么水平?人類平均水平是 60.2%,頂級大語言模型也在這個區(qū)間。

      這意味著,一個參數(shù)量只有頂級 LLM 幾千分之一的純視覺模型,在視覺推理任務(wù)上達到了與人類相當?shù)乃健?/strong>

      VARC框架的實現(xiàn)路徑也非常直接,沒有把輸入網(wǎng)格直接 token 化,而是使用了“畫布”,將網(wǎng)格嵌入到一個足夠大的預(yù)定義畫布(32×32)上,背景用第 11 種顏色填充。然后像處理一張普通圖片一樣,被ViT模型進行端到端的處理。

      這帶來一個關(guān)鍵效果:token 數(shù)量從有限的網(wǎng)格大小擴展到了更大的空間,讓 ViT 的注意力機制有了充足的施展余地,能夠捕捉遠程的視覺關(guān)系。


      WARC的畫布

      另外,測試時訓練(TTT)在推理階段利用測試任務(wù)的少量示例做快速微調(diào),是性能逼近人類水平的關(guān)鍵——模型不是"記住"了 ARC 的規(guī)則,而是在看到新任務(wù)時快速學習規(guī)則本身。

      VARC 的出現(xiàn)給整個 ARC 社區(qū)潑了一盆冷水:大家花了大量工程資源在語言模型上刷榜,卻忽視了純視覺方法在這個任務(wù)上的潛力。

      這個潛力的釋放需要兩個條件:一個足夠大的視覺畫布,以及一個讓模型在推理時繼續(xù)學習的機制。一旦這兩個條件被滿足,視覺推理不需要語言模型這件事,變得異常清晰。


      論文鏈接: https://arxiv.org/abs/2511.14761

      03


      突破歸一化流限制,圖像單步生成加速

      歸一化流是生成式建模中歷史最悠久的框架之一。它最大的理論優(yōu)勢是可以用精確的數(shù)學形式同時完成生成和似然估計,訓練過程透明、可解釋,不像擴散模型那樣依賴多次采樣來近似對數(shù)似然。但長期以來,它在性能上被擴散模型壓得喘不過氣來。

      原因出在兩個結(jié)構(gòu)性約束上。

      第一,傳統(tǒng)歸一化流為了保證前向變換的精確可逆性,必須采用受限的網(wǎng)絡(luò)架構(gòu),無法使用 Transformer 等更強大的序列模型。

      第二,逆向過程依賴自回歸因果解碼,每一步必須順序計算,無法并行,生成一張圖的時間成本極高。這兩個約束幾乎從根子上限制了歸一化流在大規(guī)模圖像生成上的競爭力。

      BiFlow 的解題思路初看有些反直覺:逆向過程不需要是前向過程的精確逆

      前向過程保持可逆,這是數(shù)學上的保證,確保分布映射的準確性不受損害;但逆向過程單獨訓練一個獨立的模型來近似逆映射,不要求它在數(shù)學上等于前向的解析逆。這個"放棄精確逆"帶來了一個巨大的解放:逆向過程可以使用完全并行的 Transformer 架構(gòu),實現(xiàn)真正的單步生成,不再受自回歸解碼的順序瓶頸約束。

      但這還不夠。逆向模型單獨訓練,意味著它學到的表示空間可能與前向過程完全不同——兩者可能在不同的隱空間里各說各話。

      BiFlow 引入了隱藏層對齊機制,利用前向過程的中間狀態(tài)軌跡監(jiān)督逆向模型,確保兩者在表示空間中對齊,防止逆向模型"跑偏"。對齊之后,逆向模型既能受益于 Transformer 的強大表達能力,又能保持前向過程的分布結(jié)構(gòu)完整。


      標準化流與BiFlow的概念對比

      最終結(jié)果在 ImageNet 256×256 上實現(xiàn)了 FID 2.39,這是歸一化流方法的歷史新紀錄。但更有沖擊力的是速度數(shù)據(jù):單張圖像生成時間從 TARFlow 的 0.7 秒縮短到 0.001 秒,加速約 700 倍。


      BiFlow與SOTA流模型的效率對比

      這不再是理論推演,而是一個可以直接在工程中落地的效率躍遷。歸一化流長期被視為"理論上優(yōu)美、工程上雞肋"的框架,BiFlow 至少把后半句的錯誤認知打破了。


      論文地址:https://arxiv.org/abs/2512.10953

      04


      快進生成,無需蒸餾

      如果說 BiFlow 是把歸一化流從困境中拉了出來,那么 iMF(Improved Mean Flows)的目標更徹底:把"快進生成"這條路的瓶頸徹底打通。

      "快進生成"的核心目標是讓擴散模型用 1 步而不是 250 步完成圖像生成。此前的工業(yè)界解法幾乎都依賴蒸餾——用一個大而慢的擴散模型作為"教師",訓練一個小的"學生"在 1-2 步內(nèi)近似教師的輸出。蒸餾效果不錯,但代價也明顯:訓練流程極其復(fù)雜,學生的性能上限被教師鎖死,一旦教師本身有缺陷,學生無論如何都超不過去。

      何愷明團隊在 2025 年 5 月提出了均值流(MeanFlow),首次將"均值速度場"引入生成建模,目標是實現(xiàn)真正的單步高質(zhì)量生成。方向正確,但初代 MF 有三個系統(tǒng)性的訓練缺陷,導致最終性能距離當時的 SOTA 有明顯差距。ImageNet 256×256 的 FID 停留在 3.43,而最好的擴散模型已經(jīng)在 1.x 徘徊了。

      第一個缺陷是訓練目標的"自依賴"。MF 的訓練目標是"平均速度損失"(u-loss),目標函數(shù)里包含了一個由網(wǎng)絡(luò)自身輸出推導出的項——這就好比讓一個人預(yù)測"自己說的話會造成什么后果",優(yōu)化器在閉環(huán)里反復(fù)震蕩,訓練方差極大,收斂不徹底。

      第二個缺陷是引導機制的"死板"。無分類器引導(CFG)是提升生成質(zhì)量的關(guān)鍵技術(shù),但 MF 訓練時把 CFG 強度固定了,推理時用戶無法調(diào)節(jié)質(zhì)量-多樣性的權(quán)衡——這等于剝奪了生成器最重要的一個調(diào)參手段。

      第三個缺陷是架構(gòu)效率的"肥胖"。MF 依賴的 adaLN-zero 機制在處理多條件(時間步 t、類別標簽 c、CFG 強度 ω)時把所有條件向量簡單求和,條件多了之后互相干擾,參數(shù)利用率極低。

      iMF 成功解決了這三個缺陷目標,通過將訓練目標重新表述為更穩(wěn)定的瞬時速度損失,同時引入靈活的無分類器指導(CFG)和高效的上下文內(nèi)條件作用,大幅提升了模型性能。


      論文鏈接: https://arxiv.org/abs/2512.02012

      針對訓練目標,iMF 利用 MeanFlow 的數(shù)學恒等式,將平均速度損失(u-loss)等價轉(zhuǎn)換為瞬時速度損失(v-loss)。瞬時速度 v 等于網(wǎng)絡(luò)在 t 時刻的瞬時導數(shù),它的特點是:目標 v 與網(wǎng)絡(luò)自身的輸出完全無關(guān),是一個純粹的標準回歸問題。這個看似簡單的數(shù)學變換,把 MF 訓練不穩(wěn)定的根因直接消除了。

      針對 CFG 靈活性,iMF 把 CFG 強度 ω、引導區(qū)間 t_min 和 t_max 一起編碼為顯式的條件變量作為額外輸入傳入網(wǎng)絡(luò)。訓練時從冪分布中隨機采樣不同引導強度,讓網(wǎng)絡(luò)學習不同 CFG 強度下的速度場分布;推理時,用戶可以自由調(diào)節(jié) CFG 強度,就像使用普通擴散模型一樣自然。這個設(shè)計讓 iMF 支持了 CFG 區(qū)間控制——只有當 t 落在某個區(qū)間內(nèi)時才啟用引導,超出區(qū)間自動關(guān)閉,給了研究者更多調(diào)控手段。

      針對架構(gòu)效率,iMF 摒棄了把條件向量求和的粗暴做法,轉(zhuǎn)而將每類條件轉(zhuǎn)化為多個可學習的 token,類別 8 個、時間步 4 個、CFG 強度 4 個、引導區(qū)間 4 個,與圖像 latent token 沿序列維度拼接后聯(lián)合處理。Base 模型參數(shù)從 133M 降至 89M,減少了三分之一,同時 FID 反而改善。


      iMF 和MF對比圖

      三條改進的效果是疊加的。iMF 的消融鏈路清晰地記錄了每一步的貢獻:原 MF 基線 6.17 FID → v-loss 替換 5.68 → 靈活 CFG 4.57 → 多 token 條件 4.09 → Transformer 架構(gòu)改進 3.39 → 640 epoch 長訓練 1.72。每一步都有據(jù)可查,每一步的改善都可以歸因到具體的修改點。

      最終 iMF-XL/2 實現(xiàn)了 1-NFE FID 1.72,且這是從零訓練、不依賴任何蒸餾取得的成績。iMF 的 FID 優(yōu)于所有依賴蒸餾的單步生成方法,包括 FACM-XL/2(蒸餾,F(xiàn)ID 1.76)和 DMF-XL/2+(蒸餾,F(xiàn)ID 2.16)。擴散模型領(lǐng)域的一個默認假設(shè)被打破了:高質(zhì)量單步生成,不需要蒸餾。

      更值得關(guān)注的是 2-NFE 時 iMF 的 FID 降至 1.54,已經(jīng)非常接近主流多步擴散的水平(SiT-XL/2+REPA 為 1.42 @ 數(shù)百步)。單步模型與多步模型的性能差距,第一次縮小到了這個量級。

      05


      像素監(jiān)督:從邊緣到正面競爭

      自監(jiān)督視覺預(yù)訓練領(lǐng)域近年來有一個明顯的主流敘事:像素空間已經(jīng)過時,潛空間才是未來。

      DINOv3 是這個方向的代表——將圖像通過 VAE Tokenizer 壓縮到低維潛空間,再進行對比學習,在多項視覺任務(wù)上達到了 SOTA,逐漸被視為"正確答案"。

      這個敘事的隱含前提是:在大規(guī)模訓練場景下,像素級自監(jiān)督天然不如潛空間方法,因為像素空間的高維、冗余、多噪聲特性讓學習效率更低。

      Pixo(pixel supervision) 要檢驗的正是這個前提。

      MAE 已經(jīng)證明,像素空間的掩碼自編碼器在大規(guī)模訓練下是一個簡單而高效的選擇。Pixo 則把這個思路推向極致:在 20 億張網(wǎng)絡(luò)爬取圖像上,系統(tǒng)性地探索像素監(jiān)督的上限,并在預(yù)訓練任務(wù)、模型架構(gòu)和訓練策略三個層面對 MAE 做了全面增強。預(yù)訓練任務(wù)設(shè)計得更具挑戰(zhàn)性,架構(gòu)針對大規(guī)模高效訓練做了優(yōu)化,訓練策略引入了自篩選機制自動過濾低質(zhì)量數(shù)據(jù),最小化人工干預(yù)。


      Pixio 對 MAE 進行的關(guān)鍵更新

      結(jié)果沒有出現(xiàn)預(yù)期的"像素完敗"局面。在深度估計、前饋 3D 重建、語義分割、機器人操控等多個下游任務(wù)上,Pixo 與 DINOv3 正面競爭,各有勝負。

      這意味著像素監(jiān)督在大規(guī)模場景下并非不如潛空間方法,只是需要更強的任務(wù)設(shè)計、更大規(guī)模的優(yōu)質(zhì)數(shù)據(jù)和更精細的訓練策略。

      兩種范式各有其適合的場景:像素監(jiān)督在需要保留完整視覺細節(jié)的任務(wù)上可能更有優(yōu)勢,而潛空間方法在語義理解類任務(wù)上更占優(yōu)。

      兩種范式的競爭才剛剛開始,Pixo 的價值在于證明了像素監(jiān)督的邊界還遠未到達——在 20 億規(guī)模的數(shù)據(jù)上,它依然是一個有力的競爭者,而非被淘汰的遺產(chǎn)。


      論文鏈接: https://arxiv.org/abs/2512.15715

      06


      結(jié)語

      盤點完何愷明近期的五篇論文,一個值得深思的問題浮現(xiàn)出來:擴散模型統(tǒng)治圖像生成五年,這個"統(tǒng)治"到底有多扎實?

      歸一化流在效率上的結(jié)構(gòu)性缺陷,是可以通過放棄"精確逆"來修復(fù)的;

      擴散模型的訓練目標不穩(wěn)定,是可以通過換掉噪聲預(yù)測目標來改善的;

      單步生成必須依賴蒸餾的假設(shè),是被 iMF 用從零訓練的 FID 1.72 直接打破的。

      甚至在視覺推理和自監(jiān)督學習領(lǐng)域,何愷明團隊也在用最小化的視覺架構(gòu)挑戰(zhàn)語言模型的傳統(tǒng)領(lǐng)地,而且贏了。他們不是在已有的游戲規(guī)則里優(yōu)化指標,而是在重新定義問題本身的前提。他們用返璞歸真的方式、"大道至簡"的風格提出新的思路,這些思路對于傳統(tǒng)方案來說,是顛覆性的改變。

      同時,這五篇論文也反映了他們一個連貫的戰(zhàn)略判斷。擴散模型不是終點,而是某個更高效范式出現(xiàn)之前的過渡階段。流匹配是他們的答案,iMF 和 BiFlow 是這個答案最有力的支撐。他們從底層基礎(chǔ)(歸一化、去噪目標函數(shù)、流模型設(shè)計)出發(fā),重構(gòu)視覺生成與理解的理論框架。

      接下來的問題是,這個判斷會不會在 2026 年成為整個生成式 AI 領(lǐng)域的共識——而這一次,何愷明的團隊已經(jīng)把路標立好了。

      這次去 CVPR 現(xiàn)場,一定不要錯過

      【認識大牛+賺外快】的機會

      需要你做什么:把你最關(guān)注的10個大會報告,每頁PPT都拍下來

      你能獲得什么?

      認識大牛:你將可以進入CVPR名師博士社群;

      錢多活少:提供豐厚獎金,任務(wù)量精簡;

      聽會自由:你的行程你做主,順手就把外快賺。拍下你最感興趣的10個報告PPT即可。

      如果你即將前往CVPR,想邊聽會邊賺錢,還能順便為AI學術(shù)社區(qū)做貢獻、認識更多大牛,歡迎聯(lián)系我們:[添加微信號:MS_Yahei]

      【限額5位,先到先得】

      未經(jīng)「AI科技評論」授權(quán),嚴禁以任何方式在網(wǎng)頁、論壇、社區(qū)進行轉(zhuǎn)載!

      公眾號轉(zhuǎn)載請先在「AI科技評論」后臺留言取得授權(quán),轉(zhuǎn)載時需標注來源并插入本公眾號名片。

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      法網(wǎng)倒計時,世界排名掉出TOP50,痛失種子席位的鄭欽文將如何觸底反彈

      法網(wǎng)倒計時,世界排名掉出TOP50,痛失種子席位的鄭欽文將如何觸底反彈

      上觀新聞
      2026-05-14 17:23:29
      日本睡不著了

      日本睡不著了

      安安說
      2026-05-15 10:53:12
      昨天寶山一小區(qū):天井躥出明火,殃及樓上多戶

      昨天寶山一小區(qū):天井躥出明火,殃及樓上多戶

      上觀新聞
      2026-05-15 12:08:07
      82歲任正非罕見亮相,頭發(fā)花白,登上央視!

      82歲任正非罕見亮相,頭發(fā)花白,登上央視!

      李東陽朋友圈
      2026-05-11 19:51:21
      “五常”就剩俄羅斯了,克宮公布訪華新動態(tài),就等中方點頭了

      “五常”就剩俄羅斯了,克宮公布訪華新動態(tài),就等中方點頭了

      阿尢說歷史
      2026-05-15 10:58:43
      這一幕讓全世界震撼!中國軍人在“空軍一號”轟鳴聲前巋然不動

      這一幕讓全世界震撼!中國軍人在“空軍一號”轟鳴聲前巋然不動

      澎湃新聞
      2026-05-14 10:30:25
      米切爾:哈登帶來的影響不僅在于他的統(tǒng)治力 他簡直是籃球大師

      米切爾:哈登帶來的影響不僅在于他的統(tǒng)治力 他簡直是籃球大師

      北青網(wǎng)-北京青年報
      2026-05-14 21:20:20
      年薪直降1000萬,請湖人別不識好歹,趕緊續(xù)約里夫斯

      年薪直降1000萬,請湖人別不識好歹,趕緊續(xù)約里夫斯

      兵哥籃球故事
      2026-05-14 13:59:29
      三好老師的大長腿,夠你義務(wù)教育9年!

      三好老師的大長腿,夠你義務(wù)教育9年!

      貴圈真亂
      2026-05-15 11:17:56
      鹿晗突然剪寸頭!褪去偶像濾鏡,35歲素顏懟臉殺太絕了

      鹿晗突然剪寸頭!褪去偶像濾鏡,35歲素顏懟臉殺太絕了

      TVB的四小花
      2026-05-15 10:00:10
      世界杯版權(quán)塵埃落定!FIFA與央視達成價格協(xié)議 天價報價被砍掉過半

      世界杯版權(quán)塵埃落定!FIFA與央視達成價格協(xié)議 天價報價被砍掉過半

      天光破云來
      2026-05-15 12:53:00
      廣東中山啟動防汛Ⅲ級應(yīng)急響應(yīng),多個地區(qū)停課

      廣東中山啟動防汛Ⅲ級應(yīng)急響應(yīng),多個地區(qū)停課

      界面新聞
      2026-05-15 12:47:47
      姆巴佩賽后獨自離場,未理會經(jīng)過其身邊的貝林厄姆

      姆巴佩賽后獨自離場,未理會經(jīng)過其身邊的貝林厄姆

      懂球帝
      2026-05-15 10:04:27
      坐標上海!被裁失業(yè)后的生活,引炸評論區(qū),大家同為天涯淪落人…

      坐標上海!被裁失業(yè)后的生活,引炸評論區(qū),大家同為天涯淪落人…

      慧翔百科
      2026-05-13 11:30:11
      40多年來頭一回,特朗普對華讓步?島內(nèi)千算萬算,臺灣還是上菜單

      40多年來頭一回,特朗普對華讓步?島內(nèi)千算萬算,臺灣還是上菜單

      張學昆看世界
      2026-05-15 13:09:42
      美國暴雨沖出3具尸體,一人生前曾是武漢某院長,死后卻無人認領(lǐng)

      美國暴雨沖出3具尸體,一人生前曾是武漢某院長,死后卻無人認領(lǐng)

      芳芳歷史燴
      2026-05-15 12:46:29
      江怡臻說,腳踏進人民大會堂,整個人就“戰(zhàn)戰(zhàn)兢兢,如履薄冰”了

      江怡臻說,腳踏進人民大會堂,整個人就“戰(zhàn)戰(zhàn)兢兢,如履薄冰”了

      果媽聊娛樂
      2026-04-16 09:19:20
      愛立信CEO:如果不在中國,就追不上

      愛立信CEO:如果不在中國,就追不上

      觀察者網(wǎng)
      2026-05-15 09:56:09
      時隔6年,曾揚言讓中國給全世界道歉,那個央視開除的阿丘咋樣了

      時隔6年,曾揚言讓中國給全世界道歉,那個央視開除的阿丘咋樣了

      君笙的拂兮
      2026-05-15 05:46:15
      兩次嫁給梁靖崑,退圈安心照顧兩個兒子,如今丈夫成為大學教授

      兩次嫁給梁靖崑,退圈安心照顧兩個兒子,如今丈夫成為大學教授

      聞識
      2026-05-15 11:32:56
      2026-05-15 13:48:49
      AI科技評論 incentive-icons
      AI科技評論
      點評學術(shù),服務(wù)AI
      7275文章數(shù) 20751關(guān)注度
      往期回顧 全部

      科技要聞

      兩年聯(lián)姻一地雞毛,傳蘋果OpenAI瀕臨決裂

      頭條要聞

      特朗普訪華"二號位"系美國駐華大使 其曾受超規(guī)格禮遇

      頭條要聞

      特朗普訪華"二號位"系美國駐華大使 其曾受超規(guī)格禮遇

      體育要聞

      德約科維奇買的球隊,從第6級聯(lián)賽升入法甲

      娛樂要聞

      方媛回應(yīng)住男生單人間:女孩的配得感

      財經(jīng)要聞

      特朗普的北京時刻

      汽車要聞

      雙零重力座椅/AI智能體/調(diào)光天幕 啟境GT7內(nèi)飾發(fā)布

      態(tài)度原創(chuàng)

      健康
      游戲
      教育
      時尚
      軍事航空

      專家揭秘干細胞回輸?shù)陌踩L險

      國行Switch今晚22時正式停服 數(shù)字游戲抓緊下載

      教育要聞

      趕緊看!2026山東三模試題+答案!

      冰涼一夏 | 比沒穿還舒服,這些貼身衣物我囤了5件

      軍事要聞

      烏克蘭首都基輔遭空襲 死亡人數(shù)增至12人

      無障礙瀏覽 進入關(guān)懷版 主站蜘蛛池模板: 亚洲区一区二区中文字幕| 亚洲自拍中文| 人人妻人人澡人人爽欧美精品潮喷| 成人免费视频试看120秒| 国内精品人妻无码久久久影院94| av高清| 亚洲原创无码| 人人妻人人爽人人澡欧美一区| 亚洲国产成人精品一二区| 亚洲精品天天影视综合网| 九九九免费观看视频| 亚洲中文无码AV永不收费| 狠狠色噜噜狠狠色综合久| av片在线播放| 99er久久国产精品先锋| 尤物国产在线精品一区| 亚洲成av人在线视| 久久九九兔免费精品6| 亚洲国产成人aⅴ毛片大全| 热久久亚洲| 网站美女视频www硬| 久章草在线精品视频免费观看| 亚洲 欧美 中文 日韩天堂| 国产高清在线精品一区二区三区| 国产av丝袜熟女一二三| 91在线小视频| 伊人久久大香线蕉综合色狠狠| 韩国无码av片在线观看网站| 亚洲国产在一区二区三区| 欧美777| 精品久久久中文字幕人妻 | 日产精品久久久一区二区| 精品国产女同疯狂摩擦2| 97久久久久久久久久久一区二区三区| 福海县| 欧美大胆老熟妇乱子伦视频| 无码av最新高清无码专区 | 黄又色又污又爽又高潮| 国产欧色美视频综合二区| 漂亮人妻被强中文字幕久久| 真人无码作爱免费视频|