<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      15%全量Attention!「RTPurbo」阿里Qwen3長(zhǎng)文本推理5倍壓縮方案

      0
      分享至



      機(jī)器之心發(fā)布

      為什么大模型廠商給了 128K 的上下文窗口,卻在計(jì)費(fèi)上讓長(zhǎng)文本顯著更貴?

      為什么 Claude 能 “吞下整本書(shū)”,但官方示例往往只展示幾千字的文檔?

      為什么所有大模型廠商都在卷 “更長(zhǎng)上下文”,而真正做落地的產(chǎn)品經(jīng)理卻天天琢磨 “怎么把用戶輸入變短”?

      這些看似矛盾的現(xiàn)象,其實(shí)答案藏在一個(gè)長(zhǎng)期被技術(shù)光環(huán)遮掩的真相里:

      長(zhǎng)序列,正在成為大模型應(yīng)用里最昂貴的奢侈品

      在當(dāng)前主流的 Full Attention 機(jī)制下,計(jì)算開(kāi)銷會(huì)隨著輸入長(zhǎng)度平方增長(zhǎng),序列一長(zhǎng),處理就變得 “又貴又慢”(見(jiàn)圖 1)。針對(duì)這一核心難題,阿里 RTP-LLM 團(tuán)隊(duì)提出了一種全新的后訓(xùn)練壓縮方案:RTPurbo。在不損失模型效果的前提下,實(shí)現(xiàn)了 Attention 計(jì)算5 倍壓縮(見(jiàn)圖 2)。



      左圖 1:長(zhǎng)序列 Attention 計(jì)算成本瓶頸;右圖 2:RTPurbo 極大降低 Attention 計(jì)算開(kāi)銷

      總的來(lái)說(shuō), RTPurbo 采用了一種非侵入式的壓縮方法:通過(guò)分辨 LLM 內(nèi)部的長(zhǎng)程 Attention Head,僅保留關(guān)鍵 Head 的全局信息,對(duì)于剩下冗余的 Head 直接丟棄遠(yuǎn)程 Tokens。這種 Headwise 級(jí)別的混合算法以其簡(jiǎn)潔的方案設(shè)計(jì)和優(yōu)越的算子兼容性,極大地降低了大模型在長(zhǎng)序列下的推理代價(jià),為新一代 LLM 結(jié)構(gòu)設(shè)計(jì)提供了一個(gè)新的視角和演進(jìn)方向。

      目前,項(xiàng)目模型與推理代碼已經(jīng)發(fā)布至 Huggingface、ModelScope 平臺(tái),感興趣的讀者可以閱讀 RTP-LLM 相應(yīng)的技術(shù) blog 了解更多細(xì)節(jié)。

      1. https://huggingface.co/RTP-LLM/Qwen3-Coder-30B-A3B-Instruct-RTPurbo
      2. https://modelscope.cn/models/RTP-LLM/Qwen3-Coder-30B-A3B-Instruct-RTPurbo



      圖 3:RTPurbo 采用混合壓縮方案,僅有少數(shù) Attention Head 使用全量 Attention)

      化繁為簡(jiǎn),被低估的 SWA



      但在真實(shí)落地中,這兩條路線都有較明顯的共性代價(jià):一方面,它們通常強(qiáng)依賴大量后訓(xùn)練,工程實(shí)現(xiàn)與適配成本也更高;另一方面,Linear Attention 在壓縮信息后,長(zhǎng)序列下的召回能力顯著弱于 Full Attention [1],因此往往需要與 Full Attention 混合使用,帶來(lái)性能與加速收益的雙重上限。此外,Linear / Sparse Attention 的算子與調(diào)度設(shè)計(jì)相對(duì)復(fù)雜,也進(jìn)一步影響其在工程生態(tài)中的通用性、可維護(hù)性與一致性。也正因如此,一些前期工作 [2] 反而把目光投向看似 “簡(jiǎn)單粗暴” 的 Sliding Window Attention(SWA),例如 gpt-oss 和 MiMo ,這在一定程度上說(shuō)明 SWA 并非 “權(quán)宜之計(jì)”,而是一種可規(guī)模化復(fù)用的工程選擇。

      在進(jìn)一步分析現(xiàn)有 LLM 的注意力模式后,團(tuán)隊(duì)觀察到一個(gè)更細(xì)粒度的關(guān)鍵現(xiàn)象:絕大多數(shù) Attention Head 天然更偏好局部信息,只有極少數(shù) “長(zhǎng)程頭” 能在長(zhǎng)文本中穩(wěn)定地定位并召回關(guān)鍵關(guān)聯(lián)信息。基于這一現(xiàn)象,團(tuán)隊(duì)提出了一個(gè)關(guān)鍵假設(shè):

      類似人類的閱讀與寫作過(guò)程,LLM 在處理長(zhǎng)文本時(shí),往往會(huì)先從長(zhǎng)上下文中 “召回” 相關(guān)信息,再在相對(duì)局部的上下文范圍內(nèi)完成推理并輸出答案

      換句話說(shuō),模型內(nèi)部可能只有少量 Attention Head 真正在承擔(dān) “信息召回” 的職責(zé):它們通過(guò)注意力機(jī)制把遠(yuǎn)距離信息搬運(yùn)到當(dāng)前的 Residual Stream(信息通道)中,讓后續(xù)層可以在更局部、更高信噪比的狀態(tài)下完成推理。這也直接意味著:對(duì)于那些并不承擔(dān)長(zhǎng)程依賴的 Attention Head,其實(shí)并不需要使用 Full Attention—— 長(zhǎng)序列場(chǎng)景存在可觀的壓縮空間。

      為了驗(yàn)證這一假設(shè),團(tuán)隊(duì)設(shè)計(jì)了一個(gè)直觀的對(duì)比試驗(yàn):

      1. 方案一:只有 15% 的長(zhǎng)程頭使用 Full Attention,剩余 85% 使用 SWA;
      2. 方案二:15% 的長(zhǎng)程頭使用 SWA,剩余 85% 使用 Full Attention。

      如表 1 所示,盡管方案二保留了 85% 的 KV cache,但是其長(zhǎng)文能力仍然顯著劣于方案一。



      表 1:方案一只用 15% 的 Full Attention,長(zhǎng)文效果顯著優(yōu)于方案二

      進(jìn)一步地,在不做任何微調(diào)的情況下,方案一在長(zhǎng)文本指標(biāo)上也非常有競(jìng)爭(zhēng)力(表 2),幾乎無(wú)損:



      表 2:方案一不經(jīng)過(guò)訓(xùn)練,在 Ruler 上無(wú)損

      不過(guò),在某些特定的長(zhǎng)文任務(wù)上,未經(jīng)微調(diào)的壓縮模型仍會(huì)出現(xiàn)明顯的性能退化(見(jiàn)表 3)。其根源在于:壓縮前后注意力模式的直接切換會(huì)對(duì)模型輸出造成一定擾動(dòng),需要額外訓(xùn)練來(lái) “消化” 這種變化。



      表 3:方案一在特殊 benchmark 上仍然存在顯著負(fù)向

      因此,為實(shí)現(xiàn)更接近 “無(wú)損” 的壓縮,團(tuán)隊(duì)進(jìn)一步提出了一個(gè)面向 RL 后模型的壓縮訓(xùn)練范式:在不依賴高質(zhì)量標(biāo)注數(shù)據(jù)的前提下,僅通過(guò)輕量級(jí)微調(diào),就能顯著提升壓縮后模型在長(zhǎng)文任務(wù)上的表現(xiàn)。

      自蒸餾,從根本上解決數(shù)據(jù)問(wèn)題

      當(dāng)前主流 LLM 通常采用 “預(yù)訓(xùn)練 + 后訓(xùn)練 + RL” 的訓(xùn)練范式,如果直接使用長(zhǎng)文 SFT / 預(yù)訓(xùn)練語(yǔ)料進(jìn)行續(xù)訓(xùn),會(huì)帶來(lái)兩方面挑戰(zhàn):

      1. RL 后模型在經(jīng)過(guò) SFT 會(huì)出現(xiàn)過(guò)擬合甚至災(zāi)難性遺忘,損傷短文本任務(wù)上的原有能力(見(jiàn)表 4);
      2. 高質(zhì)量的長(zhǎng)文本語(yǔ)料難以獲取。



      表 4:Qwen3-30B-A3B-Instruct RL 后模型繼續(xù) SFT 會(huì)過(guò)擬合,造成災(zāi)難性遺忘

      為解決這兩點(diǎn),RTPurbo 使用 “模型自蒸餾” 作為關(guān)鍵訓(xùn)練策略:讓壓縮后的模型對(duì)齊原模型輸出,從而同時(shí)化解數(shù)據(jù)與能力保留問(wèn)題:

      1. 僅對(duì)模型自身的輸出進(jìn)行對(duì)齊,避免依賴特定領(lǐng)域的問(wèn)答數(shù)據(jù),從而確保短文本下游指標(biāo)基本無(wú)損;
      2. 只需使用長(zhǎng)文本預(yù)訓(xùn)練語(yǔ)料即可完成訓(xùn)練,使模型快速適應(yīng) headwise 稀疏的工作模式。

      實(shí)測(cè)中,僅使用約 1 萬(wàn)條 32k 長(zhǎng)度的預(yù)訓(xùn)練語(yǔ)料(訓(xùn)練時(shí)間小時(shí)級(jí)),RTPurbo 就能讓長(zhǎng)文任務(wù)表現(xiàn)與原模型持平。

      結(jié)果對(duì)比

      在長(zhǎng)文本測(cè)試場(chǎng)景下,RTPurbo 僅保留約 15% 的 Attention Heads 使用 Full KV cache,壓縮后的 Qwen-Coder-Plus、Qwen3-30B-A3B-Instruct 在多項(xiàng)長(zhǎng)文指標(biāo)上可與未壓縮模型齊平,充分驗(yàn)證了壓縮后模型的精度保障。



      更重要的是,這種壓縮并非以犧牲通用能力為代價(jià)。在多項(xiàng)短文本(通用)Benchmark 上,采用自蒸餾范式訓(xùn)練后的模型并未出現(xiàn)性能衰減,原有對(duì)話、推理和代碼理解等能力都得到了良好保留。



      這表明,RTPurbo 不僅是一種單一模型的 “特定優(yōu)化技巧”,而是一套具有良好可遷移性和通用性的長(zhǎng)序列加速方案,可為更大規(guī)模、更多架構(gòu)的 LLM 提供高性價(jià)比的推理加速路徑。

      從大模型可解釋性到 LLM 壓縮

      早期可解釋性工作 [3] 已指出:模型內(nèi)部存在很強(qiáng)的 “召回” 機(jī)制,一部分特定 Attention Head 能穩(wěn)定定位前文相關(guān)信息。團(tuán)隊(duì)成員的前期工作 [2] 也觀察到這些 Head 在長(zhǎng)文場(chǎng)景仍保持類似行為。

      與此同時(shí),在 [4] 中,作者指出 Softmax 本身在長(zhǎng)序列存在熵增的問(wèn)題。更具體的,隨著序列變長(zhǎng),每個(gè) Token 的注意力不可避免的變得更加彌散(信噪比降低),如下圖所示:



      圖 4:Attention 在長(zhǎng)序列下存在信噪比下降的問(wèn)題

      因此,為了避免遠(yuǎn)程信息干擾模型本身的推理能力,LLM 內(nèi)部實(shí)現(xiàn)了一種非常巧妙的機(jī)制:

      • 多數(shù) Head 只處理局部信息,以獲得更高信噪比;
      • 少數(shù) Head 負(fù)責(zé)從遠(yuǎn)處 “召回” 關(guān)鍵信息并搬運(yùn)到當(dāng)前位置,使后續(xù)層能在局部范圍內(nèi)完成推理。

      這與 RTPurbo 的 headwise 設(shè)計(jì)高度一致:把 “全局召回” 能力集中保留給少量關(guān)鍵 Head,其余 Head 則用工程收益更穩(wěn)定的 SWA 來(lái)承載。

      RTP-LLM:RTPurbo 在長(zhǎng)文上的極致性能優(yōu)化



      圖 5:RTPurbo HeadWise Attention 性能加速結(jié)果,圖上結(jié)果僅使用 15% 的 Full Attention

      RTPurbo 按固定比例劃分 SWA Head 與 Full Head 雖然直觀有效,但工程上必須解決一個(gè)問(wèn)題:不同 Head 計(jì)算模式與計(jì)算量不一致,會(huì)導(dǎo)致負(fù)載不均衡,影響 GPU 并行效率與端到端吞吐。

      為此,RTP-LLM 圍繞該不均衡在算子層與框架層做了針對(duì)性優(yōu)化,核心包括:

      • Full Attention Head 的 PTX 級(jí)優(yōu)化:對(duì)仍需全量計(jì)算的 Full Head 深入 PTX 指令層,利用 gmma::mma_async_shmA 等異步拷貝與矩陣乘指令提升效率;融合 IO warps 與 P/V 計(jì)算階段,優(yōu)化 Ping-Pong 流水與調(diào)度,減少空轉(zhuǎn)等待。
      • 稀疏度感知的負(fù)載均衡調(diào)度:針對(duì) Tail Latency,采用稀疏度感知?jiǎng)討B(tài)調(diào)度(如反向拓?fù)渑判颍瑑?yōu)先分配重 tile 給 SM,使各 SM 更同步完成任務(wù),降低尾延遲、提升吞吐。
      • SWA 的高效實(shí)現(xiàn):避免傳統(tǒng) SWA 常見(jiàn)的 “三段式 KV 拼接” 或 “Custom Mask” 做法(訪存與調(diào)度開(kāi)銷大),通過(guò)重塑數(shù)據(jù)布局與計(jì)算路徑減少冗余訪存與額外算子開(kāi)銷。
      • 用 CP(Context Parallel)替代 TP(Tensor Parallel):在 headwise 稀疏場(chǎng)景下,TP 易導(dǎo)致算力利用率低且不夠靈活;采用 CP 讓單卡完成全部 head 的 attention 計(jì)算,提高 GPU 利用率,并通過(guò)計(jì)算 - 通信重疊降低通信開(kāi)銷。

      綜合以上優(yōu)化,RTP-LLM 能將 Attention 稀疏帶來(lái)的理論收益穩(wěn)定、可復(fù)現(xiàn)地轉(zhuǎn)化為端到端加速;在 256k 長(zhǎng)序列下實(shí)現(xiàn)單算子最高 9× 加速(見(jiàn)圖 5,圖中僅 15% Head 使用 Full Attention)。

      團(tuán)隊(duì)介紹

      RTP-LLM 是阿里巴巴智能引擎團(tuán)隊(duì)自研的高性能大模型推理引擎,支持了淘寶、天貓、高德、餓了么等核心業(yè)務(wù)的大模型推理需求。智能引擎源自阿里巴巴搜索、推薦和廣告技術(shù),是阿里 AI 工程領(lǐng)域的先行者和深耕者。團(tuán)隊(duì)專注于 AI 工程系統(tǒng)的建設(shè),主導(dǎo)建立了大數(shù)據(jù) AI 工程體系 AI?OS,持續(xù)為阿里集團(tuán)各業(yè)務(wù)提供高質(zhì)量的 AI 工程服務(wù)。

      RTP-LLM 項(xiàng)目已開(kāi)源,歡迎交流共建: https://github.com/alibaba/rtp-llm

      參考文獻(xiàn):

      [1]: Repeat After Me:Transformers are Better than State Space Models at Copying.

      [2]: RazorAttention: Efficient KV Cache Compression Through Retrieval Heads

      [3]: In-context Learning and Induction Heads

      [4]: 蘇建林,“注意力機(jī)制真的可以集中注意力嗎?”,https://www.spaces.ac.cn/archives/9889

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      全體集合,下周的預(yù)測(cè)出來(lái)了!A股深V反轉(zhuǎn),我來(lái)說(shuō)兩句!

      全體集合,下周的預(yù)測(cè)出來(lái)了!A股深V反轉(zhuǎn),我來(lái)說(shuō)兩句!

      一擔(dān)金
      2026-05-15 12:07:23
      蘇超爭(zhēng)冠大戲:凱爾特人讀秒點(diǎn)球絕殺,將與哈茨上演末輪生死戰(zhàn)

      蘇超爭(zhēng)冠大戲:凱爾特人讀秒點(diǎn)球絕殺,將與哈茨上演末輪生死戰(zhàn)

      星耀國(guó)際足壇
      2026-05-14 15:37:44
      至少在已經(jīng)過(guò)去的25年里,中國(guó)的“財(cái)神”不是趙公明,而是WTO!

      至少在已經(jīng)過(guò)去的25年里,中國(guó)的“財(cái)神”不是趙公明,而是WTO!

      細(xì)雨中的呼喊
      2026-02-21 06:59:07
      兩次嫁給梁靖崑,退圈安心照顧兩個(gè)兒子,如今丈夫成為大學(xué)教授

      兩次嫁給梁靖崑,退圈安心照顧兩個(gè)兒子,如今丈夫成為大學(xué)教授

      笑飲孤鴻非
      2026-05-13 18:59:58
      主角:四個(gè)女人四種結(jié)局,李青娥慘死,米蘭嫁富商,花彩香最可惜

      主角:四個(gè)女人四種結(jié)局,李青娥慘死,米蘭嫁富商,花彩香最可惜

      阿廢冷眼觀察所
      2026-05-13 01:40:05
      特斯拉中國(guó)官宣全新優(yōu)惠,5.59 萬(wàn)即可提 Model 3 了!

      特斯拉中國(guó)官宣全新優(yōu)惠,5.59 萬(wàn)即可提 Model 3 了!

      XCiOS俱樂(lè)部
      2026-05-13 14:22:27
      004核航母落空?美媒:除關(guān)鍵術(shù)落后,很多原因讓中國(guó)沒(méi)必要造它

      004核航母落空?美媒:除關(guān)鍵術(shù)落后,很多原因讓中國(guó)沒(méi)必要造它

      嘆為觀止易
      2026-05-15 08:01:00
      恒大5 月 18 日香港高院開(kāi)庭,暴雷 3 年,終于有人要買單了

      恒大5 月 18 日香港高院開(kāi)庭,暴雷 3 年,終于有人要買單了

      賤議你讀史
      2026-05-14 07:05:04
      天王山創(chuàng)9紀(jì)錄仍未獲尊重!名嘴直言G6才是哈登考驗(yàn) 美媒盼破魔咒

      天王山創(chuàng)9紀(jì)錄仍未獲尊重!名嘴直言G6才是哈登考驗(yàn) 美媒盼破魔咒

      顏小白的籃球夢(mèng)
      2026-05-15 12:17:49
      千萬(wàn)網(wǎng)友組成最悲壯調(diào)查兵團(tuán),全死在了各大地圖APP的假公廁門前

      千萬(wàn)網(wǎng)友組成最悲壯調(diào)查兵團(tuán),全死在了各大地圖APP的假公廁門前

      情報(bào)姬
      2026-05-13 23:05:41
      二戰(zhàn)時(shí)期,唯一一個(gè)沒(méi)有參戰(zhàn)的世界性強(qiáng)國(guó),當(dāng)時(shí)它到底在忙什么?

      二戰(zhàn)時(shí)期,唯一一個(gè)沒(méi)有參戰(zhàn)的世界性強(qiáng)國(guó),當(dāng)時(shí)它到底在忙什么?

      云霄紀(jì)史觀
      2026-05-14 17:55:31
      訪華第二天,特朗普像變了個(gè)人,主動(dòng)對(duì)華交底,中美共同敵人浮現(xiàn)

      訪華第二天,特朗普像變了個(gè)人,主動(dòng)對(duì)華交底,中美共同敵人浮現(xiàn)

      涼了時(shí)光人
      2026-05-15 06:30:45
      終于知道宇樹(shù)科技的王興興為什么推出一個(gè)不成熟的機(jī)甲了。

      終于知道宇樹(shù)科技的王興興為什么推出一個(gè)不成熟的機(jī)甲了。

      荊楚寰宇文樞
      2026-05-13 23:24:45
      英國(guó)真的會(huì)成為穆斯林國(guó)家嗎?分享Claude的結(jié)論

      英國(guó)真的會(huì)成為穆斯林國(guó)家嗎?分享Claude的結(jié)論

      劉耘博士
      2026-05-14 08:50:43
      馬克龍非洲上演“皇上回宮”,丟盡法蘭西臉面

      馬克龍非洲上演“皇上回宮”,丟盡法蘭西臉面

      浪子的煙火人間
      2026-05-15 13:03:22
      5萬(wàn)人怒砸東京街,高市早苗終于服軟認(rèn)慫,中方冷回:不糾錯(cuò)免談

      5萬(wàn)人怒砸東京街,高市早苗終于服軟認(rèn)慫,中方冷回:不糾錯(cuò)免談

      泠泠說(shuō)史
      2026-05-14 21:52:49
      恩里克:剛來(lái)就拿兩座冠軍?我連一個(gè)都沒(méi)想過(guò),更別說(shuō)兩個(gè)了

      恩里克:剛來(lái)就拿兩座冠軍?我連一個(gè)都沒(méi)想過(guò),更別說(shuō)兩個(gè)了

      懂球帝
      2026-05-15 04:23:43
      熟客不再光顧都是因?yàn)樯叮烤W(wǎng)友:這老板掉錢眼里了

      熟客不再光顧都是因?yàn)樯叮烤W(wǎng)友:這老板掉錢眼里了

      解讀熱點(diǎn)事件
      2026-05-05 00:05:15
      朱元璋為什么將藍(lán)玉剝皮?看看藍(lán)玉怎么對(duì)北元王妃:換你你也殺!

      朱元璋為什么將藍(lán)玉剝皮?看看藍(lán)玉怎么對(duì)北元王妃:換你你也殺!

      銘記歷史呀
      2026-05-14 15:16:12
      湖人內(nèi)部矛盾加劇,傳詹東互相厭惡,詹姆斯立雕像基本無(wú)望

      湖人內(nèi)部矛盾加劇,傳詹東互相厭惡,詹姆斯立雕像基本無(wú)望

      藝兔體壇
      2026-05-14 16:25:13
      2026-05-15 14:32:52
      機(jī)器之心Pro incentive-icons
      機(jī)器之心Pro
      專業(yè)的人工智能媒體
      13001文章數(shù) 142648關(guān)注度
      往期回顧 全部

      科技要聞

      兩年聯(lián)姻一地雞毛,傳蘋果OpenAI瀕臨決裂

      頭條要聞

      特朗普訪華"二號(hào)位"系美國(guó)駐華大使 其曾受超規(guī)格禮遇

      頭條要聞

      特朗普訪華"二號(hào)位"系美國(guó)駐華大使 其曾受超規(guī)格禮遇

      體育要聞

      德約科維奇買的球隊(duì),從第6級(jí)聯(lián)賽升入法甲

      娛樂(lè)要聞

      方媛回應(yīng)住男生單人間:女孩的配得感

      財(cái)經(jīng)要聞

      特朗普的北京時(shí)刻

      汽車要聞

      雙零重力座椅/AI智能體/調(diào)光天幕 啟境GT7內(nèi)飾發(fā)布

      態(tài)度原創(chuàng)

      手機(jī)
      本地
      藝術(shù)
      房產(chǎn)
      公開(kāi)課

      手機(jī)要聞

      首臺(tái)語(yǔ)音喚醒游戲本!七彩虹iGame M16 Origo2026到手價(jià)8999元

      本地新聞

      用蘇繡的方式,打開(kāi)江西婺源

      藝術(shù)要聞

      一個(gè)北大 “反卷教授” 的意外走紅

      房產(chǎn)要聞

      海南樓市新政要出!擬調(diào)公積金貸款額度,最高可貸168萬(wàn)!

      公開(kāi)課

      李玫瑾:為什么性格比能力更重要?

      無(wú)障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 四虎国产精品永久在线观看| 国内精品久久久久影院不卡| 国产最新AV在线播放不卡| 国产色婷婷| 天天躁日日躁很很躁2022| 午夜性刺激在线观看| 麻豆第一区MV免费观看网站| 免费看的一级毛片| 国产免费制服丝袜调教视频| 国产成人精品曰本亚洲| 在线播放深夜精品三级| 手机在线a视频| 视频一区二区三区四区不卡| 伊人福利导航| 色偷偷男人的天堂亚洲av| 3D动漫精品啪啪一区二区下载| 后入内射国产一区二区| www熟女com| 日韩一区中文免费视频| 亚洲性爱网站| 国产视频一区二区在线观看| 久草免费av| 日韩亚洲国产中文字幕欧美| 亚洲AV丁香五月六月婷婷| 在线看av一区二区三区| 亚州中文字幕av| 国模大胆一区二区三区| 欧美黑人XXXX性高清版| 亚洲欧美日韩中文二区| 无码人妻一区二区三区免费视频| 亚洲精品无码不卡在线播he| 亚洲AV永久天码精品天堂DL| 人妻少妇456在线视频| 熟妇人妻va精品中文字幕| aV无码av高潮aV三区| 97桃色| 少妇人妻综合久久中文| 免费成人网一区二区天堂| 欧美顶级metart裸体全部自慰| 国产鲁鲁鲁视频播放| www.91免费|