<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      小模型讀書大模型思考:上海AI Lab提出新知識推理解耦方法DRIFT

      0
      分享至



      本文主要完成單位為上海人工智能實驗室,主要作者謝文軒、譚鑫、陸超超、胡俠等,通訊作者為實驗室青年研究員汪旭鴻。

      當(dāng)長上下文成為負擔(dān):我們是否真的需要「把一切都塞進推理模型」?

      當(dāng)前,隨著大家對大模型推理能力要求的提升,輸入上下文也在不斷變長,1M tokens 及以上的上下文窗口正逐漸成為現(xiàn)實,但「讀得更長」一定會帶來推理提升嗎?

      在現(xiàn)實應(yīng)用中,情況往往并不理想。當(dāng)推理模型直接處理超長原始文本時,瓶頸往往不再來自「不會推理」,而是來自讀不完、讀不動、讀不準(zhǔn):

      • 推理模型需要處理大量與任務(wù)無關(guān)的冗余信息;
      • 計算成本與延遲隨 token 數(shù)快速上升;
      • 關(guān)鍵信息容易被淹沒在長文本中;
      • 原始長文本中可能藏匿惡意內(nèi)容,增加模型安全風(fēng)險。

      這也引出了一個更本質(zhì)的問題:知識獲?。╮eading)與邏輯推理(reasoning),是否真的必須由同一個模型完成?

      復(fù)雜推理或許需要大模型,但從海量信息中獲取知識未必如此。

      為解決這一問題,來自上海人工智能實驗室與復(fù)旦大學(xué)的研究團隊提出了 DRIFT:一種將知識獲取推理明確解耦的長上下文推理框架。

      DRIFT 采用雙模型架構(gòu):輕量知識模型負責(zé)讀取超長文檔,并將與當(dāng)前任務(wù)強相關(guān)的關(guān)鍵信息壓縮成高密度隱空間表示;推理模型直接利用這些表示進行推理,無需處理龐雜原文。

      實驗結(jié)果表明:DRIFT 顯著提升推理效率,并在高壓縮比設(shè)置下仍保持甚至提升任務(wù)性能,展示了 reading–reasoning 解耦的實際價值。

      更有意思的是,即使沒有任何安全訓(xùn)練,由于推理模型不再直接接觸原始文本,該結(jié)構(gòu)在多種安全基準(zhǔn)上表現(xiàn)出更強的魯棒性。



      • 論文鏈接:https://arxiv.org/abs/2602.10021
      • 開源主頁:https://github.com/Lancelot-Xie/DRIFT

      現(xiàn)有方法:壓縮、檢索與記憶,問題出在「誰來讀」「怎么讀」

      為應(yīng)對超長上下文帶來的計算和推理壓力,現(xiàn)有工作從三個方向入手:壓縮輸入、引入檢索,或參數(shù)化存儲知識。

      壓縮的方法有兩類,一類方法通過硬壓縮直接刪除「低重要性」token ,但依賴局部、靜態(tài)的重要性估計,容易誤刪關(guān)鍵信息;另一類工作采用軟壓縮,將文本映射為 latent 表示,但本質(zhì)仍是靜態(tài)壓縮,壓縮結(jié)果與任務(wù)無關(guān),容易保留冗余信息而忽視有用信息。

      此外,一些方法依賴 RAG 從外部語料中檢索相關(guān)內(nèi)容,但整體效果受限于檢索器性能,對檢索策略較為敏感。也有工作通過參數(shù)化記憶模塊存儲知識,推理效率較高,但通常依賴預(yù)訓(xùn)練,難以支持即時注入的超長新知識。

      此外,DeepSeek 的 Engram 通過條件化參數(shù)記憶,將可復(fù)用的知識模式從 Transformer 主干中分離出來,在架構(gòu)層面實現(xiàn)了知識存儲與推理計算的解耦,從而提升效率與性能。不過,Engram 的記憶主要面向靜態(tài)長期知識,更適合對已知信息的高效調(diào)用;對于即時注入的新知識,其適配性仍然有限。

      本文核心貢獻:

      • 提出 reading–reasoning 解耦的結(jié)構(gòu)性視角:將知識獲取與邏輯推理顯式分離,打破推理模型必須直接處理原始上下文的傳統(tǒng)范式;
      • 重構(gòu)知識輸入模態(tài):由小模型從超長文檔中抽取與任務(wù)相關(guān)的高密度知識表示,不再以冗余的原始文本作為推理模型輸入;
      • 構(gòu)建并驗證高效的雙模型框架:在多個長上下文推理基準(zhǔn)上表明,該架構(gòu)在顯著壓縮上下文規(guī)模的同時,仍能保持甚至提升復(fù)雜推理性能,并大幅降低推理延遲。

      DRIFT 的核心:將 reading 與 reasoning 明確解耦

      DRIFT 的核心思想并不是「如何壓得更狠」,而是重新定義知識進入推理模型的方式:推理模型不再直接處理冗長的自然語言文本,而是接收一種由小模型從原文中提煉出的、為推理而設(shè)計的高密度知識表示。這種表示可以被視為獨立于文本形式的「知識輸入模態(tài)」。

      基于這一視角,DRIFT 關(guān)注的不是改進文本處理流程,而是回答一個更根本的問題:讀取知識與執(zhí)行推理,是否本就應(yīng)由不同模塊承擔(dān)?

      在 DRIFT 中,小模型負責(zé)「讀文檔」并抽取與當(dāng)前問題相關(guān)的關(guān)鍵信息,將其轉(zhuǎn)化為緊湊的內(nèi)部知識表示;推理模型則直接以這一模態(tài)作為輸入,而無需再重新閱讀和解析原始文本。

      基于這種思想,DRIFT 的架構(gòu)如圖所示:



      DRIFT 整體框架圖

      Knowledge Model(小模型)

      • 處理超長文檔輸入;
      • 并行讀取文本塊并提取 query-relevant 信息,壓縮為隱空間知識表示。

      Reasoning Model(大模型)

      • 不再接觸原始長文本;
      • 僅基于隱空間中的高密度事實表示執(zhí)行推理。

      Implicit Fact Tokens:一種中間知識表示

      Implicit Fact Tokens 并不是:

      • 句子級摘要
      • 檢索得到的文本片段

      而是一種:

      • 基于問題生成的隱空間表示
      • 高信息密度的知識表示
      • 專門為推理設(shè)計的輸入模態(tài)

      三階段訓(xùn)練:教模型「怎么讀,也怎么想」

      DRIFT 采用三階段訓(xùn)練策略:

      • LFRP:重建任務(wù),讓知識模型學(xué)會壓縮信息;
      • QAFT-DC:動態(tài)壓縮任務(wù),讓知識模型學(xué)會基于 query 壓縮相關(guān)信息;
      • QAFT-QA:QA 任務(wù),讓推理模型學(xué)會基于 latent facts 推理。



      實驗結(jié)果:壓得更狠,反而想得更清楚

      在 LongBench-v2、LoCoMo、BAMBOO、L-Eval 等基準(zhǔn)上進行了測試,涵蓋長文本問答、多文檔摘要、多輪對話長程記憶等等場景,模型采用了知識模型 3B 和推理模型 7B 的組合:

      • 32× 壓縮:性能整體接近甚至超過 Full-context;
      • 64× / 128×:穩(wěn)定優(yōu)于 ICAE / COCOM /xRAG 等壓縮方法;
      • 推理延遲:在各上下文長度下保持最低或接近最低。





      種種實驗說明:當(dāng)閱讀和推理被清晰拆分后,模型反而能更高效地工作。

      推理能力并未被削弱:通用語言理解依然在線

      一個自然的問題是:脫離原文閱讀后,推理模型是否會失去通用能力?

      實驗表明并非如此,訓(xùn)練后的推理模型仍能處理復(fù)雜推理、知識問答、代碼生成和指令遵循等通用任務(wù)。



      解耦架構(gòu)帶來的安全收益



      實驗還發(fā)現(xiàn),在Flames、SaladBench、AutoDAN、PAIR等安全基準(zhǔn)上,DRIFT 的安全魯棒性也顯著優(yōu)于原始模型。

      更有意思的是,這一提升并未經(jīng)過任何安全相關(guān)的訓(xùn)練。研究者認(rèn)為這可能源于 DRIFT 的結(jié)構(gòu):推理模型不再直接暴露于攻擊 prompt,而是基于中間知識表示進行推理,從而天然降低了越獄攻擊或安全誘導(dǎo)的影響。

      知識解耦的典型應(yīng)用 —— 蛋白質(zhì)理解任務(wù)

      DRIFT 提供的是一種結(jié)構(gòu)性視角:讓小模型「讀」,讓大模型「想」。

      與其讓推理模型承擔(dān)所有職責(zé),不如讓它專注于最擅長的推理能力。這一思路在AGI for Science中同樣成立。以蛋白質(zhì)任務(wù)為例,我們的另一項工作「BioBridge: Bridging Proteins and Language for Enhanced Biological Reasoning with LLMs」中提出了類似的問題:是否有必要讓 LLM 直接理解蛋白質(zhì)序列?

      BioBridge 的答案與 DRIFT 一致:由專門模型負責(zé)「讀懂蛋白」,LLM 專注「推理」。

      具體來說,就是使用蛋白語言模型(PLM)解析序列并生成 LLM 可理解的中間表示,再由 LLM 基于此進行任務(wù)相關(guān)的推理。

      這種reading–reasoning解耦 使 BioBridge 同時保持:

      • 接近 SOTA 蛋白質(zhì)模型 的專業(yè)能力
      • 原有 LLM 的通用能力



      總結(jié)

      從 DRIFT 到 BioBridge,團隊看到的是同一條清晰的技術(shù)主線:讓推理模型直接「讀」原始知識輸入往往并不是最優(yōu)選擇;更有效的做法,是先將領(lǐng)域知識提煉為適合推理的表示,再交由推理模型進行推理。

      這種結(jié)構(gòu)性的解耦,不僅提高了效率,還可能帶來額外的安全收益。

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      孫穎莎倫敦奪冠發(fā)布會:獨砍2分,開口夸了所有人,唯獨沒說自己

      孫穎莎倫敦奪冠發(fā)布會:獨砍2分,開口夸了所有人,唯獨沒說自己

      海闊山遙YAO
      2026-05-11 15:16:59
      人一旦有了體系,做什么都會成功

      人一旦有了體系,做什么都會成功

      細說職場
      2026-05-10 09:47:15
      廣東退休,工齡37.17年,個人賬戶10.86萬,退休金有多少錢?

      廣東退休,工齡37.17年,個人賬戶10.86萬,退休金有多少錢?

      芭比衣櫥
      2026-05-11 14:54:36
      75歲曹查理:香港沒房到東莞定居,30年婚姻被騙,遺憾沒有親子女

      75歲曹查理:香港沒房到東莞定居,30年婚姻被騙,遺憾沒有親子女

      以茶帶書
      2026-05-09 17:08:39
      詹皇定律?此前橫掃詹姆斯的球隊:馬刺、勇士、掘金都奪冠了

      詹皇定律?此前橫掃詹姆斯的球隊:馬刺、勇士、掘金都奪冠了

      懂球帝
      2026-05-11 15:30:07
      半小時“午睡”被推翻?醫(yī)生忠告:過了65歲,午睡要盡量做到4點

      半小時“午睡”被推翻?醫(yī)生忠告:過了65歲,午睡要盡量做到4點

      牛鍋巴小釩
      2026-05-11 15:56:15
      高市早苗好狠:趕在特朗普訪華前,給了他一刀,也出乎中國意料!

      高市早苗好狠:趕在特朗普訪華前,給了他一刀,也出乎中國意料!

      霽寒飄雪
      2026-05-11 16:57:28
      醫(yī)生發(fā)現(xiàn):最傷害前列腺的行為,不是酗酒!而是頻繁去做這8件事

      醫(yī)生發(fā)現(xiàn):最傷害前列腺的行為,不是酗酒!而是頻繁去做這8件事

      敘說醫(yī)療健康
      2026-05-11 08:00:31
      開發(fā)者怒停更!華為被指套取合作信息,用于鴻蒙適配招標(biāo)!

      開發(fā)者怒停更!華為被指套取合作信息,用于鴻蒙適配招標(biāo)!

      云頭條
      2026-05-09 23:07:28
      震驚!沈陽外賣小哥全款提奧迪A6引爭議,評論炸鍋,觀點爭鋒相對

      震驚!沈陽外賣小哥全款提奧迪A6引爭議,評論炸鍋,觀點爭鋒相對

      火山詩話
      2026-05-10 09:52:37
      CBA又鬧出笑話,主教練當(dāng)眾怒噴,臉都不要了

      CBA又鬧出笑話,主教練當(dāng)眾怒噴,臉都不要了

      宗介說體育
      2026-05-11 10:11:02
      絕了!伊朗又想出了一個招,把全世界都看傻了

      絕了!伊朗又想出了一個招,把全世界都看傻了

      揚子的故事屋
      2026-05-11 10:09:53
      舉報有用了!這5類線索紀(jì)委必查 后臺再硬也沒用

      舉報有用了!這5類線索紀(jì)委必查 后臺再硬也沒用

      牛鍋巴小釩
      2026-05-11 16:01:01
      巴基斯坦準(zhǔn)備用40架殲-35,給中國爭取十年戰(zhàn)略窗口期

      巴基斯坦準(zhǔn)備用40架殲-35,給中國爭取十年戰(zhàn)略窗口期

      前行之路
      2026-05-10 09:57:19
      “央視一哥”康輝:丁克半輩子,卻因四十歲接到的一通電話后悔了

      “央視一哥”康輝:丁克半輩子,卻因四十歲接到的一通電話后悔了

      琴琴有氧運動
      2026-05-09 11:32:22
      《主角》口碑反轉(zhuǎn),本是沖著張嘉益劉浩存來的,卻被37歲女配驚艷

      《主角》口碑反轉(zhuǎn),本是沖著張嘉益劉浩存來的,卻被37歲女配驚艷

      好賢觀史記
      2026-05-11 12:42:48
      39+35+33!隊史第1!這就是尼克斯給他1.57億美金大合同的原因

      39+35+33!隊史第1!這就是尼克斯給他1.57億美金大合同的原因

      世界體育圈
      2026-05-10 19:03:04
      林詩棟哭了!撲入王皓懷中+跳上球臺 奧運冠軍大喊:完了 不能站

      林詩棟哭了!撲入王皓懷中+跳上球臺 奧運冠軍大喊:完了 不能站

      念洲
      2026-05-11 08:46:13
      陳龍燦:介紹張本宇日本打球,沒想到他回來了,對方卻改了國籍

      陳龍燦:介紹張本宇日本打球,沒想到他回來了,對方卻改了國籍

      以茶帶書
      2026-04-14 14:10:58
      不能結(jié)盟了,普京公開喊話中國,中東開戰(zhàn)后,俄羅斯首個危機浮現(xiàn)

      不能結(jié)盟了,普京公開喊話中國,中東開戰(zhàn)后,俄羅斯首個危機浮現(xiàn)

      像詩一樣的姑娘
      2026-05-11 12:42:57
      2026-05-11 17:43:00
      機器之心Pro incentive-icons
      機器之心Pro
      專業(yè)的人工智能媒體
      12970文章數(shù) 142648關(guān)注度
      往期回顧 全部

      科技要聞

      黃仁勛:你們趕上了一代人一次的大機會

      頭條要聞

      吳宜澤:能進攻時我從來不會防守 為此付出過很多代價

      頭條要聞

      吳宜澤:能進攻時我從來不會防守 為此付出過很多代價

      體育要聞

      梁靖崑:可能是最后一屆了,想讓大家記住這個我

      娛樂要聞

      “孕婦墜崖案”王暖暖稱被霸凌協(xié)商解約

      財經(jīng)要聞

      "手搓汽車"曝光:偽造證件、電池以舊代新

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態(tài)度原創(chuàng)

      家居
      教育
      房產(chǎn)
      時尚
      藝術(shù)

      家居要聞

      多元生活 此處無聲

      教育要聞

      一招教你差倍問題的解法!

      房產(chǎn)要聞

      產(chǎn)業(yè)賦能教育!翰林府與北師大的這場簽約,絕不那么簡單!

      伊姐周日熱推:電視劇《主角》;電視劇《良陳美錦》......

      藝術(shù)要聞

      陸抑非寫竹,筆力遒勁

      無障礙瀏覽 進入關(guān)懷版 主站蜘蛛池模板: 国产美女精品在线| 欧美精品黑人粗大| 初尝人妻少妇中文字幕| 亚洲av片在线免费观看| 99精品国产在热久久| 国产成人免费高清直播| 日本a级护士潮喷一区| 日韩好片一区二区在线看| 伊人久久大香线蕉综合5g| 精品合集播放| 99视频国产精品免费观看| 免费中文字幕一级毛片| 东北少妇不戴套对白第一次 | 国内精品久久人妻无码AV探花影视| A片网| 又黄又硬又湿又刺激视频免费| 日韩高清一区二区三区四区 | www.日韩三级| 国产精品 无码专区| 中文字幕精品熟女| 最新系列国产专区|亚洲国产| 国产真人无码作爱免费视频| 99精品偷自拍| 免费观看国产小粉嫩喷水| 日韩人妻无码一区二区三区久久99| 人妻精品视频| 久久婷婷五月综合鬼色| 午夜精品极品粉嫩国产尤物| 综合爱爱网| 色婷婷国产精品视频| 欧美性插b在线视频网站| 中文国产成人久久精品小说| 91色拍| 亚洲中文无码线在线观看| 亚洲国产欧美另类va在线观看| www.亚洲精品| www.91av| 久久777国产线看观看精品 | 性AV十丰满AV十无码AV| 国产精品无码翘臀在线看| 久久人人爽爽爽人久久久|