<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      ICLR 2026 Oral | Revela:用語言建模重新定義稠密檢索器訓練

      0
      分享至



      在檢索增強生成(RAG)系統中,稠密檢索器(Dense Retriever)負責從海量文檔庫中快速找出與查詢語義最相關的段落,是整個系統的核心基礎組件。

      然而,訓練一個高質量的稠密檢索器并不容易。對比學習(Contrastive Learning)長期以來是這一領域的主流范式,但存在幾個根本性局限:

      • 嚴重依賴人工標注數據:需要精心構造查詢 - 文檔正負樣本對,在代碼、法律等專業領域標注成本極高;
      • 難負樣本的困境:隨機負樣本信號太弱,難負樣本挖掘又引入額外復雜性;
      • 與語言模型預訓練目標割裂:對比損失與主流大模型的預訓練范式(下一詞預測)天然不兼容,難以充分復用預訓練知識。

      這些問題在專業領域和推理密集型檢索場景下尤為突出。能否找到一條更自然、更統一的檢索器訓練路徑?來自德國達姆施塔特工業大學(TU Darmstadt)的蔡豐宇及其來自華盛頓大學、卡內基梅隆大學、微軟和騰訊 AI 實驗室的合作者給出了一個優雅的答案 -Revela:Dense Retriever Learning via Language Modeling,并憑借這一回答斬獲ICLR 2026 Oral(約 1.1% 錄取率) 和FrontierIR @ AAAI 2026 最佳論文獎



      • 論文鏈接:https://openreview.net/forum?id=e7pAjJZJWb
      • 代碼鏈接:https://github.com/TRUMANCFY/Revela
      • 模型鏈接:https://huggingface.co/trumancai/Revela-3b

      核心思路:讓檢索「像語言模型一樣學習」

      Revela 的核心洞察在于:將稠密檢索器的訓練目標統一到語言建??蚣苤?。

      語言模型(LM)通過 "預測下一個 token" 來建模 token 之間的依賴關系。Revela 將這一思路類比到檢索:如果說 LM 建模的是 token 之間的依賴,那么檢索器建模的就是文本塊(chunk)之間的依賴

      具體而言,Revela 引入了一種批內注意力機制(In-batch Attention):在語言建模時,一個序列的下一詞預測不僅條件于自身上文,還通過檢索器計算的相似度權重,動態地參考批次中其他相關文檔。如圖 1 中,紅色文本塊在預測下一詞時 "參考" 了語義相近的紫色文本塊,這一過程反過來驅動檢索器提高兩者之間的相似度分數。檢索器的相似度分數就此直接嵌入語言建模的優化目標,實現檢索器與語言模型的聯合端到端訓練,無需任何人工標注的查詢 - 文檔對



      圖 1:Revela 訓練框架。檢索器相似度分數作為批內注意力權重,與語言模型聯合端到端訓練。紅、紫序列中高亮片段展示了檢索器如何學會關聯語義相近的文本塊。

      這一設計帶來了三個關鍵優勢:

      • 訓練目標與預訓練高度一致:語言建模正是大模型預訓練所采用的目標,Revela 與之天然對齊,能充分激活預訓練模型中已有的語義理解能力。
      • 完全自監督,無需標注:原始文本自身的上下文關系即構成訓練信號,大幅降低對人工標注的依賴,使方法在數據稀缺的專業領域具備天然優勢。
      • 可擴展性強:實驗表明,隨著檢索器規模(從 135M 到 3B)、語言模型規模和批大小的增大,性能持續穩定提升,展現出良好的 Scaling 特性。

      方法架構

      Revela 的整體架構由兩部分組成:負責編碼文本,計算相似度的檢索器,以及提供語言建模訓練信號的語言模型,二者在訓練過程中聯合優化。



      圖 2:Revela 的 Transformer Block 架構。

      核心創新集中在 LM 的 Transformer Block 內部(圖 2)。每一層同時運行兩條并行的注意力路徑:標準自注意力處理單條序列內部的上下文依賴,輸出 ei;批內注意力則在此基礎上引入跨文檔維度:先對序列自身做自注意力得到 si,再以檢索器輸出的相似度分數為權重,對批次內其他文檔的自注意力輸出 ej做交叉注意力并加權聚合得到 bi,最終輸出 hi= si+ bi。其中,檢索器將批次內所有文檔編碼為向量,通過兩兩余弦相似度并經 softmax 歸一化,得到文檔間的相似度權重矩陣,直接作為批內注意力的聚合權重。

      值得注意的是,跨文檔注意力的 Key 和 Value 均來自其他文檔的 ej,而非 hj,這一設計使批內注意力能夠使用只含有序列內部信息的自注意力。兩路路徑對應圖 2 注意力圖中左上與右下兩個區域,最終輸出相加后送入前饋層,共同驅動下一詞預測目標。這一設計使檢索器的相似度分數直接參與 LM 的反向傳播,檢索器由此得以被端到端優化。

      在訓練數據構建上,Revela 將文檔切分為 chunk 并分批,確保每個 batch 內包含語義相關的片段,使語言建模信號天然對應有意義的跨文本依賴。訓練數據方面,通用檢索使用約 34 萬篇維基百科文檔,代碼檢索使用 StackOverflow 帖子、技術教程和庫文檔,均無需任何人工標注的查詢-文檔對。

      實驗效果:無標注數據,超越商業 API

      Revela 在三大權威基準上進行了系統評估,分別覆蓋代碼檢索(CoIR)推理密集型檢索(BRIGHT)通用信息檢索(BEIR)三個維度。



      表 1:CoIR 代碼檢索基準上各模型的檢索性能(nDCG@10,%)。

      代碼檢索(CoIR): Revela-3B 在 10 項任務平均 nDCG@10 達到 60.1,在無需任何查詢 - 文檔標注對的前提下,超越了使用海量標注數據訓練的 7B 參數有監督模型 E5-Mistral-7b-Instruct(57.3)以及 OpenAI Ada-002(45.6)、Voyage-Code-002(56.3)兩個商業 API。在 0.5B 參數規模下,Revela 即超越了同樣覆蓋代碼語料、用 2.7 億標注對訓練的 E5-PT,領先約 10 個百分點。



      圖 3:BRIGHT(左)與 BEIR(右)基準上的檢索性能對比(nDCG@10,%)。

      推理密集檢索(BRIGHT): Revela-3B 平均 nDCG@10 達到 20.1,僅憑維基百科文本訓練,便超越了 E5-Mistral-7b-Instruct(17.9)以及 text-embedding-3-large(OpenAI,17.9)、voyage-large-2-instruct(Voyage,17.9)、cohere-embed-english-v3.0(Cohere,16.6)等主流商業 API,充分體現了語言建模目標對深層語義推理能力的激活效果。

      通用檢索(BEIR): Revela-3B 與弱監督基線 E5-PT 持平(均為 45.6),但所用訓練數據約為其 1/1000,使用計算資源僅為其 1/10,極大降低了訓練成本。

      意義與展望

      Revela 將稠密檢索器的訓練與語言建模范式統一,打開了多個值得探索的方向:

      動態索引構建:Revela 目前通過文檔分塊來保證 batch 內的語義相關性,更理想的做法是用模型的實時表示對 chunk 動態分組,但這意味著需要在訓練過程中持續更新索引,計算成本是亟待解決的挑戰。模型與數據的進一步擴展:實驗已驗證 Revela 在模型規模和 batch 大小上具備良好的 Scaling 特性,擴大訓練語料覆蓋范圍、引入更高效的注意力機制,有望帶來進一步的性能提升。反哺語言模型訓練:Revela 目前將 LM 視為輔助的訓練信號來源,但檢索器所學到的文本間語義關聯,同樣可以反過來用于指導 LM 的 batch 構建,探索對語言模型本身的改善潛力。

      該成果已以 Oral 形式發表于頂級 AI 會議 ICLR 2026。本屆 ICLR 共收到近兩萬篇投稿,Oral 僅 兩百余篇,錄取率約 1.1%,是對 Revela 在自監督檢索學習領域創新價值的高度認可。

      作者介紹

      蔡豐宇,德國達姆施塔特工業大學(TU Darmstadt)四年級博士,師從 ACL fellow,前 ACL 主席 Iryna Gurevych 教授及 Heinz Koeppl 教授。他研究方向涵蓋稠密檢索、RAG 及 AI for science,在 ICLR,ACL, EMNLP,CVPR 等會議上發表論文十余篇。本碩分別畢業于香港科技大學(HKUST)與洛桑聯邦理工學院(EPFL)。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      國乒幕后功臣浮出水面!能戰勝韓國有原因,王皓躲過一劫太幸運

      國乒幕后功臣浮出水面!能戰勝韓國有原因,王皓躲過一劫太幸運

      三十年萊斯特城球迷
      2026-05-08 22:57:55
      年稅收僅4億的小縣城,44000多名公務人員工資超26億?

      年稅收僅4億的小縣城,44000多名公務人員工資超26億?

      新浪財經
      2026-05-08 21:10:49
      人倫之亂,正在悄悄毀掉無數家庭!看完一身冷汗

      人倫之亂,正在悄悄毀掉無數家庭!看完一身冷汗

      三農老歷
      2026-05-08 19:20:12
      瓦倫丁直播,把整個機車圈的臉打腫了!張雪:我的車手不借錢參賽

      瓦倫丁直播,把整個機車圈的臉打腫了!張雪:我的車手不借錢參賽

      童叔不飆車
      2026-05-08 22:05:01
      鄰居闖進家中求助,男子為保護兒子婉拒,雙方互留書信道歉,一個說請原諒一個說很愧疚

      鄰居闖進家中求助,男子為保護兒子婉拒,雙方互留書信道歉,一個說請原諒一個說很愧疚

      瀟湘晨報
      2026-05-08 19:19:25
      “紙上安全”VS現實噩夢:華為問界產業鏈為何淪為“忽悠型”造車的重災區?

      “紙上安全”VS現實噩夢:華為問界產業鏈為何淪為“忽悠型”造車的重災區?

      SmartHey
      2026-05-08 10:10:02
      深度|梁文鋒自掏200億領投DeepSeek,大廠或出局,V4.1計劃6月上新

      深度|梁文鋒自掏200億領投DeepSeek,大廠或出局,V4.1計劃6月上新

      ZFinance
      2026-05-09 00:05:29
      “極度兇殘變態”!香港豪宅雙尸案:外籍銀行高層性虐及殺害兩女子,還拍犯案經過!被判終身監禁

      “極度兇殘變態”!香港豪宅雙尸案:外籍銀行高層性虐及殺害兩女子,還拍犯案經過!被判終身監禁

      大風新聞
      2026-05-08 21:45:04
      保時捷銷量暴跌92.7%!從加價50萬到6折甩賣,背后原因引發關注!

      保時捷銷量暴跌92.7%!從加價50萬到6折甩賣,背后原因引發關注!

      老特有話說
      2026-05-08 17:06:36
      評論丨“4只皮皮蝦1035元”店主去世,消費糾紛別變成人身攻擊

      評論丨“4只皮皮蝦1035元”店主去世,消費糾紛別變成人身攻擊

      紅星新聞
      2026-05-08 17:43:33
      梁文峰語出驚人:我雇你來,不是讓你完成任務,而是讓你創造價值

      梁文峰語出驚人:我雇你來,不是讓你完成任務,而是讓你創造價值

      荊楚寰宇文樞
      2026-05-08 23:16:21
      同甘共苦!金正恩父女與“崔賢”號官兵同吃自熱米飯!

      同甘共苦!金正恩父女與“崔賢”號官兵同吃自熱米飯!

      IN朝鮮
      2026-05-08 19:13:11
      自己錄音不讓游客錄,上海迪士尼被指“雙標”!客服:介意錄音可以不來電…

      自己錄音不讓游客錄,上海迪士尼被指“雙標”!客服:介意錄音可以不來電…

      北京商報
      2026-05-08 16:09:22
      普京時代漸近尾聲,中國需警惕俄羅斯政策變動風險

      普京時代漸近尾聲,中國需警惕俄羅斯政策變動風險

      律法刑道
      2026-05-08 11:06:45
      吳尚垠:我兒輸掉第1分很可惜 中國球員也是人有波動亞運奔金牌去

      吳尚垠:我兒輸掉第1分很可惜 中國球員也是人有波動亞運奔金牌去

      勁爆體壇
      2026-05-09 07:50:06
      炸鍋!李湘暴瘦50斤判若兩人,真實瘦身原因太驚人

      炸鍋!李湘暴瘦50斤判若兩人,真實瘦身原因太驚人

      鄉野小珥
      2026-05-09 01:41:16
      小馬云范小勤成年后首次直播:禮物刷屏不斷 在線人數一度破7萬

      小馬云范小勤成年后首次直播:禮物刷屏不斷 在線人數一度破7萬

      快科技
      2026-05-08 14:42:08
      缺德到這種地步,已經不是諷刺的問題了!

      缺德到這種地步,已經不是諷刺的問題了!

      胖胖說他不胖
      2026-05-08 08:55:19
      解散了!老板同意!交易穆雷

      解散了!老板同意!交易穆雷

      籃球教學論壇
      2026-05-09 08:34:07
      舉報一個查一個!耿同學舉報3位大學院長和教授,同濟院長被免職還差南開和中山

      舉報一個查一個!耿同學舉報3位大學院長和教授,同濟院長被免職還差南開和中山

      可達鴨面面觀
      2026-05-07 13:03:19
      2026-05-09 09:20:49
      機器之心Pro incentive-icons
      機器之心Pro
      專業的人工智能媒體
      12950文章數 142646關注度
      往期回顧 全部

      科技要聞

      美國政府強力下場 蘋果英特爾達成代工協議

      頭條要聞

      媒體:特朗普若順利來華 將是美總統時隔十年再訪中國

      頭條要聞

      媒體:特朗普若順利來華 將是美總統時隔十年再訪中國

      體育要聞

      他把首勝讓給隊友,然后用一年時間還清賬單

      娛樂要聞

      古天樂被曝隱婚生子,新娘竟是她

      財經要聞

      白宮:特朗普計劃5月14日至15日訪問中國

      汽車要聞

      MG 4X實車亮相 將于5月11日開啟盲訂

      態度原創

      本地
      親子
      房產
      公開課
      軍事航空

      本地新聞

      用蘇繡的方式,打開江西婺源

      親子要聞

      小銳銳會走路后笑得很開心

      房產要聞

      豪擲6.8億拿地!何猷君大手筆投資三亞!

      公開課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      伊朗:最高領袖穆杰塔巴全面掌控局勢

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: www.亚洲成人网| 国产成人精品中文字幕| 69堂在线观看线无码视频一| 亚洲第一区精品日韩在线播放| 亚洲欧美一区二区成人片| 黄男女激情一区二区三区| 久久熟女| 日日摸夜夜添无码| 柳河县| 国产成人精品一区二区不卡 | 东乡| 国产一区二区日韩经典| 欧美亚洲精品在线| 欧美放荡的少妇| 亚洲精品麻豆一区二区| 亚洲色成人网一二三区| 亚洲a影院| 亚洲精品国产suv一区88| 久久亚洲精品高潮综合色a片| 亚洲人成在线精品| 国产亚洲视频在线观看网址| 亚洲狼人伊人免费视频| 国产精品视频区| 少妇高潮毛片免费看| 三级国产在线三级视频| 97丨九色丨国产人妻熟女| 天堂av网一区二区三区| 亚洲欧洲av| 国产chinesehdxxxx老太婆| www欧美在线观看| 国产一区二区色淫影院| 在线观看特色大片免费网站| 色国产视频| 亚洲一码二码在线观看| 国产激情电影综合在线看| 亚洲国产午夜精品理论片妓女| 免费xxxx| 欧美亚洲国产成人精品播放| 日本a视频在线观看| 国产aⅴ人妻互换一区二区| 国产熟女AV|