![]()
在過去一年中,大模型推理中的「過度思考」問題引發(fā)了廣泛關(guān)注。真正的挑戰(zhàn)并非簡(jiǎn)單地縮短思維鏈。面對(duì)簡(jiǎn)單問題,模型往往在得出正確答案后仍持續(xù)進(jìn)行冗余驗(yàn)證;而許多旨在抑制過度思考的方法雖能壓縮輸出長(zhǎng)度,卻常常將必要的推理探索一并剔除,導(dǎo)致模型從「想太多」直接滑向「想太少」。高效推理的核心目標(biāo)并非一刀切地削減推理步驟,而是使模型在不同任務(wù)中實(shí)現(xiàn)恰到好處的思考深度。
針對(duì)這一問題,哈爾濱工業(yè)大學(xué)(深圳)等機(jī)構(gòu)的研究者提出了 ReBalance 方法,并首次系統(tǒng)性引入Balanced Thinking這一新視角。該工作的核心觀點(diǎn)明確:高效推理的關(guān)鍵并非盲目壓縮推理長(zhǎng)度,而是在過度思考與思考不足之間維持動(dòng)態(tài)平衡。
基于此,ReBalance 利用模型自身的置信度信號(hào),在思考過程中實(shí)時(shí)調(diào)控其內(nèi)部狀態(tài),無需額外訓(xùn)練即可實(shí)現(xiàn)推理行為的動(dòng)態(tài)引導(dǎo)。實(shí)驗(yàn)表明,在參數(shù)規(guī)模從 0.5B 至 32B 的四個(gè)主流模型上,以及涵蓋數(shù)學(xué)推理、通用問答和編程任務(wù)的九個(gè)基準(zhǔn)測(cè)試中,ReBalance 在精度提升 10.0 的同時(shí),推理長(zhǎng)度直降 35.4%。
![]()
慢思考模型已展現(xiàn)出強(qiáng)大的推理能力,但「會(huì)推理」不等于「高效推理」。在簡(jiǎn)單題目上,模型經(jīng)常在答案收斂后持續(xù)分叉、回看、復(fù)核,帶來更高的延遲和 token 成本,甚至可能引入額外幻覺。現(xiàn)有方法主要通過抑制反思關(guān)鍵詞的生成或直接施加推理長(zhǎng)度懲罰來緩解這一問題,但它們往往隱含了一個(gè)過于簡(jiǎn)化的假設(shè),即推理「越短越好」。
過度思考與思考不足本質(zhì)不同。前者指在正確推理路徑已然顯現(xiàn)后仍無謂延展,后者則是在探索尚未充分時(shí)便倉(cāng)促得出結(jié)論。若將這兩種失衡模式混為一談,許多標(biāo)榜「高效」的方法實(shí)則以犧牲準(zhǔn)確率為代價(jià)換取推理長(zhǎng)度縮減。
ReBalance 的核心貢獻(xiàn)在于將高效推理重新定義為一種「平衡」問題:模型不應(yīng)一味追求縮短推理,而應(yīng)在恰當(dāng)?shù)臅r(shí)機(jī)停止冗余思考,在必要時(shí)繼續(xù)深入探索,從而實(shí)現(xiàn)簡(jiǎn)潔性與充分性的統(tǒng)一。
![]()
圖 1:在同一問題上,慢思考模型在得出正確答案后仍進(jìn)行冗余反思;現(xiàn)有抑制方法則過度壓縮有效推理,導(dǎo)致思考不足;而 ReBalance 能夠生成既簡(jiǎn)潔又充分的推理過程。
這一發(fā)現(xiàn)具有重要意義。它將高效推理的調(diào)控機(jī)制從依賴經(jīng)驗(yàn)性關(guān)鍵詞抑制,推進(jìn)至基于模型原生信號(hào)的動(dòng)態(tài)狀態(tài)建模。置信度并非靜態(tài)評(píng)分,而是一種可在線觀測(cè)、連續(xù)演化且與推理行為緊密耦合的狀態(tài)指標(biāo)。一旦識(shí)別出該連續(xù)信號(hào),便為實(shí)現(xiàn)細(xì)粒度的動(dòng)態(tài)推理控制提供了可能。
![]()
圖 2:現(xiàn)有過度思考抑制方法在縮短正確樣本推理長(zhǎng)度的同時(shí),也壓縮了錯(cuò)誤樣本的推理過程,表明其在緩解過度思考的同時(shí)引入了思考不足的問題。相比之下,ReBalance 能夠更有效地維持推理平衡。
基于上述洞察,ReBalance 提出了一種無需訓(xùn)練的兩階段推理調(diào)控框架。第一階段為離線數(shù)據(jù)采集:在小規(guī)模已知數(shù)據(jù)集上執(zhí)行單次前向推理,依據(jù)置信度及其波動(dòng)程度識(shí)別具有過度思考或思考不足傾向的推理步驟,并從深層 hidden states 中分別提取兩類原型表示。兩類原型之差構(gòu)成一個(gè)引導(dǎo)向量(steering vector),用以刻畫模型在兩種失衡狀態(tài)之間的內(nèi)部遷移方向。
第二階段為在線動(dòng)態(tài)引導(dǎo):在實(shí)際思考過程中,ReBalance 持續(xù)監(jiān)測(cè)當(dāng)前推理步驟的置信度與波動(dòng)幅度,并通過一個(gè)基于模型行為擬合的動(dòng)態(tài)控制函數(shù),實(shí)時(shí)確定引導(dǎo)的方向與強(qiáng)度。當(dāng)模型處于低置信度、高波動(dòng)狀態(tài)時(shí),方法增強(qiáng)其收斂?jī)A向,抑制冗余反思;當(dāng)模型處于高置信度、低波動(dòng)狀態(tài)時(shí),則施加反向引導(dǎo),鼓勵(lì)進(jìn)一步探索,防止過早終止。該方法全程無需重新訓(xùn)練、不依賴輔助模型,亦不引入額外推理階段。
![]()
圖 3:ReBalance 框架示意圖
在數(shù)學(xué)推理任務(wù)中,該方法最高實(shí)現(xiàn) 10.0 個(gè)百分點(diǎn)的 Pass@1 準(zhǔn)確率提升,并將生成長(zhǎng)度最多壓縮 35.4%。在非數(shù)學(xué)任務(wù)如 GPQA-D、StrategyQA 和 LiveCodeBench 上,ReBalance 同樣展現(xiàn)出穩(wěn)定的跨領(lǐng)域泛化能力,其中 GPQA-D 準(zhǔn)確率最高提升 6.6 個(gè)百分點(diǎn),同時(shí) token 消耗最多降低 29.9%。
![]()
·表 1:數(shù)學(xué)推理任務(wù)驗(yàn)證
ReBalance 的價(jià)值不僅在于提出了一種新的高效推理方法,更在于系統(tǒng)引入了Balanced Thinking這一全新視角。高效推理本質(zhì)上并非單純的序列壓縮問題,而應(yīng)是一個(gè)動(dòng)態(tài)控制過程。當(dāng)目標(biāo)從「縮短推理鏈」轉(zhuǎn)變?yōu)椤妇S持推理過程的平衡」時(shí),置信度自然成為連續(xù)可靠的控制信號(hào),而潛空間引導(dǎo)(Latent Steering)則成為輕量且高效的干預(yù)機(jī)制,從而重構(gòu)了整個(gè)問題的求解范式。
對(duì)于面向?qū)嶋H部署的推理模型,這一視角尤為重要。在延遲敏感、算力受限的應(yīng)用場(chǎng)景中,模型所需并非無限制延長(zhǎng)推理時(shí)間,而是以更優(yōu)的方式思考,并恰當(dāng)?shù)乜刂仆评黹L(zhǎng)度。ReBalance 為此提供了一個(gè)簡(jiǎn)潔、輕量且具有良好泛化能力的解決方案。目前,該項(xiàng)目已開源,并配套提供了交互式演示及多個(gè)模型的引導(dǎo)向量,降低了復(fù)現(xiàn)與應(yīng)用門檻。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.