- 獲取指南揭秘,夢(mèng)幻西游超級(jí)金猴怎么獲得2025
- 揭秘指南,《陰陽(yáng)師》御魂雪幽魂圖鑒介紹
- 深入探索魅力,《陰陽(yáng)師》御魂魅妖圖鑒介紹
- 探索奇妙的展示,2025迷你世界全息投影裝置用途
- 冒險(xiǎn)者必看,《魔獸世界》7.35高層秘境執(zhí)政團(tuán)之座攻略
- 游戲設(shè)置指南,原神如何設(shè)置密碼登錄免手機(jī)驗(yàn)證2025
- 探索珍珠之旅,《陰陽(yáng)師》御魂珍珠圖鑒介紹
- 快速指南,原神在哪里輸入兌換碼2025
- 探索指南,《陰陽(yáng)師》御魂木魅圖鑒介紹
- 深入探索,《陰陽(yáng)師》御魂樹妖圖鑒介紹
聲明:本文來自于(ID:ykqsd.com)授權(quán)轉(zhuǎn)載發(fā)布。
新智元的報(bào)道
1. 撰文人:?jiǎn)虠?/p>
2. 【新智元導(dǎo)讀】大模型在處理復(fù)雜的推理任務(wù)時(shí)往往顯得力不從心。近期,來自美國(guó)卡內(nèi)基梅隆大學(xué)等高校的3位華裔學(xué)者提出了一種新的方法,即批判式監(jiān)督微調(diào)(CFT),僅在50K樣本上訓(xùn)練,便在多數(shù)基準(zhǔn)測(cè)試中超越了使用超過200萬個(gè)樣本的強(qiáng)化學(xué)習(xí)方法。
3. 普通語(yǔ)言模型在模仿人類行為方面主要依賴于監(jiān)督微調(diào)(SFT)。LLM在解決現(xiàn)實(shí)世界問題的性能之所以突飛猛進(jìn),與監(jiān)督微調(diào)技術(shù)的支撐密不可分。
4. 在SFT的過程中,模型被要求模仿人類標(biāo)注或合成的高質(zhì)量回復(fù),以增強(qiáng)其遵循指令的能力。這類監(jiān)督微調(diào)數(shù)據(jù)集通常基于Self-Instruct和Evol-Instruct等方法構(gòu)建。
5. 不過,這種方法存在明顯的局限性。當(dāng)監(jiān)督微調(diào)的效果已經(jīng)較為理想時(shí),繼續(xù)采用這一方法可能會(huì)降低模型性能。
6. 為了突破這一局限,近期,美國(guó)卡內(nèi)基梅隆大學(xué)、滑鐵盧大學(xué)等高校的3位華裔學(xué)者發(fā)表了一篇論文,提出了批判式監(jiān)督微調(diào)方法(CFT,Critique Fine-Tuning)。該方法旨在通過批判性的學(xué)習(xí)方式,使模型更有效地模仿數(shù)據(jù)集。
7. 論文鏈接:https://arxiv.org/pdf/2501.17703
8. 批判式監(jiān)督微調(diào):讓SFT重新偉大
9. CFT將重點(diǎn)從簡(jiǎn)單模仿轉(zhuǎn)向基于批判的學(xué)習(xí),核心思想是讓模型學(xué)會(huì)批判,而不是簡(jiǎn)單地模仿,其靈感來源于人類的學(xué)習(xí)過程。
學(xué)霸群體在學(xué)習(xí)過程中不僅進(jìn)行答案的復(fù)制,而是通過分析、批判和優(yōu)化自己的解題方法。同樣,在CFT數(shù)據(jù)集中,為錯(cuò)誤的回答提供具體的批評(píng),以便模型能夠識(shí)別問題所在,并提出改進(jìn)建議以驗(yàn)證其正確性。
這種方法不僅有助于提升模型的推理能力,還能使其在處理復(fù)雜任務(wù)時(shí)表現(xiàn)出更強(qiáng)的適應(yīng)性和靈活性。
例如,針對(duì)如下問題:在一個(gè)直角三角形中,兩條直角邊的長(zhǎng)度分別為3個(gè)單位和4個(gè)單位,構(gòu)造一個(gè)正方形。求五邊形$ABCDE$的面積(單位:平方單位)。
在SFT模式下,模型會(huì)逐步進(jìn)行運(yùn)算,首先運(yùn)用勾股定理計(jì)算出斜邊長(zhǎng)度為5個(gè)單位,接著計(jì)算正方形的面積為25平方單位,以及三角形的面積為6平方單位。最后,模型給出的答案是25-6=19平方單位。
而在CFT模式下,模型會(huì)對(duì)上述答案進(jìn)行批評(píng),指出錯(cuò)誤在于應(yīng)該加上而非減去三角形的面積,因此正確答案應(yīng)為25+6=31平方單位。
如圖所示,展示的是典型的SFT和CFT數(shù)據(jù)樣例。
SFT模式下,模型直接模仿答案的結(jié)構(gòu)和形式;而CFT模式下,模型不僅模仿答案,還會(huì)模仿對(duì)錯(cuò)誤答案的批評(píng)過程。
CFT模式下的訓(xùn)練效率顯著高于SFT模式。
那么,如何獲取CFT訓(xùn)練所需的數(shù)據(jù)呢?
該研究基于WebInstruct平臺(tái),構(gòu)建了一個(gè)包含50,000個(gè)問答對(duì)的數(shù)據(jù)集,其中的每一個(gè)問題都附帶了來自高級(jí)模型(如GPT-4)生成的批評(píng)意見。例如,上述的數(shù)學(xué)問題就是一個(gè)樣本。這些數(shù)據(jù)主要集中在數(shù)學(xué)領(lǐng)域(占65%),但也涵蓋了物理、化學(xué)、商業(yè)等多個(gè)主題。
CFT數(shù)據(jù)集與SFT數(shù)據(jù)集進(jìn)行了對(duì)比實(shí)驗(yàn)
在完成CFT數(shù)據(jù)集的訓(xùn)練后,使用未經(jīng)過指令微調(diào)的7B規(guī)模LLM進(jìn)行模型構(gòu)建,具體包括DeepSeekMath-base、Qwen2.5和Qwen2.5-Math等模型。
CFT方法的訓(xùn)練目標(biāo)非常明確:將問題x與錯(cuò)誤回答y進(jìn)行拼接作為輸入,優(yōu)化模型參數(shù)以生成評(píng)論c,這一過程相當(dāng)于訓(xùn)練模型具備批判性思維能力。
實(shí)驗(yàn)結(jié)果表明,經(jīng)過指令微調(diào)與批判性微調(diào)的LLM在數(shù)學(xué)推理基準(zhǔn)測(cè)試中均表現(xiàn)出色。具體而言,CFT訓(xùn)練的模型在各項(xiàng)評(píng)估指標(biāo)上均優(yōu)于SFT訓(xùn)練的最佳模型。
與SFT方法相比,CFT的準(zhǔn)確率平均提升了4-10個(gè)百分點(diǎn)。值得注意的是,CFT方法的訓(xùn)練效率更高,在更少的訓(xùn)練數(shù)據(jù)量下實(shí)現(xiàn)了更快的收斂速度,這為開發(fā)高效數(shù)學(xué)推理模型提供了新思路。
通過動(dòng)態(tài)訓(xùn)練曲線圖可以看出,CFT方法在各階段的性能提升顯著,尤其是在處理復(fù)雜數(shù)學(xué)問題時(shí)展現(xiàn)出更強(qiáng)的泛化能力。
無論是在哪種數(shù)據(jù)集或任務(wù)場(chǎng)景下,CFT方法都能展現(xiàn)出卓越的性能,尤其是在處理多模態(tài)推理任務(wù)時(shí)表現(xiàn)尤為突出。
對(duì)比實(shí)驗(yàn)結(jié)果表明,CFT模型在多個(gè)關(guān)鍵指標(biāo)上均優(yōu)于其他主流模型,尤其是在數(shù)學(xué)推理和邏輯分析任務(wù)上表現(xiàn)尤為出色。
在對(duì)比實(shí)驗(yàn)中,Qwen2.5-Math-7B-CFT模型的平均表現(xiàn)(48.1%)甚至超過了參數(shù)量10倍的Llama-3.1-70B-Instruct(40.4%)和NuminaMath-72B-CoT(39.1%),在與Qwen2.5-Math-72B-Instruct(56.4%)的對(duì)比中,其性能表現(xiàn)也非常接近。
通過對(duì)比實(shí)驗(yàn)結(jié)果可以看出,CFT模型在多個(gè)關(guān)鍵指標(biāo)上均優(yōu)于其他主流模型,尤其是在數(shù)學(xué)推理和邏輯分析任務(wù)上表現(xiàn)尤為突出。
此外,基于CFT訓(xùn)練的模型在性能上與采用140倍計(jì)算資源訓(xùn)練的SimpleRL模型(Deepseek R1的公開版)相當(dāng),其GPU使用時(shí)長(zhǎng)減少至原來的1/144,顯著降低了計(jì)算成本。
研究者對(duì)CFT的多個(gè)關(guān)鍵因素進(jìn)行了消融測(cè)試。結(jié)果表明,CFT在數(shù)據(jù)來源、噪聲響應(yīng)以及教師批判模型等方面具有較強(qiáng)的魯棒性。
例如,即使使用較弱的GPT-4o-mini模型生成批評(píng)意見,CFT依然能夠顯著提升模型性能。
局限與擴(kuò)展
在CFT訓(xùn)練數(shù)據(jù)集中,作為基準(zhǔn)的批評(píng)數(shù)據(jù)全部由LLM生成。經(jīng)過作者的手動(dòng)審查(共50例),發(fā)現(xiàn)其中有20%的批評(píng)意見本身就包含明顯錯(cuò)誤。這些錯(cuò)誤可能對(duì)模型訓(xùn)練產(chǎn)生一定干擾,影響其最終效果。
此外,當(dāng)前CFT訓(xùn)練的模型尚無法進(jìn)行自我批評(píng),因此目前尚未觀察到自我改進(jìn)的現(xiàn)象。
該研究使用的數(shù)據(jù)集在代表性方面仍有待加強(qiáng),目前僅聚焦于數(shù)學(xué)問題,對(duì)于編程、科學(xué)推理或人文推理等領(lǐng)域的問題,是否能夠采用類似CFT的方法進(jìn)行訓(xùn)練,仍需進(jìn)一步探索。
CFT的優(yōu)勢(shì)在于顯著提升模型推理能力的同時(shí),實(shí)現(xiàn)了對(duì)訓(xùn)練數(shù)據(jù)的高效利用。通過模型學(xué)會(huì)批判性思維,相當(dāng)于讓大模型完成一次強(qiáng)化學(xué)習(xí)任務(wù)。
相較于現(xiàn)有的自我修正(Self-Correlation)、獎(jiǎng)勵(lì)模型(Reward Models)等方法,CFT的目標(biāo)是通過批判學(xué)習(xí)提升模型對(duì)問題的深入理解,而非直接估計(jì)獎(jiǎng)勵(lì)分?jǐn)?shù)或進(jìn)行自我修正。這種方法在推理任務(wù)中展現(xiàn)出更強(qiáng)的適應(yīng)性和靈活性。
更為關(guān)鍵的是,CFT的數(shù)據(jù)構(gòu)建和訓(xùn)練流程相對(duì)簡(jiǎn)單,計(jì)算成本較低,在實(shí)際應(yīng)用中具有較高的可行性和經(jīng)濟(jì)性。未來研究將致力于提升批判數(shù)據(jù)質(zhì)量,并探索模型自我批判機(jī)制的實(shí)現(xiàn)路徑。
首先,我們致力于構(gòu)建自動(dòng)驗(yàn)證工具或設(shè)計(jì)人類可驗(yàn)證的批判數(shù)據(jù)集,以期進(jìn)一步優(yōu)化批判數(shù)據(jù)的質(zhì)量。然而,要使大模型具備自我批判能力并實(shí)現(xiàn)持續(xù)改進(jìn),關(guān)鍵在于通過用戶反饋機(jī)制,使模型能夠持續(xù)學(xué)習(xí)和優(yōu)化自身。
此外,未來的研究可能探索將CFT與SFT和RL等其他訓(xùn)練范式相結(jié)合,擴(kuò)展其在多模態(tài)環(huán)境中的應(yīng)用,并深入研究其理論基礎(chǔ)。
注:參考資料:
https://arxiv.org/pdf/2501.17703
觀察破解,《超級(jí)對(duì)決比拼》悍匪三結(jié)義通關(guān)攻略 官方渠道與渠道服區(qū)別,《元?dú)怛T士前傳》官服和渠道服區(qū)別介紹 EZ小星搭配,《云頂之弈EZ陣容裝備推薦》《EZ陣容裝備搭配指南》《云頂之弈EZ陣容裝備搭配解析》《EZ陣容裝備搭配技巧分享》 山地建校通關(guān)技巧,《爆梗找茬王》山區(qū)建校通關(guān)攻略 元夢(mèng)之星皮膚獲取方法,《元夢(mèng)之星》瑤妹獲得方法介紹 銀與血終極技能解析,《銀與血》戰(zhàn)爭(zhēng)女神瓊安技能介紹 爆梗找茬王刮目相看關(guān)卡終極挑戰(zhàn) secrets,《爆梗找茬王》刮目相看通關(guān)攻略 寶可夢(mèng)朱紫藍(lán)之圓盤神獸大集合,《寶可夢(mèng):朱紫》藍(lán)之圓盤神獸位置一覽 超有趣的小課堂未來時(shí)鐘拖拽攻略,《爆梗找茬王》幸福搭配通關(guān)攻略 捕捉大巨怪的最佳策略,怪物獵人荒野大金怪物捕捉技巧大金怪物快速找法