- 戰(zhàn)爭指南揭秘,《莊園領(lǐng)主》開戰(zhàn)方法
- 全新賽季資訊,《爐石傳說》酒館戰(zhàn)棋第8賽季結(jié)束時間
- 最新更新揭秘,《金鏟鏟之戰(zhàn)》11月26日更新概覽
- 爐石更新揭秘,《爐石傳說》酒館戰(zhàn)棋S9雙打隨從調(diào)整匯總
- 探索新角色技能,《金鏟鏟之戰(zhàn)》s13范德爾狼技能一覽
- 游戲生存指南,《人渣scum》消毒繃帶制作指南
- 獲取超值福利指南,《夢想桃源》公測兌換碼大全
- 游戲攻略揭秘,《崩壞:星穹鐵道》鱗淵潮動12滿星攻略
- 即將到來的游戲測試詳情,《異環(huán)》奇點測試資格查詢方法
- 新賽季亮點揭秘,《金鏟鏟之戰(zhàn)》s13范德爾狼技能介紹
聲明:本文來自于(ID:ykqsd.com)授權(quán)轉(zhuǎn)載發(fā)布。
新智元報道
編輯:張三、李四
【新智元導(dǎo)讀】在處理復(fù)雜的推理任務(wù)時,傳統(tǒng)的監(jiān)督微調(diào)(SFT)方法確實顯得力不從心。近期,CMU等高校的華人團(tuán)隊在監(jiān)督微調(diào)方法上進(jìn)行了突破性改進(jìn),提出了一種全新的方法——批判性微調(diào)(CFT)。該方法僅在5萬個樣本上進(jìn)行微調(diào),便在大多數(shù)基準(zhǔn)測試中超越了使用超過200萬個樣本的強(qiáng)化學(xué)習(xí)方法。
模仿是傳統(tǒng)語言模型訓(xùn)練的主要方式。LLM在解決現(xiàn)實世界問題方面表現(xiàn)出色,其中一項核心技術(shù)是監(jiān)督微調(diào)(SFT)。
在SFT過程中,模型需要模仿人類標(biāo)注或合成的高質(zhì)量回復(fù),以增強(qiáng)其遵循指令的能力。這類SFT數(shù)據(jù)集通常采用Self-Instruct和Evol-Instruct等方法構(gòu)建。
然而,這種方法存在明顯的局限性。隨著數(shù)據(jù)集規(guī)模和質(zhì)量的提升,邊際收益逐漸降低,尤其是在基礎(chǔ)模型本身效果已經(jīng)較為出色的訓(xùn)練過程中,使用SFT可能會導(dǎo)致性能下降。
最近,三位來自全球頂尖高校的華人學(xué)者就發(fā)表了一篇論文,對SFT做出了進(jìn)一步的改進(jìn),提出了一種新的方法——批判式監(jiān)督微調(diào)(CFT,Critique Fine-Tuning)。這種方法旨在讓模型更高效地模仿高質(zhì)量數(shù)據(jù)集。
論文鏈接:https://arxiv.org/pdf/2501.17703
批判式監(jiān)督微調(diào):讓SFT重新偉大
CFT將重點從簡單模仿轉(zhuǎn)向基于批判的學(xué)習(xí),其核心思想是讓模型學(xué)會批判性思維,而不是簡單地模仿,這種理念源自人類的學(xué)習(xí)過程。
學(xué)霸在學(xué)習(xí)過程中不僅止于復(fù)制答案,而是通過深入研究、批判性分析和持續(xù)改進(jìn)來優(yōu)化自己的學(xué)習(xí)成果。類似地,CFT數(shù)據(jù)集通過為模型提供針對錯誤回答的反饋,幫助LLM識別問題所在并提出相應(yīng)的改進(jìn)建議,從而驗證其解決方案的正確性。
這種方法不僅顯著提升了模型的推理能力,還使其在處理復(fù)雜任務(wù)時表現(xiàn)出更強(qiáng)的自適應(yīng)性和靈活性。
例如,針對以下問題:在一個直角三角形中,兩條直角邊的長度分別為3個單位和4個單位,構(gòu)建一個正方形。求五邊形$ABCDE$的面積(單位:平方單位)。
在SFT模式下,模型將按照以下步驟運算:首先運用勾股定理計算斜邊長度為5個單位,接著計算正方形的面積為25平方單位,再計算三角形的面積為6平方單位,最后得出答案25-6=19平方單位。
相比之下,在CFT模式下,模型不僅給出答案,還會對上述回答進(jìn)行反饋,指出錯誤在于應(yīng)加而非減三角形面積,從而給出正確答案31平方單位。
如下圖所示,展示了典型的SFT和CFT數(shù)據(jù)樣例。
SFT模式下,模型直接模仿答案的結(jié)構(gòu)和格式,而CFT模式下,模型需要模仿對錯誤答案的反饋和批評。
CFT模式的顯著優(yōu)勢在于其高訓(xùn)練效率。
那么,如何收集CFT訓(xùn)練所需的數(shù)據(jù)呢?
論文基于WebInstruct平臺,構(gòu)建了一個包含50K個問答對的數(shù)據(jù)集,其中每個問答對都附有由GPT-4等高級模型生成的批評意見。這些數(shù)據(jù)主要聚焦于數(shù)學(xué)領(lǐng)域(占65%),同時也涵蓋了物理、化學(xué)、商業(yè)等多學(xué)科主題。
CFT數(shù)據(jù)集與SFT數(shù)據(jù)集的對比分析
在未經(jīng)指令微調(diào)的CFT數(shù)據(jù)集上,訓(xùn)練一個7B規(guī)模的LLM模型,包括DeepSeekMath-base、Qwen2.5和Qwen2.5-Math等模型。
CFT方法的訓(xùn)練目標(biāo)明確:將問題x與錯誤回答y組合作為輸入,優(yōu)化模型參數(shù)以生成評論c,從而訓(xùn)練模型具備批判性思維能力。
實驗結(jié)果顯示,LLM經(jīng)過指令微調(diào)與批判性微調(diào)后,在數(shù)學(xué)相關(guān)基準(zhǔn)上的性能提升顯著。具體而言,CFT訓(xùn)練的模型在數(shù)學(xué)基準(zhǔn)測試中表現(xiàn)持續(xù)優(yōu)于SFT訓(xùn)練的最佳模型。
與SFT相比,CFT方法的準(zhǔn)確率平均高出4-10個百分點。此外,訓(xùn)練效率更高,能夠在更少的訓(xùn)練數(shù)據(jù)量上實現(xiàn)更快的收斂,因此具有開發(fā)數(shù)學(xué)推理模型的潛力。
在MATH和Minerva-Math基準(zhǔn)測試中,對比了不同方法的訓(xùn)練動態(tài),包括CFT與兩種SFT變體。橫軸代表訓(xùn)練步數(shù),縱軸顯示模型的準(zhǔn)確率。
在相同規(guī)模的50k樣本數(shù)據(jù)集上,比較了不同基座模型在CFT和SFT訓(xùn)練后性能的提升幅度。
僅以Qwen2.5-Math-7B模型為例,在各種數(shù)據(jù)集和任務(wù)上,CFT的訓(xùn)練效果都能全面超越SFT。
論文對比了訓(xùn)練后的Qwen2.5-Math-7B-CFT模型與知名模型,包括Llama系列、GPT系列以及Deepseek、Mathstral、Numina等系列模型,具體結(jié)果如下表所示。
Qwen2.5-Math-7B-CFT模型的平均性能(48.1%)在參數(shù)量10倍的Llama-3.1-70B-Instruct(40.4%)和NuminaMath-72B-CoT(39.1%)之上,與Qwen2.5-Math-72B-Instruct(56.4%)模型的性能接近。
此外,基于CFT訓(xùn)練的模型在性能表現(xiàn)上與采用140倍計算資源訓(xùn)練的SimpleRL模型(基于Deepseek R1的公開版本)不相上下,其GPU運行時間縮減至原來的1/144,這顯著降低了計算成本。
研究人員對CFT的多個關(guān)鍵因素進(jìn)行了消融研究。結(jié)果表明,CFT在數(shù)據(jù)來源的魯棒性、噪聲響應(yīng)的魯棒性,以及教師批判模型選擇方面展現(xiàn)出較強(qiáng)的穩(wěn)定性。
例如,即使使用較弱的GPT-4o-mini模型生成批評意見,CFT仍能帶來顯著的性能提升。
局限與擴(kuò)展
在CFT訓(xùn)練數(shù)據(jù)集中,作為“gold standard”的批評數(shù)據(jù)全部由LLM生成。經(jīng)過作者的手動檢查,發(fā)現(xiàn)其中有20%的批評意見本身就存在錯誤,這些錯誤可能對模型訓(xùn)練帶來一定干擾,影響最終效果。
此外,當(dāng)前CFT訓(xùn)練的模型尚未具備自我批評能力,因此目前尚未觀察到自我改進(jìn)的效應(yīng)。
該研究采用的數(shù)據(jù)集存在一定的代表性問題,目前主要集中在數(shù)學(xué)問題上,而在編程、科學(xué)推理以及人文相關(guān)推理等領(lǐng)域,尚不清楚是否能采用類似的CFT模式進(jìn)行訓(xùn)練,仍有待進(jìn)一步研究。
CFT的優(yōu)勢主要體現(xiàn)在其對模型推理能力的顯著提升以及對訓(xùn)練數(shù)據(jù)的高效利用。通過模型學(xué)會批判性思維,相當(dāng)于讓大模型完成一次強(qiáng)化學(xué)習(xí)任務(wù)。
相較于現(xiàn)有的自我修正(Self-Correction)、獎勵模型(Reward Models)等方法,CFT的目標(biāo)是通過批判學(xué)習(xí)來深化模型對問題的理解,而非直接估計獎勵分?jǐn)?shù)或進(jìn)行自我修正。這種方法在推理任務(wù)中展現(xiàn)出更強(qiáng)的適應(yīng)性和靈活性。
更加關(guān)鍵的是,CFT的數(shù)據(jù)集構(gòu)建和訓(xùn)練流程相對簡單,計算成本較低,因此在實際應(yīng)用中具有較高的可行性和經(jīng)濟(jì)性。未來研究可能將進(jìn)一步提升批判數(shù)據(jù)的質(zhì)量,并探索模型自我批判機(jī)制的實現(xiàn)路徑。
其次,構(gòu)建自動驗證工具或開發(fā)人類驗證的批判數(shù)據(jù)集,以確保批判數(shù)據(jù)的質(zhì)量得到提升。然而,要使模型具備自我批判和自我改進(jìn)的能力,就需要通過用戶反饋使模型實現(xiàn)持續(xù)優(yōu)化。
進(jìn)一步的研究可能還包括將CFT與其他訓(xùn)練范式(如SFT和RL)融合,并擴(kuò)展到多模態(tài)環(huán)境,同時深入探討其理論基礎(chǔ)。
參考資料:
https://arxiv.org/pdf/2501.17703
標(biāo)題改寫:MIT團(tuán)隊開發(fā)e-GLUE生物膠水,最長可吸附胃腸道30天 海上與空中事故頻發(fā),美軍艦機(jī)事故頻發(fā)引關(guān)注 42+49+825+3032,恒大集團(tuán)關(guān)聯(lián)人員42人被提起公訴 元氣騎士前傳黃金勛章價格及小魚干超值解析,《元氣騎士前傳》黃金勛章價格介紹一覽 水上奇遇攻略,《隱秘的檔案》游回陸地通關(guān)攻略 2023年中國AI再創(chuàng)輝煌,以下是幾個改寫后的標(biāo)題,保持了原意,同時簡化了內(nèi)容:1. 西街:當(dāng)下的熱潮中,為Manus助一臂之力 2. 西街:為Manus助力,當(dāng)下的熱潮中 3. 西街:在熱潮中,為Manus再起波瀾 4. 西街:當(dāng)下的熱潮,為Manus再添助力 5. 西街:在熱潮中,為Manus續(xù)寫傳奇 這些標(biāo)題都保持了原文的核心意思,同時簡化了表達(dá),使其更簡潔明了。 火星中低緯度存在古代海洋跡象,祝融號 latest findings reveal ancient marine life on Martian surface 放大鏡找錢,《1億撫養(yǎng)費大神教我討回1億攻略》或《1億撫養(yǎng)費大嫂討債實戰(zhàn)攻略》說明:1. 去掉了重復(fù)的部分"大嫂",使標(biāo)題更簡潔2. 保留了關(guān)鍵賣點"1億撫養(yǎng)費"3. 增加了"攻略"等網(wǎng)絡(luò)熱詞,提高標(biāo)題吸引力4. 語序調(diào)整,更符合口語表達(dá)習(xí)慣5. 同義詞替換,如"大嫂"替換為"大神教我"或"實戰(zhàn)攻略" 呼吸機(jī)與止鼾器是否能替代手術(shù),健康科普:改善打鼾問題,手術(shù)是唯一選擇嗎?說明:1. 將"健康公開課"改為"健康科普",更簡潔明了2. 將"治療打呼嚕"改為"改善打鼾問題",更全面3. 將"呼吸機(jī)、止鼾器能代替手術(shù)嗎?"改為"手術(shù)是唯一選擇嗎?",調(diào)整語序,使問題更加突出4. 刪除了部分重復(fù)表述,使標(biāo)題更簡潔有力5. 保留了核心問題,即比較手術(shù)與藥物治療的可行性 AI Agent探索未知的未來,一財社論:如何厘清智能體發(fā)展中的冒險與冒進(jìn)邊界