- 游戲小生活種地怎么玩,《小生活》種地玩法介紹
- 限時(shí)跨年紅包領(lǐng)取攻略,《蛋仔派對(duì)》跨年紅包領(lǐng)取方法
- DNF玩家必看神圣晶石獲取攻略,《dnf》神圣晶石獲得方法介紹
- 玻璃甲攻略,《星際戰(zhàn)甲》玻璃甲獲取方法
- 兌換選擇,《起源》兌換稀有裝備推薦或《地下城與勇士:起源》兌換稀有靈魂推薦這兩個(gè)版本的標(biāo)題都保持了原文的核心信息,同時(shí)進(jìn)行了內(nèi)容的精簡(jiǎn)和表達(dá)的優(yōu)化。
- 星際戰(zhàn)甲地圖大觀,《星際戰(zhàn)甲》地圖一覽
- 神界版本高級(jí)地下城白云溪谷副本推薦,《地下城與龍》神界版本強(qiáng)力地下城副本盤(pán)點(diǎn)
- 超值優(yōu)惠,《王者榮耀》瀾fmvp皮膚價(jià)格介紹
- 星際戰(zhàn)甲單刷戰(zhàn)甲配置與策略解析,《星際戰(zhàn)甲》單刷技巧分享
- 自定義調(diào)整 即將上線,《劍網(wǎng)3》環(huán)身特效稱(chēng)號(hào)位置自定義介紹
聲明:本文來(lái)自于(ID:ykqsd.com)授權(quán)轉(zhuǎn)載發(fā)布。
報(bào)道來(lái)源:新智元
編輯:Peter東、喬楊
【新智元導(dǎo)讀】在處理復(fù)雜推理任務(wù)時(shí),SFT往往表現(xiàn)不佳。最近,由多所高校的華人團(tuán)隊(duì)提出的批判性微調(diào)方法(CFT)僅在50K樣本上進(jìn)行微調(diào),便在多數(shù)基準(zhǔn)測(cè)試中超越了使用超過(guò)200萬(wàn)個(gè)樣本的強(qiáng)化學(xué)習(xí)方法。
模仿是傳統(tǒng)語(yǔ)言模型進(jìn)行訓(xùn)練的主要方式。LLM在解決現(xiàn)實(shí)世界問(wèn)題方面表現(xiàn)出的優(yōu)異性能,其中一項(xiàng)核心技術(shù)是監(jiān)督微調(diào)(SFT)。
在SFT的過(guò)程中,模型被要求模仿人類(lèi)標(biāo)注或合成的高質(zhì)量回復(fù),以增強(qiáng)其對(duì)通用指令的遵循能力。這類(lèi)SFT數(shù)據(jù)集通常采用Self-Instruct和Evol-Instruct等方法進(jìn)行構(gòu)建。
然而,這種方法存在明顯的局限性。當(dāng)數(shù)據(jù)集規(guī)模和質(zhì)量進(jìn)一步提升時(shí),SFT的邊際效益可能會(huì)下降,尤其是在基礎(chǔ)模型已經(jīng)表現(xiàn)出較強(qiáng)性能的情況下,使用SFT可能反而會(huì)導(dǎo)致性能下降。
最近,由多所高校的華人學(xué)者共同提出的批判式監(jiān)督微調(diào)方法(CFT)旨在提升模型的模仿能力。
論文鏈接:https://arxiv.org/pdf/2501.17703
批判式監(jiān)督微調(diào):讓SFT重新偉大
CFT將重點(diǎn)從簡(jiǎn)單模仿轉(zhuǎn)向基于批判的學(xué)習(xí),其核心思想是讓模型學(xué)會(huì)批判性思維,而非簡(jiǎn)單模仿,這一方法 borrow from human learning processes.
學(xué)霸在學(xué)習(xí)過(guò)程中不只是模仿答案,而是進(jìn)行分析、批判和自我改進(jìn)。在CFT數(shù)據(jù)集中,模型為錯(cuò)誤的模型響應(yīng)提供了相應(yīng)的批評(píng),幫助LLM識(shí)別其缺陷并提出改進(jìn)建議,從而驗(yàn)證其正確性。
這種方法不僅能夠提升模型的推理能力,還能增強(qiáng)其在復(fù)雜任務(wù)中的適應(yīng)性和靈活性。
比如,針對(duì)如下問(wèn)題:在直角三角形中,兩條直角邊的長(zhǎng)度分別為3個(gè)單位和4個(gè)單位,構(gòu)造一個(gè)正方形。求五邊形$ABCDE$的面積(單位:平方單位)。
在SFT模式下,模型會(huì)逐步進(jìn)行計(jì)算,首先應(yīng)用勾股定理得出斜邊長(zhǎng)度為5,隨后計(jì)算正方形面積為25,三角形面積為6,最終模型給出答案25減去6。
在CFT模式下,模型會(huì)對(duì)上述回答進(jìn)行批評(píng),指出錯(cuò)誤在于應(yīng)加而非減三角形面積,并提供正確答案31。
下圖展示了SFT和CFT兩種模式的數(shù)據(jù)樣本。
SFT模式讓大模型直接模仿答案,而CFT模式讓大模型模仿對(duì)錯(cuò)誤回答的批評(píng)。
CFT模式具有更高的訓(xùn)練效率。
那么,如何獲取CFT訓(xùn)練所需的數(shù)據(jù)呢?
該研究基于WebInstruct構(gòu)建了一個(gè)包含50,000個(gè)帶有批評(píng)意見(jiàn)的問(wèn)答對(duì)的數(shù)據(jù)集,其中的批評(píng)意見(jiàn)由GPT-4等高級(jí)模型生成,上述數(shù)學(xué)問(wèn)題便是其中一例。
分析CFT數(shù)據(jù)集與其他SFT數(shù)據(jù)集的異同
在CFT數(shù)據(jù)集上,采用7B規(guī)模、未經(jīng)指令微調(diào)的LLM進(jìn)行訓(xùn)練,包括DeepSeekMath-base、Qwen2.5和Qwen2.5-Math等模型。
CFT方法的訓(xùn)練目標(biāo)非常明確:將問(wèn)題x和錯(cuò)誤回答y進(jìn)行拼接作為輸入,優(yōu)化模型參數(shù)以生成評(píng)論c,這相當(dāng)于訓(xùn)練模型具備批判性思維能力。
實(shí)驗(yàn)中,作者對(duì)比了LLM在經(jīng)過(guò)指令微調(diào)與批判性微調(diào)后,在數(shù)學(xué)相關(guān)基準(zhǔn)上的性能提升。結(jié)果顯示,CFT訓(xùn)練的模型在性能上持續(xù)優(yōu)于SFT訓(xùn)練的最佳模型。
相比SFT,CFT的準(zhǔn)確率平均高出4-10個(gè)百分點(diǎn)。此外,訓(xùn)練效率更高,能夠在較少的訓(xùn)練數(shù)據(jù)量上實(shí)現(xiàn)更快的收斂,因此CFT方法有望成為開(kāi)發(fā)數(shù)學(xué)推理模型的一種更有效方法。
圖表展示了Qwen2.5-Math-7B在MATH和Minerva-Math任務(wù)上不同方法的訓(xùn)練動(dòng)態(tài)對(duì)比,橫軸為訓(xùn)練步數(shù),縱軸為模型準(zhǔn)確率。
在同樣規(guī)模的50k樣本數(shù)據(jù)集上,不同基座模型在使用CFT與SFT訓(xùn)練后的性能提升情況值得觀察。
如果僅關(guān)注Qwen2.5-Math-7B這一模型,可以看出,CFT的訓(xùn)練效果在各類(lèi)數(shù)據(jù)集和任務(wù)上都能全面超越SFT。
論文對(duì)比了訓(xùn)練后的Qwen2.5-Math-7B-CFT與知名模型,包括Llama、GPT系列,以及Deepseek、Mathstral、Numina等系列模型,并通過(guò)表格展示了具體對(duì)比結(jié)果。
Qwen2.5-Math-7B-CFT的平均性能(48.1%)優(yōu)于參數(shù)量10倍的Llama-3.1-70B-Instruct(40.4%)和NuminaMath-72B-CoT(39.1%),與Qwen2.5-Math-72B-Instruct(56.4%)相當(dāng)。
此外,基于CFT訓(xùn)練的模型在性能上與采用140倍計(jì)算資源訓(xùn)練的Deepseek R1開(kāi)源版本(SimpleRL模型的復(fù)制版)相比,具有不相上下之處。值得注意的是,CFT模型的GPU運(yùn)行時(shí)縮短至1/144,這相當(dāng)于大幅降低了計(jì)算成本。
研究人員對(duì)CFT的多個(gè)關(guān)鍵因素進(jìn)行了系統(tǒng)性消融研究。結(jié)果表明,CFT模型在數(shù)據(jù)來(lái)源的魯棒性、噪聲響應(yīng)的抗干擾能力以及教師批判模型選擇的穩(wěn)定性等方面表現(xiàn)出較強(qiáng)的能力。
舉例來(lái)說(shuō),即使使用較弱的GPT-4o-mini生成器輸出批評(píng)意見(jiàn),CFT模型仍然能夠顯著提升性能。
局限性與擴(kuò)展方向
在CFT訓(xùn)練數(shù)據(jù)集中,作為基準(zhǔn)的批評(píng)數(shù)據(jù)全部由LLM生成。經(jīng)過(guò)作者的手動(dòng)檢查,發(fā)現(xiàn)其中有20%的批評(píng)意見(jiàn)本身就存在明顯的錯(cuò)誤。這些錯(cuò)誤可能會(huì)對(duì)模型的訓(xùn)練效果造成一定干擾,從而影響其最終性能。
此外,CFT訓(xùn)練的模型目前尚未實(shí)現(xiàn)自我批評(píng)機(jī)制,因此尚未觀察到自我改進(jìn)的效果。
該研究的數(shù)據(jù)集在代表性方面仍存在不足,目前主要集中在數(shù)學(xué)問(wèn)題領(lǐng)域,而在編程、科學(xué)推理以及人文相關(guān)推理問(wèn)題等方面,CFT模式的適用性仍需進(jìn)一步驗(yàn)證。
CFT的主要優(yōu)勢(shì)在于顯著提升模型的推理能力以及優(yōu)化數(shù)據(jù)使用效率。通過(guò)模型學(xué)會(huì)批判性思維,相當(dāng)于讓大模型完成一次強(qiáng)化學(xué)習(xí)訓(xùn)練。
相比于現(xiàn)有的自我修正(Self-Correction)、獎(jiǎng)勵(lì)模型(Reward Models)等方法,CFT的目標(biāo)是通過(guò)批判學(xué)習(xí)提升模型對(duì)問(wèn)題的深入理解,而不是直接估計(jì)獎(jiǎng)勵(lì)分?jǐn)?shù)或進(jìn)行自我修正。這種方法在推理任務(wù)中展現(xiàn)出更強(qiáng)的適應(yīng)性和靈活性。
最為關(guān)鍵的是,CFT的數(shù)據(jù)構(gòu)建和訓(xùn)練流程相對(duì)簡(jiǎn)單,計(jì)算成本較低,因此在實(shí)際應(yīng)用中具有較高的可行性和經(jīng)濟(jì)性。未來(lái)研究將重點(diǎn)突破批判數(shù)據(jù)質(zhì)量的提升和模型自我批判機(jī)制的實(shí)現(xiàn)。
首先是構(gòu)建自動(dòng)驗(yàn)證工具或開(kāi)發(fā)人類(lèi)驗(yàn)證機(jī)制,以優(yōu)化批判數(shù)據(jù)的質(zhì)量;同時(shí),要使大模型具備自我批判與自我改進(jìn)的能力,需使其通過(guò)用戶反饋實(shí)現(xiàn)持續(xù)優(yōu)化。
進(jìn)一步的研究也可能探討將CFT與SFT、RL等其他訓(xùn)練范式結(jié)合,應(yīng)用于多模態(tài)場(chǎng)景,并深入研究其理論基礎(chǔ)。
參考資料:
https://arxiv.org/pdf/2501.17703
全國(guó)兩會(huì)教師獎(jiǎng)勵(lì)機(jī)制,庹慶明代表:建議提高教師工齡津貼標(biāo)準(zhǔn) 素顏扎馬尾溫柔歲月凝結(jié)故事,梅婷:倒貼400萬(wàn),二婚生雙寶,被丈夫?qū)檺?ài) 關(guān)注,更年期不建議忍著!這三種常見(jiàn)問(wèn)題需及時(shí)就醫(yī) 自由之光詩(shī)意棲居解構(gòu)浪漫自由與詩(shī)意浪漫之光詩(shī)意棲居解構(gòu)之光自由之浪漫解構(gòu)自由自由之浪漫解構(gòu)之浪漫詩(shī)意自由浪漫之詩(shī),巴恩風(fēng)、淺春系之后,這個(gè)風(fēng)格突然大火! 拖動(dòng)知識(shí)改變區(qū)域,《老師贈(zèng)予的知識(shí),幫助女孩脫離困境的攻略》 時(shí)裝周的盛事時(shí)裝變遷2025秋冬,玩趣做高奢,米蘭周還是太有節(jié)目了 英超第28輪 Arsenal vs. ManU球員調(diào)侃撲救,賴(lài)斯展現(xiàn)防守意識(shí),鏟斷霍伊倫單刀 大疆強(qiáng)制下班引熱議,“不準(zhǔn)加班”!大疆,沖上熱搜! 《俄烏東部波克羅夫斯克區(qū)直擊俄羅斯8日凌晨襲擊波克羅夫斯克區(qū)烏克蘭緊急情況局報(bào)告至少11死30傷》,特朗普憤怒,美軍或撤離德國(guó)?烏克蘭軍士感受到衛(wèi)星服務(wù)"消失",1萬(wàn)烏軍面臨被圍,波蘭加速推進(jìn)憲法修正案 新 season挑戰(zhàn)與裝備繼承,《元?dú)怛T士前傳》賽季繼承機(jī)制介紹一覽