- 游戲冒險(xiǎn)指南,《淡墨水云鄉(xiāng)》動(dòng)物捕捉方法一覽
- 裝備搭配指南,《云頂之弈手游》天龍神諭95陣容裝備推薦
- 即將揭曉的游戲聯(lián)動(dòng),《逆水寒手游》與夢(mèng)幻西游聯(lián)動(dòng)時(shí)間介紹
- 《女神異聞錄:夜幕魅影》磨芝麻任務(wù)完成方法介紹
- 玩家必讀攻略,《明日方舟》BB-EX-1掛機(jī)通關(guān)攻略
- 新手必看攻略,《不一樣的奇遇》玉佩獲取方法位置
- 揭秘英雄技能,《星之破曉》虞姬云霓雀翎技能介紹
- 游戲角色解析,《星之破曉》孫尚香未來機(jī)甲技能介紹
- 游戲通關(guān)指南揭秘,《不一樣的奇遇》重返豪門通關(guān)攻略
- 最新王者榮耀唱片口令揭秘,《王者榮耀》4.19高價(jià)唱片代碼匯總
聲明:本文來自于(ID:ykqsd.com)授權(quán)轉(zhuǎn)載發(fā)布。
報(bào)道來源:新智元
編輯:Peter東、喬楊
【新智元導(dǎo)讀】在處理復(fù)雜推理任務(wù)時(shí),SFT往往表現(xiàn)不佳。最近,由多所高校的華人團(tuán)隊(duì)提出的批判性微調(diào)方法(CFT)僅在50K樣本上進(jìn)行微調(diào),便在多數(shù)基準(zhǔn)測(cè)試中超越了使用超過200萬個(gè)樣本的強(qiáng)化學(xué)習(xí)方法。
模仿是傳統(tǒng)語言模型進(jìn)行訓(xùn)練的主要方式。LLM在解決現(xiàn)實(shí)世界問題方面表現(xiàn)出的優(yōu)異性能,其中一項(xiàng)核心技術(shù)是監(jiān)督微調(diào)(SFT)。
在SFT的過程中,模型被要求模仿人類標(biāo)注或合成的高質(zhì)量回復(fù),以增強(qiáng)其對(duì)通用指令的遵循能力。這類SFT數(shù)據(jù)集通常采用Self-Instruct和Evol-Instruct等方法進(jìn)行構(gòu)建。
然而,這種方法存在明顯的局限性。當(dāng)數(shù)據(jù)集規(guī)模和質(zhì)量進(jìn)一步提升時(shí),SFT的邊際效益可能會(huì)下降,尤其是在基礎(chǔ)模型已經(jīng)表現(xiàn)出較強(qiáng)性能的情況下,使用SFT可能反而會(huì)導(dǎo)致性能下降。
最近,由多所高校的華人學(xué)者共同提出的批判式監(jiān)督微調(diào)方法(CFT)旨在提升模型的模仿能力。
論文鏈接:https://arxiv.org/pdf/2501.17703
批判式監(jiān)督微調(diào):讓SFT重新偉大
CFT將重點(diǎn)從簡(jiǎn)單模仿轉(zhuǎn)向基于批判的學(xué)習(xí),其核心思想是讓模型學(xué)會(huì)批判性思維,而非簡(jiǎn)單模仿,這一方法 borrow from human learning processes.
學(xué)霸在學(xué)習(xí)過程中不只是模仿答案,而是進(jìn)行分析、批判和自我改進(jìn)。在CFT數(shù)據(jù)集中,模型為錯(cuò)誤的模型響應(yīng)提供了相應(yīng)的批評(píng),幫助LLM識(shí)別其缺陷并提出改進(jìn)建議,從而驗(yàn)證其正確性。
這種方法不僅能夠提升模型的推理能力,還能增強(qiáng)其在復(fù)雜任務(wù)中的適應(yīng)性和靈活性。
比如,針對(duì)如下問題:在直角三角形中,兩條直角邊的長度分別為3個(gè)單位和4個(gè)單位,構(gòu)造一個(gè)正方形。求五邊形$ABCDE$的面積(單位:平方單位)。
在SFT模式下,模型會(huì)逐步進(jìn)行計(jì)算,首先應(yīng)用勾股定理得出斜邊長度為5,隨后計(jì)算正方形面積為25,三角形面積為6,最終模型給出答案25減去6。
在CFT模式下,模型會(huì)對(duì)上述回答進(jìn)行批評(píng),指出錯(cuò)誤在于應(yīng)加而非減三角形面積,并提供正確答案31。
下圖展示了SFT和CFT兩種模式的數(shù)據(jù)樣本。
SFT模式讓大模型直接模仿答案,而CFT模式讓大模型模仿對(duì)錯(cuò)誤回答的批評(píng)。
CFT模式具有更高的訓(xùn)練效率。
那么,如何獲取CFT訓(xùn)練所需的數(shù)據(jù)呢?
該研究基于WebInstruct構(gòu)建了一個(gè)包含50,000個(gè)帶有批評(píng)意見的問答對(duì)的數(shù)據(jù)集,其中的批評(píng)意見由GPT-4等高級(jí)模型生成,上述數(shù)學(xué)問題便是其中一例。
分析CFT數(shù)據(jù)集與其他SFT數(shù)據(jù)集的異同
在CFT數(shù)據(jù)集上,采用7B規(guī)模、未經(jīng)指令微調(diào)的LLM進(jìn)行訓(xùn)練,包括DeepSeekMath-base、Qwen2.5和Qwen2.5-Math等模型。
CFT方法的訓(xùn)練目標(biāo)非常明確:將問題x和錯(cuò)誤回答y進(jìn)行拼接作為輸入,優(yōu)化模型參數(shù)以生成評(píng)論c,這相當(dāng)于訓(xùn)練模型具備批判性思維能力。
實(shí)驗(yàn)中,作者對(duì)比了LLM在經(jīng)過指令微調(diào)與批判性微調(diào)后,在數(shù)學(xué)相關(guān)基準(zhǔn)上的性能提升。結(jié)果顯示,CFT訓(xùn)練的模型在性能上持續(xù)優(yōu)于SFT訓(xùn)練的最佳模型。
相比SFT,CFT的準(zhǔn)確率平均高出4-10個(gè)百分點(diǎn)。此外,訓(xùn)練效率更高,能夠在較少的訓(xùn)練數(shù)據(jù)量上實(shí)現(xiàn)更快的收斂,因此CFT方法有望成為開發(fā)數(shù)學(xué)推理模型的一種更有效方法。
圖表展示了Qwen2.5-Math-7B在MATH和Minerva-Math任務(wù)上不同方法的訓(xùn)練動(dòng)態(tài)對(duì)比,橫軸為訓(xùn)練步數(shù),縱軸為模型準(zhǔn)確率。
在同樣規(guī)模的50k樣本數(shù)據(jù)集上,不同基座模型在使用CFT與SFT訓(xùn)練后的性能提升情況值得觀察。
如果僅關(guān)注Qwen2.5-Math-7B這一模型,可以看出,CFT的訓(xùn)練效果在各類數(shù)據(jù)集和任務(wù)上都能全面超越SFT。
論文對(duì)比了訓(xùn)練后的Qwen2.5-Math-7B-CFT與知名模型,包括Llama、GPT系列,以及Deepseek、Mathstral、Numina等系列模型,并通過表格展示了具體對(duì)比結(jié)果。
Qwen2.5-Math-7B-CFT的平均性能(48.1%)優(yōu)于參數(shù)量10倍的Llama-3.1-70B-Instruct(40.4%)和NuminaMath-72B-CoT(39.1%),與Qwen2.5-Math-72B-Instruct(56.4%)相當(dāng)。
此外,基于CFT訓(xùn)練的模型在性能上與采用140倍計(jì)算資源訓(xùn)練的Deepseek R1開源版本(SimpleRL模型的復(fù)制版)相比,具有不相上下之處。值得注意的是,CFT模型的GPU運(yùn)行時(shí)縮短至1/144,這相當(dāng)于大幅降低了計(jì)算成本。
研究人員對(duì)CFT的多個(gè)關(guān)鍵因素進(jìn)行了系統(tǒng)性消融研究。結(jié)果表明,CFT模型在數(shù)據(jù)來源的魯棒性、噪聲響應(yīng)的抗干擾能力以及教師批判模型選擇的穩(wěn)定性等方面表現(xiàn)出較強(qiáng)的能力。
舉例來說,即使使用較弱的GPT-4o-mini生成器輸出批評(píng)意見,CFT模型仍然能夠顯著提升性能。
局限性與擴(kuò)展方向
在CFT訓(xùn)練數(shù)據(jù)集中,作為基準(zhǔn)的批評(píng)數(shù)據(jù)全部由LLM生成。經(jīng)過作者的手動(dòng)檢查,發(fā)現(xiàn)其中有20%的批評(píng)意見本身就存在明顯的錯(cuò)誤。這些錯(cuò)誤可能會(huì)對(duì)模型的訓(xùn)練效果造成一定干擾,從而影響其最終性能。
此外,CFT訓(xùn)練的模型目前尚未實(shí)現(xiàn)自我批評(píng)機(jī)制,因此尚未觀察到自我改進(jìn)的效果。
該研究的數(shù)據(jù)集在代表性方面仍存在不足,目前主要集中在數(shù)學(xué)問題領(lǐng)域,而在編程、科學(xué)推理以及人文相關(guān)推理問題等方面,CFT模式的適用性仍需進(jìn)一步驗(yàn)證。
CFT的主要優(yōu)勢(shì)在于顯著提升模型的推理能力以及優(yōu)化數(shù)據(jù)使用效率。通過模型學(xué)會(huì)批判性思維,相當(dāng)于讓大模型完成一次強(qiáng)化學(xué)習(xí)訓(xùn)練。
相比于現(xiàn)有的自我修正(Self-Correction)、獎(jiǎng)勵(lì)模型(Reward Models)等方法,CFT的目標(biāo)是通過批判學(xué)習(xí)提升模型對(duì)問題的深入理解,而不是直接估計(jì)獎(jiǎng)勵(lì)分?jǐn)?shù)或進(jìn)行自我修正。這種方法在推理任務(wù)中展現(xiàn)出更強(qiáng)的適應(yīng)性和靈活性。
最為關(guān)鍵的是,CFT的數(shù)據(jù)構(gòu)建和訓(xùn)練流程相對(duì)簡(jiǎn)單,計(jì)算成本較低,因此在實(shí)際應(yīng)用中具有較高的可行性和經(jīng)濟(jì)性。未來研究將重點(diǎn)突破批判數(shù)據(jù)質(zhì)量的提升和模型自我批判機(jī)制的實(shí)現(xiàn)。
首先是構(gòu)建自動(dòng)驗(yàn)證工具或開發(fā)人類驗(yàn)證機(jī)制,以優(yōu)化批判數(shù)據(jù)的質(zhì)量;同時(shí),要使大模型具備自我批判與自我改進(jìn)的能力,需使其通過用戶反饋實(shí)現(xiàn)持續(xù)優(yōu)化。
進(jìn)一步的研究也可能探討將CFT與SFT、RL等其他訓(xùn)練范式結(jié)合,應(yīng)用于多模態(tài)場(chǎng)景,并深入研究其理論基礎(chǔ)。
參考資料:
https://arxiv.org/pdf/2501.17703
特朗普暫停軍事援助引發(fā)全球關(guān)注,歐洲加強(qiáng)防務(wù),烏克蘭與礦產(chǎn)國家簽署協(xié)議,美暫停對(duì)烏軍援令西方嘩然 芯片計(jì)算能力+小細(xì)節(jié)+隱藏實(shí)力+小米SU7 Ultra vs 特斯拉Model Y,小米SU7ultra智駕為何碾壓特斯拉720?畢竟僅508算力 改善孕期睡眠健康,孕期失眠問題解析:睡眠困擾該如何應(yīng)對(duì)? 蘋果2025款11英寸iPad或采用美國制造的A16芯片,改寫后的標(biāo)題:美版2025款iPad芯片最新消息來自臺(tái)積電美國工廠 戰(zhàn)略新能源,中國一汽與零跑合作,共同推動(dòng)技術(shù)創(chuàng)新與產(chǎn)業(yè)升級(jí) 猛龍性能解析,“龍字頭”國產(chǎn)飛機(jī)大盤點(diǎn),超燃! 何家喜從六妹到直播女王,李嘉琦因《六姊妹》被罵,隨后捐片酬給養(yǎng)老院,背后的真相是什么 權(quán)威專家解析何時(shí)需要手術(shù)治療痔瘡重要性與選擇,健康科普 | 做痔瘡手術(shù)什么時(shí)候?痔瘡青年必看?。ń忉專焊膶懞蟮臉?biāo)題簡(jiǎn)化了原意,通過更短的語句傳達(dá)關(guān)鍵信息,同時(shí)保留了核心內(nèi)容。標(biāo)題采用了更簡(jiǎn)潔的表達(dá)方式,同時(shí)保持了專業(yè)性和吸引力。) 全球首發(fā)溜背版,沃爾沃ES90即將亮相,定于明年發(fā)布,續(xù)航里程突破700公里 破局美國戰(zhàn)略儲(chǔ)備背后的全球加密貨幣之都重塑,馬博:白宮召開首次加密貨幣峰會(huì),所為何