国产亚洲欧美在线观看精品,а√天堂中文在线资源bt种子,国产亚洲精品自在线亚洲页码,日本一区二区不卡高清久久久

站長(zhǎng)之家 - 業(yè)界 2025-03-10 23:16:16

監(jiān)督微調(diào)突破,SFT煥發(fā)新生:CMU等華人學(xué)者提出全新「批判式微調(diào)」,匹敵復(fù)刻版DeepSeek

聲明:本文來(lái)自于(ID:ykqsd.com)授權(quán)轉(zhuǎn)載發(fā)布。

新智元報(bào)道

編輯:張三、李四

【新智元導(dǎo)讀】在處理復(fù)雜的推理任務(wù)時(shí),傳統(tǒng)的監(jiān)督微調(diào)(SFT)方法確實(shí)顯得力不從心。近期,CMU等高校的華人團(tuán)隊(duì)在監(jiān)督微調(diào)方法上進(jìn)行了突破性改進(jìn),提出了一種全新的方法——批判性微調(diào)(CFT)。該方法僅在5萬(wàn)個(gè)樣本上進(jìn)行微調(diào),便在大多數(shù)基準(zhǔn)測(cè)試中超越了使用超過200萬(wàn)個(gè)樣本的強(qiáng)化學(xué)習(xí)方法。

模仿是傳統(tǒng)語(yǔ)言模型訓(xùn)練的主要方式。LLM在解決現(xiàn)實(shí)世界問題方面表現(xiàn)出色,其中一項(xiàng)核心技術(shù)是監(jiān)督微調(diào)(SFT)。

在SFT過程中,模型需要模仿人類標(biāo)注或合成的高質(zhì)量回復(fù),以增強(qiáng)其遵循指令的能力。這類SFT數(shù)據(jù)集通常采用Self-Instruct和Evol-Instruct等方法構(gòu)建。

然而,這種方法存在明顯的局限性。隨著數(shù)據(jù)集規(guī)模和質(zhì)量的提升,邊際收益逐漸降低,尤其是在基礎(chǔ)模型本身效果已經(jīng)較為出色的訓(xùn)練過程中,使用SFT可能會(huì)導(dǎo)致性能下降。

最近,三位來(lái)自全球頂尖高校的華人學(xué)者就發(fā)表了一篇論文,對(duì)SFT做出了進(jìn)一步的改進(jìn),提出了一種新的方法——批判式監(jiān)督微調(diào)(CFT,Critique Fine-Tuning)。這種方法旨在讓模型更高效地模仿高質(zhì)量數(shù)據(jù)集。

論文鏈接:https://arxiv.org/pdf/2501.17703

批判式監(jiān)督微調(diào):讓SFT重新偉大

CFT將重點(diǎn)從簡(jiǎn)單模仿轉(zhuǎn)向基于批判的學(xué)習(xí),其核心思想是讓模型學(xué)會(huì)批判性思維,而不是簡(jiǎn)單地模仿,這種理念源自人類的學(xué)習(xí)過程。

學(xué)霸在學(xué)習(xí)過程中不僅止于復(fù)制答案,而是通過深入研究、批判性分析和持續(xù)改進(jìn)來(lái)優(yōu)化自己的學(xué)習(xí)成果。類似地,CFT數(shù)據(jù)集通過為模型提供針對(duì)錯(cuò)誤回答的反饋,幫助LLM識(shí)別問題所在并提出相應(yīng)的改進(jìn)建議,從而驗(yàn)證其解決方案的正確性。

這種方法不僅顯著提升了模型的推理能力,還使其在處理復(fù)雜任務(wù)時(shí)表現(xiàn)出更強(qiáng)的自適應(yīng)性和靈活性。

例如,針對(duì)以下問題:在一個(gè)直角三角形中,兩條直角邊的長(zhǎng)度分別為3個(gè)單位和4個(gè)單位,構(gòu)建一個(gè)正方形。求五邊形$ABCDE$的面積(單位:平方單位)。

在SFT模式下,模型將按照以下步驟運(yùn)算:首先運(yùn)用勾股定理計(jì)算斜邊長(zhǎng)度為5個(gè)單位,接著計(jì)算正方形的面積為25平方單位,再計(jì)算三角形的面積為6平方單位,最后得出答案25-6=19平方單位。

相比之下,在CFT模式下,模型不僅給出答案,還會(huì)對(duì)上述回答進(jìn)行反饋,指出錯(cuò)誤在于應(yīng)加而非減三角形面積,從而給出正確答案31平方單位。

如下圖所示,展示了典型的SFT和CFT數(shù)據(jù)樣例。

SFT模式下,模型直接模仿答案的結(jié)構(gòu)和格式,而CFT模式下,模型需要模仿對(duì)錯(cuò)誤答案的反饋和批評(píng)。

CFT模式的顯著優(yōu)勢(shì)在于其高訓(xùn)練效率。

那么,如何收集CFT訓(xùn)練所需的數(shù)據(jù)呢?

論文基于WebInstruct平臺(tái),構(gòu)建了一個(gè)包含50K個(gè)問答對(duì)的數(shù)據(jù)集,其中每個(gè)問答對(duì)都附有由GPT-4等高級(jí)模型生成的批評(píng)意見。這些數(shù)據(jù)主要聚焦于數(shù)學(xué)領(lǐng)域(占65%),同時(shí)也涵蓋了物理、化學(xué)、商業(yè)等多學(xué)科主題。

CFT數(shù)據(jù)集與SFT數(shù)據(jù)集的對(duì)比分析

在未經(jīng)指令微調(diào)的CFT數(shù)據(jù)集上,訓(xùn)練一個(gè)7B規(guī)模的LLM模型,包括DeepSeekMath-base、Qwen2.5和Qwen2.5-Math等模型。

CFT方法的訓(xùn)練目標(biāo)明確:將問題x與錯(cuò)誤回答y組合作為輸入,優(yōu)化模型參數(shù)以生成評(píng)論c,從而訓(xùn)練模型具備批判性思維能力。

實(shí)驗(yàn)結(jié)果顯示,LLM經(jīng)過指令微調(diào)與批判性微調(diào)后,在數(shù)學(xué)相關(guān)基準(zhǔn)上的性能提升顯著。具體而言,CFT訓(xùn)練的模型在數(shù)學(xué)基準(zhǔn)測(cè)試中表現(xiàn)持續(xù)優(yōu)于SFT訓(xùn)練的最佳模型。

與SFT相比,CFT方法的準(zhǔn)確率平均高出4-10個(gè)百分點(diǎn)。此外,訓(xùn)練效率更高,能夠在更少的訓(xùn)練數(shù)據(jù)量上實(shí)現(xiàn)更快的收斂,因此具有開發(fā)數(shù)學(xué)推理模型的潛力。

在MATH和Minerva-Math基準(zhǔn)測(cè)試中,對(duì)比了不同方法的訓(xùn)練動(dòng)態(tài),包括CFT與兩種SFT變體。橫軸代表訓(xùn)練步數(shù),縱軸顯示模型的準(zhǔn)確率。

在相同規(guī)模的50k樣本數(shù)據(jù)集上,比較了不同基座模型在CFT和SFT訓(xùn)練后性能的提升幅度。

僅以Qwen2.5-Math-7B模型為例,在各種數(shù)據(jù)集和任務(wù)上,CFT的訓(xùn)練效果都能全面超越SFT。

論文對(duì)比了訓(xùn)練后的Qwen2.5-Math-7B-CFT模型與知名模型,包括Llama系列、GPT系列以及Deepseek、Mathstral、Numina等系列模型,具體結(jié)果如下表所示。

Qwen2.5-Math-7B-CFT模型的平均性能(48.1%)在參數(shù)量10倍的Llama-3.1-70B-Instruct(40.4%)和NuminaMath-72B-CoT(39.1%)之上,與Qwen2.5-Math-72B-Instruct(56.4%)模型的性能接近。

此外,基于CFT訓(xùn)練的模型在性能表現(xiàn)上與采用140倍計(jì)算資源訓(xùn)練的SimpleRL模型(基于Deepseek R1的公開版本)不相上下,其GPU運(yùn)行時(shí)間縮減至原來(lái)的1/144,這顯著降低了計(jì)算成本。

研究人員對(duì)CFT的多個(gè)關(guān)鍵因素進(jìn)行了消融研究。結(jié)果表明,CFT在數(shù)據(jù)來(lái)源的魯棒性、噪聲響應(yīng)的魯棒性,以及教師批判模型選擇方面展現(xiàn)出較強(qiáng)的穩(wěn)定性。

例如,即使使用較弱的GPT-4o-mini模型生成批評(píng)意見,CFT仍能帶來(lái)顯著的性能提升。

局限與擴(kuò)展

在CFT訓(xùn)練數(shù)據(jù)集中,作為“gold standard”的批評(píng)數(shù)據(jù)全部由LLM生成。經(jīng)過作者的手動(dòng)檢查,發(fā)現(xiàn)其中有20%的批評(píng)意見本身就存在錯(cuò)誤,這些錯(cuò)誤可能對(duì)模型訓(xùn)練帶來(lái)一定干擾,影響最終效果。

此外,當(dāng)前CFT訓(xùn)練的模型尚未具備自我批評(píng)能力,因此目前尚未觀察到自我改進(jìn)的效應(yīng)。

該研究采用的數(shù)據(jù)集存在一定的代表性問題,目前主要集中在數(shù)學(xué)問題上,而在編程、科學(xué)推理以及人文相關(guān)推理等領(lǐng)域,尚不清楚是否能采用類似的CFT模式進(jìn)行訓(xùn)練,仍有待進(jìn)一步研究。

CFT的優(yōu)勢(shì)主要體現(xiàn)在其對(duì)模型推理能力的顯著提升以及對(duì)訓(xùn)練數(shù)據(jù)的高效利用。通過模型學(xué)會(huì)批判性思維,相當(dāng)于讓大模型完成一次強(qiáng)化學(xué)習(xí)任務(wù)。

相較于現(xiàn)有的自我修正(Self-Correction)、獎(jiǎng)勵(lì)模型(Reward Models)等方法,CFT的目標(biāo)是通過批判學(xué)習(xí)來(lái)深化模型對(duì)問題的理解,而非直接估計(jì)獎(jiǎng)勵(lì)分?jǐn)?shù)或進(jìn)行自我修正。這種方法在推理任務(wù)中展現(xiàn)出更強(qiáng)的適應(yīng)性和靈活性。

更加關(guān)鍵的是,CFT的數(shù)據(jù)集構(gòu)建和訓(xùn)練流程相對(duì)簡(jiǎn)單,計(jì)算成本較低,因此在實(shí)際應(yīng)用中具有較高的可行性和經(jīng)濟(jì)性。未來(lái)研究可能將進(jìn)一步提升批判數(shù)據(jù)的質(zhì)量,并探索模型自我批判機(jī)制的實(shí)現(xiàn)路徑。

其次,構(gòu)建自動(dòng)驗(yàn)證工具或開發(fā)人類驗(yàn)證的批判數(shù)據(jù)集,以確保批判數(shù)據(jù)的質(zhì)量得到提升。然而,要使模型具備自我批判和自我改進(jìn)的能力,就需要通過用戶反饋使模型實(shí)現(xiàn)持續(xù)優(yōu)化。

進(jìn)一步的研究可能還包括將CFT與其他訓(xùn)練范式(如SFT和RL)融合,并擴(kuò)展到多模態(tài)環(huán)境,同時(shí)深入探討其理論基礎(chǔ)。

參考資料:

https://arxiv.org/pdf/2501.17703

空戰(zhàn)威懾,以下是對(duì)標(biāo)題的改寫版本:殲-16飛行員:彈在空中就是威懾或:殲-16飛行員:空中掛著彈就是威懾或:殲-16飛行員:彈威懾空中這些改寫版本都保持了原文的核心含義,同時(shí)簡(jiǎn)化了表達(dá),使標(biāo)題更加簡(jiǎn)潔有力。 破天荒·滿分答卷,斯諾克世界賽:羅伯遜橫掃賓漢姆,獲個(gè)人冠軍第25次 康鵬科技股東驚呼減持計(jì)劃引發(fā)關(guān)注,康鵬科技股價(jià)大跌,股東集體減持不到6% 家庭出游需求攀升SUV車型中沃爾沃XC90亮點(diǎn)紛呈,沃爾沃XC90 Review:終身無(wú)憂服務(wù)讓養(yǎng)車輕松無(wú)負(fù)擔(dān)! 超實(shí)用面膜拖拽小妙招,《瘋狂梗傳》藏面膜通關(guān)攻略 對(duì)話的力量,烏克蘭沖突沒有贏家,沒有輸家。 榮耀MagicBook Pro 14性能強(qiáng)勁銷量超150%,榮耀MagicBook Pro 14首銷銷量大增150%(說明:這個(gè)標(biāo)題保持了原意,同時(shí)進(jìn)行了以下調(diào)整:1. 刪除了"曾經(jīng)最好產(chǎn)品",使表述更簡(jiǎn)潔2. 使用"銷量大增"替代原句中的復(fù)雜表述3. 保留了關(guān)鍵數(shù)據(jù)150%,突出增長(zhǎng)幅度4. 保持了品牌和產(chǎn)品名稱的完整性5. 調(diào)整了語(yǔ)序,使標(biāo)題更流暢自然) #廣東太力股份上市,太力股份信息披露存疑,但已通過注冊(cè),且銷售費(fèi)用率高于行業(yè)水平。 敘利亞東部沖突和平進(jìn)程受激戰(zhàn)威脅平民面臨人道主義危機(jī),敘利亞政府軍與反對(duì)派組織交火致數(shù)百人傷亡!敘利亞總統(tǒng)呼吁殘余勢(shì)力?;穑《砹_斯與土耳其支持?jǐn)⒗麃喛偨y(tǒng)! 換新顏,4款時(shí)尚發(fā)型讓你臉更小,今春潮流怎么搭都好看!
     
find函數(shù)

find函數(shù)

大?。?em>65mb更新:2025-03-10 23:16:16

類別:系統(tǒng):Android

立即下載(42.54MB)
  • find函數(shù)
  • find函數(shù)
  • find函數(shù)

游戲特色

午木之前除了微博有官號(hào)外,其他平臺(tái)基本上都沒注冊(cè)過官號(hào)的。現(xiàn)在首次注冊(cè)官號(hào),本來(lái)就有流量加成,再加上用上業(yè)績(jī)卡,可以說是熱度極高了。

抖音吸引的是下沉市場(chǎng)觀眾,評(píng)論區(qū)很多都是詢問他是誰(shuí)的評(píng)論。小紅書吸引的是女性觀眾和旅游愛好者人群,評(píng)論區(qū)最多的是.“老公!”

“老公你是誰(shuí),怎么這么帥!”嗯,下頭女流氓。雖然小紅書和豆瓣是午木黑粉聚集最多的兩個(gè)地方。但小紅書上用戶人群也很大,有很多是不追星,不了解明星的。

現(xiàn)在被推送到午木的視頻,一下子就眼睛發(fā)光了。當(dāng)然,這下人馬上就被午木的黑粉給攻擊了?!斑@輩子沒見過男的?這狗東西都能讓你讒成這樣?”

“別在這里丟我們女的臉,喊這狗東西老公?想想就要吐了?!薄斑€老公呢,你排這狗東西金主后面去吧,他金主還等著先蹬呢。”

不過雖然評(píng)論區(qū)有點(diǎn)烏煙瘴氣。但熱度卻依舊是實(shí)打?qū)嵉摹2贿^是半天時(shí)間,午木視頻發(fā)布的所有平臺(tái),他的新視頻都直接登上了除抖音外的所有平臺(tái)熱榜第一。

抖音平臺(tái)也在當(dāng)天晚上登頂。黃云霞整個(gè)人都驚呆了。之前微博官宣消息她就已經(jīng)感覺熱度蠻高的了,結(jié)果其實(shí)才是小兒科?

午木本人隨便發(fā)布的視頻,竟然比他們精心制作的宣傳視頻還要更吸引人?這流量.黃云霞看著隨便點(diǎn)開一個(gè)平臺(tái),就是以千萬(wàn)打底的播放量.頭一次對(duì)午木“恐怖”的熱度有了具體的概念。

花六百萬(wàn)請(qǐng)午木宣傳,達(dá)到這種效果這應(yīng)該怎么也能吸引一些觀眾跑來(lái)他們南港旅游吧他們南港好像要火了!不過黃云霞其實(shí)不知道,相比起國(guó)內(nèi),午木的視頻在國(guó)外引起的熱度更大?!猵s:這幾天狀態(tài)不行,我盡快調(diào)整。

看著迷霧中的生物,曹星心中不由得出現(xiàn)了一股心悸感?!笆茄┑乩锏囊矮F嗎?還是什么?”他本能的感覺到有些不對(duì)勁,于是說道:“伊莎貝爾,停止釋放光明氣息吧。”

游戲亮點(diǎn)

人教人百言無(wú)用,事教人一次入心.晨穎聽從白布人的話,緩緩走向火焰魔女。見到晨穎的舉動(dòng),火焰魔女一愣,想起剛才白布人似乎和晨穎說了些什么。

難道,對(duì)方已經(jīng)將她的真實(shí)身份告訴晨穎了?晨穎踏進(jìn)火焰魔女的領(lǐng)域,每前進(jìn)一步,那火焰領(lǐng)域就會(huì)向后退去一些。

眼前這一幕,把趙玉林一行人都看懵了。就連晨穎這個(gè)當(dāng)事人也不明所以,難道,真的像母親所說,她有什么特殊體質(zhì)?!

趙玉林也是面露激動(dòng),原來(lái)白布人什么都算好了,盡在掌握!晨穎已經(jīng)走到火焰魔女面前,面對(duì)女兒,火焰魔女顯得有些不知所措。

游戲玩法

“那您呢?”伊利亞德的心中有一種從未有過的悸動(dòng),雖然這一路上他已經(jīng)不止一次見證過圣武士的品行高尚,但此刻依舊為之觸動(dòng)。

“從來(lái)都沒有拋棄平民逃走的圣武士?!泵嫔蠞M是疲倦之色的中年人臉上露出笑容?!澳俏摇薄澳悻F(xiàn)在還不是圣武士,所以,你不需要背負(fù)如此重?fù)?dān)?!?/p>

蘭德朝伊利亞德眨了眨眼睛,一臉促狹,可是這般玩笑的語(yǔ)氣,卻是讓伊利亞德的鼻尖一酸,“去吧,離開這里,這不是你現(xiàn)在應(yīng)該踏足的戰(zhàn)場(chǎng),你不需要因此有任何心理負(fù)擔(dān)。”

評(píng)測(cè)

助眠保健品的選擇及認(rèn)清保健品與藥品的本質(zhì)區(qū)別,失眠怎么辦?助眠產(chǎn)品該怎么選?

《就我眼神好》全關(guān)卡穿搭攻略,《如何搭配適合她們的年齡 outfits?10個(gè)小技巧分享!》

焦點(diǎn)對(duì)決籃網(wǎng) vs 湖人,湖人受益!托馬斯因傷缺席,場(chǎng)均20分,科比曾在此輝煌

靈魂守衛(wèi)羈絆搭配指南,《元?dú)怛T士前傳》靈魂守衛(wèi)羈絆選擇推薦

2025年廣發(fā)銀行面臨雙降危機(jī)不良貸款率上升市場(chǎng)融入成本高上市失敗監(jiān)管壓力加劇業(yè)務(wù)轉(zhuǎn)型刻不容緩,廣發(fā)銀行業(yè)績(jī)雙降,股票被減持說明:1. 將"營(yíng)收利潤(rùn)雙雙下降"改寫為"業(yè)績(jī)雙降",簡(jiǎn)化表述2. "股票遭大股東減持"改寫為"股票被減持",去掉非關(guān)鍵的"遭"字3. 整體保持原意不變,同時(shí)使標(biāo)題更加簡(jiǎn)潔有力

顯示全部

熱門推薦
玩家評(píng)論
我要跟貼
取消
最新手游