国产亚洲欧美在线观看精品,а√天堂中文在线资源bt种子,国产亚洲精品自在线亚洲页码,日本一区二区不卡高清久久久

站長之家 - 業(yè)界 2025-03-10 18:11:50

SFT vs CFT5萬樣本超越200萬樣本,突破創(chuàng)新!CMU等華人學者提出全新"批判式微調",在SFT領域再創(chuàng)輝煌改寫說明:1. 去掉了感嘆號,使標題更簡潔2. 用"突破創(chuàng)新"替代"讓SFT重新偉大"3. 調整語序,使標題更流暢4. 增加"在SFT領域再創(chuàng)輝煌",突出成果5. 使用"華人學者"替代"等華人學者"6. 用"在SFT領域再創(chuàng)輝煌"替代"媲美復刻版DeepSeek"7. 保留了核心信息,但表述更簡潔有力

聲明:本文來自于(ID:ykqsd.com)授權轉載發(fā)布。

新智元的報道

【新智元導讀】在處理復雜的推理任務時,SFT往往會讓大型語言模型顯得力不從心。近期,由包括美國卡內基梅隆大學、加拿大滑鐵盧大學在內的華人團隊提出的“批判性微調”(CFT)方法,在僅5萬樣本的訓練過程中,就已經在多數基準測試中超越了基于200萬樣本的強化學習方法。

模仿被認為是傳統語言模型訓練的主要方式。LLM在解決現實世界問題方面展現出的超凡性能,其中一項核心技術是監(jiān)督微調(SFT)。

在SFT的過程中,模型需要模仿人類標注或合成的高質量回復,以增強其執(zhí)行通用指令的能力。這類SFT數據集通常采用Self-Instruct和Evol-Instruct等方法進行構建。

然而,這種方法存在明顯的局限性。當數據集規(guī)模和質量進一步提升時,SFT面臨著邊際收益遞減的問題,尤其是在訓練本身效果已經較為優(yōu)異的基礎模型時,采用SFT反而可能帶來性能下降的風險。

最近,由美國卡內基梅隆大學、加拿大滑鐵盧大學等機構的3名華人學者合作撰寫的論文,對SFT提出了進一步的改進,提出了一種名為批判式監(jiān)督微調(CFT,Critique Fine-Tuning)的方法。這一創(chuàng)新旨在幫助模型更高效地模仿訓練數據集。

論文鏈接:https://arxiv.org/pdf/2501.17703

批判式監(jiān)督微調:讓SFT煥發(fā)新生

CFT將重點從簡單模仿轉向基于批判的學習方式。其核心思想是讓模型學會批判性思維,而非簡單模仿,這一理念源自人類學習過程中的自我反思機制。

這一創(chuàng)新方法的提出,標志著SFT重新展現出其潛力,為語言模型的發(fā)展注入了新的活力。

學術精英在學習過程中,不僅僅停留在簡單地復制提供的答案,而是通過深入分析、批判性思考和持續(xù)改進來深化對知識的理解。在CFT數據集中,模型通過提供相應的批評,讓大模型能夠識別錯誤,提出改進建議,并驗證正確性。

這種方法不僅有助于提升模型的推理能力,還能使模型在面對復雜任務時展現出了更強的適應能力和靈活性。

例如,針對這個問題:在直角三角形的直角邊長分別為3個單位和4個單位的情況下,構造一個正方形。求五邊形$ABCDE$的面積(單位:平方單位)。

按照SFT模式,模型會逐步進行運算:首先應用勾股定理計算斜邊長度為5單位,接著計算正方形面積為25平方單位,三角形面積為6平方單位,最終模型給出答案25減去6。

而在CFT模式下,模型會對上述回答給出批評,指出錯誤在于應該加上而非減去三角形的面積,并給出正確答案31。

下圖展示了典型的SFT和CFT數據樣例。

SFT讓大模型直接模仿答案,CFT讓大模型模仿對錯誤回答的批評。

CFT模式具有較高的訓練效率。

那么,如何獲取CFT模式所需的訓練數據呢?

論文基于WebInstruct,構建了一個包含50K個帶批評意見的問答對作為訓練數據集,其中的批評由GPT-4等高級模型生成,上述的題目是其中一個例子。

CFT數據集與SFT數據集進行對比分析

隨后,在CFT數據集上對未經指令微調的7B規(guī)模大模型進行訓練,具體包括DeepSeekMath-base、Qwen2.5和Qwen2.5-Math等模型。

CFT方法的主要目標是:將問題x與錯誤響應y進行拼接作為輸入,通過優(yōu)化模型參數生成評論c,這等價于訓練模型具備批判性思維能力。

通過實驗,作者考察了LLM在經過指令微調和批判性微調后在數學相關基準上的性能提升。結果顯示,CFT訓練的模型在性能上持續(xù)優(yōu)于SFT訓練的最佳模型。

實驗中,作者對比了Qwen2.5-Math-7B在MATH和Minerva-Math基準上的不同方法訓練動態(tài)對比圖,展示了CFT方法與兩種SFT變體的性能表現,橫軸表示訓練步數,縱軸為準確率數值。

在同樣是50k個樣本的訓練數據下,不同基座模型經過CFT和SFT訓練后的性能提升情況得到了詳細對比。

從各種數據集和任務的測試結果來看,CFT方法的訓練效果在全面性上均優(yōu)于SFT方法。

論文中,作者將訓練后的Qwen2.5-Math-7B-CFT模型與知名的大模型如Llama系列、GPT系列,以及擅長數學推理的Deepseek、Mathstral、Numina等系列模型進行了對比分析。

從表中可以看出,Qwen2.5-Math-7B-CFT的平均性能(48.1%)顯著優(yōu)于參數量10倍的Llama-3.1-70B-Instruct(40.4%)和NuminaMath-72B-CoT(39.1%),與Qwen2.5-Math-72B-Instruct(56.4%)的性能水平相當。

在模型性能對比中,Qwen2.5-Math-7B-CFT的平均準確率(48.1%)不僅超越了Llama系列中的Llama-3.1-70B-Instruct(40.4%)和Numina系列中的NuminaMath-72B-CoT(39.1%),還與Qwen2.5-Math-72B-Instruct(56.4%)的性能水平不相上下。

此外,基于CFT訓練的模型在性能上與采用140倍計算資源訓練的Deepseek R1開源模型相當,其GPU使用時長縮減至原來的1/144,顯著降低了計算成本。

研究人員對CFT的多個關鍵因素進行了消融實驗。結果表明,CFT在數據來源、噪聲處理和教師模型選擇等方面表現出較強的魯棒性。

例如,即使使用較弱的GPT-4o-mini模型生成批評意見,CFT依然能帶來顯著的性能提升。

局限與展望

在CFT的數據集中,作為基準的批評數據全部由LLM生成。經過作者的手動審查(共50條),發(fā)現其中有20%的批評意見本身就存在錯誤,這些錯誤可能對模型訓練造成一定干擾,影響最終效果。

此外,CFT訓練的模型目前尚未具備自我批評能力,尚未觀察到自我改進的現象。

該研究的數據集存在一定的局限性,目前僅聚焦于數學問題,在編程、科學推理以及人文推理等領域,是否適用CFT模式仍有待進一步探索。

CFT的優(yōu)勢主要體現在顯著提升模型推理能力以及高效利用訓練數據。通過讓模型學會批判性思維,相當于實現一次強化學習。

相比于現有的自我修正、獎勵模型等方法,CFT的目標是通過批判學習來深化模型對問題的理解,而非直接估計獎勵分數或進行自我修正。這種方法在推理任務中展現出更強的適應性和靈活性。

更為關鍵的是,CFT的數據集構建和訓練過程相對簡單,計算成本較低,因此在實際應用中具有較高的可行性和經濟性。未來的研究可能在提升批判數據質量和探索模型自我批判機制方面取得新的突破。

首先,構建自動驗證工具或設計人類可理解的批判性數據集,以顯著提升批判數據的質量;同時,要實現模型的自我批判與持續(xù)改進能力,必須通過用戶反饋機制,使模型能夠不斷優(yōu)化自身。

進一步的研究可能探索將CFT與其他訓練范式相結合,擴展至多模態(tài)應用環(huán)境,并深入研究其理論基礎。

參考資料:

https://arxiv.org/pdf/2501.17703

聚變堆突破·全尺寸實驗,十年寒窗終審題!中國“人造太陽”取得重大突破這個改寫后的標題:1. 去掉了"關鍵系統",因為"人造太陽"已經足夠突出2. "歷時十年"簡化為"十年寒窗",更具畫面感和力度3. 調整了語序,"終審"替代"驗收",更具終結性和權威感4. 整體保持了簡潔有力的新聞標題風格5. 同時準確傳達了"歷時十年、取得重大突破"的核心信息 3月2日的月球探索,美私營企業(yè)登月器"藍色幽靈"登月,落點距目標僅百米 大S遺產分配具俊曄焦點,2025年:虛幻中的遺產與嘆息 快船險勝國王哈登準三雙,快船驚險勝國王,三連勝成懸念,哈登德羅贊數據亮眼 雙石像鬼石板甲艾克陣容探秘,《金鏟鏟之戰(zhàn)》S9.5雙石像石板甲陣容推薦:艾克核心 空中奇跡,八一飛行表演隊抵達泰國,受邀參加中泰建交50周年慶祝活動 市值QRST,特斯拉銷量暴跌,市值蒸發(fā)相當于3個比亞迪(解釋:這個標題保持了原文的核心信息,將"成也馬斯克敗也馬斯克"簡化為更簡潔的表述,同時調整了語序,使標題更加流暢。"市值蒸發(fā)相當于3個比亞迪"這個表達比原文更簡潔明了,同時保留了所有關鍵信息。) 震驚法律文件透露大S去世后汪小菲代為監(jiān)護,2025時不真實的記憶:大S與方大同的遺產與遺言 大疆要求員工提前下班,"9點下班登上熱搜!大疆員工:人生第一次被'趕工'" 機艙安全持續(xù)十天,機艙發(fā)現可疑氣味達美航航班必須返航
     
創(chuàng)盛

創(chuàng)盛

大小:81.3mb更新:2025-03-10 18:11:50

類別:系統:Android

立即下載(42.54MB)
  • 創(chuàng)盛
  • 創(chuàng)盛
  • 創(chuàng)盛

游戲特色

杰科集團的大規(guī)模軍艦調動,不得不說十分引人矚目。吞噬者級深潛巡洋艦是杰科集團海軍當之無愧的王牌重器,以杰科集團龐大的國力,現在也不過建造供養(yǎng)著15艘,現在一次性派出三艘吞噬者級深潛巡洋艦組成大型艦隊,這樣的行為,自然會讓人忍不住多想。

跟杰科集團打過多次交道的櫻花國,在聽到這個消息時,那就已經預感到不對。杰科集團什么尿性,對方會好端端的跑來維護航道安全?總不可能是來保護他們櫻花國的吧?再說了,他們櫻花國又不是沒有靠山保護,漂亮國都沒有杰科集團那么積極,用屁股想,也能察覺到杰科集團的不懷好意。

打著保護的幌子是假,怕不是想要過來落井下石吧。櫻花國對此是很有自知之明的,作為漂亮國的頭號舔狗,他們櫻花國一直跟隨漂亮國走在對抗杰科集團的第一線,還曾經派兵進入中南半島對抗杰科集團,雖然被杰科集團打的丟盔棄甲,但雙方梁子早就已經結下。

現在他們櫻花國被海怪弄得虛弱不堪,杰科集團派出這么一支規(guī)模浩大的軍隊,怎么看都像是想要趁火打劫。為此,櫻花國連忙聯系了自己的漂亮國爸爸,請求漂亮國過來阻止杰科集團的海上行動。

事實上,櫻花國想的還真沒錯。杰科集團組建的遠東特混艦隊,在抵達櫻花國海域之后,立即展開了訪問櫻花國之旅。

大阪港!大阪是櫻花國第二大城市、重要工商業(yè)城市、水陸交通中心,人口300余萬,人口密度卻僅次于首都東京,為全國第二位。

而大阪港也是櫻花國最大規(guī)模的集裝箱港口之一,承擔著櫻花國海上集運交通樞紐的作用。在千手蜈蚣離開后,大阪是首先被櫻花國重啟的城市,櫻花國許諾重利,讓那些逃亡鄉(xiāng)下的櫻花國人返回城市工作生活,維系國家的運轉。

同時大阪港也是日夜不息,接受櫻花國從全球各地采購航運過來的物資。櫻花國是一個國土資源貧瘠的島國,自身資源稀缺,大部分都需要靠向外進口,特別是在東京被毀滅,需要重建的資源更是海量的,大阪港就發(fā)揮了重要的作用。

每天都有大量海運船只抵達這里,給櫻花國送上源源不斷的物資輸血。此時的大阪港碼頭,身為碼頭調度員的島津翼枝穿著制服,正在進行忙碌的工作。

“082船船長,過來簽字?!薄癇區(qū)9號吊機,準備卸貨工作?!薄柏涍\車輛半個小時后進入D區(qū)港口,別耽誤時間?!?/p>

游戲亮點

明德首座也好,成空上人也好,都敏銳地感覺到了天地間的變化。這黑月在鯨吞天地間的靈氣!片刻間,天地之間的規(guī)則竟然改變了!

他們體內的靈力像是被封印了,死死地縮在自己的丹田之中,秘術靈寶,符咒法器,全都失靈了!或者說,除了一些五宗秘法之外,大部分的法訣靈符,在黑月的照耀下,竟然失去了作用——他們如今才理解,無法抗衡,到底是什么個無法!

大自在魔祖就站在那里,一招一式也沒出,只說了一句話,但所有人都明白,他們已經是待宰的羔羊!唯一還有反抗之力的,只有青萍劍!青萍劍自謝晴雪的腰間飛出,指著大自在魔祖,隱隱護住了在場諸位化神。

“青萍劍……”這個時候,大自在魔祖語氣中才有了些動容,他似乎認識青萍劍,居然是一種見了老熟人的語氣,“若你還在天河之手,我此刻立馬就走……”

游戲玩法

不對啊,若是玄龜打算進化,不可能系統是看不到的,這里面肯定有什么聯系。葉白開始查看這些玄龜的報告。他快速地翻著報告,將所有的記錄結果,都儲存到了大腦之中。

“有沒有這個溶洞中湖泊的檢測報告?!比~白突然開口問道。目前玄龜看上去很健康,只能夠從外部找找原因,看看是不是因為環(huán)境改變,所以才導致玄龜們出現問題。

溶洞幽深,在散發(fā)著綠色熒光的青苔照耀下,一汪靜謐的湖泊如鏡,反射出點點光芒。玄龜們悠閑地在湖泊中游弋著,或懶洋洋地躺在水中的石塊上。

評測

特朗普叫停烏克蘭援助武器短缺引發(fā)危機,美國停止對烏援助,將帶來什么?

韓國尹錫悅案件即將告一段落,韓國法院批準釋放尹錫悅

俄烏談判何時起,美官員稱烏準備實現和談,恢復談判(注:這個標題保留了原意,同時簡化了內容,使表述更加簡潔明了。"準備實現和談"與"準備好實現和平時將恢復與其談判"是同義表達,"恢復談判"比"將恢復與其談判"更簡潔。)

獲取拉貢雪山稀有寶物,《星球重啟》拉貢雪山舊世珍遺全收集攻略

雙人挑戰(zhàn)如何獲取拉貢雪山廢棄劇本,《星球重啟》拉貢雪山廢棄的劇本獲取攻略

顯示全部

熱門推薦
玩家評論
我要跟貼
取消
最新手游