国产亚洲欧美在线观看精品,а√天堂中文在线资源bt种子,国产亚洲精品自在线亚洲页码,日本一区二区不卡高清久久久

站長之家 - 業(yè)界 2025-03-12 01:10:41

突破高效創(chuàng)新性能,SFT煥發(fā)新生!CMU等華人學者全新提出"批判式微調",超越DeepSeek復刻版

聲明:本文來自于(ID:ykqsd.com)授權轉載發(fā)布。

新智元報道

編輯:Peter東 喬楊

【新智元導讀】當大模型面臨復雜的推理任務時,SFT表現(xiàn)出明顯不足。最近,來自CMU等機構的華人團隊提出了一種名為「批判性微調」(CFT)的方法。該方法僅使用50,000個樣本進行訓練,卻在多數(shù)基準測試中超越了使用超過200萬個樣本的強化學習方法。

模仿訓練是傳統(tǒng)語言模型的主要訓練方式,而LLM在解決現(xiàn)實世界中的問題時展現(xiàn)出前所未有的性能,這一現(xiàn)象部分歸因于SFT技術的應用。

在SFT訓練過程中,模型被要求模仿人類標注或合成的高質量回復,這一行為旨在增強模型的通用指令遵循能力。這類SFT數(shù)據(jù)集通常采用Self-Instruct和Evol-Instruct等方法進行構建。

盡管SFT在某些情況下表現(xiàn)優(yōu)異,但也存在明顯的局限性。隨著數(shù)據(jù)集規(guī)模和質量的提升,邊際收益逐漸遞減,尤其是在訓練本身效果已經(jīng)較為理想的基礎模型時,使用SFT反而可能降低性能。

為了解決這些問題,CMU、滑鐵盧大學等機構的3名華人學者最近發(fā)表了一篇論文,提出了一種改進型的監(jiān)督微調方法,稱為批判式監(jiān)督微調(CFT)。這種方法的核心在于引導模型進行批判性學習,而非簡單的模仿訓練。其靈感來源于人類的學習過程,旨在提升模型對復雜任務的適應能力。

論文鏈接:https://arxiv.org/pdf/2501.17703

批判式監(jiān)督微調:讓SFT技術煥發(fā)新生

CFT的提出不僅為SFT技術注入了新的活力,也為監(jiān)督微調方法的未來發(fā)展提供了新的思路。

學霸在學習過程中不僅進行簡單的答案復制,而是通過深入分析和批判性思考來改進自己的解答。同樣,在CFT數(shù)據(jù)集中,通過為錯誤回答提供詳細的批評,模型能夠識別響應中的缺陷,并提出改進建議以驗證正確性。

這種方法不僅能夠顯著提升推理能力,還能使模型在處理復雜任務時表現(xiàn)出更高的適應性和靈活性。

例如,在直角三角形的直角邊長分別為3個單位和4個單位的情況下,構造一個正方形。求五邊形$ABCDE$的面積(單位:平方單位)。

在SFT模式下,模型會按照以下步驟進行運算:首先利用勾股定理計算斜邊長度為5個單位,接著計算正方形的面積為25平方單位,以及三角形的面積為6平方單位,最后模型給出答案25-6=19平方單位。

在CFT模式下,模型不僅給出答案,還會對上述回答進行批評,指出錯誤在于應加上而非減去三角形的面積,最終給出正確答案31平方單位。

下圖展示了典型的SFT和CFT數(shù)據(jù)樣例。

SFT模式下,大模型會直接模仿答案的結構和格式,而CFT模式下,模型會模仿對錯誤回答的批評和糾正。

CFT模式的高訓練效率主要歸功于其對錯誤信息的深度處理能力。

那么,如何獲取CFT訓練所需的數(shù)據(jù)集呢?

本文基于WebInstruct平臺,構建了一個包含50,000對問答對的數(shù)據(jù)集,其中的每一例都附有來自GPT-4等高級模型生成的批評意見。這些問答對主要聚焦于數(shù)學領域(占65%),同時也涵蓋了物理、化學、商業(yè)等其他主題。

對比CFT數(shù)據(jù)集與其他SFT數(shù)據(jù)集

在CFT數(shù)據(jù)集上進行7B規(guī)模的未經(jīng)指令微調優(yōu)化的LLM訓練,包括DeepSeekMath-base、Qwen2.5和Qwen2.5-Math等模型。

CFT訓練方法的目標明確:將問題x與錯誤回答y組合作為輸入,優(yōu)化模型參數(shù)以生成評論c,從而訓練模型具備批判性思維能力。

實驗結果表明,在經(jīng)過指令微調與批判性微調訓練后,LLM在數(shù)學相關基準測試中的性能提升顯著。研究發(fā)現(xiàn),CFT訓練的模型在數(shù)學基準測試中持續(xù)優(yōu)于SFT訓練的最佳模型。

與SFT相比,CFT方法的準確率平均提升了4至10個百分點。此外,CFT模型的訓練效率更高,在較少的訓練數(shù)據(jù)量下即可快速收斂,這使其成為開發(fā)數(shù)學推理模型的理想選擇。

Qwen2.5-Math-7B模型在MATH和Minerva-Math任務上采用了不同訓練方法的訓練動態(tài)對比,包括CFT與兩種SFT變體。橫軸表示訓練步驟,縱軸顯示模型準確率。

在相同規(guī)模的50k樣本數(shù)據(jù)集上,采用CFT與SFT訓練的基座模型在各任務上的性能提升效果顯著。

僅以Qwen2.5-Math-7B模型為例,CFT訓練方法在所有數(shù)據(jù)集和任務上的表現(xiàn)均全面超越了SFT方法。

論文對比了Qwen2.5-Math-7B-CFT模型與知名LLM、GPT系列以及擅長數(shù)學推理的Deepseek、Mathstral、Numina等系列模型的性能。具體結果如表所示。

Qwen2.5-Math-7B-CFT模型的平均性能達到48.1%,其表現(xiàn)甚至超越了參數(shù)量為10倍的Llama-3.1-70B-Instruct(40.4%)和NuminaMath-72B-CoT(39.1%)。該模型的性能與Qwen2.5-Math-72B-Instruct(56.4%)相媲美。

此外,基于CFT訓練的模型在性能表現(xiàn)上與基于140倍計算資源訓練的SimpleRL模型(Deepseek R1的公開版本)不相上下,其GPU使用時長減少至原來的1/144,這相當于顯著降低了計算成本。

研究人員對CFT的多個關鍵因素進行了消融研究。結果表明,CFT在數(shù)據(jù)來源的魯棒性、噪聲響應的魯棒性以及教師批判模型選擇等方面都表現(xiàn)出較強的能力。

例如,即使使用較弱的GPT-4o-mini模型來生成批評意見,CFT依然能夠實現(xiàn)顯著的性能提升。

局限與擴展部分略。

在CFT訓練數(shù)據(jù)集中,作為基準的批評數(shù)據(jù)是由LLM生成的。經(jīng)過作者的手動檢查,發(fā)現(xiàn)其中有20%的批評意見本身就存在錯誤,這些錯誤可能對模型的訓練造成一定干擾,影響其最終性能表現(xiàn)。

此外,CFT訓練的模型目前不具備自我批評能力,因此尚未觀察到自我改進的現(xiàn)象。

該研究所使用的數(shù)據(jù)集在代表性方面仍存在不足,目前僅聚焦于數(shù)學問題,而對編程、科學推理以及人文相關領域的問題,是否能夠采用類似CFT模式進行訓練,仍有待進一步探索。

CFT的優(yōu)勢在于顯著提升了模型的推理能力,并實現(xiàn)了對訓練數(shù)據(jù)的高效利用。通過讓模型學會批判性思維,相當于讓大型語言模型進行了一次強化學習過程。

相比于現(xiàn)有的自我修正(Self-Correction)、獎勵模型(Reward Models)等方法,CFT的目標是通過批判學習來深化模型對問題的理解,而不是直接估計獎勵分數(shù)或進行自我修正。這種方法在推理任務中的適應性和靈活性表現(xiàn)更為突出。

更為關鍵的是,CFT的數(shù)據(jù)構建和訓練流程相對簡潔,計算成本較低,因此在實際應用中具有較高的可行性和經(jīng)濟性。未來的研究可能在提升批判數(shù)據(jù)質量和探索模型自我批判機制方面取得新的進展。

首先,構建自動驗證工具或開發(fā)人類驗證的批判數(shù)據(jù)集,以增強批判數(shù)據(jù)的質量。要使模型具備自我批判與自我改進能力,需通過用戶反饋使模型實現(xiàn)持續(xù)優(yōu)化。

進一步的研究也可能包括將CFT與其他訓練范式,如SFT和RL相結合,擴展到多模態(tài)環(huán)境,并研究其理論基礎。

參考資料:

https://arxiv.org/pdf/2501.17703

Han朔科技上市股價飆升187%投資巨擘加持零售數(shù)字化新突破,剛剛,浙江的明星公司IPO了 極氪9X光耀家族,極氪9X光輝版售價100萬起 崩壞3新版本晶石獲取上限全解析,《崩壞3》7.1版本水晶匯總 沙石鎮(zhèn)攻略,《沙石鎮(zhèn)時光》石化木位置分享 智能航空物流協(xié)同創(chuàng)新,順豐訂購100架"翊飛航空"大型無人運輸機,支線物流加速升級 智能汽車市場增長與技術突破,禾賽科技:2025年營收或突破30億,因小米、比亞迪等主機廠銷量上調 標題前綴警惕上市公司財務造假,東方集團連續(xù)7次跌停,如何規(guī)避財務造假陷阱? 美國暫停向烏克蘭提供遠程打擊情報,外媒關注:美斷供行動瞄準烏克蘭關鍵數(shù)據(jù),烏克蘭海馬斯陷入危機 NBA傳奇生日濃眉職業(yè)生涯成就回顧,安東尼-戴維斯:4次一陣、3次一防、總冠軍!32歲生日快樂 超能級純電轎 | 智享新境界 | 風阻更低達0.27 | 越級空間體驗,榮威純電D6發(fā)布:A+級純電家轎新標桿
     
私募大佬

私募大佬

大?。?em>93mb更新:2025-03-12 01:10:41

類別:系統(tǒng):Android

立即下載(42.54MB)
  • 私募大佬
  • 私募大佬
  • 私募大佬

游戲特色

“請龍王解惑?!笨准o伸手示意。敖赤笑了笑,又問:“你知不知道,你們?nèi)俗逶?jīng)有一個天地靈長的名號,雖然這個名號現(xiàn)在已經(jīng)沒什么人認可?!?/p>

“天地靈長?”孔紀一愣,搖了搖頭。這個詞語在地球上,確實是形容人族,人類往往自稱天地靈長,意思就是人族乃是最有智慧,秉承天地宇宙靈性而生的種族,乃是萬類之首,萬靈之長。

但這個詞語在他正式踏入宇宙之后,已經(jīng)再沒有聽任何一個文明說過了。任何種族都不會再用天地靈長去形容人族,要形容也是形容龍鳳之類那些頂級種族。

然而敖赤這個純血真龍,赤龍族族長,南海龍王,可以說是最厲害的種族之王,居然親口說天地靈長是形容他們?nèi)俗濉?/p>

這就讓他感覺有點疑惑不解,不知道是怎么回事。見到孔紀疑惑的表情,敖赤就繼續(xù)慢慢講述起來?!八^天地靈長,意思就是秉承天地靈性而生,可以說是任何一個種族都希望得到的最高贊譽,代表著萬族之首,受人敬仰,這樣的贊譽,你是不是覺得用在你們?nèi)俗迳砩蠘O不合適?就算用也該用在龍族身上?”

“沒錯?!笨准o點了點頭?!斑@都是極其古老的傳說了,早已不可考究。”敖赤想起曾經(jīng)的長輩傳下來的一些話,談興大發(fā):“據(jù)說在遠古之前的遠古,出現(xiàn)過一個人類至強者,開創(chuàng)修行道路,一路攀登,橫掃星空,打遍宇宙星河無敵手,那個時候,人族被譽為宇宙中最強的種族,號稱天地之靈,萬族之長?!?/p>

“正是因為這個傳說,所以我們龍族才習慣變成人族的形態(tài)行走,據(jù)說就是因為這個人?!卑匠鄵u搖頭,惋惜道:“可惜,這也只是傳說,早已消失在歷史長河之中,那個人的名字都已經(jīng)被人遺忘了,許多事跡也早就沒人記得,我也是偶然聽龍族之中的一些長輩說起過?!?/p>

“實在是傳說和現(xiàn)實太不符合,所以才記憶猶新,今天見到你,才想起來這個傳說故事?!笨准o沒想到其中還有這么一個故事。

遠古人族至強者,橫掃星空,因為太過厲害,大放異彩,使得龍族都為之仰慕,習慣保持人形。這樣的傳說故事,已經(jīng)可以說是神話了,根本找不到任何的證據(jù)。

他連聽都沒聽過。在許多圖書館,包括網(wǎng)絡上,甚至白鶴一族的藏書閣中也沒有只言片語的記載,玄鶴老祖、枝、花天尊那種級別的高手都不知道。

游戲亮點

趙青云開始還擔心眾人會被嚇跑,哪知道立刻就有人興高采烈的拾起了地上的掉落?!肮?,是個藍裝,發(fā)了發(fā)了?!?/p>

“大還丹——好東西??!”“咦,竟然還有法器!小子有錢啊。”被爆了的玩家破口大罵,“我操你媽,為什么是我,我……”

趙青云直接把那個倒霉蛋從YY里踢了出去,免得影響士氣??粗W電繼續(xù)一發(fā)一發(fā)的往下劈,趙青云有些頭疼。

“阿喵,能不能切掉對面的御雷真人?”“不行啊老大,敵人后面人太多了,我在天上被盯得死死的,不敢切啊?!?/p>

游戲玩法

隨即,他掃視一圈,看到古一沒有任何不滿之色,只是微笑的看著自己。他便明白,古一估計對自己獲得時間寶石這事,是持樂見其成態(tài)度的。

于是,卡爾心里有了底,更加不把在場的復仇者放在眼里。“感謝各位超級英雄替我找到時間寶石,為表感激,保護傘將贈送200個太空城名額給復仇者聯(lián)盟。”

“各位英雄們,后會有期?!闭f完,卡爾的身影直接消失。“別跑!”卡羅爾急忙開口阻攔,還發(fā)射了一道能量束。

評測

巧克力基金的不確定體驗,造星記:AI豪賭,金梓才以倒數(shù)第一的成績告負

完美運行 | 流暢體驗 | 高配置支持, War Robots Frontiers游戲配置要求介紹

寵物露營即將成 reality,帶寵出行需求激增,天貓寵物用品品牌數(shù)量增長一倍

佤族鼓舞,佤族歌舞首次亮相昆明長水國際機場,展現(xiàn)民族文化魅力。

裝備獲取小技巧如何高效采集蜂蜜,怪物獵人荒野物品收集技巧經(jīng)驗分享

顯示全部

熱門推薦
玩家評論
我要跟貼
取消
最新手游