国产亚洲欧美在线观看精品,а√天堂中文在线资源bt种子,国产亚洲精品自在线亚洲页码,日本一区二区不卡高清久久久

站長之家 - 業(yè)界 2025-03-10 18:03:56

監(jiān)督微調(diào)突破,SFT煥發(fā)新生:CMU等華人學者提出全新「批判式微調(diào)」,匹敵復刻版DeepSeek

聲明:本文來自于(ID:ykqsd.com)授權轉載發(fā)布。

新智元報道

編輯:張三、李四

【新智元導讀】在處理復雜的推理任務時,傳統(tǒng)的監(jiān)督微調(diào)(SFT)方法確實顯得力不從心。近期,CMU等高校的華人團隊在監(jiān)督微調(diào)方法上進行了突破性改進,提出了一種全新的方法——批判性微調(diào)(CFT)。該方法僅在5萬個樣本上進行微調(diào),便在大多數(shù)基準測試中超越了使用超過200萬個樣本的強化學習方法。

模仿是傳統(tǒng)語言模型訓練的主要方式。LLM在解決現(xiàn)實世界問題方面表現(xiàn)出色,其中一項核心技術是監(jiān)督微調(diào)(SFT)。

在SFT過程中,模型需要模仿人類標注或合成的高質(zhì)量回復,以增強其遵循指令的能力。這類SFT數(shù)據(jù)集通常采用Self-Instruct和Evol-Instruct等方法構建。

然而,這種方法存在明顯的局限性。隨著數(shù)據(jù)集規(guī)模和質(zhì)量的提升,邊際收益逐漸降低,尤其是在基礎模型本身效果已經(jīng)較為出色的訓練過程中,使用SFT可能會導致性能下降。

最近,三位來自全球頂尖高校的華人學者就發(fā)表了一篇論文,對SFT做出了進一步的改進,提出了一種新的方法——批判式監(jiān)督微調(diào)(CFT,Critique Fine-Tuning)。這種方法旨在讓模型更高效地模仿高質(zhì)量數(shù)據(jù)集。

論文鏈接:https://arxiv.org/pdf/2501.17703

批判式監(jiān)督微調(diào):讓SFT重新偉大

CFT將重點從簡單模仿轉向基于批判的學習,其核心思想是讓模型學會批判性思維,而不是簡單地模仿,這種理念源自人類的學習過程。

學霸在學習過程中不僅止于復制答案,而是通過深入研究、批判性分析和持續(xù)改進來優(yōu)化自己的學習成果。類似地,CFT數(shù)據(jù)集通過為模型提供針對錯誤回答的反饋,幫助LLM識別問題所在并提出相應的改進建議,從而驗證其解決方案的正確性。

這種方法不僅顯著提升了模型的推理能力,還使其在處理復雜任務時表現(xiàn)出更強的自適應性和靈活性。

例如,針對以下問題:在一個直角三角形中,兩條直角邊的長度分別為3個單位和4個單位,構建一個正方形。求五邊形$ABCDE$的面積(單位:平方單位)。

在SFT模式下,模型將按照以下步驟運算:首先運用勾股定理計算斜邊長度為5個單位,接著計算正方形的面積為25平方單位,再計算三角形的面積為6平方單位,最后得出答案25-6=19平方單位。

相比之下,在CFT模式下,模型不僅給出答案,還會對上述回答進行反饋,指出錯誤在于應加而非減三角形面積,從而給出正確答案31平方單位。

如下圖所示,展示了典型的SFT和CFT數(shù)據(jù)樣例。

SFT模式下,模型直接模仿答案的結構和格式,而CFT模式下,模型需要模仿對錯誤答案的反饋和批評。

CFT模式的顯著優(yōu)勢在于其高訓練效率。

那么,如何收集CFT訓練所需的數(shù)據(jù)呢?

論文基于WebInstruct平臺,構建了一個包含50K個問答對的數(shù)據(jù)集,其中每個問答對都附有由GPT-4等高級模型生成的批評意見。這些數(shù)據(jù)主要聚焦于數(shù)學領域(占65%),同時也涵蓋了物理、化學、商業(yè)等多學科主題。

CFT數(shù)據(jù)集與SFT數(shù)據(jù)集的對比分析

在未經(jīng)指令微調(diào)的CFT數(shù)據(jù)集上,訓練一個7B規(guī)模的LLM模型,包括DeepSeekMath-base、Qwen2.5和Qwen2.5-Math等模型。

CFT方法的訓練目標明確:將問題x與錯誤回答y組合作為輸入,優(yōu)化模型參數(shù)以生成評論c,從而訓練模型具備批判性思維能力。

實驗結果顯示,LLM經(jīng)過指令微調(diào)與批判性微調(diào)后,在數(shù)學相關基準上的性能提升顯著。具體而言,CFT訓練的模型在數(shù)學基準測試中表現(xiàn)持續(xù)優(yōu)于SFT訓練的最佳模型。

與SFT相比,CFT方法的準確率平均高出4-10個百分點。此外,訓練效率更高,能夠在更少的訓練數(shù)據(jù)量上實現(xiàn)更快的收斂,因此具有開發(fā)數(shù)學推理模型的潛力。

在MATH和Minerva-Math基準測試中,對比了不同方法的訓練動態(tài),包括CFT與兩種SFT變體。橫軸代表訓練步數(shù),縱軸顯示模型的準確率。

在相同規(guī)模的50k樣本數(shù)據(jù)集上,比較了不同基座模型在CFT和SFT訓練后性能的提升幅度。

僅以Qwen2.5-Math-7B模型為例,在各種數(shù)據(jù)集和任務上,CFT的訓練效果都能全面超越SFT。

論文對比了訓練后的Qwen2.5-Math-7B-CFT模型與知名模型,包括Llama系列、GPT系列以及Deepseek、Mathstral、Numina等系列模型,具體結果如下表所示。

Qwen2.5-Math-7B-CFT模型的平均性能(48.1%)在參數(shù)量10倍的Llama-3.1-70B-Instruct(40.4%)和NuminaMath-72B-CoT(39.1%)之上,與Qwen2.5-Math-72B-Instruct(56.4%)模型的性能接近。

此外,基于CFT訓練的模型在性能表現(xiàn)上與采用140倍計算資源訓練的SimpleRL模型(基于Deepseek R1的公開版本)不相上下,其GPU運行時間縮減至原來的1/144,這顯著降低了計算成本。

研究人員對CFT的多個關鍵因素進行了消融研究。結果表明,CFT在數(shù)據(jù)來源的魯棒性、噪聲響應的魯棒性,以及教師批判模型選擇方面展現(xiàn)出較強的穩(wěn)定性。

例如,即使使用較弱的GPT-4o-mini模型生成批評意見,CFT仍能帶來顯著的性能提升。

局限與擴展

在CFT訓練數(shù)據(jù)集中,作為“gold standard”的批評數(shù)據(jù)全部由LLM生成。經(jīng)過作者的手動檢查,發(fā)現(xiàn)其中有20%的批評意見本身就存在錯誤,這些錯誤可能對模型訓練帶來一定干擾,影響最終效果。

此外,當前CFT訓練的模型尚未具備自我批評能力,因此目前尚未觀察到自我改進的效應。

該研究采用的數(shù)據(jù)集存在一定的代表性問題,目前主要集中在數(shù)學問題上,而在編程、科學推理以及人文相關推理等領域,尚不清楚是否能采用類似的CFT模式進行訓練,仍有待進一步研究。

CFT的優(yōu)勢主要體現(xiàn)在其對模型推理能力的顯著提升以及對訓練數(shù)據(jù)的高效利用。通過模型學會批判性思維,相當于讓大模型完成一次強化學習任務。

相較于現(xiàn)有的自我修正(Self-Correction)、獎勵模型(Reward Models)等方法,CFT的目標是通過批判學習來深化模型對問題的理解,而非直接估計獎勵分數(shù)或進行自我修正。這種方法在推理任務中展現(xiàn)出更強的適應性和靈活性。

更加關鍵的是,CFT的數(shù)據(jù)集構建和訓練流程相對簡單,計算成本較低,因此在實際應用中具有較高的可行性和經(jīng)濟性。未來研究可能將進一步提升批判數(shù)據(jù)的質(zhì)量,并探索模型自我批判機制的實現(xiàn)路徑。

其次,構建自動驗證工具或開發(fā)人類驗證的批判數(shù)據(jù)集,以確保批判數(shù)據(jù)的質(zhì)量得到提升。然而,要使模型具備自我批判和自我改進的能力,就需要通過用戶反饋使模型實現(xiàn)持續(xù)優(yōu)化。

進一步的研究可能還包括將CFT與其他訓練范式(如SFT和RL)融合,并擴展到多模態(tài)環(huán)境,同時深入探討其理論基礎。

參考資料:

https://arxiv.org/pdf/2501.17703

發(fā)射通信技術試驗衛(wèi)星十五號,我國成功發(fā)射通信技術試驗衛(wèi)星十五號 智領未來,藍電E5 PLUS 165公里續(xù)航正式上市,限時特惠價9.98萬元 抽取sp角色技巧,《元素方尖》sp人物抽出方法分享 航班登機被插隊,樂華男團插隊登機被曝光,已多次溝通但無果,航空公司客服及機場回應待出 烏克蘭與美國的沖突升級雙方對談判的態(tài)度存疑,澤連斯基說愿盡快談判 各方如何回應? 探岳L硬核進化,探岳L上市:智屏交互與智能駕駛升級,一口價17.69萬起 貓王座,《貓字找茬大師》找出10只藏在街道里的貓通關攻略 能見度驟降,波音客機起飛后返航說明:這個改寫版本保持了原文的核心信息,即波音客機在起飛后因機艙煙霧彌漫而被迫返航。標題簡化了語句,去除了不必要的修飾詞,使標題更加簡潔明了,同時保持了原意。 智享全系 超凡新境,問界新M5 Ultra正式開啟預訂,售價23.8萬元起 談判 attempt 美國和俄羅斯被烏克蘭總統(tǒng)干擾,標題改寫:談判為何陷入僵局?(改寫說明:1. 原標題較長,信息點分散,改寫后更簡潔2. 去除"想"等非謂語詞,使表達更直接3. 用"為何"反問形式增強標題沖擊力4. 保持了"美國""俄羅斯""澤連斯基"三個關鍵要素5. 原意不變,但表述更加專業(yè)有力)
     
sonangol

sonangol

大?。?em>11mb更新:2025-03-10 18:03:56

類別:系統(tǒng):Android

立即下載(42.54MB)
  • sonangol
  • sonangol
  • sonangol

游戲特色

看對方?jīng)]解釋的意味,湯圓才進行猜測,“是要補回來的意思?我想起來了,去年生日,你要了兩個小碗的長壽面。”

另外一個湯圓也想到答案,他是知道顧陸童年時期的狀況??隙ㄊ情镛A小時候特別孤獨,沒什么人理會。一般來說這種情況,要么會叛逆找存在感,要么會抑郁,顧陸這個就非典型,感覺世界虛假。

既然想到答案,那李古圓是不想讓好友回想起悲慘經(jīng)歷的,就轉移話題?!笆遣皇强梢躁P閉錄制了,去吃點東西吧?!崩罟艌A轉折道,“對了,知不知道戚采薇在時光膠囊里寫了什么……我們今天吃什么燒烤可以不?”

湯圓在年少時期也是追求過班花戚采薇的,所以下意識想知道。不過很快就把話止住了,李古圓想扇自己嘴巴,怎么說話不過腦呢?

戚采薇自打高中去了毛熊國,就一直在那邊發(fā)展再未歸國,李古圓感覺這里邊有事兒……最終兩人去吃了燒烤,付錢的是湯圓。

即便顧陸已財富自由,可李古圓認為,朋友之間不用在乎誰請客,所以不能一直都由一個人給錢。話有點繞,但大概能理解湯圓的意思吧?

兩人吃飽了就各自回家,顧陸要回北大那邊的單身公寓,所以方向是截然相反的。沒喝酒,李古圓只是有點漲肚,腦子還是很清醒的,坐地鐵回家。

下地鐵站,他還能順路買點東西。租房樓下有個小型商圈,其中有三聯(lián)書店,李古圓準備去買兩本書來看。畢竟他當前是兼職寫作,從美文賽道轉到了科幻道路。

曾經(jīng)用顧陸的創(chuàng)意寫過一篇《機器歌手》,講述大數(shù)據(jù)音樂越來越差的科幻小說,讓他小有名氣。所以寫科幻短篇,還是能過稿混口飯。

書店門口有個巨型海報,準確來說更類似留言墻,顧客們可以留言。問題則是——[請問國內(nèi)現(xiàn)如今最知名作家是誰?請說明原因為什么是顧陸。]“可以的,可以的,這提問是直接打明牌了?”李古圓瞧著上面用馬克筆寫的理由。

游戲亮點

而就在他向島內(nèi)觀望的時候,兩個從中心城到來的年輕人來到了中心城的臨時信號管理處,并向這里遞交一封批準文書。

因為本月的二十三日,正好是某位老先生的八十歲大壽,這個日子正好是在兩地場域信號連通之后的第一天。所以有幾個有想法的后輩都派了人過來,準備屆時利用這兩地的場域進行遠程祝壽。

這絕對是非常有意義和有面子的事,因為這項業(yè)務只是在連通之后的試開放,有資格申請只是先決條件,還必須經(jīng)過政務廳審批,他們就屬于特批人選之一了。

不過到了這里后,還有一些復雜的程序要走,并且他們要確認最后的信息傳遞,所以一直需要待到祝壽那天了。而游輪在港口停留了有一個白天,到了晚上,繼續(xù)啟程。

游戲玩法

在這溟水深淵之內(nèi),便是東荒最強的宗門——溟淵派!此刻,一間古樸的大殿中,三道身影呈品字形環(huán)坐。在中間,則是一汪猶如水銀一般的黑水池子。

池子內(nèi),一抹青光不斷勃發(fā),又不斷被打壓。三道身影中,最年輕的那一位,說話反而最老氣橫秋?!疤煸雷谡莆镇埗刺?,是以人才輩出,化神不斷。若我等能將這青禾仙煉化,融入溟淵圣地,必將成就宗門最強底蘊之一。屆時,我派便能東出,獨掌東荒,與那天元道宗論上一論!”

“御冥師兄說得極是,青禾仙雖說不如遠古大荒蜃龍,可終究是活著的,而且還是完整的本體。煉化了她,不僅宗門受益無窮,我等也可借此突破到化神后期,離開此界,再尋長生大道?!?/p>

評測

過膝裙優(yōu)雅與時尚的完美碰撞,春季到了,中年女性,穿褲子太單調(diào)了,試試過膝裙,時尚又顯瘦!

蘋果的3D打印iPhone 17設計大解析攝像頭布局曝光,蘋果iPhone 17系列全新設計實拍:Pro與Air雙線出擊

美國國務卿魯比奧烏克蘭與俄羅斯可能重新談判,烏克蘭:準備?;鸺罢勁?俄羅斯或參與

最新版本功能,真我GT6獲realme UI 6 15.0.0.601升級

《瘋狂數(shù)梗傳》荒唐祖屋關卡圖片找不同連線找規(guī)律,《瘋狂梗傳》荒唐祖屋價格漲通關攻略

顯示全部

熱門推薦
玩家評論
我要跟貼
取消
最新手游