国产亚洲欧美在线观看精品,а√天堂中文在线资源bt种子,国产亚洲精品自在线亚洲页码,日本一区二区不卡高清久久久

站長之家 - 業(yè)界 2025-03-10 20:11:46

稀疏與線性注意力大模型的進(jìn)化,線性注意力探索:MiniMax-01開發(fā)者講述4年技術(shù)之路

聲明:本文來自于(ID:ykqsd.com)授權(quán)轉(zhuǎn)載發(fā)布。

客座嘉賓:鐘怡然

整理:劉倩 程曼祺

往期節(jié)目里,我們采訪了清華大學(xué)兩位博士生肖朝軍和傅天予,圍繞稀疏注意力機(jī)制的改進(jìn)展開討論,并通過注意力機(jī)制的線索,串聯(lián)起大模型的優(yōu)化歷程。

除了稀疏注意力機(jī)制的改進(jìn),我們還深入探討了另一大改進(jìn)方向:線性注意力。

今年1月,開源大模型MiniMax發(fā)布,參數(shù)規(guī)模達(dá)到了4560億,該模型正是采用了他們開發(fā)的線性注意力機(jī)制“Lightning Attention”。

本次特別邀請了該項(xiàng)目的負(fù)責(zé)人、MiniMax高級研究總監(jiān)鐘怡然,與我們共同探討線性注意力的研發(fā)歷程。鐘怡然目前負(fù)責(zé)大模型網(wǎng)絡(luò)架構(gòu)設(shè)計工作,正在開發(fā)一個多模態(tài)深度推理模型。

鐘怡然曾在上海人工智能實(shí)驗(yàn)室擔(dān)任青年科學(xué)家,是新架構(gòu)探索組的負(fù)責(zé)人;他擁有博士學(xué)位,師從李宏東教授和澳大利亞科學(xué)院院士Richard Hartley。他在國際頂級學(xué)術(shù)會議和期刊上發(fā)表了20多篇關(guān)于模型新架構(gòu)的論文,涵蓋了當(dāng)前多類非Transformer架構(gòu),包括線性注意力機(jī)制、長卷積和線性循環(huán)網(wǎng)絡(luò)。

2021年,線性注意力的概念還處于理論探討階段,怡然與團(tuán)隊(duì)開始致力于其實(shí)現(xiàn)工作。

到2024年下半年,當(dāng)MiniMax利用大量算力資源訓(xùn)練4560億參數(shù)的新型模型01時,線性架構(gòu)在大規(guī)模模型上的應(yīng)用仍存在疑慮。然而, MiniMax創(chuàng)始人閆俊杰最終決定投入超過80%的研發(fā)資源。

建模過程并非投機(jī)取巧式的賭注。在訓(xùn)練MiniMax-01之前,MiniMax團(tuán)隊(duì)進(jìn)行了3700次預(yù)訓(xùn)練測試,以預(yù)測這種新架構(gòu)在更大參數(shù)模型上的表現(xiàn)(其中許多是小規(guī)模實(shí)驗(yàn))。

在性能上,從計算方法推導(dǎo)來看,當(dāng)處理的序列變得極為長時,線性注意力在計算性能上的優(yōu)勢將逐漸超過稀疏注意力。

但從實(shí)際效果來看,也就是線性注意力架構(gòu)的模型是否能達(dá)到甚至超越 Transformer 模型的智力水平。目前還沒有人能夠給出一個具有絕對說服力的答案。

這也是 MiniMax 技術(shù)后續(xù)進(jìn)展中可能會揭示的謎團(tuán)。

* 以下是本期播客節(jié)目實(shí)錄,有文字精簡。正文中的(注:……)為編輯注釋。

“線性注意力在處理更大規(guī)模的模型時,優(yōu)勢將更加顯著”

晚點(diǎn):怡然,可以先和我們的聽眾簡單介紹一下自己嗎?

鐘怡然:我目前是 MiniMax 的高級研究總監(jiān),主要負(fù)責(zé)模型結(jié)構(gòu)設(shè)計和多模態(tài)理解大模型。我主導(dǎo)設(shè)計了 MiniMax-01 新一代的網(wǎng)絡(luò)架構(gòu),此前曾在上海人工智能實(shí)驗(yàn)室擔(dān)任青年科學(xué)家,是新架構(gòu)探索組的負(fù)責(zé)人,負(fù)責(zé)新一代非 Transformer 架構(gòu)的研發(fā)及視聽多模態(tài)融合。

我們同時也在新架構(gòu)的工程實(shí)現(xiàn)上進(jìn)行深入研究,相當(dāng)于在新架構(gòu)中引入了一些并行優(yōu)化策略。針對國產(chǎn)集群通信系統(tǒng)效率不足的問題,我們開發(fā)了異步優(yōu)化器,并在計算機(jī)視覺和自然語言處理領(lǐng)域進(jìn)行了有效性驗(yàn)證。

晚點(diǎn):其實(shí)不只是我們,各大公司都在對注意力機(jī)制進(jìn)行優(yōu)化,這個背景是什么?

鐘怡然:因?yàn)?Transformer 有一個顯著的問題:顯存占用和計算復(fù)雜度呈平方增長(注:二次復(fù)雜度即平方增長——隨著模型處理序列長度的增加,計算復(fù)雜度呈平方增長)。FlashAttention 解決了顯存問題,但計算復(fù)雜度問題仍然存在。

學(xué)術(shù)界最早嘗試采用“稀疏注意力”來減少計算量,但這種方法無法完全解決二次復(fù)雜度的問題。不過,在一段時期內(nèi),計算能力的提升掩蓋了這一問題的緊迫性:從V100到A100再到H100(英偉達(dá)的三代高性能GPU),計算能力的提升非常顯著。因此,現(xiàn)在很多大型模型仍然采用Transformer架構(gòu),其序列長度可以達(dá)到一定的擴(kuò)展,例如擴(kuò)展到128K、256K。

我們一直致力于解決計算中的二次復(fù)雜度問題,因此在2021年,當(dāng)線性注意力剛起步時,我們就開始探索這一方向。線性注意力機(jī)制其實(shí)非常簡單,其核心在于注意力計算的Q、K、V相乘過程。

如果按照QK乘以V的方式進(jìn)行計算,計算復(fù)雜度是二次的;而如果先進(jìn)行KV乘以Q的操作,計算復(fù)雜度則可以保持一次(線性)水平,增長量不會過多。因此,線性注意力的本質(zhì)是將左乘轉(zhuǎn)換為右乘的形式。

晚點(diǎn):你們當(dāng)時有沒有嘗試過稀疏注意力的方向?

鐘怡然:在2021年的時候,我們確實(shí)嘗試過,但當(dāng)時的效果和運(yùn)行效率都不盡如人意。實(shí)際上,這與線性注意力面臨同樣的挑戰(zhàn):稀疏注意力的效果并不如Softmax Attention,提升的空間非常有限。

此外,我注意到稀疏注意力存在一定的逼近性問題。因?yàn)锳ttention Metrics(注意力值矩陣)是一個完整的N×N矩陣,而稀疏注意力僅計算其中有限個注意力分?jǐn)?shù)(Attention Score)。這自然會降低計算復(fù)雜度,但這種降維處理是有犧牲的。我們認(rèn)為這得不償失。

晚點(diǎn):你們對NSA(稀疏注意力)和MoBA(包括最近微軟亞研院SeerAttention在內(nèi)的最新成果)在效果和效率上的表現(xiàn)有何看法?它們帶來了哪些新的認(rèn)知?

鐘怡然:具體來說,我們還在進(jìn)行進(jìn)一步的實(shí)驗(yàn)。從我們目前的實(shí)驗(yàn)結(jié)果來看,Lightning Attention(MiniMax-01中采用的混合注意力機(jī)制)在模型參數(shù)量越大時,帶來的優(yōu)化效果越明顯。

我們還測試了DeepSeek提出的MLA(一種減少顯存開銷的注意力優(yōu)化方法)以及清華提出的TPA(同樣一種減少顯存開銷的注意力優(yōu)化方法)。但發(fā)現(xiàn),這些方法的優(yōu)勢在模型規(guī)模增大時會逐漸消失,也就是說,它們對模型大小有一定的限制。

相比之下,Lightning Attention在模型規(guī)模增大時展現(xiàn)出顯著的優(yōu)勢。最近發(fā)布的NSA、MoBA、SeerAttention等成果,我們認(rèn)為它們在工業(yè)級規(guī)模擴(kuò)展方面還尚未達(dá)到成熟階段。

晚點(diǎn):MOBA 也發(fā)布了工程代碼,運(yùn)行了近一年。

鐘怡然:這需要開源,讓其他開發(fā)者真正能夠查看,在數(shù)百 GB 參數(shù)的模型上,它是否能夠超越 Transformer。目前,它們的性能對比主要集中在7B規(guī)模。而在2023年上半年,我們對Lightning Attention的驗(yàn)證就基本完成了7B規(guī)模的驗(yàn)證。

晚點(diǎn):稀疏注意力和線性注意力在不同規(guī)模的模型上表現(xiàn)有何差異,在幾B參數(shù)的模型之后是否會出現(xiàn)顯著差別?

鐘怡然:在7B以上基本可以看到明顯的區(qū)別。而MiniMin-01是一個總參數(shù)量為4560億、激活459億的MoE模型。(注:MoE是混合專家系統(tǒng),其核心機(jī)制是通過動態(tài)路由在推理時僅激活部分子模型,即“專家”,從而顯著降低計算資源消耗。)

晚點(diǎn):總的來說,現(xiàn)在學(xué)界或工業(yè)界更傾向于稀疏注意力還是線性注意力?

鐘怡然:這兩個方向的研究者都很多。2023年之后,線性注意力變得比較熱門,因?yàn)镸amba那時候很火,帶動了這一方向的發(fā)展。

晚點(diǎn):從對Transformer的全注意力機(jī)制改動的程度來看,稀疏注意力的改動是否相對少一些,線性注意力的改動是否更多一些?

鐘怡然:是的,稀疏注意力本質(zhì)上還是一個基于Transformer的模型,它只是對注意力得分的計算方式進(jìn)行了改進(jìn)。而線性注意力則是改變了QxKxV的乘法方式。學(xué)術(shù)界對它有不同的稱呼,你可以稱之為線性注意力,也可以稱之為線性Transformer。

晚點(diǎn):線性注意力與Transformer以前的RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))有什么區(qū)別?

鐘怡然:它本質(zhì)上也是一種循環(huán)結(jié)構(gòu),但以前的RNN最大的問題是無法并行化,而線性循環(huán)網(wǎng)絡(luò)(Linear RNN)則使其能夠?qū)崿F(xiàn)大規(guī)模的并行化。

50% 的把握,投入 80% 的資源

晚點(diǎn):接下來我們可以從頭聊一聊,你們從 2021 年開始探索線性注意力,到現(xiàn)在,這個過程有什么變化。

鐘小姐:2021 年 7 月,我們啟動了 cosFormer 項(xiàng)目,這也是我們首次深入線性注意力領(lǐng)域,相關(guān)研究成果發(fā)表在了 ICLR 上。cosFormer 在該領(lǐng)域的知名度依然不錯。從那時起,我們發(fā)現(xiàn)這個方向潛力巨大。

當(dāng)時的想法很簡單:一方面,Transformer 領(lǐng)域已經(jīng)有諸多優(yōu)秀研究,但這并不意味著我們需要效仿。而線性注意力作為一個新興方向,當(dāng)前的研究者們卻鮮有關(guān)注。與其跟隨他人的步伐,不如另辟蹊徑。

實(shí)際上,線性注意力領(lǐng)域的研究早在 2021 年就已初見端倪,與 Transformer 同期推出。但其效果欠佳、運(yùn)行速度較慢,因此當(dāng)時研究者們認(rèn)為這是一個“空 bubble”——看上去很有前景,但實(shí)際應(yīng)用效果卻不盡如人意。

2021 年至 2022 年間,我們密集產(chǎn)出了一系列創(chuàng)新成果,包括線性注意力機(jī)制、長卷積(Long Convolution)和線性循環(huán)網(wǎng)絡(luò)(Linear RNN)。我們對現(xiàn)有所有線性方案進(jìn)行了系統(tǒng)性探索。到 2022 年底,我們研發(fā)的方法在語言建模方面的表現(xiàn),已與 Transformer 接近不相上下。

晚點(diǎn):當(dāng)時你們是如何評估線性架構(gòu)與 Transformer 的差距的?你們測試了哪些基準(zhǔn)?

鐘小姐:當(dāng)時我們主要測試了學(xué)術(shù)數(shù)據(jù)集,關(guān)注指標(biāo)包括困惑度和建模精度等。同時,我們還在一些常用的大模型數(shù)據(jù)榜單上進(jìn)行了對比測試,包括 Long Range Arena 這類長文本基準(zhǔn)。

在實(shí)驗(yàn)室階段,我們首先解決了線性注意力建模精度的問題,隨后轉(zhuǎn)向處理速度問題。線性注意力雖然在理論復(fù)雜度上是線性的,但在實(shí)際運(yùn)行中卻表現(xiàn)得非常慢,這是因?yàn)橛页瞬僮魃婕耙幌盗醒h(huán)操作,這對 GPU 來說并不友好,導(dǎo)致實(shí)際運(yùn)行效率遠(yuǎn)低于理論復(fù)雜度。為此,我們在 2020 年推出了 TNL 和 Lightning Attention。Lightning Attention 通過優(yōu)化實(shí)際運(yùn)行效率,使其接近理論計算復(fù)雜度。

所以,在上海人工智能實(shí)驗(yàn)室期間,我們認(rèn)為線性注意力已經(jīng)達(dá)到了 Scale Up 熟練的狀態(tài)。我們覺得自己已經(jīng)解決了精度問題,也解決了推理效率問題。

當(dāng)我們實(shí)現(xiàn)Scale Up準(zhǔn)備狀態(tài)時,最大的測試是在什么規(guī)模的模型上進(jìn)行的?

最大的測試是訓(xùn)練到了15B規(guī)模的模型。

你們當(dāng)時沒有繼續(xù)向更高規(guī)模的Scaling Up測試,是因?yàn)樵趯?shí)驗(yàn)室里資源有限制嗎?

當(dāng)時,我必須將這個方法徹底擴(kuò)展到Scale Up,這就需要尋找投資者。

那時我感到比較著急,因?yàn)槲翌A(yù)感到,基于線性注意力的大模型最遲在2024年底肯定會出來,要么是我們,要么是其他機(jī)構(gòu)如Google和OpenAI。

最了解指的是中國,還是指全球?

包括現(xiàn)在比較活躍的松林(楊松林)之前也是我們組員,所以當(dāng)時的想法是找到愿意投資這種方法的人。

你最后找到的“金主”就是Minimax。

這實(shí)際上是一個雙向的過程。之前我在商湯工作期間,就在俊杰手下。

你是不是也想過自己創(chuàng)業(yè)?

鐘怡然:我之前也考慮過,但目前看來難度很大?;A(chǔ)架構(gòu)創(chuàng)新需要大量的資金投入,而我們目前在算法方面還處于領(lǐng)先地位。

大模型確實(shí)很復(fù)雜,首先需要有優(yōu)秀的架構(gòu),其次要有優(yōu)質(zhì)的數(shù)據(jù)集,最后要有高效的訓(xùn)練方法。這三者缺一不可,任何一個環(huán)節(jié)出現(xiàn)問題,都無法證明你真正的能力。目前來看,這家公司已經(jīng)淘汰了很多競爭對手,只剩下了字節(jié)跳動和Minimax兩家。

晚點(diǎn):投資人對你的應(yīng)用方向和變現(xiàn)渠道有什么反饋?

鐘怡然:他們更關(guān)注應(yīng)用方向和變現(xiàn)渠道,對未來的盈利模式也特別感興趣。投資人會想知道這個項(xiàng)目的長期價值和商業(yè)潛力。

晚點(diǎn):公司方面,你當(dāng)時認(rèn)為能夠做到一流預(yù)訓(xùn)練的公司都有哪些?

鐘怡然:包括字節(jié)跳動和Minimax,這兩家在預(yù)訓(xùn)練領(lǐng)域確實(shí)處于領(lǐng)先地位。

晚點(diǎn):Kimi(月之暗面)不是嗎?

鐘怡然:關(guān)于Kimi,我了解的信息比較少,所以當(dāng)時我覺得只有兩個選擇:要么海外發(fā)展,要么專注于國內(nèi)市場的其他方向。

晚點(diǎn):和字節(jié)聊完后,你得到了什么樣的反饋?

鐘怡然:我對字節(jié)的反饋并不滿意,他們對這個未知領(lǐng)域的興趣不高。作為一個大型公司,雖然有大量數(shù)據(jù)和人才資源,但要真正投入資源去探索一個未知的方向,這對他們來說難度較大。

晚點(diǎn):回頭看2023年下半年,你和閆俊杰的交流,他的反饋是什么?

鐘怡然:早在2021年,我和俊杰已經(jīng)非常了解彼此。通過深入交流,我們發(fā)現(xiàn),他對嘗試新事物非常愿意,甚至愿意將公司大部分精力投入其中。

因?yàn)檫@個模型是核心模塊,研發(fā)需要消耗公司80%-90%的資源,牽扯到數(shù)據(jù)團(tuán)隊(duì)、工程團(tuán)隊(duì)、算法團(tuán)隊(duì)等多個部門,需要大量協(xié)調(diào)才能完成。

晚點(diǎn):閆俊杰對你的認(rèn)可,是否源于你們在注意力機(jī)制領(lǐng)域的一些共同探索?

鐘怡然:之前我們在這一領(lǐng)域的探索不多,當(dāng)時正處于下一代模型技術(shù)選型的關(guān)鍵階段??〗芸赡苷J(rèn)為我的工作扎實(shí)可靠,因此對他比較信任。

當(dāng)然,俊杰對這件事的看法與我不同。我認(rèn)為成功的概率高達(dá)99%,而對他而言,成功與失敗的概率各占50%。對于我們這些長期深耕的人士來說,我們深知其中的關(guān)鍵點(diǎn),因此相信這個模型可以實(shí)現(xiàn)Scaling Up。

晚點(diǎn):閆俊杰給出50%的成功概率,卻大膽投入80%的資源,這種賭性是不是有點(diǎn)冒險?

鐘怡然:這確實(shí)是一場需要冒險的嘗試。但我們有基于Scaling Laws的測試方法,逐步驗(yàn)證。他并不是一開始就將所有資源投入進(jìn)去,而是先在一個成本可控的小模型范圍內(nèi)進(jìn)行驗(yàn)證,再逐步擴(kuò)展。

通過3700次預(yù)訓(xùn)練驗(yàn)證,我們從“美好的泡泡”模型發(fā)展到了擁有4560億參數(shù)的MiniMax-01模型。

晚點(diǎn):在你們一步步驗(yàn)證的過程中,你們又發(fā)現(xiàn)了什么新的東西?

鐘怡然:今年年底,我們采用的依然是一個純線性方案,訓(xùn)練出了一套15B規(guī)模的模型,其效果與Transformer方案基本持平。

但隨后我們擴(kuò)大了模型規(guī)模,發(fā)現(xiàn)無論是Lightning Attention,還是其他線性方法,在檢索能力(Retrieval)方面都存在明顯的缺陷。

因此不得不采取一種折中的方案,即通過混合架構(gòu)進(jìn)行優(yōu)化:每七層線性注意力中加入一層Softmax注意力。

之后,可以向大家解釋一下,檢索能力是什么?以及在改進(jìn)注意力機(jī)制時,我們會測試一個被稱為"大海撈針"的任務(wù),即在一個長文本中找到與主文本格格不入的一段話或句子。

鐘怡然:檢索能力指的是在長文本中進(jìn)行檢索或召回的能力。以"大海撈針"任務(wù)為例,給定一篇長文,其中存在一段話或句子與其他內(nèi)容不符,模型就需要通過定點(diǎn)召回能力找出這些不匹配的內(nèi)容。"大海撈針"任務(wù)是一個測試,在很長的長文中,模型能否找到這根"不匹配的針",是一項(xiàng)基礎(chǔ)能力。

線性注意力在執(zhí)行這個任務(wù)時存在天然的缺陷,這并不奇怪,因?yàn)榫€性注意力的KV緩存是一個固定值,無論輸入文本多長,都會被壓縮到一個固定大小的存儲空間中。這個過程會導(dǎo)致檢索能力較弱。

晚點(diǎn):當(dāng)時壓力大嗎?因?yàn)橐呀?jīng)要上規(guī)模了,出現(xiàn)這種情況。

鐘怡然:我們是有保底方案的,就是混合架構(gòu)。但當(dāng)時覺得這個方案不夠優(yōu)雅。

晚點(diǎn):所以你們最后改進(jìn)純線性注意力檢索能力差的方式,就是在技術(shù)報告中提到的:每七層線性注意力混合一層Softmax注意力?我們還嘗試了每隔十四層、十六層混合一層Softmax注意力,并測試了不同的混合比例。

鐘怡然:對,我們也嘗試了每隔十四層、十六層混合一層Softmax注意力,并測試了不同的混合比例。結(jié)果顯示,對檢索能力的影響最大,而在語言建模任務(wù)中,不同混合比例下的能力差異不大。

在這個過程中,具體采用何種比例的混合策略?是否能提供一些理論依據(jù)或指導(dǎo)建議?

我們沒有現(xiàn)成的方法或框架可用,是通過自己的實(shí)驗(yàn)來探索的。我們甚至嘗試了僅采用一層 Softmax Attention 的極端情況,結(jié)果仍然表現(xiàn)出不錯的效果。

在架構(gòu)進(jìn)行較大程度調(diào)整后,我們選擇了1:7的比例。例如,之前嘗試的 Jamba 模型采用了 1:8 或 1:7 這樣的混合層數(shù)配置。

(注:Jamba 是由 AI21 Labs 于 2024 年推出的首個 SSM(狀態(tài)空間模型)-Transformer 混合架構(gòu)大模型,支持 256K 上下文窗口。)

最初為什么會采用混合策略?

這非常符合直覺,是一種自然的選擇。

在實(shí)施混合策略后,我們是如何進(jìn)行 Scaling Laws 實(shí)驗(yàn)的?

我們的主要目的是驗(yàn)證這一技術(shù)方向是否存在潛在問題,Scaling Laws 實(shí)驗(yàn)和混合方案的測試是同時進(jìn)行的。

我們對多種線性方案進(jìn)行了測試,包括 Lightning Attention、HGRN2 和 Mamba。

這樣多的實(shí)驗(yàn)會消耗多少資源?

鐘怡然:我們總共訓(xùn)練了3700個模型,發(fā)表了一篇文章。這項(xiàng)"Scaling Up"的決策非常關(guān)鍵,因?yàn)橥度刖揞~資金訓(xùn)練大型模型,最后卻以失敗告終,實(shí)在讓人惋惜。

尤:特別是在開拓性工作中,必須把基礎(chǔ)工作做得扎實(shí)。我們需要仔細(xì)選擇參數(shù)和注意力機(jī)制,每一種方案都需要進(jìn)行一系列基準(zhǔn)測試,最終要在速度和效果之間找到平衡。因此,一套完整的對比實(shí)驗(yàn)是必不可少的。如果草率決定,雖然可以節(jié)省部分實(shí)驗(yàn)成本,但無疑會增加項(xiàng)目失敗的風(fēng)險。

晚點(diǎn):這3700個模型,是指全部從頭訓(xùn)練,意味著進(jìn)行了3700次預(yù)訓(xùn)練嗎?

鐘怡然:是的,所有模型都是從頭開始訓(xùn)練,使用了不同的大小和參數(shù)設(shè)置。因此,開展Scaling Law實(shí)驗(yàn)是一個成本很高的過程。

晚點(diǎn):你們最初預(yù)估需要進(jìn)行這么多次嗎?總共有多少資源投入?

鐘怡然:我們最初的預(yù)估就是3700次。我們根據(jù)所需的卡數(shù)、資源數(shù)量和模型數(shù)量制作了一個Excel表格,根據(jù)這些數(shù)據(jù)進(jìn)行規(guī)劃,順利完成了訓(xùn)練工作。

晚點(diǎn):你們采用的混合線性注意力結(jié)構(gòu)在實(shí)際應(yīng)用中帶來了多大的效率提升?

鐘怡然:在序列長度為100萬的情況下,這種結(jié)構(gòu)的處理速度比全注意力結(jié)構(gòu)快了2700倍。

晚點(diǎn):在速度和效果之間,這種線性注意力如何保證輸出質(zhì)量?例如,在發(fā)布后的MiniMax-01、Kimi-k1.5和DeepSeek-R1版本中,當(dāng)我測試一個2萬字英文文章時,模型無法準(zhǔn)確回答關(guān)于社交媒體短視頻功能的使用問題,而是給出了其他回答。這是什么導(dǎo)致的差異呢?

鐘怡然:"探索新架構(gòu)"讓我們在深度推理方面進(jìn)展相對緩慢,但我們正在進(jìn)行第二階段的工作。

鐘怡然:實(shí)際上,你提到的那種能力,其與訓(xùn)練數(shù)據(jù)密切相關(guān)。我們只能確保模型具備展現(xiàn)這種能力的潛力,但要真正實(shí)現(xiàn)這一能力,訓(xùn)練數(shù)據(jù)的作用就顯得至關(guān)重要了。你提出的這個問題,正是我們下一代模型需要解決的核心問題。

晚點(diǎn):目前,我們的Minimax-01模型還不是一個專門的推理模型,像R1和1.5版本的模型已經(jīng)是推理型模型了。那么,你們現(xiàn)在采用的這種架構(gòu)進(jìn)行推理,是否可以結(jié)合強(qiáng)化學(xué)習(xí)?這種方法論基礎(chǔ)和實(shí)現(xiàn)路徑是怎樣的呢?

鐘怡然:我從另一家國內(nèi)大模型公司的研究結(jié)論中得知,他們認(rèn)為Linear架構(gòu)在推理性能上稍強(qiáng)一些。他們還在Linear架構(gòu)的模型上進(jìn)行了相關(guān)推理實(shí)驗(yàn),結(jié)果顯示這種架構(gòu)在推理能力上表現(xiàn)更為出色。

晚點(diǎn):你們對目前的技術(shù)狀況有什么看法?

鐘怡然:我們還在研究這一方向,目前還不能詳細(xì)展開。因?yàn)?,最初我們并沒有立即沿著這一路徑前進(jìn)。當(dāng)時,國內(nèi)有很多模型在模仿這一方向,但我們認(rèn)為,單純強(qiáng)調(diào)推理能力,可能只能在某些特定領(lǐng)域提升模型性能。然而,等到R1發(fā)布后,我們發(fā)現(xiàn),將這些推理能力融入模型后,其外推能力和泛化能力得到了顯著提升。

晚點(diǎn):你們當(dāng)時認(rèn)為,技術(shù)基礎(chǔ)應(yīng)該先做好哪些方面?

鐘怡然:我們希望我們的模型在內(nèi)部排行榜上能夠與現(xiàn)有的4o模型(即目前最先進(jìn)的模型)不相上下,甚至接近世界頂尖水平。當(dāng)時,4o模型在相關(guān)領(lǐng)域確實(shí)處于領(lǐng)先地位。

晚點(diǎn):你們是否會考慮多模態(tài)的結(jié)合?因?yàn)?o模型本身就是一個多模態(tài)模型。

鐘怡然:后來,我接手了多模態(tài)大模型相關(guān)的工作。在構(gòu)建多模態(tài)模型時,有兩種主要的實(shí)現(xiàn)路徑:一是采用原生多模態(tài)架構(gòu),二是基于adapter(適配器)技術(shù)的多模態(tài)架構(gòu)。經(jīng)過慎重考慮,我認(rèn)為我們當(dāng)時應(yīng)該選擇adapter架構(gòu)。因?yàn)樵谀莻€時候,原生多模態(tài)技術(shù)的實(shí)現(xiàn)路徑尚不完善,例如,Gemini-2.0模型還沒有發(fā)布。

晚點(diǎn):這個方案有哪些優(yōu)勢?首先,我們能夠快速驗(yàn)證數(shù)據(jù)是否存在質(zhì)量問題;其次,效果能夠迅速顯現(xiàn)。投入的成本較低,就能獲得性能較為理想的結(jié)果。從我們發(fā)布的VL01模型來看,基準(zhǔn)測試結(jié)果顯示該模型表現(xiàn)相當(dāng)優(yōu)異。

晚點(diǎn):可以這樣理解,MiniMax-01 在 MiniMax 主線模型中確實(shí)是一次重大的轉(zhuǎn)型或升級。此前的 ABAB 系列采用的是 Transformer 架構(gòu),而 MiniMax-01 則采用了線性架構(gòu)——這是你們語言技術(shù)、多模態(tài)處理以及未來模型進(jìn)展的重要組成部分。

鐘怡然:對,這段模型的更迭速度確實(shí)很快。

晚點(diǎn):為什么要選擇投入這個改動較大且具有創(chuàng)新性的方案?

鐘怡然:首先,我們有這個意愿,是因?yàn)槲覀兿胝宫F(xiàn)自身的技術(shù)實(shí)力。我們是一家勇于創(chuàng)新的公司,愿意賭新技術(shù)。目前我們已經(jīng)將序列長度提升到了 4M(400 萬),并且我們有能力將其提升到 10M(1000 萬)。

但是(如果選擇 10M)當(dāng)前需要解決的問題是如何構(gòu)建 10M 數(shù)據(jù)集,以及在實(shí)現(xiàn) 10M 序列長度后,具體能實(shí)現(xiàn)什么功能。目前我們的計劃是先將 1M 以內(nèi)的相關(guān)工作做到極致,然后再向外擴(kuò)展。

晚點(diǎn):經(jīng)過這樣的推理,你們計劃探索哪些方向?我指的是從 O1 之后全面引入強(qiáng)化學(xué)習(xí)到 Transformer 整個流程中,未來會發(fā)生什么變化?

鐘怡然:目前行業(yè)還在做深度推理,這方面的進(jìn)展還比較新。我們處于追趕階段。但我們認(rèn)為,長文本處理未來會成為一個趨勢。我們很高興看到像 Kimi、DeepSeek 這樣的公司,已經(jīng)推出了針對長文本優(yōu)化的模型架構(gòu),這表明大家都開始走上這條賽道。

在我看來,俊杰也比較清楚:我們走的是長線策略。短期內(nèi)在效果上可能會落后,因?yàn)槲覀儾捎昧诵录軜?gòu),在相同算力和資源下,我們的人力在進(jìn)行深度推理方面會相對不足,這意味著我們跟隨深度推理的腳步會稍微慢一些。

但另一方面,當(dāng)我們真正開始進(jìn)行深度推理時,我們就能迅速趕上。因此,在這場競賽中,我們正在參與的是“下半場”。我們押注的未來趨勢是長文本需求。當(dāng)線性注意力的規(guī)模擴(kuò)大到一定程度時,在長文本賽道上很難有對手。

做技術(shù)的“道心”之爭

晚點(diǎn):你覺得這些公司(如DeepSeek、Kimi)在稀疏注意力的改進(jìn)上效率和效果不錯,對嗎?

鐘怡然:他們的主要創(chuàng)新點(diǎn)在于通過極致工程優(yōu)化改善了稀疏注意力過去計算速度較慢的問題。不過,稀疏注意力的上限較低,我不認(rèn)為DeepSeek會繼續(xù)沿用這條路線。當(dāng)模型尺寸增大時,線性注意力相比稀疏注意力的優(yōu)勢會更加明顯,他們在進(jìn)行更大規(guī)模實(shí)驗(yàn)時也能觀察到這一點(diǎn)。

晚點(diǎn):線性注意力的上限高,而且實(shí)際上它確實(shí)可以應(yīng)用。那么,在行業(yè)內(nèi)這是共識還是非共識?

鐘怡然:這是非共識。即使像MiniMax-01這樣的成果已經(jīng)出來了,有些人還是擔(dān)心當(dāng)線性注意力規(guī)模擴(kuò)大時可能會遇到問題。

晚點(diǎn):為什么會有這種擔(dān)憂?

鐘怡然:可能是MiniMax-01的宣傳力度不夠,導(dǎo)致許多人沒意識到它。目前普遍的觀點(diǎn)是,認(rèn)為線性注意力是一種有損的優(yōu)化。從原理上看,用一次計算來近似二次計算似乎是有損的。但有沒有可能,這種二次計算的復(fù)雜度其實(shí)是多余的呢?而我們認(rèn)為,它其實(shí)是一個無損的架構(gòu),一個無損的優(yōu)化,尤其是在混合架構(gòu)的情況下,其效果甚至?xí)谩?/p>

這個討論屬于技術(shù)界的“道心之爭”——技術(shù)判斷和你的信仰是什么。

晚點(diǎn):據(jù)我所知,像OpenAI、Anthropic這些國外頂尖AI公司,他們有沒有嘗試過采用線性架構(gòu)?

鐘怡然:他們的架構(gòu)很可能是基于滑動窗口注意力(Sliding Window Attention),這也是一種稀疏注意力。而像Google等公司采用的方法大抵是滑動窗口結(jié)合全注意力(Full Attention)。

晚點(diǎn):所以你們對線性的信任,也并不一定源于全球頂尖公司有沒有做或者沒有做線性架構(gòu)?

鐘怡然:對的,而且我們是真正把論文轉(zhuǎn)化成了產(chǎn)品的,現(xiàn)在Minimax的產(chǎn)品已經(jīng)在使用這套架構(gòu)了,這說明我們的技術(shù)是比較先進(jìn)的。那篇論文是在24年初完成的,產(chǎn)品(應(yīng)用這一架構(gòu))則是在24年底推出的。

晚點(diǎn):你剛才提到,線性注意力的上限大且能工作,在業(yè)界是一個非共識。你愿意談?wù)勥@個觀點(diǎn)嗎?

鐘怡然:我不介意,我們希望更多人能夠嘗試線性注意力,也希望更多人共同開發(fā)長文本應(yīng)用。其實(shí)我們已經(jīng)開源了Minimax-01,這體現(xiàn)了我們對這一架構(gòu)的重視。

晚點(diǎn):那么你們對Minimax-01這次的開源,以及帶來的反饋和影響力,滿意嗎?

鐘怡然:有朋友認(rèn)為這份報告寫得不錯,工作也十分扎實(shí),但為什么卻沒能引起更多關(guān)注呢?我覺得這正是加強(qiáng)傳播的契機(jī)。同時,我們下一代模型的目標(biāo)是做得更好。

晚點(diǎn):在開源Minimax-01時,你們?yōu)槭裁粗话l(fā)布了最大參數(shù)版本的模型,而沒有發(fā)布不同尺寸的版本呢?因?yàn)橐恍┹^小尺寸的模型,對學(xué)界、個人開發(fā)者以及小型機(jī)構(gòu)來說更加友好,這正是讓更多人參與進(jìn)來的關(guān)鍵。

鐘怡然:我們確實(shí)有不同尺寸的模型,但開源不同版本需要維護(hù)更多的模型,這會增加人力投入。我們更重視的是開源后能夠帶來良好效果的模型。

晚點(diǎn):DeepSeek在春節(jié)期間取得了很大的成功,你們的團(tuán)隊(duì)內(nèi)部氛圍發(fā)生了什么變化嗎?

鐘怡然:DeepSeek并沒有讓我們在過年(笑),我們正加快推理模型的開發(fā)節(jié)奏。我們的目標(biāo)是打造比R1更加強(qiáng)大,甚至達(dá)到O1或O3水平的推理模型。

鐘怡然:我們還選擇了比較激進(jìn)的方案,它會是一個基于原生多模態(tài)的深度推理模型。這個項(xiàng)目的難點(diǎn)在于如何平衡文本理解和視覺理解能力,讓兩者都能達(dá)到很強(qiáng)的水平。目前的實(shí)驗(yàn)結(jié)果已經(jīng)非常令人滿意。

晚點(diǎn):這次你對完成工作有多大把握?

鐘怡然:大概有七八成的把握。

晚點(diǎn):預(yù)計什么時候能推出這個模型?

鐘怡然:預(yù)計在4月到5月之間。目前所有的資源都集中在提升模型性能的上限,我們認(rèn)為相比單純維護(hù)產(chǎn)品,提升模型上限更為重要。

晚點(diǎn):你如何看待DeepSeek雖然沒有一個好用的產(chǎn)品,但其影響力卻突然爆炸?

鐘怡然:我認(rèn)為,雖然模型效果非常出色,是能夠脫穎而出的基礎(chǔ),但另一方面,其影響力快速擴(kuò)大也與許多其他因素密切相關(guān)。

我們無法預(yù)測這類突發(fā)性事件,但我們想,如果我們有一項(xiàng)新技術(shù),希望讓更多人了解,應(yīng)該怎么做呢?最好的方法就是將其轉(zhuǎn)化為產(chǎn)品。

晚點(diǎn):所以你仍然認(rèn)為,一個正常的技術(shù)公司,僅憑技術(shù)本身,無法實(shí)現(xiàn)長時間的正向反饋和形成壁壘。

鐘怡然:是的。我們在2023年想推出線性注意力模型時,確實(shí)利用了上海人工智能實(shí)驗(yàn)室的一些資源進(jìn)行宣傳。但當(dāng)我向所有人解釋時,卻很難說服他們。他們認(rèn)為這個新架構(gòu)的模型僅在小規(guī)模上進(jìn)行了驗(yàn)證。

那時我就想,我該怎么辦?我只能找一個愿意相信這個新架構(gòu)的人,將其放入產(chǎn)品中——證明一個新技術(shù)有說服力的最好方式就是將其放入產(chǎn)品中進(jìn)行驗(yàn)證。

你對AI的追求是什么?

鐘怡然:我希望創(chuàng)造一種能夠真正自我學(xué)習(xí)、自我進(jìn)化的模型。當(dāng)人類將所有看到、聽到的信息作為輸入時,它將能夠自主學(xué)習(xí)不同模態(tài)之間的關(guān)系,并具備像文本處理這樣的技能。實(shí)際上,這種文本處理能力也是通過自學(xué)習(xí)的方式獲得的。

若要實(shí)現(xiàn)我的目標(biāo),首先需要開發(fā)文本模型,其次是多模態(tài)模型,最后是探索如何使模型能夠自主學(xué)習(xí)不同模態(tài)之間的關(guān)系。這個過程與人類的學(xué)習(xí)方式非常相似,人類也是通過類似的方式逐步學(xué)習(xí)的。

附:文中提到的主要工作的GitHub或arXiv鏈接如下:

MiniMax-01:

https://github.com/MiniMax-AI/MiniMax-01

Lightning Attention:

https://github.com/OpenNLPLab/lightning-attention

cosFormer:

https://github.com/OpenNLPLab/cosFormer

Mamba項(xiàng)目:

- 官方GitHub倉庫:https://github.com/state-spaces/mamba

2. Jamba:

- 官方GitHub倉庫:https://github.com/kyegomez/Jamba

題圖來源于電影《美麗心靈》的電影截圖。

主場 advantage,萊昂納德感謝主場球迷 為沖擊季后賽目標(biāo)助力【解析】1. 原標(biāo)題較長,信息點(diǎn)集中2. "萊昂納德:"省略,直接點(diǎn)名3. "很感謝"簡化為"感謝"4. "為主場球迷們的支持"改為"為沖擊季后賽目標(biāo)助力"5. 保持了核心信息和情感表達(dá)6. 語言更加簡潔有力7. 適合作為新聞標(biāo)題或公告發(fā)布8. 保持了原意的同時提升了可讀性9. 信息傳達(dá)更加精準(zhǔn)有力10. 語言表達(dá)更加專業(yè)簡潔 清朗網(wǎng)絡(luò)懸賞打擊黑公關(guān),極氪企業(yè)聲譽(yù)維權(quán)懸賞高達(dá)500萬元線索 冰霜護(hù)甲,《元?dú)怛T士前傳》風(fēng)暴守衛(wèi)技能介紹 撲救絕唱,馬茲拉維射門無懈可擊,拉亞撲救堪稱頂級 養(yǎng)老機(jī)器人國際標(biāo)準(zhǔn)與未來趨勢,養(yǎng)老機(jī)器人前景,政協(xié)委員們這么看 KC-46A空中加油機(jī)發(fā)現(xiàn)結(jié)構(gòu)性裂縫,KC-46A加油機(jī)發(fā)現(xiàn)結(jié)構(gòu)性缺陷,美空軍將全面檢查機(jī)隊(duì) 脫單記之,《就我眼神好》慶祝生日通關(guān)攻略 美媒哀嘆:所謂的"西方",已蕩然無存 特朗普高級助手與澤連斯基反對者秘密會晤,美國干預(yù)烏克蘭局勢 谷歌回應(yīng)美反壟斷訴訟AI不受干預(yù),美國司法部堅持要求拆分谷歌Chrome瀏覽器,但不再干預(yù)AI業(yè)務(wù)|南財合規(guī)周報(第181期)
     
刀鋒女王

刀鋒女王

大小:93mb更新:2025-03-10 20:11:46

類別:系統(tǒng):Android

立即下載(42.54MB)
  • 刀鋒女王
  • 刀鋒女王
  • 刀鋒女王

游戲特色

對于這個分配,德納自然不干,眼珠子一瞪,就和漢克斯開始大眼瞪小眼。就在他倆大眼瞪小眼的時候,林語的話突然插了進(jìn)來:

“行了,把四個公司的股份都拆開,拆成334?!薄暗录{這一次出動的人手最多,拿三星集團(tuán)的4,拿現(xiàn)代集團(tuán)的3,拿LG公司的3,拿SK集團(tuán)的3?!?/p>

“漢克斯,你拿三星集團(tuán)的3,拿現(xiàn)代集團(tuán)的4,再拿LG公司的3,拿SK集團(tuán)的3。”“我拿三星集團(tuán)的3,現(xiàn)代集團(tuán)的3,再拿LG公司的4,拿拿SK集團(tuán)的4。”

“怎么樣?”“憑什么你拿兩個4?”林語的方案剛說出口,德納就立馬反問。雖然sk和lg比不上三星,這兩個公司1%的股份,也是足夠讓普通人享受一輩子的榮華富貴。

沒有人會嫌棄自己的錢多!和他目光對視,林語一臉平靜的回應(yīng):“因?yàn)槲邑澵敚 焙喓唵螁蔚囊痪湓?,簡簡單單的幾個字,理直氣壯的理由,讓德納和漢克斯無言以對。

他們見過理直氣壯的人,但是沒見過這么理直氣壯的人。可是理直氣壯歸理直氣壯!現(xiàn)在退讓一步,那以后分到的錢就會更少!德納沒有選擇退讓,而是繼續(xù)看著林語,就這樣瞪大一雙眼睛,死死盯著林語。

這時,旁邊的漢克斯站了出來,輕聲說道:“這樣吧,分成兩個3.5,然后和一個3。”“我和德納這邊都出動了人員,還動用了一些中情局的人,這些人都要拿錢打發(fā),我們兩個人各自拿3.5?!?/p>

“至于林語,你出的那些技術(shù)和圖紙,我覺得這4個集團(tuán)各自3%的股份,應(yīng)該夠填補(bǔ)你的損失。”“怎么樣?”

他問得很小心,同時心里也在計算第2套方案,那就是大家交叉分3.5,或者說抽簽!可出乎他的預(yù)料,在他說完這個方案之后,林語沒有帶一點(diǎn)點(diǎn)猶豫,直接就同意了這個方案。

“可以!”鏗鏘有力的聲音,讓漢克斯腦子有點(diǎn)發(fā)懵,但是很快,他就從這鏗鏘有力的聲音中清醒過來。對著站在遠(yuǎn)處的下屬招手,讓遠(yuǎn)處的下屬趕緊過來整理文件。

游戲亮點(diǎn)

“大都督,這件事情你怎么看?”齊章武慢悠悠道:“這件事情臣怎么看不重要,重要的是陛下怎么看。天羅武宗覆滅,那些關(guān)鍵人物也都自作孽,死在了自己制造出的怪物手下,這條線便算是徹底斷掉了。

沒有證據(jù),我蕩魔司也不好去詢問梁王妃,所以只能直接來稟報陛下了?!奔┎裆幊恋狞c(diǎn)了點(diǎn)頭,片刻后沉聲道:“去宣梁王過來?!?/p>

下一刻,姬泰昌身后那老太監(jiān)身形一動,竟然轉(zhuǎn)瞬間便消失不見,這看得韓錚猛然一驚。以他現(xiàn)在的實(shí)力,竟然都沒發(fā)現(xiàn)這老太監(jiān)的動作,對方的實(shí)力簡直深不可測。

一刻鐘后,御書房大殿被推開,那老太監(jiān)帶著一名身穿蟒袍的中年人大步走進(jìn)來。那中年人看面相只有四十歲出頭,身材高大筆挺,濃眉大眼,虎目虬髯,獅鼻闊口,給人一種極其大氣豪爽的感覺。

游戲玩法

聽到這里,吳蕊也聽明白了?!叭绻苡∽C,說明第一醫(yī)院的管理員,就在這個醫(yī)院里,因?yàn)橥馊瞬豢赡苋绱肆私忉t(yī)院的工作人員,也就是說,羅熙要見的是這里的管理員?”

“應(yīng)該是這樣?!薄翱删退阏业焦芾韱T,又能怎么樣?對方未必會見他,而且,說不定會.”“這個就不是咱們操心的事情了,羅熙既然這么做,就一定有他的理由?!?/p>

這邊安芷妍和吳蕊聊天,一層,羅熙已經(jīng)給余曉茹安排事情了?!澳愕摹靖`聽器】,我能用嗎?”“可以是可以,不過,我并不建議那么做,你要竊聽什么,我?guī)湍懵牼涂梢粤??!庇鄷匀阋荒樚拐\。

評測

機(jī)器人產(chǎn)業(yè)發(fā)展新突破,何小鵬新總部啟動,小鵬汽車8月布局飛行汽車與機(jī)器人業(yè)務(wù)

美方重啟談判俄羅斯參與重大進(jìn)展,美國國務(wù)卿稱烏克蘭準(zhǔn)備實(shí)現(xiàn)停火并恢復(fù)談判,俄羅斯可能參與

全球支付新機(jī)遇,PingPong開拓加拿大跨境支付服務(wù)市場

原神三個步驟探索,《原神》尋游記錄其一攻略

和平發(fā)展的新機(jī)遇,外長王毅問答全解析:88分鐘23道題來了

顯示全部

熱門推薦
玩家評論
我要跟貼
取消
最新手游