- 獲取攻略揭秘,《七日世界》雙倍怒火獲取方法
- 探索游戲資源獲取秘訣,《創(chuàng)造吧我們的星球》角椒獲取攻略
- 探索奇遇之旅,《下一站江湖2》枰櫨奇遇解密攻略
- 攻略指南揭秘,《崩壞:星穹鐵道》斯科特談判通關(guān)攻略
- 揭開游戲秘辛,《七日世界》短劍冰雨獲取方法
- 探索游戲樂趣,《心動小鎮(zhèn)手游》奶酪蛋糕食譜配方一覽
- 揭秘地圖資源,《行荒之路》東威爾鎮(zhèn)地圖探索一覽
- 《下一站江湖2》降龍心決獲取攻略
- 兌換攻略指南,《心動小鎮(zhèn)》月光水晶兌換攻略
- 游戲攻略揭秘,《七日世界》迷霧奇遇通關(guān)攻略
聲明:本文來自于(ID:ykqsd.com)授權(quán)轉(zhuǎn)載發(fā)布。
機器之心由
機器之心編輯
在 ChatGPT 爆火兩年多的時間里,大語言模型的上下文窗口長度基準線被拉升,以此為基礎(chǔ)所構(gòu)建的長 CoT 推理、多 Agent 協(xié)作等類型的高級應(yīng)用也逐漸增多。
隨之而來的是,長文本推理速度被提出更高要求,而基于現(xiàn)有 Transformer 架構(gòu)的模型受限于注意力機制的二次方復(fù)雜度,難以在較短時延內(nèi)處理超長文本請求。
針對這一痛點,清華大學 NLP 實驗室聯(lián)手中南大學、北京郵電大學以及騰訊微信 AI 實驗室取得了突破,共同提出了APB 框架—— 其核心是一個整合了稀疏注意力機制的序列并行推理框架,通過整合局部 KV 緩存壓縮方式以及精簡的跨 GPU 通信機制,解決了長上下文遠距離語義依賴問題,在無性能損失的前提下大幅度提升超長文本預(yù)填充的效率。
在 128K 文本上,APB 能夠出色地平衡性能與速度,達到相較于傳統(tǒng) Flash Attention 約 10 倍的加速比,在多種任務(wù)上甚至具有超越完整 Attention 計算的性能;與英偉達提出的同為分布式設(shè)定下的Star Attention 相比,APB 也能達到 1.6 倍加速比,在性能、速度以及整體計算量上均優(yōu)于 Star Attention。
這一方法主要用于降低處理長文本請求的首 token 響應(yīng)時間。未來,APB 有潛力運用在具有低首 token 響應(yīng)時間要求的模型服務(wù)上,實現(xiàn)大模型服務(wù)層對長文本請求的高效處理。
瓶頸:加速長文本預(yù)填充效率
長文本預(yù)填充的效率受到計算的制約。由于注意力機制的計算量與序列長度呈二次方關(guān)系,長文本的計算通常是計算瓶頸的。主流加速長文本預(yù)填充的路線有兩種,提升并行度減少計算
然而,簡單地提升并行度和減少計算并不能在加速長文本預(yù)填充上取得足夠的效果。若要將二者結(jié)合又具有極大挑戰(zhàn),這是因為稀疏注意力機制中,決定計算何處注意力通常需要完整輸入序列的信息。在序列并行框架中,每個 GPU 僅持有部分 KV 緩存,無法在不通過大規(guī)模通信的前提下獲得足夠的全局信息來壓縮注意力的計算。
針對這一問題,現(xiàn)有研究提出了兩種關(guān)鍵方法:英偉達提出的 Star Attention 通過去除序列并行中的所有通信,僅計算 GPU 局部區(qū)域的注意力,但這種簡化策略導(dǎo)致顯著的計算效率損失。另一項研究由卡內(nèi)基梅隆大學提出,即 APE 方法,專注于 RAG 桅ma場景下的長文本預(yù)填充加速,通過均勻劃分上下文、縮放注意力計算并調(diào)整 Softmax 溫度,實現(xiàn)了并行編碼。然而,該方法在處理需要遠距離依賴的文本時仍存在一定效率損失。
與上述方法相比,APB 通過創(chuàng)新設(shè)計面向序列并行的低通信稀疏注意力機制,成功構(gòu)建了一個在計算效率和性能表現(xiàn)上均更優(yōu)的長文本加速框架,該框架能夠很好地適應(yīng)通用長文本任務(wù)。
APB:面向序列并行的稀疏注意力機制
相較于現(xiàn)有研究,APB 通過以下方式提出了一種創(chuàng)新的面向序列并行框架的稀疏注意力機制:
以該機制為基礎(chǔ),APB 的推理過程如下:
該方法顯著提升了長文本推理速度的同時保持了較高的計算效率。
研究團隊采用了 Llama-3.1-8B-instruct、Qwen-2.5-14B-instruct 以及 Yi-34B-200K 模型,在 InfiniteBench 和 RULER 平臺上進行了系統(tǒng)評估,全面考察了任務(wù)性能(%)和推理速度(tok/s)指標。
從實驗結(jié)果來看,F(xiàn)lash Attention 作為無序列并行的精準注意力算法,在任務(wù)性能方面表現(xiàn)優(yōu)異,但推理速度最慢;而 Ring Attention 和 Ulysses 作為序列并行的精準注意力算法,通過優(yōu)化并行度顯著提升了推理速度;MInference 作為一種無序列并行的稀疏注意力機制,在性能上也存在一定局限性;Star Attention 則作為序列并行與稀疏注意力結(jié)合的初始嘗試,在推理速度上表現(xiàn)尚可,但計算效率明顯下降。
相較于上述基線算法,APB 在多種模型和任務(wù)場景中展現(xiàn)出更優(yōu)的性能表現(xiàn)和更快的推理速度。這表明,APB 方法實現(xiàn)了計算效率與推理速度的最佳平衡。
此外,研究團隊在不同數(shù)據(jù)長度的場景下對 APB 與基線算法的性能表現(xiàn)和推理速度進行了全面評估,并提供了整體計算量的數(shù)據(jù)支持,結(jié)果表明 APB 在各類場景中均展現(xiàn)出顯著的優(yōu)勢。
From the figure, it can be observed that APB demonstrates superior task performance and inference speed across various input lengths. The speed advantage becomes more pronounced as the input sequence lengthens. APB achieves this improvement because it requires fewer computations, with the computational efficiency gap widening as the sequence becomes longer.
Additionally, researchers conducted a pre-filled time decomposition analysis on both APB and baseline algorithms and found that leveraging sequence parallelism can significantly reduce the time spent on attention and feed-forward (FFN) operations.
Furthermore, the sparse attention mechanism in APB allows for further reduction in attention time. The Star Attention mechanism, however, suffers from significant extra overhead due to its large anchor block, while APB mitigates this issue by utilizing passing blocks to transmit long-range semantic dependencies, thereby enabling a much smaller anchor block size and reducing the extra overhead at the FFN stage.
APB exhibits excellent compatibility, being adaptable to different distributed settings (e.g., number of GPUs) and various model sizes. It achieves impressive performance and inference speed across multiple model configurations and distributed setups.
**Biography of Core Authors**
- **Yuxiang Huang**: An undergraduate student in the fourth year at Tsinghua University, currently a Ph.D. candidate candidate in the 2025 intake at the THUNLP Lab, advised by Prof. Liu Zhiyuan. He has previously participated in projects such as MiniCPM, model efficient fine-tuning, and speculative sampling. His primary research interests revolve around constructing efficient large-model inference systems, with a focus on model compression, speculative sampling, and fast inference techniques for long-text sparse retrieval.
- **Mingyue Li**: An undergraduate student in their third year at Central South University, who joined the THUNLP Lab as an intern in June 2024. He has been involved in the speculative sampling project. His main research interests include accelerating large-model inference, particularly techniques such as speculative sampling and acceleration methods for long-text retrieval.
輕松獲取金色船員,《龍8外傳》桐生一馬最快獲取方法解析 NVIDIA領(lǐng)漲AI板塊狂飆南向資金介入,利空影響持續(xù)!港股和AI板塊午盤暴跌,美股也遭殃。 痔瘡手術(shù)何時適合,痔瘡手術(shù)的哪些情況?痔瘡患者必看健康科普! 如何選擇專精方向黑星勇者專精系統(tǒng)全解析,《黑星勇者成名錄》專精選擇攻略 軍團玩法,《三國問鼎山河》軍團玩法介紹 天塹沙原的閃光彈大本營,怪物獵人荒野光蟲光蟲收集技巧 如何在簡單飛機APP中下載游戲地圖,《簡單飛機》下載地圖手機版 免費多人機甲射擊,戰(zhàn)爭機器人前線官網(wǎng)地址在哪里-War Robots Frontiers游戲官網(wǎng)地址查詢 2023年2月三亞機場旅客吞吐量創(chuàng)新高,三亞鳳凰國際機場2月旅客吞吐量再創(chuàng)歷史新高,達239.15萬人次 捕捉《怪物獵人荒野》中的皇帝蚱蜢超低難度技巧,怪物獵人荒野皇帝蚱蜢獲取方法全解析