av天堂久久天堂色综合,最近中文字幕mv免费高清在线,在线a级毛片免费视频,av动漫,中文字幕精品亚洲无线码一区

微信掃一掃,關(guān)注公眾號

  • 科技行者

  • 算力行者

見證連接與計算的「力量」

首頁 QwenLong-CPRS: 阿里巴巴推出突破無限長文本窗口的動態(tài)上下文優(yōu)化技術(shù)

QwenLong-CPRS: 阿里巴巴推出突破無限長文本窗口的動態(tài)上下文優(yōu)化技術(shù)

2025-05-29 10:25
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-05-29 10:25 ? 科技行者

2025年5月,阿里巴巴旗下的千問文檔團隊發(fā)布了一項開創(chuàng)性研究——QwenLong-CPRS(Context Processing with Dynamic Reasoning System),這是一個專為長文本處理設(shè)計的上下文壓縮框架。該論文已于2025年5月23日在arXiv上發(fā)表(arXiv:2505.18092v1),研究團隊包括沈偉周、李陳亮、萬凡琦、廖勝毅等多位來自阿里巴巴集團的研究人員。論文項目已在GitHub和HuggingFace上開源,感興趣的讀者可以通過https://github.com/Tongyi-Zhiwen/QwenLong-CPRS 和 https://huggingface.co/Tongyi-Zhiwen/QwenLong-CPRS-7B 獲取更多信息。

想象一下,如果你需要閱讀一本400頁的小說,但只想找出與某個特定角色相關(guān)的內(nèi)容。傳統(tǒng)方法可能是從頭到尾翻閱整本書,或者使用目錄和索引快速定位——但這些方法要么太耗時,要么不夠精準(zhǔn)。大型語言模型(LLM)面臨著類似的挑戰(zhàn):當(dāng)處理超長文本時,它們要么受限于固定的"注意力窗口"(就像人類的短期記憶),要么在處理中間部分內(nèi)容時表現(xiàn)不佳(所謂的"迷失在中間"現(xiàn)象)。

QwenLong-CPRS就像是一個超級智能的閱讀助手,它能夠根據(jù)你的具體問題,從海量文本中精準(zhǔn)提取最相關(guān)的內(nèi)容。這項技術(shù)徹底改變了大型語言模型處理長文本的方式,不再是簡單地擴大窗口大小,而是通過智能壓縮,讓模型只關(guān)注真正重要的內(nèi)容。

傳統(tǒng)上,解決長文本處理問題主要有兩種方法:一種是檢索增強生成(RAG),就像使用搜索引擎一樣,根據(jù)查詢從長文本中檢索相關(guān)片段;另一種是稀疏注意力機制,改變模型內(nèi)部的自注意力計算方式,讓模型選擇性地關(guān)注重要的部分。這兩種方法各有優(yōu)缺點:RAG處理速度快但精度不高,稀疏注意力精度高但需要重新訓(xùn)練模型和專門的基礎(chǔ)設(shè)施。

QwenLong-CPRS開辟了一條全新的道路——動態(tài)上下文優(yōu)化。這種方法不再依賴于粗粒度的塊級檢索,而是能夠精確地選擇單個詞語級別的內(nèi)容;同時,它也不需要像稀疏注意力那樣重新訓(xùn)練整個模型,可以作為即插即用的組件與任何現(xiàn)有的語言模型配合使用。

從技術(shù)上看,QwenLong-CPRS是如何工作的呢?想象一個熟練的編輯,能夠根據(jù)讀者的需求,從一本書中精準(zhǔn)地標(biāo)記出最相關(guān)的段落、句子甚至單詞。QwenLong-CPRS就扮演著這樣的角色。它接收控制提示(類似編輯指南)、任務(wù)查詢(讀者的具體問題)和長文本(原始材料),然后通過單次前向傳播,給每個標(biāo)記(token)分配一個重要性分數(shù),從而壓縮出與任務(wù)相關(guān)的內(nèi)容。

為了實現(xiàn)這一目標(biāo),研究團隊對原有的Qwen架構(gòu)進行了四項關(guān)鍵創(chuàng)新:首先,他們引入了自然語言引導(dǎo)的動態(tài)優(yōu)化機制,使模型能夠根據(jù)自然語言指令進行不同粒度(關(guān)鍵詞、句子、段落等)的上下文壓縮;其次,他們設(shè)計了雙向推理層,增強了模型對文本邊界的感知能力;第三,他們開發(fā)了一種基于語言建模的標(biāo)記評價機制,重新利用現(xiàn)有LLM的語言建模頭來標(biāo)記標(biāo)記級別的重要性分數(shù);最后,他們實現(xiàn)了窗口并行推理,大大提高了處理效率。

研究團隊在多個基準(zhǔn)測試上評估了QwenLong-CPRS的性能。結(jié)果令人印象深刻:QwenLong-CPRS在Ruler-128K和InfiniteBench等基準(zhǔn)上顯著優(yōu)于其他上下文管理方法,平均性能提升19.15點。更令人驚訝的是,它實現(xiàn)了21.59倍的上下文壓縮率,這意味著模型可以處理原來21倍長度的文本,而不會損失性能。

最讓人興奮的是,QwenLong-CPRS與各種旗艦LLM(包括GPT-4o、Gemini2.0-pro、Claude3.7-sonnet等)集成后,都實現(xiàn)了顯著的性能提升。特別是,當(dāng)與Qwen2.5-32B-Instruct結(jié)合使用時,QwenLong-CPRS在Ruler-128K和InfiniteBench上分別超越了領(lǐng)先的專有LLM 4.85和10.88分,創(chuàng)造了新的最先進(SOTA)性能。

讓我們更深入地了解QwenLong-CPRS的工作原理。想象你正在玩一個視頻游戲,游戲中有成千上萬的物品,但在特定任務(wù)中,你只需要找到幾個關(guān)鍵物品。QwenLong-CPRS就像是一個智能助手,它能夠根據(jù)你的任務(wù)描述,快速標(biāo)記出游戲世界中最重要的物品,而忽略其他無關(guān)物品,從而大大提高你的探索效率。

在實際應(yīng)用中,QwenLong-CPRS通過一個混合架構(gòu)來實現(xiàn)這一功能:保留低層Transformer層的因果掩碼(類似于只能看到過去的信息),同時在上層使用雙向注意力(可以看到過去和未來的信息)。這種設(shè)計既保持了模型的語言建模能力,又增強了對文本邊界的感知能力。模型可以根據(jù)不同的系統(tǒng)提示(如"提取與用戶問題相關(guān)的段落"或"找出支持回答問題的句子"),動態(tài)地選擇不同粒度的內(nèi)容。

例如,當(dāng)系統(tǒng)提示要求"提取與用戶問題相關(guān)的關(guān)鍵詞"時,QwenLong-CPRS能夠精確地識別和提取文本中的關(guān)鍵詞;當(dāng)系統(tǒng)提示變?yōu)?提取支持回答問題的句子"時,它又能夠切換到句子級別的提取;當(dāng)要求"提取與查詢相關(guān)的段落或表格"時,它可以進行段落級別的壓縮。這種靈活性使得QwenLong-CPRS能夠適應(yīng)各種不同的應(yīng)用場景。

研究團隊還設(shè)計了一種創(chuàng)新的訓(xùn)練數(shù)據(jù)構(gòu)建方法,包括多粒度上下文優(yōu)化數(shù)據(jù)和查詢感知上下文優(yōu)化數(shù)據(jù)。前者關(guān)注如何根據(jù)系統(tǒng)提示自適應(yīng)地壓縮長文本,后者則專注于提高查詢-上下文交互理解能力。這種雙重訓(xùn)練策略使模型能夠同時發(fā)展一般上下文感知能力和針對性的查詢-響應(yīng)對齊能力。

在實驗部分,研究團隊將QwenLong-CPRS與多種基線方法進行了比較,包括專有LLM(如Qwen2.5-Max、GPT-4o等)、開源LLM(如Qwen2.5-7b/32b/72b-instruct等)、RAG和稀疏注意力方法。結(jié)果顯示,QwenLong-CPRS在多個長文本基準(zhǔn)上都取得了顯著的性能提升,特別是在文本長度超過標(biāo)準(zhǔn)LLM容量限制的極端長度場景中。

例如,在Ruler-128K基準(zhǔn)上,增強了QwenLong-CPRS的LLaMA3.1-8b-Instruct、Qwen2.5-7b-Instruct和Qwen2.5-32b-Instruct分別實現(xiàn)了39.72、55.79和19.26的性能提升;在InfiniteBench上,這三個模型也分別獲得了13.30、21.95和18.83的提升。更令人印象深刻的是,增強了QwenLong-CPRS的開源模型在Ruler-128K和InfiniteBench上超越了專有LLM,創(chuàng)造了新的最先進性能。

此外,QwenLong-CPRS還大大提高了處理效率。在延遲分析中,研究團隊比較了四種系統(tǒng)配置:直接使用Qwen2.5-7b-instruct、RAG增強實現(xiàn)、Minference稀疏注意力集成和QwenLong-CPRS級聯(lián)架構(gòu)。結(jié)果顯示,QwenLong-CPRS在128K標(biāo)記處理時實現(xiàn)了3.47倍的加速,遠優(yōu)于Minference的1.42倍。

讓我們以一個具體例子來說明QwenLong-CPRS的強大能力。在"Needle-in-a-Haystack"測試中,QwenLong-CPRS增強的Qwen2.5-7b-Instruct在各種深度變化(0%到100%)和上下文長度(32K到1M標(biāo)記)下都實現(xiàn)了完美的準(zhǔn)確率,匹配了當(dāng)代宣稱擁有超過1M標(biāo)記容量的LLM和代理系統(tǒng)的性能。

總的來說,QwenLong-CPRS通過動態(tài)上下文優(yōu)化范式解決了大型語言模型處理長文本的兩個關(guān)鍵挑戰(zhàn):計算復(fù)雜性和"迷失在中間"現(xiàn)象。它不僅提高了性能,還大大減少了計算開銷,使小型、短上下文LLM能夠通過優(yōu)化上下文達到與專業(yè)長上下文LLM相當(dāng)?shù)男阅埽瑸橘Y源高效的部署提供了可能。

未來,研究團隊計劃進一步提高計算效率、增強全局上下文感知能力,并擴展框架的應(yīng)用范圍,將其作為長鏈推理壓縮和代理系統(tǒng)等多樣化用例的基礎(chǔ)組件。

QwenLong-CPRS的出現(xiàn),標(biāo)志著大型語言模型朝著真正處理無限長文本的能力邁出了重要一步。通過智能地優(yōu)化上下文,而不是簡單地擴大窗口大小,這項技術(shù)開創(chuàng)了一條更加高效、靈活的路徑,為未來的長文本處理技術(shù)發(fā)展指明了方向。

分享至
1贊

好文章,需要你的鼓勵

推薦文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-