在人工智能快速發(fā)展的今天,如何公平、準(zhǔn)確地評估大型語言模型(LLM)的真實(shí)能力已成為一個(gè)關(guān)鍵問題。2025年6月,來自中國科學(xué)院自動(dòng)化研究所和清華大學(xué)的研究團(tuán)隊(duì)聯(lián)合發(fā)表了一篇題為《通過捷徑神經(jīng)元分析建立可信的LLM評估》(Establishing Trustworthy LLM Evaluation via Shortcut Neuron Analysis)的研究論文,為解決這一難題提供了全新視角。該論文由朱科健、涂尚清(共同第一作者)、金卓然、侯磊、李娟子(通訊作者)和趙軍(通訊作者)共同完成,目前已在arXiv上發(fā)布(arXiv:2506.04142v1)。感興趣的讀者可通過項(xiàng)目GitHub頁面(https://github.com/GaryStack/Trustworthy-Evaluation)獲取相關(guān)代碼。
想象一下,你正在參加一場考試,發(fā)現(xiàn)有些同學(xué)之前已經(jīng)見過試題,甚至記住了答案。這種情況下,考試還能公平地評估大家的真實(shí)能力嗎?在大型語言模型的世界里,也存在類似的問題。當(dāng)模型在訓(xùn)練過程中"偶遇"了測試數(shù)據(jù),就會(huì)產(chǎn)生所謂的"數(shù)據(jù)污染"(data contamination)問題,導(dǎo)致評估結(jié)果不再可信。
研究團(tuán)隊(duì)發(fā)現(xiàn),目前對大型語言模型的評估主要存在兩大可信度問題:一是模型行為捷徑,即模型可能沒有進(jìn)行真正的推理,而是利用訓(xùn)練中記住的捷徑直接給出答案;二是輸入格式捷徑,即模型可能適應(yīng)了特定測試集的輸入格式,而非真正理解問題。這些問題嚴(yán)重影響了評估的公平性和可信度。
以往的研究主要通過構(gòu)建動(dòng)態(tài)基準(zhǔn)測試集來緩解污染問題,但這種方法既耗費(fèi)資源,又無法從根本上解決問題。而這個(gè)研究團(tuán)隊(duì)別出心裁,他們沒有去不斷創(chuàng)建新的測試集,而是直接研究模型內(nèi)部機(jī)制,找出那些導(dǎo)致模型"作弊"的"捷徑神經(jīng)元"。
想象一下,如果大腦中某些特定的神經(jīng)元負(fù)責(zé)記憶考試答案,而另一些負(fù)責(zé)真正的思考,那么我們能否通過"暫時(shí)關(guān)閉"那些純記憶的神經(jīng)元,來測試一個(gè)人的真實(shí)思考能力?這正是研究團(tuán)隊(duì)的核心思路。
他們發(fā)現(xiàn),當(dāng)模型在訓(xùn)練中接觸過測試數(shù)據(jù)時(shí),會(huì)形成一批特殊的"捷徑神經(jīng)元",這些神經(jīng)元使模型能夠在不進(jìn)行真正推理的情況下,直接"記憶"出正確答案。更有趣的是,這些捷徑神經(jīng)元數(shù)量相對較少,在整個(gè)模型的神經(jīng)元中僅占約1%左右。
基于這一發(fā)現(xiàn),研究團(tuán)隊(duì)提出了一種名為"捷徑神經(jīng)元修補(bǔ)"的評估方法。通過識別并抑制這些捷徑神經(jīng)元的活動(dòng),他們成功地恢復(fù)了模型的真實(shí)能力表現(xiàn)。就像暫時(shí)屏蔽了"作弊神經(jīng)元",讓模型必須依靠真正的理解和推理能力來解決問題。
更令人興奮的是,這種方法與最近發(fā)布的可信基準(zhǔn)測試(如MixEval)結(jié)果高度一致,相關(guān)系數(shù)超過0.95,證明了該方法的可靠性。同時(shí),研究還證明了該方法在不同基準(zhǔn)測試和不同超參數(shù)設(shè)置下都具有良好的通用性。
接下來,讓我們一起深入了解這項(xiàng)創(chuàng)新研究的細(xì)節(jié),看看研究團(tuán)隊(duì)是如何發(fā)現(xiàn)并利用這些"捷徑神經(jīng)元"來構(gòu)建更可信的評估體系的。
一、研究背景:為什么需要可信的語言模型評估?
在人工智能領(lǐng)域,大型語言模型(如GPT-4、Llama等)的迅猛發(fā)展令人目不暇接。這些模型在各種復(fù)雜任務(wù)上展現(xiàn)出驚人的能力,而開源技術(shù)的推廣更是催生了眾多新模型的涌現(xiàn)。在這樣的背景下,如何公平、準(zhǔn)確地評估這些模型的能力變得尤為重要,因?yàn)樵u估結(jié)果將直接影響未來語言模型的發(fā)展方向。
想象一下,如果你要比較兩個(gè)廚師的烹飪能力,最公平的方式是讓他們烹飪相同的菜品,且都是他們之前沒有準(zhǔn)備過的。但如果其中一位廚師恰好之前練習(xí)過這道菜,甚至拿到了詳細(xì)的食譜,那么比賽結(jié)果還具有參考價(jià)值嗎?這正是目前語言模型評估面臨的核心問題。
研究團(tuán)隊(duì)指出,當(dāng)前最迫切需要解決的是評估的可信度問題。由于大型語言模型通常使用海量且不透明的數(shù)據(jù)進(jìn)行訓(xùn)練,很難確保這些訓(xùn)練數(shù)據(jù)中不包含用于評估的基準(zhǔn)測試集樣本。一旦發(fā)生這種"數(shù)據(jù)污染",模型在測試時(shí)可能是在"回憶"而非"思考",這將嚴(yán)重影響評估的公平性。
具體來說,當(dāng)前的評估存在兩個(gè)主要的可信度問題:首先是模型行為捷徑。端到端的語言模型在解決復(fù)雜問題時(shí),中間推理過程往往是不透明的。我們無法確定模型是真的完成了可靠的推理過程,還是走了某種推理捷徑。其次是輸入格式捷徑。目前的基準(zhǔn)測試集通常有固定的輸入格式,與真實(shí)世界的詢問方式不同。那些在基準(zhǔn)測試集上(甚至是訓(xùn)練集)進(jìn)行過微調(diào)的模型在評估時(shí)會(huì)占據(jù)優(yōu)勢,這也不夠公平。
以往的研究主要通過構(gòu)建動(dòng)態(tài)基準(zhǔn)測試集來緩解污染問題,比如使用最新文本創(chuàng)建的基準(zhǔn)測試集或動(dòng)態(tài)生成的測試問題。然而,這種策略不僅資源密集,而且由于語言模型不斷更新,確保這些基準(zhǔn)測試集的時(shí)效性仍然是一個(gè)重大挑戰(zhàn)。更重要的是,這種方法并沒有從根本上消除新發(fā)布模型受污染的風(fēng)險(xiǎn)。
正是基于對這些問題的深刻理解,研究團(tuán)隊(duì)提出了一個(gè)全新的視角:不是不斷地創(chuàng)建新的測試集,而是直接研究受污染模型的內(nèi)部機(jī)制。他們假設(shè),當(dāng)模型在訓(xùn)練中接觸過基準(zhǔn)測試樣本時(shí),會(huì)在參數(shù)中獲取捷徑解決方案,從而導(dǎo)致模型能力被高估。通過實(shí)驗(yàn),他們發(fā)現(xiàn)這些捷徑表現(xiàn)為模型中的特定神經(jīng)元群,也就是所謂的"捷徑神經(jīng)元"。
這種發(fā)現(xiàn)開辟了一條全新的研究路徑:如果能夠識別并抑制這些捷徑神經(jīng)元,或許就能夠恢復(fù)模型的真實(shí)能力表現(xiàn),從而實(shí)現(xiàn)更可信的評估。
二、捷徑神經(jīng)元:模型"過度自信"的秘密武器
在深入理解研究團(tuán)隊(duì)的創(chuàng)新方法之前,我們需要先了解一下什么是"捷徑神經(jīng)元"以及它們是如何影響模型評估的。
想象一下,在學(xué)??荚囍校行W(xué)生可能提前看到了試題,他們不需要理解知識點(diǎn)就能回答正確。而在語言模型的世界里,當(dāng)模型在訓(xùn)練過程中"偶遇"了測試數(shù)據(jù)時(shí),也會(huì)形成類似的"捷徑"——它們不需要真正理解問題或進(jìn)行復(fù)雜推理,就能直接"回憶"出正確答案。
研究團(tuán)隊(duì)通過實(shí)驗(yàn)發(fā)現(xiàn),這種"作弊"行為在神經(jīng)網(wǎng)絡(luò)層面上表現(xiàn)為特定神經(jīng)元的異常活躍。就像人腦中負(fù)責(zé)記憶與負(fù)責(zé)思考的神經(jīng)元不同,語言模型中也存在一些神經(jīng)元主要負(fù)責(zé)"記憶"訓(xùn)練數(shù)據(jù),而另一些則負(fù)責(zé)真正的"推理"能力。
具體來說,在Transformer架構(gòu)的語言模型中(如LLaMA和Mistral等),每一層都包含多頭注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)。前饋神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元(特別是激活前下投影的神經(jīng)元)對信息處理至關(guān)重要。研究表明,這些神經(jīng)元往往與模型的特定能力密切相關(guān),比如有的負(fù)責(zé)存儲(chǔ)事實(shí)知識,有的則與特定語言技能相關(guān)。
研究團(tuán)隊(duì)發(fā)現(xiàn),當(dāng)模型受到污染時(shí),一小部分神經(jīng)元會(huì)表現(xiàn)出特殊的激活模式。這些"捷徑神經(jīng)元"使模型能夠繞過正常的推理過程,直接獲取答案。更令人驚訝的是,這些捷徑神經(jīng)元相對稀疏,在整個(gè)模型的神經(jīng)元中僅占約1.4%(LLaMA2-7B)到1.1%(Mistral-7B)。
為了驗(yàn)證這一發(fā)現(xiàn),研究團(tuán)隊(duì)進(jìn)行了一系列實(shí)驗(yàn)。他們首先微調(diào)了一系列受污染和未受污染的模型,然后觀察隨著修補(bǔ)的神經(jīng)元數(shù)量增加,模型準(zhǔn)確率的變化。結(jié)果顯示,在修補(bǔ)約5,000個(gè)神經(jīng)元后,受污染模型的準(zhǔn)確率大致降至與未受污染模型相同的水平,而未受污染模型的準(zhǔn)確率幾乎沒有變化。當(dāng)修補(bǔ)超過20,000個(gè)神經(jīng)元時(shí),兩種模型的準(zhǔn)確率都開始下降,這表明前5,000個(gè)神經(jīng)元對緩解模型污染有很好的效果。
這一發(fā)現(xiàn)無疑是激動(dòng)人心的:通過識別并抑制這些捷徑神經(jīng)元,我們或許能夠"剝離"模型中的污染效應(yīng),還原其真實(shí)能力表現(xiàn)。就像在考試中,即使有學(xué)生曾經(jīng)看過試題,我們也能通過特殊的"反作弊"機(jī)制,評估他們的真實(shí)水平。
三、方法論:如何識別和抑制捷徑神經(jīng)元
研究團(tuán)隊(duì)提出了一種創(chuàng)新的方法來識別和抑制捷徑神經(jīng)元,從而實(shí)現(xiàn)更可信的評估。這個(gè)方法就像一位睿智的考官,能夠分辨出學(xué)生是真正理解了知識,還是僅僅在背誦標(biāo)準(zhǔn)答案。
首先,研究團(tuán)隊(duì)需要識別哪些神經(jīng)元是捷徑神經(jīng)元。他們基于兩個(gè)關(guān)鍵指標(biāo):比較分析和因果分析。
比較分析就像對比兩位學(xué)生解題時(shí)的思考過程。當(dāng)一個(gè)學(xué)生真正理解了問題,而另一個(gè)學(xué)生只是記住了答案時(shí),他們的思考方式會(huì)有明顯差異。同樣,研究團(tuán)隊(duì)通過比較受污染模型和未受污染模型處理相同基準(zhǔn)樣本時(shí)的神經(jīng)元激活差異,來識別可能與記憶捷徑相關(guān)的神經(jīng)元。
具體來說,對于給定的神經(jīng)元,他們計(jì)算受污染模型和未受污染模型在處理同一輸入時(shí)的激活值差異。差異越大的神經(jīng)元,越可能與污染相關(guān)。這就像找出哪些思考區(qū)域在"作弊"學(xué)生和"認(rèn)真學(xué)習(xí)"學(xué)生之間存在最大差異。
因果分析則更像一場"思維實(shí)驗(yàn)",檢驗(yàn)特定神經(jīng)元對模型表現(xiàn)的影響。研究團(tuán)隊(duì)使用了一種稱為"激活修補(bǔ)"的技術(shù),分析每個(gè)神經(jīng)元的因果效應(yīng)。一個(gè)神經(jīng)元被識別為捷徑神經(jīng)元需要滿足兩個(gè)因果效應(yīng):一是修補(bǔ)后能夠恢復(fù)受污染模型的真實(shí)得分,二是不會(huì)影響模型的正常能力。
想象一下,如果暫時(shí)"關(guān)閉"某個(gè)神經(jīng)元后,"作弊"學(xué)生的表現(xiàn)突然變差,而"認(rèn)真學(xué)習(xí)"學(xué)生的表現(xiàn)基本不變,那么這個(gè)神經(jīng)元很可能是專門用于"記憶答案"的。研究團(tuán)隊(duì)正是基于這種思路,計(jì)算了每個(gè)神經(jīng)元的"因果得分"。
結(jié)合比較分析和因果分析的結(jié)果,研究團(tuán)隊(duì)成功識別出了一組捷徑神經(jīng)元。這些神經(jīng)元主要負(fù)責(zé)模型在受污染數(shù)據(jù)上的過度表現(xiàn),但對模型的真實(shí)能力影響較小。
接下來,研究團(tuán)隊(duì)提出了"捷徑神經(jīng)元修補(bǔ)"評估方法。這個(gè)方法的核心思想是:使用基礎(chǔ)模型(未受污染的原始模型)中相應(yīng)神經(jīng)元的激活值,來替換待評估模型中捷徑神經(jīng)元的激活值,從而抑制捷徑神經(jīng)元的影響。
這就像在考試中,我們讓學(xué)生使用標(biāo)準(zhǔn)的思考過程,而不是依賴記憶的捷徑。通過這種方式,受污染模型被迫依靠真正的理解和推理能力來解決問題,而非簡單地"回憶"訓(xùn)練中見過的答案。
具體實(shí)現(xiàn)上,研究團(tuán)隊(duì)采用了動(dòng)態(tài)修補(bǔ)方法。在生成過程中,他們使用基礎(chǔ)模型的神經(jīng)元激活值來替換待評估模型中捷徑神經(jīng)元的激活值,而其他神經(jīng)元保持不變。這種方法能夠有效抑制模型利用捷徑產(chǎn)生答案,從而更準(zhǔn)確地反映模型的真實(shí)能力。
四、實(shí)驗(yàn)結(jié)果:捷徑神經(jīng)元修補(bǔ)的驚人效果
為了驗(yàn)證他們的方法是否有效,研究團(tuán)隊(duì)在LLaMA和Mistral兩種流行的語言模型架構(gòu)上進(jìn)行了廣泛的實(shí)驗(yàn)。他們微調(diào)了一系列受污染和未受污染的模型,然后應(yīng)用捷徑神經(jīng)元修補(bǔ)方法進(jìn)行評估。
首先,他們測試了這種方法在處理模型行為捷徑方面的效果。實(shí)驗(yàn)結(jié)果令人印象深刻:受污染模型在修補(bǔ)后的表現(xiàn)顯著下降,平均下降幅度達(dá)到37%。這表明該方法能夠有效緩解污染影響,提高模型行為的可信度。同時(shí),未受污染模型的準(zhǔn)確率僅變化約3%,證明該方法對模型的正常推理能力影響很小。
想象一下,這就像一場特殊的考試,能夠準(zhǔn)確區(qū)分哪些學(xué)生是真正掌握了知識,哪些學(xué)生只是記住了答案。那些"作弊"的學(xué)生成績會(huì)大幅下降,而真正有實(shí)力的學(xué)生則基本不受影響。
研究團(tuán)隊(duì)還選擇了最近發(fā)布的OpenMathInstruct-2數(shù)學(xué)問題數(shù)據(jù)集作為未受污染的參考基準(zhǔn)。結(jié)果顯示,通過捷徑神經(jīng)元修補(bǔ)獲得的分?jǐn)?shù)與參考分?jǐn)?shù)之間存在強(qiáng)烈的正相關(guān),斯皮爾曼相關(guān)系數(shù)高達(dá)0.970。這證明了該方法能夠通過避免污染帶來的捷徑,實(shí)現(xiàn)更可信的評估。
其次,研究團(tuán)隊(duì)測試了該方法在處理輸入格式捷徑方面的效果。實(shí)驗(yàn)結(jié)果表明,那些在基準(zhǔn)測試集輸入格式上進(jìn)行過微調(diào)的模型(例如在GSM8K訓(xùn)練集上微調(diào)的模型)在修補(bǔ)后準(zhǔn)確率也有所下降。這表明該方法能夠緩解輸入捷徑,控制由于輸入格式而非模型能力帶來的增益。
為了驗(yàn)證該方法是否會(huì)影響模型的正常能力,研究團(tuán)隊(duì)還在數(shù)學(xué)基準(zhǔn)測試MAWPS和綜合基準(zhǔn)測試MMLU上評估了修補(bǔ)后的模型。結(jié)果顯示,模型的準(zhǔn)確率沒有顯著變化,這表明該方法不會(huì)對語言模型的真實(shí)表現(xiàn)產(chǎn)生負(fù)面影響。
此外,研究團(tuán)隊(duì)還在真實(shí)世界的應(yīng)用中測試了他們的方法。他們從Hugging Face上下載了一系列真實(shí)世界的模型進(jìn)行評估,并選擇了最近發(fā)布的可信基準(zhǔn)測試MixEval(一個(gè)與真實(shí)用戶查詢相符的動(dòng)態(tài)基準(zhǔn))作為參考。結(jié)果再次驗(yàn)證了他們方法的有效性:評估結(jié)果與MixEval分?jǐn)?shù)之間存在強(qiáng)烈的線性相關(guān),斯皮爾曼相關(guān)系數(shù)超過0.95。這意味著,通過捷徑神經(jīng)元修補(bǔ)獲得的評估結(jié)果能夠可靠地反映模型在真實(shí)世界中的表現(xiàn)。
最后,研究團(tuán)隊(duì)還進(jìn)行了一系列實(shí)驗(yàn),證明了他們的評估方法在不同基準(zhǔn)測試和不同超參數(shù)設(shè)置下都具有良好的通用性。即使改變污染樣本的出現(xiàn)頻率和微調(diào)學(xué)習(xí)率等因素,該方法仍能與MixEval結(jié)果保持強(qiáng)相關(guān),展示了其魯棒性。
五、方法的通用性與適用性
任何一種評估方法的價(jià)值,都在于它能否廣泛應(yīng)用于不同的場景和模型。研究團(tuán)隊(duì)通過一系列實(shí)驗(yàn),證明了他們的捷徑神經(jīng)元修補(bǔ)方法具有出色的通用性。
首先,在不同數(shù)據(jù)集上的通用性。研究團(tuán)隊(duì)希望在一個(gè)數(shù)據(jù)集(如GSM8K)上識別的捷徑神經(jīng)元,能夠有效應(yīng)用于其他受污染的數(shù)據(jù)集。為了驗(yàn)證這一點(diǎn),他們將污染數(shù)據(jù)集更換為MAWPS和MATH,觀察之前為GSM8K識別的捷徑神經(jīng)元是否仍然有效。
結(jié)果令人鼓舞:即使在MAWPS和MATH這樣的不同數(shù)據(jù)集上,之前識別的捷徑神經(jīng)元仍然能夠幫助實(shí)現(xiàn)可信評估。這就像一種通用的"反作弊"機(jī)制,不僅能識別數(shù)學(xué)考試中的作弊行為,還能應(yīng)用于物理、化學(xué)等不同科目的考試。
其次,在不同超參數(shù)設(shè)置下的通用性。研究團(tuán)隊(duì)改變了多種訓(xùn)練策略(如學(xué)習(xí)率)和污染樣本的出現(xiàn)頻率,測試了他們的方法在不同設(shè)置下的表現(xiàn)。即使在這些變化下,他們的方法仍然能夠給出與模型真實(shí)能力高度相關(guān)的評估結(jié)果,與MixEval分?jǐn)?shù)保持強(qiáng)相關(guān)。
此外,研究團(tuán)隊(duì)還評估了該方法應(yīng)用于不同架構(gòu)的有效性。他們將方法擴(kuò)展到LLaMA3-8B架構(gòu)上,成功識別出了這一架構(gòu)中的捷徑神經(jīng)元,并通過實(shí)驗(yàn)證明了方法的有效性。結(jié)果表明,該方法在LLaMA3-8B上也表現(xiàn)良好,能夠有效降低受污染模型的表現(xiàn)到正常水平,同時(shí)保持未受污染模型的原始表現(xiàn)。
最后,研究團(tuán)隊(duì)還測試了訓(xùn)練數(shù)據(jù)順序?qū)Ψ椒ㄐЧ挠绊?。他們在SFT階段隨機(jī)打亂了污染樣本的順序,構(gòu)建了新的受污染模型,然后使用之前識別的捷徑神經(jīng)元進(jìn)行修補(bǔ)。結(jié)果顯示,即使改變了訓(xùn)練數(shù)據(jù)的順序,該方法仍然能夠?qū)崿F(xiàn)可靠的評估。
這些實(shí)驗(yàn)結(jié)果充分證明了捷徑神經(jīng)元修補(bǔ)方法的強(qiáng)大通用性和適應(yīng)性。無論是不同的數(shù)據(jù)集、不同的超參數(shù)設(shè)置、不同的模型架構(gòu),還是不同的訓(xùn)練數(shù)據(jù)順序,該方法都能夠有效識別和抑制捷徑神經(jīng)元,實(shí)現(xiàn)更可信的評估。
六、研究意義與未來展望
這項(xiàng)研究的意義遠(yuǎn)超出學(xué)術(shù)范疇,它為大型語言模型的評估提供了一個(gè)全新的視角和方法。
首先,這是首次從神經(jīng)元層面分析模型在受污染后分?jǐn)?shù)超過其真實(shí)能力的機(jī)制。研究團(tuán)隊(duì)提出了捷徑假設(shè),并通過實(shí)驗(yàn)證明了這一假設(shè)的合理性。這不僅加深了我們對語言模型內(nèi)部工作機(jī)制的理解,也為解決評估可信度問題提供了理論基礎(chǔ)。
其次,研究團(tuán)隊(duì)提出了一種通過比較和因果分析識別神經(jīng)元的新方法,成功分離出與捷徑推理密切相關(guān)的稀疏神經(jīng)元集合。這種方法不僅適用于評估場景,也可能在模型解釋性研究中發(fā)揮重要作用。
最重要的是,研究團(tuán)隊(duì)引入了捷徑神經(jīng)元修補(bǔ)方法,通過抑制捷徑神經(jīng)元來實(shí)現(xiàn)更可信的評估。這種方法不需要不斷創(chuàng)建新的測試集,也不需要獲取模型的訓(xùn)練數(shù)據(jù),只需要分析模型本身,就能有效緩解污染問題。這大大降低了可信評估的成本和難度。
盡管這項(xiàng)研究取得了顯著成果,但研究團(tuán)隊(duì)也坦誠地指出了一些局限性。由于計(jì)算資源的限制,他們只討論了兩種架構(gòu)(LLaMA2-7B和Mistral-7B-v0.2)。未來,他們計(jì)劃將研究擴(kuò)展到更多架構(gòu)。此外,在模擬實(shí)驗(yàn)中,他們使用了全參數(shù)微調(diào)來獲取模型,而非預(yù)訓(xùn)練,這也是一個(gè)需要在未來工作中改進(jìn)的方面。
研究團(tuán)隊(duì)的實(shí)驗(yàn)主要在數(shù)學(xué)推理基準(zhǔn)測試上進(jìn)行,他們認(rèn)為這些是數(shù)據(jù)污染最具代表性的場景。未來,他們計(jì)劃將捷徑神經(jīng)元修補(bǔ)方法應(yīng)用于更廣泛的基準(zhǔn)測試,為語言模型評估做出更大貢獻(xiàn)。
最后,研究團(tuán)隊(duì)發(fā)現(xiàn)不同架構(gòu)下的捷徑神經(jīng)元存在較大差異,這可能會(huì)影響方法的泛化能力。這一問題將在未來的研究中進(jìn)一步探討。
總的來說,這項(xiàng)研究不僅提供了一種新的評估方法,也開啟了語言模型內(nèi)部機(jī)制研究的新方向。隨著大型語言模型在各行各業(yè)的廣泛應(yīng)用,確保評估的可信度變得越來越重要。捷徑神經(jīng)元修補(bǔ)方法為我們提供了一種相對簡單且有效的解決方案,有望在未來的模型開發(fā)和評估中發(fā)揮重要作用。
在人工智能快速發(fā)展的今天,我們需要更多這樣的創(chuàng)新研究,不僅推動(dòng)技術(shù)進(jìn)步,也確保技術(shù)的可靠性和公平性。正如研究團(tuán)隊(duì)所展示的,有時(shí)候解決復(fù)雜問題的答案,就藏在問題本身之中。
好文章,需要你的鼓勵(lì)
浙江大學(xué)團(tuán)隊(duì)提出動(dòng)態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準(zhǔn)確率,且不增加計(jì)算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學(xué)研究團(tuán)隊(duì)提出SIRI方法,通過"壓縮-擴(kuò)張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準(zhǔn)確率低"的問題。實(shí)驗(yàn)顯示,該方法在數(shù)學(xué)競賽題上將模型準(zhǔn)確率提升43.2%的同時(shí),輸出長度減少46.9%,真正實(shí)現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團(tuán)隊(duì)開發(fā)出Rolling Forcing技術(shù),實(shí)現(xiàn)AI視頻實(shí)時(shí)流式生成的重大突破。該技術(shù)通過滾動(dòng)窗口聯(lián)合去噪、注意力錨點(diǎn)機(jī)制和高效訓(xùn)練算法三項(xiàng)創(chuàng)新,解決了長視頻生成中的錯(cuò)誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標(biāo)從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學(xué)研究團(tuán)隊(duì)發(fā)現(xiàn),通過讓AI模型學(xué)習(xí)解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個(gè)幾何題目的Euclid30K數(shù)據(jù)集,使用強(qiáng)化學(xué)習(xí)方法訓(xùn)練多個(gè)AI模型。實(shí)驗(yàn)結(jié)果顯示,幾何訓(xùn)練在四個(gè)空間智能測試基準(zhǔn)上都帶來顯著提升,其中最佳模型達(dá)到49.6%準(zhǔn)確率,超越此前最好成績。這項(xiàng)研究揭示了基礎(chǔ)幾何知識對培養(yǎng)AI空間智能的重要價(jià)值。