這項(xiàng)研究由慕尼黑工業(yè)大學(xué)的Anum Afzal和Florian Matthes,以及英偉達(dá)研究院和巴伊蘭大學(xué)的Gal Chechik和英偉達(dá)研究院的Yftah Ziser共同完成,發(fā)表于2025年6月2日的arXiv預(yù)印本平臺(tái)(arXiv:2505.24362v2)。這項(xiàng)探索性研究揭示了大語(yǔ)言模型(LLM)在思維鏈推理過程中的一個(gè)令人驚訝的能力:它們?cè)谕瓿烧麄€(gè)推理過程之前,甚至在生成第一個(gè)詞之前,就已經(jīng)能夠"預(yù)知"自己是否能夠成功解決問題。
一、研究背景:思維鏈推理的價(jià)值與挑戰(zhàn)
想象一下,當(dāng)你解決一道復(fù)雜的數(shù)學(xué)題時(shí),你通常會(huì)一步一步地寫下思考過程。即使在完成整個(gè)計(jì)算之前,你心里可能已經(jīng)有了答案是否正確的預(yù)感。研究人員發(fā)現(xiàn),大語(yǔ)言模型也具有類似的能力——它們?cè)谕瓿烧麄€(gè)思維過程之前,就已經(jīng)在內(nèi)部"知道"自己是否能夠給出正確答案。
思維鏈(Chain-of-Thought,簡(jiǎn)稱CoT)是一種讓語(yǔ)言模型像人類一樣,通過展示中間推理步驟來解決復(fù)雜問題的方法。這種方法在數(shù)學(xué)推理、醫(yī)學(xué)應(yīng)用、評(píng)估可信度以及多模態(tài)模型等領(lǐng)域都顯示出了卓越的表現(xiàn)。然而,CoT的一個(gè)明顯缺點(diǎn)是計(jì)算成本高昂——畢竟,要求模型生成一系列詳細(xì)的推理步驟比直接給出答案需要更多的計(jì)算資源。
研究團(tuán)隊(duì)提出了兩個(gè)引人深思的問題: 1. 大語(yǔ)言模型是否在完成推理之前就已經(jīng)"知道"自己能否得出正確答案? 2. 如果模型在初始步驟之后就已經(jīng)擁有了判斷能力,那是否意味著模型已經(jīng)完成了計(jì)算,后續(xù)步驟可能是不必要的?
這些問題的答案可能幫助我們開發(fā)更高效的思維鏈策略,既保留CoT的優(yōu)勢(shì),又減少不必要的計(jì)算成本。
二、研究方法:探測(cè)模型內(nèi)部的"預(yù)知"能力
研究團(tuán)隊(duì)的探索方法就像給語(yǔ)言模型裝上了一個(gè)心理探測(cè)器。他們首先構(gòu)建了一個(gè)特殊的數(shù)據(jù)集,包含各種數(shù)學(xué)問題,并記錄了模型在使用CoT方法時(shí)是否能夠正確解答。
具體來說,他們采用了兩個(gè)大語(yǔ)言模型(Llama-3.1-8B和Mistral-7B)以及三個(gè)不同難度的數(shù)學(xué)問題數(shù)據(jù)集:奧林匹克數(shù)學(xué)題(Olympiad)、中國(guó)K-12數(shù)學(xué)考試題(cn-k12)和代數(shù)詞問題(AQuA)。研究者讓這些模型嘗試解答問題,并記錄它們是否成功,形成了平衡的訓(xùn)練數(shù)據(jù)(成功和失敗案例各半)。
研究的核心是一個(gè)"探測(cè)分類器"(probing classifier)。想象一下,這個(gè)分類器就像一個(gè)能讀懂模型"心思"的工具。它不看模型最終生成的答案,而是直接分析模型內(nèi)部的神經(jīng)元活動(dòng)(即內(nèi)部表示)。通過訓(xùn)練這個(gè)分類器,研究者能夠預(yù)測(cè)模型在完成CoT推理之前是否會(huì)得到正確答案。
與此同時(shí),研究團(tuán)隊(duì)還設(shè)置了一個(gè)強(qiáng)大的基線對(duì)比——BERT模型。BERT只能看到輸入的文本,而無法訪問LLM的內(nèi)部狀態(tài)。這種對(duì)比可以驗(yàn)證:預(yù)測(cè)CoT成功與否的能力是來自于模型內(nèi)部表示中編碼的信息,還是僅僅來自文本中的表面語(yǔ)言特征。
三、驚人發(fā)現(xiàn):模型在開始推理前就"預(yù)知"結(jié)果
研究結(jié)果揭示了一個(gè)令人驚訝的現(xiàn)象:即使在生成第一個(gè)詞之前,僅通過分析模型對(duì)問題的內(nèi)部表示,探測(cè)分類器就能夠以遠(yuǎn)高于隨機(jī)猜測(cè)(50%)的準(zhǔn)確率預(yù)測(cè)CoT推理是否會(huì)成功。
在Llama-3.1-8B模型上,探測(cè)分類器在三個(gè)數(shù)據(jù)集上的準(zhǔn)確率分別達(dá)到了60%(AQuA)、76.4%(Olympiad)和69.1%(Cn-k12)。這些結(jié)果顯著優(yōu)于BERT基線,后者的準(zhǔn)確率分別為53.5%、69.1%和66.2%。Mistral-7B模型上的結(jié)果也展現(xiàn)了類似的模式。
這些發(fā)現(xiàn)表明,語(yǔ)言模型在內(nèi)部表示中確實(shí)編碼了關(guān)于其推理能力的關(guān)鍵信息。就像棋手在下完整盤棋之前就能感知自己的優(yōu)勢(shì)一樣,大語(yǔ)言模型似乎在開始生成任何文字之前,就已經(jīng)"預(yù)感"到了自己能否成功解決問題。
更有趣的是,研究發(fā)現(xiàn)模型的中間層(如第14層和第16層)似乎特別擅長(zhǎng)編碼這種"預(yù)知"能力,這與先前關(guān)于模型誠(chéng)實(shí)度研究的發(fā)現(xiàn)相吻合。
四、推理過程中的信息演變:有時(shí)早知道,有時(shí)邊做邊知
研究團(tuán)隊(duì)進(jìn)一步探索了模型在推理過程中的內(nèi)部表示如何變化。他們?cè)贑oT生成的不同階段(生成了10%、20%...一直到90%的內(nèi)容時(shí))捕捉模型的內(nèi)部狀態(tài),并分析這些狀態(tài)是否包含更多關(guān)于最終成功與否的信息。
令人驚訝的是,在某些數(shù)據(jù)集上(如Olympiad和Cn-k12),隨著推理的進(jìn)行,預(yù)測(cè)準(zhǔn)確率并沒有顯著提高。這意味著模型在初始階段就已經(jīng)擁有了足夠的信息來判斷自己能否成功。而在AQuA數(shù)據(jù)集上,隨著推理的深入,預(yù)測(cè)準(zhǔn)確率確實(shí)有所提高(從60%增加到69.4%)。
為了進(jìn)一步驗(yàn)證這一發(fā)現(xiàn),研究者使用了一種叫做SVCCA(奇異向量典型相關(guān)分析)的技術(shù),來衡量不同推理階段的內(nèi)部表示之間的相似度。結(jié)果表明,在那些額外的推理步驟不能提高預(yù)測(cè)準(zhǔn)確率的數(shù)據(jù)集上,早期步驟的表示與最終步驟的表示更為相似。這暗示著模型在早期步驟中就已經(jīng)完成了大部分計(jì)算。
這就像一個(gè)學(xué)生解數(shù)學(xué)題,有時(shí)候在寫下幾個(gè)步驟后就已經(jīng)在腦中完成了整個(gè)計(jì)算,剩下的步驟只是形式上的記錄而已。
五、提前結(jié)束思維鏈:可行但有代價(jià)
既然模型在推理早期就已經(jīng)"知道"答案是否正確,那么是否可以提前結(jié)束CoT過程而不影響結(jié)果呢?研究團(tuán)隊(duì)進(jìn)行了初步探索,他們?cè)贑oT推理的不同階段(30%、50%、99%完成度)人為中斷生成過程,并指示模型直接給出答案。
實(shí)驗(yàn)結(jié)果顯示,即使在AQuA和Cn-k12數(shù)據(jù)集上提前中斷CoT,模型的表現(xiàn)仍然略優(yōu)于完全不使用CoT的情況。然而,與完整的CoT相比,提前中斷確實(shí)導(dǎo)致了性能下降。例如,在AQuA數(shù)據(jù)集上,當(dāng)推理完成99%時(shí)中斷,正確率為59%,而完整CoT的正確率更高。
這表明零樣本(zero-shot)的提前中斷方法有其局限性。研究者認(rèn)為,更有針對(duì)性的方法,如監(jiān)督學(xué)習(xí)或強(qiáng)化學(xué)習(xí),可能更有效地縮短CoT鏈,同時(shí)保持高性能。就像廚師可以在了解特定食譜后省略某些步驟一樣,經(jīng)過專門訓(xùn)練的模型可能能夠?qū)W會(huì)何時(shí)可以安全地跳過某些推理步驟。
六、研究意義與未來方向
這項(xiàng)研究揭示了大語(yǔ)言模型在思維鏈推理中的一個(gè)深層次能力:它們?cè)谕瓿烧麄€(gè)推理過程之前,就已經(jīng)在內(nèi)部表示中編碼了關(guān)于最終成功與否的信息。這一發(fā)現(xiàn)不僅幫助我們更好地理解語(yǔ)言模型的工作機(jī)制,還為開發(fā)更高效的推理策略提供了理論基礎(chǔ)。
研究的局限性在于,目前的提前中斷方法是基于零樣本提示的,效果有限。未來的研究可以探索更復(fù)雜的方法,如監(jiān)督學(xué)習(xí)或強(qiáng)化學(xué)習(xí),來教導(dǎo)模型何時(shí)可以安全地結(jié)束推理過程。
對(duì)于人工智能領(lǐng)域的發(fā)展,這項(xiàng)研究提示我們:大語(yǔ)言模型的內(nèi)部表示中可能包含比我們想象更豐富的信息。通過理解和利用這些信息,我們可能能夠設(shè)計(jì)出既保留CoT優(yōu)勢(shì)又降低計(jì)算成本的新方法,使人工智能在解決復(fù)雜問題時(shí)更加高效。
最終,這項(xiàng)研究讓我們看到了一個(gè)有趣的平行:就像人類在完成完整思考過程之前可能已經(jīng)有了正確答案的直覺一樣,大語(yǔ)言模型也似乎具有這種"預(yù)知"能力——在說出答案之前就已經(jīng)知道。
好文章,需要你的鼓勵(lì)
浙江大學(xué)團(tuán)隊(duì)提出動(dòng)態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準(zhǔn)確率,且不增加計(jì)算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學(xué)研究團(tuán)隊(duì)提出SIRI方法,通過"壓縮-擴(kuò)張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準(zhǔn)確率低"的問題。實(shí)驗(yàn)顯示,該方法在數(shù)學(xué)競(jìng)賽題上將模型準(zhǔn)確率提升43.2%的同時(shí),輸出長(zhǎng)度減少46.9%,真正實(shí)現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團(tuán)隊(duì)開發(fā)出Rolling Forcing技術(shù),實(shí)現(xiàn)AI視頻實(shí)時(shí)流式生成的重大突破。該技術(shù)通過滾動(dòng)窗口聯(lián)合去噪、注意力錨點(diǎn)機(jī)制和高效訓(xùn)練算法三項(xiàng)創(chuàng)新,解決了長(zhǎng)視頻生成中的錯(cuò)誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標(biāo)從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學(xué)研究團(tuán)隊(duì)發(fā)現(xiàn),通過讓AI模型學(xué)習(xí)解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個(gè)幾何題目的Euclid30K數(shù)據(jù)集,使用強(qiáng)化學(xué)習(xí)方法訓(xùn)練多個(gè)AI模型。實(shí)驗(yàn)結(jié)果顯示,幾何訓(xùn)練在四個(gè)空間智能測(cè)試基準(zhǔn)上都帶來顯著提升,其中最佳模型達(dá)到49.6%準(zhǔn)確率,超越此前最好成績(jī)。這項(xiàng)研究揭示了基礎(chǔ)幾何知識(shí)對(duì)培養(yǎng)AI空間智能的重要價(jià)值。