人工智能的發(fā)展正面臨著一個(gè)有趣的悖論:模型越強(qiáng)大,消耗的計(jì)算資源就越多。就像一輛超級(jí)跑車雖然性能卓越但油耗驚人,大型AI模型也有類似的"能源危機(jī)"。為了解決這個(gè)問題,來(lái)自ISTA(奧地利科學(xué)技術(shù)研究所)和Red Hat AI的研究團(tuán)隊(duì),包括Andrei Panferov、Alexandra Volkova、Ionut-Vlad Modoranu、Vage Egiazarian、Mher Safaryan和Dan Alistarh,在最新研究論文《Unified Scaling Laws for Compressed Representations》中提出了一種全新的視角,幫助我們理解如何在保持模型性能的同時(shí),大幅降低其資源消耗。這篇論文發(fā)表于2025年6月的arXiv預(yù)印本平臺(tái)(arXiv:2506.01863v1)。
想象一下,如果我們可以將一本厚重的百科全書壓縮成一本輕便的口袋書,同時(shí)不丟失任何重要信息,那該有多好?這正是AI模型壓縮要實(shí)現(xiàn)的目標(biāo)。過去幾年,研究人員發(fā)現(xiàn)了一些有趣的規(guī)律,稱為"縮放定律"(scaling laws),這些定律告訴我們:模型的性能如何隨著模型大小、計(jì)算量和數(shù)據(jù)量的增長(zhǎng)而變化。就像物理學(xué)中的重力定律幫助我們預(yù)測(cè)物體下落的速度,縮放定律幫助我們預(yù)測(cè)增加模型參數(shù)數(shù)量會(huì)如何提升模型表現(xiàn)。
與此同時(shí),為了降低AI的計(jì)算成本,研究人員開發(fā)了各種模型壓縮技術(shù),比如稀疏化(刪除不重要的連接)和量化(用更少的比特表示數(shù)字)。這就像是將高清照片轉(zhuǎn)換為占用更少空間的壓縮格式,但關(guān)鍵問題是:這種壓縮會(huì)如何影響模型的性能?更重要的是,我們能否找到一個(gè)統(tǒng)一的公式,預(yù)測(cè)不同壓縮方法下模型的表現(xiàn)?
這正是本研究的核心貢獻(xiàn)。研究團(tuán)隊(duì)不僅提出了一個(gè)適用于各種壓縮方式的統(tǒng)一縮放定律,更關(guān)鍵的是,他們發(fā)現(xiàn)了一個(gè)被稱為"表示容量"的簡(jiǎn)單度量標(biāo)準(zhǔn),它基于表示法對(duì)隨機(jī)高斯數(shù)據(jù)的擬合能力,能夠準(zhǔn)確預(yù)測(cè)不同壓縮表示的參數(shù)效率。這就像是發(fā)現(xiàn)了評(píng)價(jià)各種壓縮算法的通用標(biāo)尺,無(wú)論是稀疏化、量化,還是兩者的結(jié)合,都可以用這個(gè)標(biāo)尺來(lái)衡量和比較。
讓我們一起深入探索這項(xiàng)突破性研究的細(xì)節(jié),看看它如何改變我們對(duì)AI模型壓縮的理解,以及它對(duì)未來(lái)AI技術(shù)發(fā)展的深遠(yuǎn)影響。
一、縮放定律與壓縮表示:一個(gè)統(tǒng)一的視角
在深入研究統(tǒng)一縮放定律之前,我們需要先了解這項(xiàng)研究的背景。近年來(lái),人工智能領(lǐng)域出現(xiàn)了兩個(gè)平行發(fā)展的重要方向:一方面,研究人員發(fā)現(xiàn)了所謂的"縮放定律",它們能夠預(yù)測(cè)模型性能如何隨著模型大小、計(jì)算量和數(shù)據(jù)量的增加而提升;另一方面,為了應(yīng)對(duì)AI系統(tǒng)日益增長(zhǎng)的計(jì)算需求,模型壓縮技術(shù)(如稀疏化和量化)變得越來(lái)越重要。
想象你正在建造一座大樓??s放定律就像是告訴你:增加多少建材(參數(shù))和工人(計(jì)算能力),就能蓋多高的樓(模型性能)。而模型壓縮則像是尋找更輕但同樣堅(jiān)固的建材,以便用更少的資源蓋出同樣高的樓。
ISTA和Red Hat AI的研究團(tuán)隊(duì)提出的核心問題是:我們能否找到一個(gè)統(tǒng)一的框架,將這兩個(gè)方向結(jié)合起來(lái),準(zhǔn)確預(yù)測(cè)在各種壓縮表示下訓(xùn)練的模型性能?
他們通過大量實(shí)驗(yàn),確定了一個(gè)具有以下形式的統(tǒng)一縮放定律:
Loss(N, D) ~ A · (N · ρ(R))^(-α) + B · D^(-β) + E
在這個(gè)公式中: - N是模型參數(shù)的數(shù)量 - D是數(shù)據(jù)集的大小 - E是不可消除的誤差 - A、B、α和β是常數(shù) - ρ是表示R的參數(shù)函數(shù),被稱為"表示容量"
這個(gè)公式看起來(lái)可能有些復(fù)雜,但我們可以用一個(gè)簡(jiǎn)單的例子來(lái)理解它。想象你正在烤一個(gè)蛋糕: - N就像是你使用的面粉量 - ρ(R)是面粉的質(zhì)量(純度) - D是你練習(xí)烤蛋糕的次數(shù) - Loss是最終蛋糕的美味程度(反向關(guān)系,Loss越低,蛋糕越好吃)
關(guān)鍵發(fā)現(xiàn)是,無(wú)論你使用什么類型的面粉(不同的壓縮表示),只要知道面粉的質(zhì)量ρ(R),你就能預(yù)測(cè)出蛋糕的美味程度。更重要的是,研究團(tuán)隊(duì)發(fā)現(xiàn),即使對(duì)于非常復(fù)雜的表示(例如,3比特量化,組大小為32,并有1%的異常值以全精度保存),參數(shù)函數(shù)ρ仍然可以準(zhǔn)確預(yù)測(cè)模型性能。
這意味著,對(duì)于任何壓縮表示,都存在一個(gè)"等效的密集參數(shù)數(shù)量" N' = N · ρ(R),它會(huì)產(chǎn)生與原始模型相同的訓(xùn)練損失。表示容量ρ(R)自然地落在(0, 1]區(qū)間內(nèi),壓縮的關(guān)鍵目標(biāo)是在模型精度與表示的大小和計(jì)算成本之間取得最佳平衡。
二、表示容量:壓縮表示的內(nèi)在屬性
研究團(tuán)隊(duì)的另一個(gè)重要發(fā)現(xiàn)是,表示容量ρ(R)實(shí)際上是表示法R的一個(gè)內(nèi)在屬性,與用于獲取縮放定律的模型和任務(wù)無(wú)關(guān),但可以與標(biāo)準(zhǔn)信息論度量相關(guān)聯(lián)。
簡(jiǎn)單來(lái)說,表示容量與表示法擬合隨機(jī)高斯數(shù)據(jù)的能力緊密相關(guān),可以通過最小均方誤差(MSE)來(lái)衡量。具體而言,ρ(R)是表示R在擬合隨機(jī)高斯數(shù)據(jù)時(shí)的MSE的簡(jiǎn)單參數(shù)函數(shù):
ρ(R) = ~ρ(MSE(R))
這就像是在說,無(wú)論你用什么類型的面粉(壓縮表示),只要知道它在標(biāo)準(zhǔn)烘焙測(cè)試中的表現(xiàn)(擬合隨機(jī)高斯數(shù)據(jù)的能力),你就能預(yù)測(cè)它在實(shí)際烤蛋糕(訓(xùn)練AI模型)中的效果。
研究團(tuán)隊(duì)驗(yàn)證了這一發(fā)現(xiàn)適用于各種壓縮表示,包括量化、稀疏、量化-稀疏結(jié)合,甚至是向量量化表示。這提供了一個(gè)簡(jiǎn)單的度量標(biāo)準(zhǔn),可以"排名"實(shí)現(xiàn)相同表示的不同格式。此外,這也使得我們能夠確定特定比特寬度下的"最優(yōu)"容量,這由給定支持的高斯擬合的理論界限給出,可以通過蒙特卡洛算法輕松估計(jì)。
為了進(jìn)一步證明這種關(guān)系,研究人員在定理1中為Adam優(yōu)化的壓縮模型提供了非平凡的理論證明:他們將Adam在壓縮表示上的收斂與參數(shù)數(shù)量N和優(yōu)化過程中壓縮的平均均方根誤差的乘積聯(lián)系起來(lái),這與他們的容量概念相連接。
第二個(gè)重要發(fā)現(xiàn)是,除了病態(tài)情況外,容量在組合表示中可以分解:具體來(lái)說,4比特和2:4稀疏模型的容量是4比特密集模型的容量與2:4稀疏但未量化模型的容量的乘積。這種分解允許我們基于簡(jiǎn)單的表示來(lái)評(píng)估復(fù)雜表示的容量,同時(shí)也適用于壓縮不同的模型表示,例如權(quán)重和激活都被壓縮的情況。
三、容量度量的實(shí)際應(yīng)用
表示容量的分析度量也有非常實(shí)際的應(yīng)用。首先,能夠?qū)㈩A(yù)測(cè)參數(shù)ρ與底層表示的內(nèi)在屬性聯(lián)系起來(lái),使我們能夠分析預(yù)測(cè)不同壓縮數(shù)值格式的表示能力。
通過這種方式,研究人員可以準(zhǔn)確比較和預(yù)測(cè)各種格式(如浮點(diǎn)數(shù)、整數(shù)、稀疏-量化格式)在不同壓縮預(yù)算下的效果。例如,通過容量分析,可以確定在特定條件下,INT4(4位整數(shù))與FP4(4位浮點(diǎn)數(shù))哪個(gè)格式更有效,或者組合使用稀疏化和量化是否比單獨(dú)使用其中一種方法更有優(yōu)勢(shì)。
其次,這個(gè)框架啟發(fā)了一種改進(jìn)的稀疏訓(xùn)練方法,研究團(tuán)隊(duì)證明這種方法在某些稀疏度下能顯著提高容量(在某些稀疏度下提高超過20%)。這種名為RMSE-Banded Backward Masking (RBBM)的方法,根據(jù)參數(shù)的均方根值設(shè)置一個(gè)帶狀區(qū)域,在這個(gè)區(qū)域內(nèi)的參數(shù)不接收梯度,而區(qū)域外的參數(shù)則可以接收梯度。通過這種方式,RBBM可以在相同的參數(shù)數(shù)量下實(shí)現(xiàn)更高的表示容量。
總的來(lái)說,這些結(jié)果提供了一個(gè)全新的視角來(lái)看待壓縮模型的縮放特性,基于訓(xùn)練所執(zhí)行的表示的內(nèi)在屬性。研究團(tuán)隊(duì)相信,容量感知縮放有潛力成為下一代高效基礎(chǔ)模型的實(shí)用設(shè)計(jì)原則。
四、實(shí)驗(yàn)驗(yàn)證與方法論
為了驗(yàn)證他們的理論,研究團(tuán)隊(duì)進(jìn)行了廣泛的實(shí)驗(yàn)。他們預(yù)訓(xùn)練了遵循Llama架構(gòu)的僅解碼器Transformer模型,參數(shù)規(guī)模從3000萬(wàn)到2億不等。這些模型在C4數(shù)據(jù)集上訓(xùn)練,使用Llama-2分詞器。為確保在數(shù)據(jù)豐富的環(huán)境中操作,他們使用了每個(gè)模型參數(shù)100個(gè)訓(xùn)練token,并在512個(gè)token的固定長(zhǎng)度上下文窗口上訓(xùn)練。
研究人員使用AdamW優(yōu)化器,其中有0.1比例的預(yù)熱周期和余弦調(diào)度器。他們的實(shí)驗(yàn)設(shè)置與之前的相關(guān)研究非常相似。
對(duì)于量化,他們采用了標(biāo)準(zhǔn)的量化感知訓(xùn)練(QAT)方法,結(jié)合各種級(jí)別的非結(jié)構(gòu)化權(quán)重稀疏性。量化使用每層均勻量化器,具有靜態(tài)縮放因子和梯度掩碼。量化水平從1位到8位精度不等。他們考慮了僅量化權(quán)重、僅量化激活或同時(shí)量化兩者的配置。
對(duì)于稀疏性,他們應(yīng)用了基于幅度的非結(jié)構(gòu)化剪枝,通過在每一層基礎(chǔ)上進(jìn)行top-k閾值處理。稀疏掩碼在每個(gè)優(yōu)化步驟中動(dòng)態(tài)重新計(jì)算。
對(duì)于向量量化(VQ),他們使用QuEST標(biāo)量量化并應(yīng)用于2維和4維HIGGS網(wǎng)格。為了限制異常值,他們使用了信任估計(jì)方法,該方法會(huì)將位于特定半徑超球體之外的任何點(diǎn)的梯度置零。
通過這些實(shí)驗(yàn),研究團(tuán)隊(duì)證實(shí)了他們提出的統(tǒng)一縮放定律在各種壓縮場(chǎng)景中的適用性,并驗(yàn)證了表示容量與高斯MSE之間的緊密關(guān)系。
五、研究發(fā)現(xiàn)與實(shí)際意義
通過大量實(shí)驗(yàn)和理論分析,這項(xiàng)研究得出了幾個(gè)重要發(fā)現(xiàn),它們對(duì)AI模型壓縮領(lǐng)域具有深遠(yuǎn)的實(shí)際意義。
首先,研究團(tuán)隊(duì)提出并驗(yàn)證了一個(gè)適用于多種壓縮表示的統(tǒng)一縮放定律。與之前專注于單一表示(如稀疏或量化)的研究不同,這個(gè)統(tǒng)一定律能夠準(zhǔn)確預(yù)測(cè)各種壓縮表示的模型性能,包括混合表示(如稀疏-量化權(quán)重)和復(fù)合壓縮(如稀疏權(quán)重和激活)。
其次,他們發(fā)現(xiàn)表示容量ρ(R)是表示法R的一個(gè)內(nèi)在屬性,與用于獲取縮放定律的模型和任務(wù)無(wú)關(guān)。更重要的是,這個(gè)容量可以通過表示法擬合隨機(jī)高斯數(shù)據(jù)的能力(用最小均方誤差衡量)來(lái)準(zhǔn)確預(yù)測(cè)。這一發(fā)現(xiàn)為比較不同壓縮格式提供了一個(gè)簡(jiǎn)單而有效的方法。
第三,研究表明容量在組合表示中通常是可分解的。這意味著,例如,同時(shí)使用4位量化和2:4稀疏(在每4個(gè)參數(shù)中保留2個(gè))的模型的容量,可以通過4位密集模型的容量乘以2:4稀疏但未量化模型的容量來(lái)計(jì)算。這種可分解性大大簡(jiǎn)化了評(píng)估復(fù)雜壓縮策略的過程。
第四,研究提出了一種改進(jìn)的稀疏訓(xùn)練方法——RMSE-Banded Backward Masking (RBBM),能夠在相同的參數(shù)數(shù)量下顯著提高表示容量。
這些發(fā)現(xiàn)的實(shí)際意義非常重大。表示容量提供了一個(gè)統(tǒng)一的框架來(lái)評(píng)估和比較不同的壓縮策略,而無(wú)需進(jìn)行耗時(shí)的實(shí)驗(yàn)。這使得研究人員和工程師能夠快速確定哪種壓縮方法最適合他們的特定需求,無(wú)論是最大化模型性能、最小化計(jì)算成本,還是在兩者之間找到最佳平衡。
此外,由于容量是可分解的,可以預(yù)測(cè)組合多種壓縮技術(shù)的效果,從而為設(shè)計(jì)更高效的AI系統(tǒng)提供指導(dǎo)。例如,研究人員可以確定在何種情況下,結(jié)合使用稀疏化和量化比單獨(dú)使用其中一種方法更有優(yōu)勢(shì)。
最后,RBBM等新方法的開發(fā)表明,理解表示容量的基本原理可以導(dǎo)致更有效的模型壓縮技術(shù),從而進(jìn)一步推動(dòng)AI系統(tǒng)的效率和可擴(kuò)展性。
六、局限性與未來(lái)展望
盡管這項(xiàng)研究取得了顯著的進(jìn)展,但研究團(tuán)隊(duì)也坦率地指出了一些局限性。首先,與該領(lǐng)域的先前工作一致,他們的實(shí)驗(yàn)僅限于僅解碼器的Llama風(fēng)格架構(gòu),這些架構(gòu)在C4數(shù)據(jù)集上訓(xùn)練,處于數(shù)據(jù)豐富的環(huán)境中(每個(gè)參數(shù)100個(gè)token)。未來(lái)的研究需要將這些發(fā)現(xiàn)擴(kuò)展到更大規(guī)模的模型和更多樣化的架構(gòu)。
其次,對(duì)于超低精度(例如2位或三值格式)和向量量化碼書少于8個(gè)條目的情況,該定律可能需要特定的擬合,這表明可能需要考慮二階效應(yīng)。這就像是說,當(dāng)我們將面粉減少到極低的量時(shí),烤蛋糕的規(guī)則可能會(huì)發(fā)生變化,需要特別的調(diào)整。
第三,雖然他們的理論證據(jù)使用了標(biāo)準(zhǔn)假設(shè),但它可以擴(kuò)展到更復(fù)雜的表示類型。這為未來(lái)的理論工作提供了方向,可以進(jìn)一步深化我們對(duì)壓縮表示如何影響模型性能的理解。
展望未來(lái),這項(xiàng)研究為AI模型壓縮開辟了幾個(gè)有前途的方向。首先,統(tǒng)一縮放定律可以擴(kuò)展到更多種類的壓縮技術(shù)和模型架構(gòu),為更廣泛的AI系統(tǒng)提供指導(dǎo)。其次,表示容量的概念可以進(jìn)一步發(fā)展,考慮更多因素,如訓(xùn)練穩(wěn)定性和泛化能力。
此外,RBBM等基于容量的訓(xùn)練方法可以進(jìn)一步優(yōu)化和擴(kuò)展,潛在地產(chǎn)生更高效的模型壓縮技術(shù)。最后,容量感知縮放可能成為設(shè)計(jì)下一代高效基礎(chǔ)模型的關(guān)鍵原則,幫助研究人員和工程師在模型性能和計(jì)算效率之間取得最佳平衡。
總的來(lái)說,這項(xiàng)研究不僅提供了理解模型壓縮的新視角,還提出了實(shí)用的工具和方法,可以直接應(yīng)用于AI系統(tǒng)的設(shè)計(jì)和優(yōu)化。隨著AI技術(shù)繼續(xù)快速發(fā)展,這種容量感知的方法可能成為確保AI系統(tǒng)可持續(xù)發(fā)展的關(guān)鍵。
七、結(jié)論與思考
當(dāng)我們回顧這項(xiàng)來(lái)自ISTA和Red Hat AI的突破性研究,可以看到它如何巧妙地將兩個(gè)看似獨(dú)立的研究方向——縮放定律和模型壓縮——融合為一個(gè)統(tǒng)一的框架。通過引入"表示容量"這一概念,研究團(tuán)隊(duì)提供了一種簡(jiǎn)單而強(qiáng)大的方法來(lái)預(yù)測(cè)和比較不同壓縮表示下模型的性能。
歸根結(jié)底,這項(xiàng)研究的核心發(fā)現(xiàn)是:無(wú)論使用什么壓縮方法(稀疏化、量化或兩者的結(jié)合),只要知道表示法擬合隨機(jī)高斯數(shù)據(jù)的能力(表示容量),就能準(zhǔn)確預(yù)測(cè)模型的性能。這就像是發(fā)現(xiàn)了一個(gè)通用的測(cè)量標(biāo)尺,可以用來(lái)衡量和比較各種壓縮算法的效果。
更令人興奮的是,研究團(tuán)隊(duì)不僅提出了理論框架,還展示了它的實(shí)際應(yīng)用。通過分析不同數(shù)值格式的表示容量,他們能夠準(zhǔn)確比較和預(yù)測(cè)各種格式在不同壓縮預(yù)算下的效果。他們還開發(fā)了一種改進(jìn)的稀疏訓(xùn)練方法(RBBM),能夠在相同的參數(shù)數(shù)量下顯著提高表示容量。
對(duì)于AI領(lǐng)域的研究人員和工程師來(lái)說,這項(xiàng)研究提供了寶貴的指導(dǎo)。它不僅幫助我們理解不同壓縮方法如何影響模型性能,還為設(shè)計(jì)更高效的AI系統(tǒng)提供了實(shí)用工具。在計(jì)算資源日益成為AI發(fā)展瓶頸的今天,這種能夠在保持模型性能的同時(shí)大幅降低計(jì)算成本的方法,無(wú)疑具有重要的實(shí)際意義。
對(duì)于普通人來(lái)說,這項(xiàng)研究的意義可能不那么直接,但其長(zhǎng)期影響可能會(huì)深遠(yuǎn)。隨著AI技術(shù)繼續(xù)滲透到我們的日常生活中,更高效的AI系統(tǒng)意味著更便宜、更快速、更節(jié)能的AI應(yīng)用,從智能手機(jī)上的語(yǔ)音助手到自動(dòng)駕駛汽車,都可能因此受益。
當(dāng)然,這項(xiàng)研究也引發(fā)了一些有趣的問題:隨著我們不斷壓縮模型,是否存在一個(gè)理論上的極限,超過這個(gè)極限,進(jìn)一步壓縮就會(huì)導(dǎo)致模型性能的顯著下降?不同類型的AI任務(wù)是否需要不同的壓縮策略?這些問題為未來(lái)的研究提供了方向。
最后,這項(xiàng)研究提醒我們,在AI技術(shù)日新月異的今天,有時(shí)最重要的進(jìn)步不是來(lái)自于建造更大的模型,而是來(lái)自于更深入地理解我們已有的工具,并找到更智能、更高效的使用方法。就像愛因斯坦曾經(jīng)說過的:"科學(xué)的最高境界是簡(jiǎn)化。"這項(xiàng)研究正是將復(fù)雜的問題簡(jiǎn)化為一個(gè)優(yōu)雅的統(tǒng)一框架,為AI的可持續(xù)發(fā)展提供了新的路徑。
對(duì)于有興趣深入了解這項(xiàng)研究的讀者,可以通過arXiv:2506.01863v1訪問完整的論文。無(wú)論你是AI領(lǐng)域的專業(yè)人士,還是對(duì)技術(shù)發(fā)展感興趣的普通讀者,這項(xiàng)研究都提供了關(guān)于AI未來(lái)發(fā)展的寶貴見解。
好文章,需要你的鼓勵(lì)
這項(xiàng)研究提出了"高效探測(cè)"方法,解決了掩碼圖像建模AI難以有效評(píng)估的問題。通過創(chuàng)新的多查詢交叉注意力機(jī)制,該方法在減少90%參數(shù)的同時(shí)實(shí)現(xiàn)10倍速度提升,在七個(gè)基準(zhǔn)測(cè)試中均超越傳統(tǒng)方法。研究還發(fā)現(xiàn)注意力質(zhì)量與分類性能的強(qiáng)相關(guān)性,生成可解釋的注意力圖譜,展現(xiàn)出優(yōu)異的跨域適應(yīng)性。團(tuán)隊(duì)承諾開源全部代碼,推動(dòng)技術(shù)普及應(yīng)用。
伊利諾伊大學(xué)研究團(tuán)隊(duì)開發(fā)了CLAIMSPECT系統(tǒng),通過層次化分解復(fù)雜爭(zhēng)議、智能檢索相關(guān)文獻(xiàn)、多角度收集觀點(diǎn)的方法,將傳統(tǒng)的"真假"判斷轉(zhuǎn)變?yōu)槎嗑S度分析。該系統(tǒng)能夠自動(dòng)構(gòu)建爭(zhēng)議話題的分析框架,識(shí)別不同觀點(diǎn)及其支撐證據(jù),為科學(xué)和政治爭(zhēng)議提供更全面客觀的分析,已在生物醫(yī)學(xué)和國(guó)際關(guān)系領(lǐng)域驗(yàn)證有效性。
清華大學(xué)研究團(tuán)隊(duì)首次提出情感認(rèn)知融合網(wǎng)絡(luò)(ECFN),讓AI能像人類一樣理解和表達(dá)情感。該系統(tǒng)通過多層次情感處理架構(gòu),在情感識(shí)別準(zhǔn)確率上比現(xiàn)有最佳系統(tǒng)提升32%,情感表達(dá)自然度提升45%。研究突破了傳統(tǒng)AI情感理解的局限,實(shí)現(xiàn)了跨模態(tài)情感融合、動(dòng)態(tài)情感追蹤和個(gè)性化情感建模,為醫(yī)療、教育、客服等領(lǐng)域帶來(lái)革命性應(yīng)用前景。
哈佛大學(xué)研究團(tuán)隊(duì)通過創(chuàng)新的多智能體強(qiáng)化學(xué)習(xí)方法,讓AI在戰(zhàn)略游戲中學(xué)會(huì)復(fù)雜推理。研究發(fā)現(xiàn)AI通過游戲競(jìng)爭(zhēng)能發(fā)展出類人思維能力,在邏輯推理、創(chuàng)造性解決問題等方面表現(xiàn)顯著提升。這項(xiàng)突破性成果為未來(lái)AI在醫(yī)療、教育、城市管理等領(lǐng)域的應(yīng)用奠定基礎(chǔ),展現(xiàn)了通過模擬人類學(xué)習(xí)過程培養(yǎng)真正智能AI的新路徑。