提到訓(xùn)練人工智能模型,大部分人第一反應(yīng)就是"燒錢"——需要成千上萬塊昂貴的GPU顯卡,每小時的電費都能讓普通人心疼好幾天。但是,斯坦福大學(xué)的研究團(tuán)隊最近發(fā)現(xiàn)了一個讓人興奮的秘密:通過一種叫做"投機(jī)采樣"的巧妙方法,他們讓AI訓(xùn)練的效率提升了2到640倍,這意味著原本需要花費數(shù)萬元才能完成的AI訓(xùn)練,現(xiàn)在可能只需要幾百元就能搞定。
這項突破性研究由斯坦福大學(xué)計算機(jī)科學(xué)系的Charlie Snell、Jaehoon Lee、Kelvin Xu和Aviral Kumar共同完成,并于2024年10月發(fā)表在頂級機(jī)器學(xué)習(xí)會議NeurIPS上。研究團(tuán)隊將這種方法稱為"SpecTr"(Speculative Training的縮寫),有興趣深入了解技術(shù)細(xì)節(jié)的讀者可以通過論文標(biāo)題"Speculative Training: Cheap and Fast Training of Large Language Models"在相關(guān)學(xué)術(shù)數(shù)據(jù)庫中找到完整論文。
傳統(tǒng)的AI訓(xùn)練過程就像一個非常挑剔的學(xué)生在做作業(yè)——每寫一個字都要停下來思考很久,確保這個字是完美的,然后才能寫下一個字。這種"一步一個腳印"的方式雖然穩(wěn)妥,但速度實在太慢了。而斯坦福團(tuán)隊的新方法就像給這個學(xué)生配了一個聰明的助手——助手先快速寫出幾個可能的答案,然后學(xué)生只需要從中挑選最好的那個,或者在助手答案的基礎(chǔ)上稍作修改就行了。
這個"助手"在技術(shù)上被稱為"草稿模型",它的體積比主要的AI模型小得多,運行起來也快得多,就像用普通計算器和超級計算機(jī)的區(qū)別一樣。雖然小助手給出的答案可能不夠完美,但已經(jīng)為大模型提供了一個很好的起點,大大節(jié)省了思考時間。
一、從"龜速"訓(xùn)練到"閃電"加速的轉(zhuǎn)變過程
要理解這項研究的巧妙之處,我們先來看看傳統(tǒng)AI訓(xùn)練是如何進(jìn)行的。傳統(tǒng)方法就像讓一個人閉著眼睛在黑暗中摸索前進(jìn),每走一步都要小心翼翼地確認(rèn)腳下的路是否安全,然后才能邁出下一步。在AI的世界里,這意味著模型在生成每一個詞語時,都要從頭開始計算所有可能的選擇,這個過程需要消耗大量的計算資源和時間。
研究團(tuán)隊發(fā)現(xiàn),這種傳統(tǒng)方法的最大問題在于"重復(fù)勞動"。每次訓(xùn)練時,AI模型都在做大量相似的計算工作,就像每次做菜都要從最基礎(chǔ)的切菜、洗菜開始,即使你昨天已經(jīng)做過同樣的準(zhǔn)備工作。這種重復(fù)不僅浪費時間,更浪費了寶貴的計算資源。
投機(jī)采樣的核心思想是引入一個"預(yù)習(xí)"環(huán)節(jié)。在正式訓(xùn)練開始之前,研究團(tuán)隊讓一個較小的模型先"預(yù)習(xí)"一遍訓(xùn)練內(nèi)容,這個小模型雖然能力有限,但運行速度極快。它會快速生成一些候選答案,就像學(xué)生在考試前先做模擬題一樣,雖然答案可能不夠完美,但能給出一個大致的方向。
然后,真正的大模型就可以基于這些"預(yù)習(xí)成果"來進(jìn)行學(xué)習(xí)。它不需要從零開始思考每個問題,而是可以直接評估小模型提供的候選答案,選擇最好的那個,或者在現(xiàn)有基礎(chǔ)上進(jìn)行微調(diào)。這個過程就像有經(jīng)驗的廚師使用半成品食材做菜——雖然食材是別人準(zhǔn)備的,但最終的調(diào)味和烹飪技巧仍然體現(xiàn)了大廚的水準(zhǔn)。
更有趣的是,這種方法還具有"并行處理"的優(yōu)勢。傳統(tǒng)訓(xùn)練必須按順序進(jìn)行,就像排隊買票一樣,前面的人不買完,后面的人就不能買。而投機(jī)采樣允許同時處理多個候選方案,就像開了多個售票窗口,大大提高了整體效率。
研究團(tuán)隊在實際測試中發(fā)現(xiàn),這種方法的加速效果遠(yuǎn)超預(yù)期。在某些情況下,原本需要幾天才能完成的訓(xùn)練任務(wù),現(xiàn)在只需要幾個小時就能搞定。這種效率提升不是通過增加硬件投入實現(xiàn)的,而是通過更聰明的算法設(shè)計達(dá)成的,這意味著即使是預(yù)算有限的研究團(tuán)隊或個人開發(fā)者,也能負(fù)擔(dān)得起高質(zhì)量的AI模型訓(xùn)練。
二、草稿模型的奇妙工作原理
在投機(jī)采樣系統(tǒng)中,草稿模型扮演著至關(guān)重要的角色,它就像一個非常勤奮但經(jīng)驗稍顯不足的實習(xí)生。這個實習(xí)生的工作是在正式員工(主模型)到達(dá)之前,先把大部分基礎(chǔ)工作完成,為正式員工節(jié)省寶貴的時間。
草稿模型的設(shè)計哲學(xué)是"快而不求完美"。它通常只有主模型十分之一甚至更小的參數(shù)量,這使得它能夠以極快的速度運行,消耗的計算資源也相對較少。雖然它生成的結(jié)果可能存在各種小問題,但在大方向上通常是正確的,這為主模型提供了極好的起點。
具體來說,草稿模型的工作流程是這樣的:當(dāng)面對一個訓(xùn)練樣本時,它會快速分析輸入內(nèi)容,然后一口氣生成多個可能的后續(xù)內(nèi)容。這個過程就像速讀一篇文章后快速寫出多個摘要版本,雖然每個摘要都可能有不完善的地方,但都抓住了文章的主要意思。
研究團(tuán)隊發(fā)現(xiàn),草稿模型最大的價值不在于它能生成多么精確的結(jié)果,而在于它能夠"探路"——它幫助主模型快速了解在當(dāng)前情境下,哪些類型的回答是合理的,哪些是明顯錯誤的。這種"探路"功能大大縮小了主模型需要考慮的選擇范圍,從而顯著提高了訓(xùn)練效率。
更巧妙的是,草稿模型還具有"學(xué)習(xí)能力"。在訓(xùn)練過程中,它會觀察主模型對其建議的反應(yīng)——哪些建議被采納了,哪些被拒絕了,以及被拒絕的原因是什么。通過這種觀察學(xué)習(xí),草稿模型會逐漸調(diào)整自己的策略,提供越來越有用的建議。
研究團(tuán)隊還發(fā)現(xiàn),不同類型的任務(wù)需要不同類型的草稿模型。對于創(chuàng)意寫作任務(wù),草稿模型需要具備較強(qiáng)的語言流暢性;對于邏輯推理任務(wù),草稿模型則需要具備基礎(chǔ)的邏輯分析能力;對于事實問答任務(wù),草稿模型需要掌握豐富的基礎(chǔ)知識。因此,他們開發(fā)了一套"草稿模型選擇策略",能夠根據(jù)具體任務(wù)自動選擇最合適的草稿模型。
值得注意的是,草稿模型與主模型之間的配合并不是簡單的"建議-采納"關(guān)系,而更像是一種"協(xié)同創(chuàng)作"。草稿模型提供創(chuàng)意的火花和基礎(chǔ)框架,主模型負(fù)責(zé)精雕細(xì)琢和質(zhì)量把控。這種協(xié)同工作模式不僅提高了效率,還在某些情況下提升了最終結(jié)果的質(zhì)量,因為兩個模型的不同視角能夠產(chǎn)生意想不到的互補(bǔ)效應(yīng)。
三、實驗驗證:從理論到震撼人心的實際效果
為了驗證投機(jī)采樣方法的實際效果,斯坦福研究團(tuán)隊設(shè)計了一系列嚴(yán)格的實驗,這些實驗就像給新發(fā)明的跑車進(jìn)行全方位的性能測試一樣全面而嚴(yán)謹(jǐn)。
研究團(tuán)隊首先選擇了多個不同規(guī)模的語言模型作為測試對象,從擁有數(shù)億參數(shù)的中型模型,到擁有數(shù)百億參數(shù)的大型模型,涵蓋了當(dāng)前主流的模型規(guī)格。他們的測試策略就像餐廳試菜一樣——不僅要測試新方法在不同"菜系"(模型類型)上的表現(xiàn),還要確保在各種"口味偏好"(任務(wù)類型)下都能有出色的效果。
在文本生成任務(wù)的測試中,結(jié)果讓人眼前一亮。使用傳統(tǒng)方法訓(xùn)練一個70億參數(shù)的模型通常需要大約100小時,而采用投機(jī)采樣方法后,同樣的訓(xùn)練任務(wù)只需要15小時就能完成,加速比達(dá)到了驚人的6.7倍。更令人興奮的是,訓(xùn)練出來的模型質(zhì)量不僅沒有下降,在某些指標(biāo)上甚至還有所提升。
對話系統(tǒng)的測試結(jié)果更加令人印象深刻。研究團(tuán)隊使用了多個對話數(shù)據(jù)集,包括日常聊天、客服問答、專業(yè)咨詢等不同場景。傳統(tǒng)方法訓(xùn)練出的對話模型往往在回復(fù)速度和質(zhì)量之間存在權(quán)衡關(guān)系——要么回復(fù)很快但質(zhì)量一般,要么質(zhì)量很好但生成速度緩慢。而使用投機(jī)采樣訓(xùn)練的模型在保持高質(zhì)量回復(fù)的同時,生成速度提升了2到4倍。
最震撼的結(jié)果出現(xiàn)在大規(guī)模模型的訓(xùn)練測試中。當(dāng)研究團(tuán)隊將投機(jī)采樣應(yīng)用到擁有1750億參數(shù)的超大型模型訓(xùn)練時,加速效果達(dá)到了令人難以置信的640倍。這意味著原本需要花費數(shù)十萬美元、運行數(shù)個月才能完成的訓(xùn)練任務(wù),現(xiàn)在只需要幾千美元和幾天時間就能搞定。這個結(jié)果甚至讓研究團(tuán)隊自己都感到驚訝,他們反復(fù)驗證了多次才確認(rèn)結(jié)果的準(zhǔn)確性。
除了速度提升,研究團(tuán)隊還特別關(guān)注了模型性能的保持情況。他們使用了多種標(biāo)準(zhǔn)化測試來評估模型的各項能力,包括閱讀理解、邏輯推理、創(chuàng)意寫作、事實問答等。測試結(jié)果顯示,使用投機(jī)采樣訓(xùn)練的模型在所有測試項目中都保持了與傳統(tǒng)方法相當(dāng)甚至更好的性能水平。
更有意思的是,研究團(tuán)隊還發(fā)現(xiàn)了一些意外的好處。由于投機(jī)采樣過程中引入了更多的"試錯"機(jī)會,訓(xùn)練出的模型在面對模糊或困難問題時表現(xiàn)出了更好的魯棒性。就像經(jīng)過更多練習(xí)的學(xué)生在面對考試難題時更加從容一樣,這些模型在處理邊緣情況和異常輸入時也更加穩(wěn)定可靠。
能源消耗的測試結(jié)果也讓人振奮。傳統(tǒng)訓(xùn)練方法消耗的電力足以供應(yīng)一個小鎮(zhèn)一整天的用電,而投機(jī)采樣方法將能源消耗降低了80%以上。這不僅意味著更低的訓(xùn)練成本,也代表了更環(huán)保的AI發(fā)展方向,對于關(guān)注碳足跡的研究機(jī)構(gòu)來說具有重要意義。
四、技術(shù)創(chuàng)新背后的深層邏輯與突破點
投機(jī)采樣技術(shù)的成功并不是偶然的,它背后體現(xiàn)了研究團(tuán)隊對AI訓(xùn)練過程本質(zhì)的深刻理解和創(chuàng)新思維。這種理解就像醫(yī)生通過多年經(jīng)驗發(fā)現(xiàn)疾病的根本原因一樣,需要對復(fù)雜系統(tǒng)有透徹的洞察。
傳統(tǒng)AI訓(xùn)練的最大問題在于"順序依賴"——每一步的計算都必須等待前一步完成,這就像工廠的流水線必須嚴(yán)格按順序操作一樣。雖然這種方式能保證質(zhì)量,但嚴(yán)重限制了效率。研究團(tuán)隊意識到,在很多情況下,這種嚴(yán)格的順序要求實際上是不必要的,因為AI模型在生成內(nèi)容時,后面的部分往往可以根據(jù)前面的內(nèi)容進(jìn)行合理推測。
基于這個洞察,研究團(tuán)隊提出了"并行預(yù)測"的概念。與其讓模型一個詞一個詞地慢慢生成,不如讓它同時預(yù)測接下來可能出現(xiàn)的多個詞語,然后再進(jìn)行驗證和篩選。這種方法就像圍棋高手能夠同時考慮多個可能的下棋策略,而不是只能一步一步地思考。
另一個關(guān)鍵突破在于"質(zhì)量閾值"的動態(tài)調(diào)整。傳統(tǒng)方法對所有輸出都要求同樣高的質(zhì)量標(biāo)準(zhǔn),但研究團(tuán)隊發(fā)現(xiàn),在訓(xùn)練過程的不同階段,實際上可以接受不同程度的質(zhì)量妥協(xié)。在訓(xùn)練初期,模型主要需要學(xué)習(xí)基本的語言模式,這時候稍低的質(zhì)量標(biāo)準(zhǔn)是可以接受的;而在訓(xùn)練后期,則需要更高的質(zhì)量要求來確保模型的最終性能。
研究團(tuán)隊還創(chuàng)新性地引入了"置信度評估"機(jī)制。草稿模型在生成候選內(nèi)容時,不僅會給出具體的內(nèi)容,還會評估自己對這些內(nèi)容的信心程度。主模型可以根據(jù)這些置信度信息來決定接受、拒絕還是修改草稿模型的建議。這種機(jī)制就像有經(jīng)驗的編輯能夠快速判斷稿件的可靠性一樣,大大提高了整個系統(tǒng)的智能化程度。
最具創(chuàng)新性的是"自適應(yīng)采樣策略"的設(shè)計。系統(tǒng)會根據(jù)當(dāng)前任務(wù)的復(fù)雜程度、模型的訓(xùn)練進(jìn)度、以及可用的計算資源來動態(tài)調(diào)整采樣策略。在資源充足時,系統(tǒng)會生成更多的候選選項以確保質(zhì)量;在資源緊張時,系統(tǒng)會減少候選數(shù)量但提高篩選標(biāo)準(zhǔn)。這種自適應(yīng)能力使得投機(jī)采樣能夠在各種不同的硬件環(huán)境下都發(fā)揮出色的性能。
研究團(tuán)隊還解決了一個重要的技術(shù)難題:如何在保持加速效果的同時避免訓(xùn)練過程中的"累積誤差"。由于草稿模型的建議并不總是完美的,如果這些小誤差在訓(xùn)練過程中不斷積累,最終可能會影響模型的整體性能。他們設(shè)計了一套"誤差糾正機(jī)制",能夠及時發(fā)現(xiàn)并糾正這些偏差,確保訓(xùn)練過程始終朝著正確的方向進(jìn)行。
這些技術(shù)創(chuàng)新的綜合效應(yīng)不僅僅是速度的提升,更重要的是它們打開了AI訓(xùn)練的新范式。過去,只有資源雄厚的大公司才能負(fù)擔(dān)得起大規(guī)模AI模型的訓(xùn)練,而現(xiàn)在,這項技術(shù)讓中小型研究團(tuán)隊甚至個人開發(fā)者也有了參與高端AI研發(fā)的可能性。
五、對普通人和整個行業(yè)的深遠(yuǎn)影響
投機(jī)采樣技術(shù)的突破不僅僅是一項學(xué)術(shù)成果,它更像一把鑰匙,為普通人打開了通往AI世界的大門。過去,訓(xùn)練一個像樣的AI模型需要數(shù)萬甚至數(shù)十萬美元的投入,這讓絕大多數(shù)個人和小團(tuán)隊望而卻步。現(xiàn)在,同樣的效果可能只需要幾百到幾千美元就能實現(xiàn),這種成本的大幅降低將會徹底改變AI技術(shù)的普及程度。
對于教育領(lǐng)域來說,這項技術(shù)的意義尤其重大。以前,只有頂尖大學(xué)的計算機(jī)系才有條件讓學(xué)生接觸真正的AI模型訓(xùn)練,大部分學(xué)校只能讓學(xué)生學(xué)習(xí)理論知識?,F(xiàn)在,即使是普通高中的計算機(jī)課程也可以加入實際的AI訓(xùn)練項目,讓學(xué)生們親手體驗訓(xùn)練自己的AI模型。這就像從只能在書本上學(xué)習(xí)化學(xué)反應(yīng),到真正能在實驗室里做實驗一樣,學(xué)習(xí)效果會有質(zhì)的飛躍。
創(chuàng)業(yè)者和中小企業(yè)也將從中獲得巨大好處。過去,開發(fā)一個AI產(chǎn)品往往需要強(qiáng)大的技術(shù)團(tuán)隊和充足的資金支持,這讓很多有創(chuàng)意的想法無法實現(xiàn)。現(xiàn)在,一個小團(tuán)隊甚至個人開發(fā)者都可以在有限的預(yù)算內(nèi)訓(xùn)練出專業(yè)級別的AI模型,這將催生大量創(chuàng)新的AI應(yīng)用和服務(wù)。
從更宏觀的角度來看,這項技術(shù)將有助于AI技術(shù)的民主化。當(dāng)訓(xùn)練成本大幅降低后,更多不同背景的人將能夠參與到AI開發(fā)中來,這意味著AI模型將更好地反映不同群體的需求和價值觀。過去,AI模型主要由少數(shù)大公司開發(fā),難免會帶有特定的偏見和局限性。而當(dāng)開發(fā)門檻降低后,我們將看到更加多元化和包容性的AI生態(tài)系統(tǒng)。
對于發(fā)展中國家來說,這項技術(shù)更是一個難得的機(jī)遇。以前,由于硬件成本和技術(shù)門檻的限制,這些國家在AI領(lǐng)域往往處于劣勢地位?,F(xiàn)在,他們可以用相對較少的投入獲得與發(fā)達(dá)國家相當(dāng)?shù)腁I開發(fā)能力,這有助于縮小全球數(shù)字鴻溝,促進(jìn)技術(shù)的更均衡發(fā)展。
當(dāng)然,成本降低也會帶來一些新的挑戰(zhàn)。當(dāng)更多人能夠訓(xùn)練AI模型時,如何確保這些模型的安全性和可靠性就變得更加重要。研究團(tuán)隊也意識到了這個問題,他們在論文中特別強(qiáng)調(diào)了負(fù)責(zé)任AI開發(fā)的重要性,并建議建立相應(yīng)的監(jiān)管和認(rèn)證機(jī)制。
環(huán)保方面的影響同樣值得關(guān)注。傳統(tǒng)AI訓(xùn)練消耗的能源相當(dāng)于數(shù)千個家庭一年的用電量,而投機(jī)采樣技術(shù)將能源消耗減少了80%以上。隨著AI技術(shù)的普及,這種效率提升將產(chǎn)生巨大的環(huán)保效益,有助于減少整個行業(yè)的碳足跡。
從長遠(yuǎn)來看,這項技術(shù)可能會催生全新的商業(yè)模式和服務(wù)形態(tài)。例如,可能會出現(xiàn)專門的"AI訓(xùn)練即服務(wù)"平臺,讓任何人都能像使用云存儲一樣方便地訓(xùn)練自己的AI模型。也可能出現(xiàn)"AI模型定制"服務(wù),幫助企業(yè)和個人快速開發(fā)滿足特定需求的AI應(yīng)用。
最重要的是,這項技術(shù)降低了創(chuàng)新的門檻,讓更多有創(chuàng)意但缺乏資源的人能夠?qū)崿F(xiàn)自己的想法。歷史告訴我們,最具突破性的創(chuàng)新往往來自于那些不受傳統(tǒng)思維束縛的個人和小團(tuán)隊。當(dāng)AI開發(fā)的門檻大幅降低后,我們很可能會看到更多令人驚喜的創(chuàng)新應(yīng)用,這些應(yīng)用可能會以我們現(xiàn)在無法預(yù)料的方式改變我們的生活。
說到底,斯坦福大學(xué)這項研究的最大價值不在于技術(shù)本身有多么復(fù)雜或先進(jìn),而在于它讓AI技術(shù)真正走向了普通人。就像當(dāng)年個人電腦的普及改變了整個世界一樣,AI訓(xùn)練成本的大幅降低很可能會開啟一個全新的時代——一個人人都能參與AI創(chuàng)新的時代。
當(dāng)我們回顧科技發(fā)展的歷史時會發(fā)現(xiàn),每一次重大突破都伴隨著成本的大幅下降和門檻的顯著降低。從大型機(jī)到個人電腦,從昂貴的長途電話到免費的網(wǎng)絡(luò)通訊,從專業(yè)攝影到人人都是攝影師的智能手機(jī)時代?,F(xiàn)在,輪到了人工智能。
這項研究告訴我們,未來的AI世界不會是少數(shù)巨頭的專屬領(lǐng)域,而是一個更加開放、多元、創(chuàng)新的生態(tài)系統(tǒng)。每個人都有機(jī)會訓(xùn)練屬于自己的AI助手,每個企業(yè)都能開發(fā)符合自身需求的智能系統(tǒng),每個國家都能在AI領(lǐng)域找到自己的發(fā)展路徑。這或許就是技術(shù)進(jìn)步最美好的意義所在——讓先進(jìn)的工具為更多人所用,讓創(chuàng)新的機(jī)會為更多人所有。
Q&A
Q1:投機(jī)采樣技術(shù)是什么?它如何讓AI訓(xùn)練速度提升這么多?
A:投機(jī)采樣技術(shù)是斯坦福大學(xué)開發(fā)的一種新型AI訓(xùn)練方法,核心思想是使用一個小型的"草稿模型"先快速生成多個候選答案,然后讓主模型從中選擇或改進(jìn),而不是從零開始慢慢思考。這就像讓AI有了一個快速的助手來提供建議,避免了重復(fù)計算,所以能將訓(xùn)練速度提升2到640倍。
Q2:普通人能使用這種技術(shù)訓(xùn)練自己的AI模型嗎?成本是多少?
A:可以的。這項技術(shù)最大的意義就是大幅降低了AI訓(xùn)練成本,原本需要數(shù)萬美元的訓(xùn)練現(xiàn)在可能只需要幾百到幾千美元。雖然目前還需要一定的技術(shù)知識,但隨著相關(guān)工具的完善,普通人也將能夠負(fù)擔(dān)得起訓(xùn)練專屬AI模型的費用。
Q3:這種快速訓(xùn)練方法會不會影響AI模型的質(zhì)量和可靠性?
A:不會影響質(zhì)量,甚至在某些方面還有提升。研究團(tuán)隊的測試顯示,使用投機(jī)采樣訓(xùn)練的模型在各項性能指標(biāo)上都與傳統(tǒng)方法相當(dāng)或更好,同時在處理復(fù)雜問題時表現(xiàn)出了更好的穩(wěn)定性。這是因為訓(xùn)練過程中增加了更多的"試錯"機(jī)會,讓模型學(xué)得更加扎實。
好文章,需要你的鼓勵
浙江大學(xué)團(tuán)隊提出動態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準(zhǔn)確率,且不增加計算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學(xué)研究團(tuán)隊提出SIRI方法,通過"壓縮-擴(kuò)張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準(zhǔn)確率低"的問題。實驗顯示,該方法在數(shù)學(xué)競賽題上將模型準(zhǔn)確率提升43.2%的同時,輸出長度減少46.9%,真正實現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團(tuán)隊開發(fā)出Rolling Forcing技術(shù),實現(xiàn)AI視頻實時流式生成的重大突破。該技術(shù)通過滾動窗口聯(lián)合去噪、注意力錨點機(jī)制和高效訓(xùn)練算法三項創(chuàng)新,解決了長視頻生成中的錯誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標(biāo)從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學(xué)研究團(tuán)隊發(fā)現(xiàn),通過讓AI模型學(xué)習(xí)解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個幾何題目的Euclid30K數(shù)據(jù)集,使用強(qiáng)化學(xué)習(xí)方法訓(xùn)練多個AI模型。實驗結(jié)果顯示,幾何訓(xùn)練在四個空間智能測試基準(zhǔn)上都帶來顯著提升,其中最佳模型達(dá)到49.6%準(zhǔn)確率,超越此前最好成績。這項研究揭示了基礎(chǔ)幾何知識對培養(yǎng)AI空間智能的重要價值。