av天堂久久天堂色综合,最近中文字幕mv免费高清在线,在线a级毛片免费视频,av动漫,中文字幕精品亚洲无线码一区

微信掃一掃,關(guān)注公眾號(hào)

  • 科技行者

  • 算力行者

見證連接與計(jì)算的「力量」

首頁 SATORI-R1:華中科技大學(xué)研究團(tuán)隊(duì)通過空間定位和可驗(yàn)證獎(jiǎng)勵(lì)增強(qiáng)多模態(tài)推理能力

SATORI-R1:華中科技大學(xué)研究團(tuán)隊(duì)通過空間定位和可驗(yàn)證獎(jiǎng)勵(lì)增強(qiáng)多模態(tài)推理能力

2025-06-01 16:09
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-06-01 16:09 ? 科技行者

在人工智能視覺語言理解領(lǐng)域,一項(xiàng)重大突破悄然發(fā)生。由華中科技大學(xué)沈楚明、魏威、屈曉曄和香港中文大學(xué)鄭宇共同完成的研究《SATORI-R1: Incentivizing Multimodal Reasoning with Spatial Grounding and Verifiable Rewards》于2025年5月25日發(fā)表在arXiv預(yù)印本平臺(tái)(arXiv:2505.19094v1),這項(xiàng)研究為視覺問答任務(wù)提供了全新的思路。有興趣深入了解的讀者可通過GitHub(https://github.com/justairr/SATORI-R1)訪問項(xiàng)目代碼。

這個(gè)故事要從最近大火的強(qiáng)化學(xué)習(xí)(RL)技術(shù)說起。想象一下,就像訓(xùn)練寵物做新把戲時(shí),我們通過獎(jiǎng)勵(lì)正確行為來引導(dǎo)它學(xué)習(xí)。在文本領(lǐng)域,DeepSeek-R1模型已經(jīng)證明這種方法可以讓AI展現(xiàn)出強(qiáng)大的推理能力。然而,當(dāng)這種技術(shù)被直接應(yīng)用到視覺問答領(lǐng)域時(shí),研究者們發(fā)現(xiàn)了兩個(gè)關(guān)鍵問題。

首先是"注意力分散"問題。想象你在看一幅復(fù)雜的畫作,有人問你:"畫中人物穿的是什么顏色的衣服?"正常情況下,你會(huì)立即將目光聚焦在人物身上。但如果采用自由形式的推理模式,模型就像一個(gè)東張西望的孩子,目光在畫面各處游走,分散了對(duì)關(guān)鍵區(qū)域的注意力,導(dǎo)致回答準(zhǔn)確度下降。

其次是"收斂障礙"問題。這就像教一個(gè)孩子解題,如果沒有明確的中間步驟指導(dǎo),只靠最終答案來評(píng)判對(duì)錯(cuò),學(xué)習(xí)效率會(huì)非常低。在強(qiáng)化學(xué)習(xí)中,沒有可驗(yàn)證的中間步驟會(huì)使模型訓(xùn)練變得緩慢且計(jì)算成本高昂。

針對(duì)這些挑戰(zhàn),華中科技大學(xué)的研究團(tuán)隊(duì)提出了SATORI(Spatially Anchored Task Optimization with ReInforcement Learning,空間錨定任務(wù)優(yōu)化強(qiáng)化學(xué)習(xí))方法。這個(gè)方法巧妙地將視覺問答任務(wù)分解為三個(gè)可驗(yàn)證的階段:全局圖像描述、區(qū)域定位和答案預(yù)測(cè)。

想象一下偵探破案的過程:偵探首先會(huì)對(duì)整個(gè)案發(fā)現(xiàn)場(chǎng)進(jìn)行全面觀察(全局圖像描述),然后聚焦于關(guān)鍵證據(jù)區(qū)域(區(qū)域定位),最后基于這些信息得出結(jié)論(答案預(yù)測(cè))。SATORI正是采用了這樣的思路,每個(gè)階段都能提供明確的獎(jiǎng)勵(lì)信號(hào),指導(dǎo)模型學(xué)習(xí)。

為了支持這種訓(xùn)練方式,研究團(tuán)隊(duì)還創(chuàng)建了一個(gè)名為VQA-Verify的數(shù)據(jù)集,包含12,000個(gè)帶有答案相關(guān)說明和邊界框標(biāo)注的樣本。這就像為偵探提供了一本詳細(xì)的教程,告訴他在各種案件中應(yīng)該關(guān)注哪些區(qū)域,以及如何解讀這些線索。

實(shí)驗(yàn)結(jié)果令人振奮。在七個(gè)視覺問答基準(zhǔn)測(cè)試中,SATORI展現(xiàn)出一致的性能提升,相比基線模型,準(zhǔn)確率最高提升了15.7%。通過分析注意力圖,研究者確認(rèn)模型確實(shí)更專注于關(guān)鍵區(qū)域,這直接帶來了準(zhǔn)確率的提升。

讓我們深入了解SATORI的工作原理。研究團(tuán)隊(duì)首先分析了多模態(tài)大語言模型的視覺注意力圖,發(fā)現(xiàn)自由形式推理會(huì)分散模型對(duì)答案相關(guān)區(qū)域的關(guān)注。這就像在閱讀一本復(fù)雜的書時(shí),過度鉆研每個(gè)細(xì)節(jié)反而會(huì)讓你錯(cuò)過關(guān)鍵情節(jié)。

基于這一發(fā)現(xiàn),研究者提出了三步視覺推理模式和相應(yīng)的強(qiáng)化學(xué)習(xí)范式。通過將圖像描述和區(qū)域定位轉(zhuǎn)化為可驗(yàn)證的獎(jiǎng)勵(lì)信號(hào),這種方法減少了策略梯度方差27%,加速了模型收斂。

技術(shù)細(xì)節(jié)上,SATORI采用了GRPO(Group Relative Policy Optimization,群體相對(duì)策略優(yōu)化)算法,每個(gè)輸入問題會(huì)采樣多個(gè)候選輸出,并基于獎(jiǎng)勵(lì)函數(shù)進(jìn)行評(píng)估。研究者設(shè)計(jì)了多種獎(jiǎng)勵(lì)信號(hào),包括描述準(zhǔn)確度、邊界框匹配度和最終答案正確性。這些獎(jiǎng)勵(lì)共同引導(dǎo)模型生成更準(zhǔn)確的視覺推理過程。

為了驗(yàn)證方法有效性,研究團(tuán)隊(duì)在MMBench、MMStar、MME和OCRBench等多個(gè)基準(zhǔn)測(cè)試上進(jìn)行了評(píng)估。結(jié)果顯示,SATORI不僅在常規(guī)視覺問答任務(wù)上表現(xiàn)優(yōu)異,在數(shù)學(xué)推理等更具挑戰(zhàn)性的任務(wù)上也取得了4.6到9.0個(gè)百分點(diǎn)的提升。

這項(xiàng)研究的意義在于,它提出了一種更符合視覺任務(wù)特性的推理模式。相比于直接套用文本領(lǐng)域的自由形式推理,SATORI通過引入空間定位,使模型能夠更精確地聚焦于問題相關(guān)區(qū)域,從而提高回答準(zhǔn)確率。

此外,研究中提出的可驗(yàn)證中間步驟也為強(qiáng)化學(xué)習(xí)在視覺語言領(lǐng)域的應(yīng)用提供了新思路。通過分解復(fù)雜任務(wù)和提供明確的中間獎(jiǎng)勵(lì),SATORI顯著提高了訓(xùn)練效率和模型性能。

對(duì)普通人來說,這項(xiàng)研究意味著未來的AI助手將能更準(zhǔn)確地理解和回答與圖像相關(guān)的問題。無論是詢問照片中物體的位置、人物的動(dòng)作,還是場(chǎng)景中的關(guān)系,AI都能像人類一樣,先觀察全局,然后聚焦細(xì)節(jié),最后給出準(zhǔn)確答案。

研究團(tuán)隊(duì)指出,未來工作將探索更精細(xì)的驗(yàn)證框架,使模型能在每個(gè)推理步驟關(guān)注不同的圖像區(qū)域,并考慮引入可學(xué)習(xí)的階段控制器,使模型能根據(jù)問題復(fù)雜度自適應(yīng)地調(diào)整中間步驟的數(shù)量和類型。

總之,SATORI為多模態(tài)大語言模型的視覺推理能力開辟了新路徑,通過空間定位和可驗(yàn)證獎(jiǎng)勵(lì),使模型能更準(zhǔn)確地理解視覺內(nèi)容,從而提供更精準(zhǔn)的回答。這項(xiàng)創(chuàng)新不僅提升了現(xiàn)有技術(shù)的性能,也為未來研究提供了寶貴的方向和思路。

分享至
0贊

好文章,需要你的鼓勵(lì)

推薦文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-