對于那些喜歡編輯圖像的人來說,將一個物體自然地放入背景場景中一直是個難題。想象一下,你手中有一張可愛柯基犬的照片,希望將它放在客廳沙發(fā)上,但總是效果不佳:要么柯基看起來像"貼"上去的貼紙,要么角度不對,要么狗狗的毛色和特征都變了。這正是南方科技大學(xué)林劍滿、李昊杰、青春梅,廣東工業(yè)大學(xué)楊志景,以及中山大學(xué)林亮和陳天水等研究者在2025年5月發(fā)表的研究"Geometry-Editable and Appearance-Preserving Object Composition"(幾何可編輯和外觀保持的對象組合)所要解決的問題。
這項(xiàng)發(fā)表于arXiv(arXiv:2505.20914v1)的研究,為通用物體組合(General Object Composition,簡稱GOC)任務(wù)提出了全新解決方案。什么是通用物體組合?簡單來說,就是將一個目標(biāo)物體(比如那只柯基)無縫地融入背景場景(比如你的客廳),同時確保這個物體可以按照你想要的角度和位置進(jìn)行調(diào)整,而且保持它原本的細(xì)節(jié)外觀不變。想象成是給照片中的物體一個"新家",但不改變它的"長相"。
目前的人工智能技術(shù)在物體組合方面面臨一個兩難選擇:要么能靈活編輯物體的位置和角度(稱為"幾何可編輯性"),但物體的細(xì)節(jié)會丟失;要么能很好地保留物體的細(xì)節(jié)外觀(稱為"外觀保持"),但位置和角度就難以靈活調(diào)整。就像你要么能隨意擺放一個積木,但它可能變成了另一種顏色;要么能保持它漂亮的原色,但只能放在固定位置。
南方科技大學(xué)的研究團(tuán)隊(duì)開創(chuàng)性地提出了一種名為"DGAD"(Disentangled Geometry-editable and Appearance-preserving Diffusion,解耦的幾何可編輯與外觀保持?jǐn)U散模型)的方法。這個方法的獨(dú)特之處在于它將"幾何編輯"和"外觀保持"這兩個任務(wù)巧妙地分開處理,又在正確的時機(jī)將它們結(jié)合起來。
想象DGAD就像一個專業(yè)的電影制作團(tuán)隊(duì):首先有一位"場景設(shè)計(jì)師"(幾何編輯部分)確定物體應(yīng)該放在哪里,以什么角度出現(xiàn);然后有一位"化妝師"(外觀保持部分)確保物體的每一個細(xì)節(jié)都保持原樣。這兩位專家并不是各自為政,而是緊密合作:場景設(shè)計(jì)師先規(guī)劃好物體的位置和姿態(tài),然后化妝師根據(jù)這個規(guī)劃精確地在每個位置添加正確的外觀細(xì)節(jié)。
那么,DGAD是如何實(shí)現(xiàn)這一過程的呢?研究團(tuán)隊(duì)的方法包含兩個關(guān)鍵步驟:
第一步,他們利用語義嵌入(可以理解為物體的"概念理解")和預(yù)訓(xùn)練擴(kuò)散模型的強(qiáng)大空間推理能力,隱式地捕捉物體的幾何特性。這就像先理解"一只狗應(yīng)該怎樣坐在沙發(fā)上"這樣的空間關(guān)系,而不是直接處理狗的外觀。這個階段使用了CLIP或DINO這樣的視覺模型提取的語義特征,讓系統(tǒng)能夠理解物體應(yīng)該如何自然地放置在場景中。
第二步,他們設(shè)計(jì)了一種密集交叉注意力機(jī)制,利用第一步學(xué)到的幾何信息,準(zhǔn)確地將物體的外觀特征與其對應(yīng)的幾何區(qū)域?qū)R。想象這個過程就像拿著一個透明的狗狗輪廓,然后精確地往這個輪廓的每個部分填充正確的顏色和紋理,確保狗的毛發(fā)、眼睛、鼻子等每個細(xì)節(jié)都保持原樣,同時適應(yīng)新的角度和位置。
值得注意的是,DGAD不只是簡單地把物體"貼"到背景上,而是真正理解了物體應(yīng)該如何自然地存在于背景場景中。它不需要用戶提供精確的物體蒙版或復(fù)雜的幾何信息,只需要指定大致的區(qū)域,系統(tǒng)就能自動處理物體的空間放置和外觀保持。
通過在公開基準(zhǔn)測試中的實(shí)驗(yàn),研究團(tuán)隊(duì)證明了DGAD方法在物體編輯性和外觀保持方面都優(yōu)于現(xiàn)有技術(shù)。在用戶研究中,37.5%的參與者認(rèn)為DGAD在組合質(zhì)量方面表現(xiàn)最佳,41.5%的參與者認(rèn)為它在視覺一致性方面最出色,遠(yuǎn)超其他對比方法。
這項(xiàng)技術(shù)的潛在應(yīng)用十分廣泛:從交互式圖像編輯、虛擬環(huán)境創(chuàng)建,到增強(qiáng)和虛擬現(xiàn)實(shí)(AR/VR)應(yīng)用的內(nèi)容生成。想象一下,你可以輕松地將任何物體放入任何背景,創(chuàng)建完全真實(shí)的合成場景,無論是為電子商務(wù)網(wǎng)站創(chuàng)建產(chǎn)品展示,還是為游戲和虛擬世界構(gòu)建沉浸式環(huán)境。
讓我們來看看DGAD與現(xiàn)有方法相比有何不同?,F(xiàn)有的方法主要分為兩類:一類是依賴語義嵌入(如CLIP/DINO特征)的方法,它們能實(shí)現(xiàn)物體的靈活編輯,但會丟失細(xì)節(jié);另一類是使用參考網(wǎng)絡(luò)提取像素級特征的方法,它們能很好地保留外觀細(xì)節(jié),但編輯靈活性受限。
DGAD的創(chuàng)新之處在于它不是簡單地選擇這兩種方法之一,而是巧妙地結(jié)合了兩者的優(yōu)勢。它首先使用語義嵌入隱式地學(xué)習(xí)物體的幾何特性,然后使用這些學(xué)到的特性作為"指導(dǎo)",準(zhǔn)確地從參考網(wǎng)絡(luò)中檢索和對齊外觀特征。這種解耦然后重組的策略,就像是先畫出一個精確的輪廓,然后再一筆一筆地填充顏色,確保每一筆都落在正確的位置。
研究團(tuán)隊(duì)還進(jìn)行了廣泛的消融研究,驗(yàn)證了DGAD中每個組件的必要性和有效性。例如,他們發(fā)現(xiàn)移除幾何布局表示會導(dǎo)致編輯能力顯著下降,而使用標(biāo)準(zhǔn)交叉注意力替代密集交叉注意力機(jī)制則會損害外觀保持能力。
總而言之,南方科技大學(xué)團(tuán)隊(duì)的DGAD方法為通用物體組合任務(wù)提供了一個全新的視角和解決方案,成功地實(shí)現(xiàn)了幾何可編輯性和外觀保持的平衡,這在以往的技術(shù)中是難以同時實(shí)現(xiàn)的。這一突破性進(jìn)展不僅推動了計(jì)算機(jī)視覺和圖像編輯技術(shù)的發(fā)展,也為創(chuàng)建更加真實(shí)、自然的合成圖像鋪平了道路,未來有望在多媒體內(nèi)容創(chuàng)作、虛擬現(xiàn)實(shí)和增強(qiáng)現(xiàn)實(shí)等領(lǐng)域發(fā)揮重要作用。
如果你對這項(xiàng)研究感興趣,可以訪問研究團(tuán)隊(duì)的GitHub頁面:https://github.com/jianmanlincjx/DGAD,查看代碼和預(yù)訓(xùn)練模型。
好文章,需要你的鼓勵
浙江大學(xué)團(tuán)隊(duì)提出動態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準(zhǔn)確率,且不增加計(jì)算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學(xué)研究團(tuán)隊(duì)提出SIRI方法,通過"壓縮-擴(kuò)張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準(zhǔn)確率低"的問題。實(shí)驗(yàn)顯示,該方法在數(shù)學(xué)競賽題上將模型準(zhǔn)確率提升43.2%的同時,輸出長度減少46.9%,真正實(shí)現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團(tuán)隊(duì)開發(fā)出Rolling Forcing技術(shù),實(shí)現(xiàn)AI視頻實(shí)時流式生成的重大突破。該技術(shù)通過滾動窗口聯(lián)合去噪、注意力錨點(diǎn)機(jī)制和高效訓(xùn)練算法三項(xiàng)創(chuàng)新,解決了長視頻生成中的錯誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標(biāo)從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學(xué)研究團(tuán)隊(duì)發(fā)現(xiàn),通過讓AI模型學(xué)習(xí)解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個幾何題目的Euclid30K數(shù)據(jù)集,使用強(qiáng)化學(xué)習(xí)方法訓(xùn)練多個AI模型。實(shí)驗(yàn)結(jié)果顯示,幾何訓(xùn)練在四個空間智能測試基準(zhǔn)上都帶來顯著提升,其中最佳模型達(dá)到49.6%準(zhǔn)確率,超越此前最好成績。這項(xiàng)研究揭示了基礎(chǔ)幾何知識對培養(yǎng)AI空間智能的重要價值。