動畫片《辛普森一家》在“辛普森即興表演”( Simprovised)一集中進(jìn)行了首次動畫直播,這一集于周日在美國播出。
早在1997 年,在《辛普森一家》“The Itchy & Scratchy & Poochie Show”這一集中,動畫主角荷馬·辛普森和動畫世界進(jìn)行了一次親密接觸,為動畫小狗 Poochie 配音。當(dāng)時荷馬問這一集是否是現(xiàn)場直播,一名資深配音演員冷淡地回答:“動畫沒辦法現(xiàn)場直播,動畫師的手沒有那么快。”
現(xiàn)在快 20 年后,他的預(yù)言性問題變成了現(xiàn)實,“辛普森”團(tuán)隊利用 Adobe Character Animator 播出了該電視節(jié)目的第一個動畫直播片斷:在自己的配音演員 Dan Castellaneta 的幫助下,荷馬進(jìn)行了三分鐘的即興表演,分享了他對當(dāng)前事件的看法,并對粉絲提出的問題進(jìn)行現(xiàn)場解答。
“辛普森即興表演”為《辛普森一家》、及其大批粉絲,以及電視動畫直播帶來了新突破。
Castellaneta 能夠進(jìn)行即興直播,要?dú)w功于 Adobe Character Animator(Creative Cloud 的組件 After Effects CC 的一項新功能)。該功能通過音唇同步技術(shù)和鍵盤觸發(fā)動畫魔術(shù)般地實現(xiàn)了這一場景。??怂购汀缎疗丈患摇返膬?yōu)秀團(tuán)隊提前獲得了當(dāng)時尚未發(fā)布的 Character Animator版本。Character Animation第一次正式發(fā)布是在全美廣播電視設(shè)備展(NAB)上。
Adobe 高級戰(zhàn)略開發(fā)經(jīng)理(senior strategic development manager at Adobe) Van Bedient 表示:“《辛普森一家》不懼風(fēng)險,在娛樂未來發(fā)展和可能性方面不斷突破界限。在我們看來,沒有什么比在廣受歡迎的節(jié)目中進(jìn)行動畫直播更能展示新的技術(shù)突破。“
通過Adobe Character Animator, 設(shè)計師能讓 2D 角色變得鮮活靈動。專業(yè)動畫師或任何設(shè)計師可以借助 Photoshop CC 或 Illustrator CC,打造層次感分明的角色,并將其放入 Character Animator 畫面中,然后在鏡頭面前將角色的動作表演出來。即使微妙的面部表情也能進(jìn)行即時展現(xiàn),再加上對話錄音和通過按鍵觸發(fā)的其它動作,效果栩栩如生。當(dāng)角色之間進(jìn)行互動,或人們與自己喜愛的角色直接互動時,所有這一切結(jié)合起來打造出的動畫,便可擁有各種現(xiàn)實、實時元素。你微笑,你的角色也會對著你微笑。
Adobe 公司產(chǎn)品管理 DVA 高級總監(jiān)( senior director of product management DVA for Adobe )Bill Roberts 表示:“人們通常不會把動畫與速度和簡單聯(lián)系起來。傳統(tǒng)動畫需要花費(fèi)大量的時間才能夠做好。傳達(dá)感情和動作并不容易,如果設(shè)計速度過快,就有可能損失其中各種重要細(xì)節(jié)。Character Animator 徹底改變了這種傳統(tǒng)做法。”
好文章,需要你的鼓勵
浙江大學(xué)團(tuán)隊提出動態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準(zhǔn)確率,且不增加計算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學(xué)研究團(tuán)隊提出SIRI方法,通過"壓縮-擴(kuò)張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準(zhǔn)確率低"的問題。實驗顯示,該方法在數(shù)學(xué)競賽題上將模型準(zhǔn)確率提升43.2%的同時,輸出長度減少46.9%,真正實現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團(tuán)隊開發(fā)出Rolling Forcing技術(shù),實現(xiàn)AI視頻實時流式生成的重大突破。該技術(shù)通過滾動窗口聯(lián)合去噪、注意力錨點機(jī)制和高效訓(xùn)練算法三項創(chuàng)新,解決了長視頻生成中的錯誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標(biāo)從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學(xué)研究團(tuán)隊發(fā)現(xiàn),通過讓AI模型學(xué)習(xí)解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個幾何題目的Euclid30K數(shù)據(jù)集,使用強(qiáng)化學(xué)習(xí)方法訓(xùn)練多個AI模型。實驗結(jié)果顯示,幾何訓(xùn)練在四個空間智能測試基準(zhǔn)上都帶來顯著提升,其中最佳模型達(dá)到49.6%準(zhǔn)確率,超越此前最好成績。這項研究揭示了基礎(chǔ)幾何知識對培養(yǎng)AI空間智能的重要價值。