動(dòng)畫片《辛普森一家》在“辛普森即興表演”( Simprovised)一集中進(jìn)行了首次動(dòng)畫直播,這一集于周日在美國(guó)播出。
早在1997 年,在《辛普森一家》“The Itchy & Scratchy & Poochie Show”這一集中,動(dòng)畫主角荷馬·辛普森和動(dòng)畫世界進(jìn)行了一次親密接觸,為動(dòng)畫小狗 Poochie 配音。當(dāng)時(shí)荷馬問(wèn)這一集是否是現(xiàn)場(chǎng)直播,一名資深配音演員冷淡地回答:“動(dòng)畫沒(méi)辦法現(xiàn)場(chǎng)直播,動(dòng)畫師的手沒(méi)有那么快。”
現(xiàn)在快 20 年后,他的預(yù)言性問(wèn)題變成了現(xiàn)實(shí),“辛普森”團(tuán)隊(duì)利用 Adobe Character Animator 播出了該電視節(jié)目的第一個(gè)動(dòng)畫直播片斷:在自己的配音演員 Dan Castellaneta 的幫助下,荷馬進(jìn)行了三分鐘的即興表演,分享了他對(duì)當(dāng)前事件的看法,并對(duì)粉絲提出的問(wèn)題進(jìn)行現(xiàn)場(chǎng)解答。
“辛普森即興表演”為《辛普森一家》、及其大批粉絲,以及電視動(dòng)畫直播帶來(lái)了新突破。
Castellaneta 能夠進(jìn)行即興直播,要?dú)w功于 Adobe Character Animator(Creative Cloud 的組件 After Effects CC 的一項(xiàng)新功能)。該功能通過(guò)音唇同步技術(shù)和鍵盤觸發(fā)動(dòng)畫魔術(shù)般地實(shí)現(xiàn)了這一場(chǎng)景。福克斯和《辛普森一家》的優(yōu)秀團(tuán)隊(duì)提前獲得了當(dāng)時(shí)尚未發(fā)布的 Character Animator版本。Character Animation第一次正式發(fā)布是在全美廣播電視設(shè)備展(NAB)上。
Adobe 高級(jí)戰(zhàn)略開(kāi)發(fā)經(jīng)理(senior strategic development manager at Adobe) Van Bedient 表示:“《辛普森一家》不懼風(fēng)險(xiǎn),在娛樂(lè)未來(lái)發(fā)展和可能性方面不斷突破界限。在我們看來(lái),沒(méi)有什么比在廣受歡迎的節(jié)目中進(jìn)行動(dòng)畫直播更能展示新的技術(shù)突破。“
通過(guò)Adobe Character Animator, 設(shè)計(jì)師能讓 2D 角色變得鮮活靈動(dòng)。專業(yè)動(dòng)畫師或任何設(shè)計(jì)師可以借助 Photoshop CC 或 Illustrator CC,打造層次感分明的角色,并將其放入 Character Animator 畫面中,然后在鏡頭面前將角色的動(dòng)作表演出來(lái)。即使微妙的面部表情也能進(jìn)行即時(shí)展現(xiàn),再加上對(duì)話錄音和通過(guò)按鍵觸發(fā)的其它動(dòng)作,效果栩栩如生。當(dāng)角色之間進(jìn)行互動(dòng),或人們與自己喜愛(ài)的角色直接互動(dòng)時(shí),所有這一切結(jié)合起來(lái)打造出的動(dòng)畫,便可擁有各種現(xiàn)實(shí)、實(shí)時(shí)元素。你微笑,你的角色也會(huì)對(duì)著你微笑。
Adobe 公司產(chǎn)品管理 DVA 高級(jí)總監(jiān)( senior director of product management DVA for Adobe )Bill Roberts 表示:“人們通常不會(huì)把動(dòng)畫與速度和簡(jiǎn)單聯(lián)系起來(lái)。傳統(tǒng)動(dòng)畫需要花費(fèi)大量的時(shí)間才能夠做好。傳達(dá)感情和動(dòng)作并不容易,如果設(shè)計(jì)速度過(guò)快,就有可能損失其中各種重要細(xì)節(jié)。Character Animator 徹底改變了這種傳統(tǒng)做法。”
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開(kāi)發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開(kāi)發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺(jué)解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺(jué)語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺(jué)信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。