上海,中國 – 2021年1月19日- 在國際權(quán)威的多目標(biāo)跟蹤挑戰(zhàn)(Multiple Object Tracking Challenge,MOT)MOT20榜單上,紫光展銳多媒體算法的mota指標(biāo)超過70分,拿下全球冠軍。這也是MOT20 Challenge榜單上唯一一家超過70分的企業(yè),彰顯了紫光展銳在多目標(biāo)跟蹤領(lǐng)域的業(yè)界領(lǐng)先水平。
MOT Challenge是多目標(biāo)跟蹤領(lǐng)域最權(quán)威的國際測評平臺,由慕尼黑工業(yè)大學(xué)、阿德萊德大學(xué)、蘇黎世聯(lián)邦理工學(xué)院以及達(dá)姆施塔特工業(yè)大學(xué)聯(lián)合創(chuàng)辦。MOT Challenge 提供了非常準(zhǔn)確的標(biāo)注數(shù)據(jù)和全面的評估指標(biāo),用以評估跟蹤算法、行人檢測器的性能。
其中,MOT 20 benchmark包含8份新的視頻序列、密集且極具挑戰(zhàn)性的場景。這份數(shù)據(jù)集在4th BMTT MOT Challenge Workshop,CVPR 2019上首次發(fā)布,平均每幀高達(dá)246個行人,相比之前的挑戰(zhàn)賽數(shù)據(jù)集增加了夜晚數(shù)據(jù)集,對現(xiàn)有SOTA的MOT算法在解決極端稠密場景、算法泛化性等方面提出了艱巨挑戰(zhàn)。
紫光展銳在多媒體算法中針對網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計、損失函數(shù)、訓(xùn)練數(shù)據(jù)處理等方面進(jìn)行了大量的創(chuàng)新和探索。針對競賽中訓(xùn)練集沒有涉及到的場景,紫光展銳創(chuàng)新性的采用端到端同時檢測、行人識別策略,保障了算法在實際落地時的實時性,同時針對不同的端側(cè)算力靈活調(diào)整網(wǎng)絡(luò)大小,可靈活配套多種芯片方案的部署。
同時參與本次競賽的還包括牛津大學(xué)、卡耐基梅隆大學(xué)、清華大學(xué)、慕尼黑工業(yè)大學(xué)、中科院、微軟等多家企業(yè)、大學(xué)和科研機構(gòu)的相關(guān)團(tuán)隊。
多目標(biāo)追蹤技術(shù)作為承載監(jiān)控、車載、無人機、賽事直播等應(yīng)用的關(guān)鍵技術(shù),可準(zhǔn)確捕捉視頻中的關(guān)鍵信息,為進(jìn)一步的信息提取提供支持,將在智慧城市、物聯(lián)網(wǎng)等領(lǐng)域得到越來越廣泛的應(yīng)用。
在智能監(jiān)控場景中,算法可實現(xiàn)復(fù)雜場景下的目標(biāo)自動提取、跟蹤、識別,理解目標(biāo)的活動狀態(tài),進(jìn)而實現(xiàn)場景狀態(tài)監(jiān)測、識別等。多目標(biāo)追蹤技術(shù)的應(yīng)用可大幅減少人工重復(fù)勞動、提高工作效率和監(jiān)控系統(tǒng)的智能性、安全性;在賽事直播場景中,算法可自動提取運動員的運動狀態(tài),從而實現(xiàn)數(shù)據(jù)統(tǒng)計、自動導(dǎo)播等功能,挖掘更多的數(shù)據(jù)價值;在智能車載場景中,算法可獲取道路中車輛、行人的運動信息,為自動駕駛、安全輔助等應(yīng)用提供必要的決策數(shù)據(jù)支持。
圖像算法正在深度融合到越來越多的垂直行業(yè),形成乘法效應(yīng),衍生出創(chuàng)新的業(yè)務(wù)和應(yīng)用,讓人們的生活更加美好和便捷。
MOT challenge榜單官網(wǎng):https://motchallenge.net/results/MOT20/?det=All
好文章,需要你的鼓勵
浙江大學(xué)團(tuán)隊提出動態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準(zhǔn)確率,且不增加計算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學(xué)研究團(tuán)隊提出SIRI方法,通過"壓縮-擴(kuò)張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準(zhǔn)確率低"的問題。實驗顯示,該方法在數(shù)學(xué)競賽題上將模型準(zhǔn)確率提升43.2%的同時,輸出長度減少46.9%,真正實現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團(tuán)隊開發(fā)出Rolling Forcing技術(shù),實現(xiàn)AI視頻實時流式生成的重大突破。該技術(shù)通過滾動窗口聯(lián)合去噪、注意力錨點機制和高效訓(xùn)練算法三項創(chuàng)新,解決了長視頻生成中的錯誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標(biāo)從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學(xué)研究團(tuán)隊發(fā)現(xiàn),通過讓AI模型學(xué)習(xí)解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個幾何題目的Euclid30K數(shù)據(jù)集,使用強化學(xué)習(xí)方法訓(xùn)練多個AI模型。實驗結(jié)果顯示,幾何訓(xùn)練在四個空間智能測試基準(zhǔn)上都帶來顯著提升,其中最佳模型達(dá)到49.6%準(zhǔn)確率,超越此前最好成績。這項研究揭示了基礎(chǔ)幾何知識對培養(yǎng)AI空間智能的重要價值。