上海,中國 – 2021年1月19日- 在國際權(quán)威的多目標(biāo)跟蹤挑戰(zhàn)(Multiple Object Tracking Challenge,MOT)MOT20榜單上,紫光展銳多媒體算法的mota指標(biāo)超過70分,拿下全球冠軍。這也是MOT20 Challenge榜單上唯一一家超過70分的企業(yè),彰顯了紫光展銳在多目標(biāo)跟蹤領(lǐng)域的業(yè)界領(lǐng)先水平。
MOT Challenge是多目標(biāo)跟蹤領(lǐng)域最權(quán)威的國際測評(píng)平臺(tái),由慕尼黑工業(yè)大學(xué)、阿德萊德大學(xué)、蘇黎世聯(lián)邦理工學(xué)院以及達(dá)姆施塔特工業(yè)大學(xué)聯(lián)合創(chuàng)辦。MOT Challenge 提供了非常準(zhǔn)確的標(biāo)注數(shù)據(jù)和全面的評(píng)估指標(biāo),用以評(píng)估跟蹤算法、行人檢測器的性能。
其中,MOT 20 benchmark包含8份新的視頻序列、密集且極具挑戰(zhàn)性的場景。這份數(shù)據(jù)集在4th BMTT MOT Challenge Workshop,CVPR 2019上首次發(fā)布,平均每幀高達(dá)246個(gè)行人,相比之前的挑戰(zhàn)賽數(shù)據(jù)集增加了夜晚數(shù)據(jù)集,對(duì)現(xiàn)有SOTA的MOT算法在解決極端稠密場景、算法泛化性等方面提出了艱巨挑戰(zhàn)。
紫光展銳在多媒體算法中針對(duì)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)、損失函數(shù)、訓(xùn)練數(shù)據(jù)處理等方面進(jìn)行了大量的創(chuàng)新和探索。針對(duì)競賽中訓(xùn)練集沒有涉及到的場景,紫光展銳創(chuàng)新性的采用端到端同時(shí)檢測、行人識(shí)別策略,保障了算法在實(shí)際落地時(shí)的實(shí)時(shí)性,同時(shí)針對(duì)不同的端側(cè)算力靈活調(diào)整網(wǎng)絡(luò)大小,可靈活配套多種芯片方案的部署。
同時(shí)參與本次競賽的還包括牛津大學(xué)、卡耐基梅隆大學(xué)、清華大學(xué)、慕尼黑工業(yè)大學(xué)、中科院、微軟等多家企業(yè)、大學(xué)和科研機(jī)構(gòu)的相關(guān)團(tuán)隊(duì)。
多目標(biāo)追蹤技術(shù)作為承載監(jiān)控、車載、無人機(jī)、賽事直播等應(yīng)用的關(guān)鍵技術(shù),可準(zhǔn)確捕捉視頻中的關(guān)鍵信息,為進(jìn)一步的信息提取提供支持,將在智慧城市、物聯(lián)網(wǎng)等領(lǐng)域得到越來越廣泛的應(yīng)用。
在智能監(jiān)控場景中,算法可實(shí)現(xiàn)復(fù)雜場景下的目標(biāo)自動(dòng)提取、跟蹤、識(shí)別,理解目標(biāo)的活動(dòng)狀態(tài),進(jìn)而實(shí)現(xiàn)場景狀態(tài)監(jiān)測、識(shí)別等。多目標(biāo)追蹤技術(shù)的應(yīng)用可大幅減少人工重復(fù)勞動(dòng)、提高工作效率和監(jiān)控系統(tǒng)的智能性、安全性;在賽事直播場景中,算法可自動(dòng)提取運(yùn)動(dòng)員的運(yùn)動(dòng)狀態(tài),從而實(shí)現(xiàn)數(shù)據(jù)統(tǒng)計(jì)、自動(dòng)導(dǎo)播等功能,挖掘更多的數(shù)據(jù)價(jià)值;在智能車載場景中,算法可獲取道路中車輛、行人的運(yùn)動(dòng)信息,為自動(dòng)駕駛、安全輔助等應(yīng)用提供必要的決策數(shù)據(jù)支持。
圖像算法正在深度融合到越來越多的垂直行業(yè),形成乘法效應(yīng),衍生出創(chuàng)新的業(yè)務(wù)和應(yīng)用,讓人們的生活更加美好和便捷。
MOT challenge榜單官網(wǎng):https://motchallenge.net/results/MOT20/?det=All
好文章,需要你的鼓勵(lì)
這項(xiàng)研究提出了"高效探測"方法,解決了掩碼圖像建模AI難以有效評(píng)估的問題。通過創(chuàng)新的多查詢交叉注意力機(jī)制,該方法在減少90%參數(shù)的同時(shí)實(shí)現(xiàn)10倍速度提升,在七個(gè)基準(zhǔn)測試中均超越傳統(tǒng)方法。研究還發(fā)現(xiàn)注意力質(zhì)量與分類性能的強(qiáng)相關(guān)性,生成可解釋的注意力圖譜,展現(xiàn)出優(yōu)異的跨域適應(yīng)性。團(tuán)隊(duì)承諾開源全部代碼,推動(dòng)技術(shù)普及應(yīng)用。
伊利諾伊大學(xué)研究團(tuán)隊(duì)開發(fā)了CLAIMSPECT系統(tǒng),通過層次化分解復(fù)雜爭議、智能檢索相關(guān)文獻(xiàn)、多角度收集觀點(diǎn)的方法,將傳統(tǒng)的"真假"判斷轉(zhuǎn)變?yōu)槎嗑S度分析。該系統(tǒng)能夠自動(dòng)構(gòu)建爭議話題的分析框架,識(shí)別不同觀點(diǎn)及其支撐證據(jù),為科學(xué)和政治爭議提供更全面客觀的分析,已在生物醫(yī)學(xué)和國際關(guān)系領(lǐng)域驗(yàn)證有效性。
清華大學(xué)研究團(tuán)隊(duì)首次提出情感認(rèn)知融合網(wǎng)絡(luò)(ECFN),讓AI能像人類一樣理解和表達(dá)情感。該系統(tǒng)通過多層次情感處理架構(gòu),在情感識(shí)別準(zhǔn)確率上比現(xiàn)有最佳系統(tǒng)提升32%,情感表達(dá)自然度提升45%。研究突破了傳統(tǒng)AI情感理解的局限,實(shí)現(xiàn)了跨模態(tài)情感融合、動(dòng)態(tài)情感追蹤和個(gè)性化情感建模,為醫(yī)療、教育、客服等領(lǐng)域帶來革命性應(yīng)用前景。
哈佛大學(xué)研究團(tuán)隊(duì)通過創(chuàng)新的多智能體強(qiáng)化學(xué)習(xí)方法,讓AI在戰(zhàn)略游戲中學(xué)會(huì)復(fù)雜推理。研究發(fā)現(xiàn)AI通過游戲競爭能發(fā)展出類人思維能力,在邏輯推理、創(chuàng)造性解決問題等方面表現(xiàn)顯著提升。這項(xiàng)突破性成果為未來AI在醫(yī)療、教育、城市管理等領(lǐng)域的應(yīng)用奠定基礎(chǔ),展現(xiàn)了通過模擬人類學(xué)習(xí)過程培養(yǎng)真正智能AI的新路徑。