科技行者 1月8日 北京消息(文/李祥敬):美國(guó)拉斯維加斯,2020年1月7日——在2020年國(guó)際消費(fèi)電子展(CES 2020)上,英特爾在以“智能驅(qū)動(dòng)創(chuàng)新”(Innovation through Intelligence)為主題的新聞發(fā)布會(huì)上演示了系列場(chǎng)景,展現(xiàn)了其如何將智能融入云、網(wǎng)絡(luò)、邊緣和PC,推動(dòng)其對(duì)人、企業(yè)和社會(huì)創(chuàng)造積極的影響。
當(dāng)前,數(shù)據(jù)中心是為全球企業(yè)提供智能的重要驅(qū)動(dòng)力,而英特爾至強(qiáng)可擴(kuò)展處理器仍然是數(shù)據(jù)中心的基石。英特爾公司執(zhí)行副總裁、數(shù)據(jù)平臺(tái)事業(yè)部總經(jīng)理孫納頤(Navin Shenoy)在主題演講中宣布,于2020年上半年推出的第三代英特爾至強(qiáng)可擴(kuò)展處理器,將包含面向內(nèi)置人工智能訓(xùn)練加速的全新英特爾DL Boost擴(kuò)展指令集,與之前的產(chǎn)品系列相比,其訓(xùn)練性能提升高達(dá)60%,而且至強(qiáng)是唯一的內(nèi)置AI的通用CPU。
孫納頤著重介紹了英特爾將智能融入云、網(wǎng)絡(luò)和邊緣計(jì)算的數(shù)據(jù)平臺(tái)的多種途徑,并舉例說明其對(duì)體育和娛樂體驗(yàn)帶來的變革。
孫納頤介紹說,Netflix采用最新的視頻壓縮技術(shù)——AV1,以優(yōu)化Netflix的媒體流服務(wù),并將全球范圍的內(nèi)容帶入人們的生活之中。相較于之前的AVC壓縮技術(shù),它能使壓縮的效率提升高達(dá)60%。英特爾和Netflix繼續(xù)合作,推動(dòng)開源高性能編碼器(SVT-AV1)的開發(fā),并在第二代英特爾至強(qiáng)可擴(kuò)展處理器上進(jìn)行了優(yōu)化,顯著地提升了質(zhì)量和性能以實(shí)現(xiàn)商業(yè)部署。
3D“運(yùn)動(dòng)員追蹤”(3DAT)是業(yè)內(nèi)首創(chuàng)的計(jì)算機(jī)視覺解決方案,它利用人工智能提供接近實(shí)時(shí)的數(shù)據(jù)洞察和可視化,可大幅提升觀賽體驗(yàn)。3DAT使用高度靈活的攝像頭捕捉運(yùn)動(dòng)員的姿勢(shì)和動(dòng)作,然后應(yīng)用以英特爾DL Boost優(yōu)化并由英特爾至強(qiáng)可擴(kuò)展處理器驅(qū)動(dòng)的算法,從生物力學(xué)機(jī)制的角度對(duì)運(yùn)動(dòng)員動(dòng)作進(jìn)行分析。孫納頤宣布,該技術(shù)將應(yīng)用于2020年東京奧運(yùn)會(huì)100米及其它短跑項(xiàng)目的視頻回放中。
除此以外,英特爾和體育產(chǎn)業(yè)正在以“體三維視頻”(volumetric video)促進(jìn)體育賽事觀賽體驗(yàn)的變革,這是突破觀賽體驗(yàn)極限的重要進(jìn)展。英特爾 True View合成出體育場(chǎng)館的全部空間,提供全方位無死角視野,讓球迷可以選擇從任何有利位置和運(yùn)動(dòng)員視角,以流式傳輸?shù)姆绞皆谄湓O(shè)備上觀賽。英特爾和美國(guó)職業(yè)橄欖球大聯(lián)盟(NFL)以克利夫蘭布朗隊(duì)與亞利桑那紅雀隊(duì)的比賽為例,展示了“體三維”視頻的沖擊力。僅在一場(chǎng)NFL比賽的第一節(jié),所產(chǎn)生的數(shù)據(jù)就超過了3TB/分鐘,這種指數(shù)級(jí)的數(shù)據(jù)增長(zhǎng),需要超強(qiáng)的計(jì)算力才能實(shí)現(xiàn)。
好文章,需要你的鼓勵(lì)
浙江大學(xué)團(tuán)隊(duì)提出動(dòng)態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準(zhǔn)確率,且不增加計(jì)算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學(xué)研究團(tuán)隊(duì)提出SIRI方法,通過"壓縮-擴(kuò)張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準(zhǔn)確率低"的問題。實(shí)驗(yàn)顯示,該方法在數(shù)學(xué)競(jìng)賽題上將模型準(zhǔn)確率提升43.2%的同時(shí),輸出長(zhǎng)度減少46.9%,真正實(shí)現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團(tuán)隊(duì)開發(fā)出Rolling Forcing技術(shù),實(shí)現(xiàn)AI視頻實(shí)時(shí)流式生成的重大突破。該技術(shù)通過滾動(dòng)窗口聯(lián)合去噪、注意力錨點(diǎn)機(jī)制和高效訓(xùn)練算法三項(xiàng)創(chuàng)新,解決了長(zhǎng)視頻生成中的錯(cuò)誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標(biāo)從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學(xué)研究團(tuán)隊(duì)發(fā)現(xiàn),通過讓AI模型學(xué)習(xí)解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個(gè)幾何題目的Euclid30K數(shù)據(jù)集,使用強(qiáng)化學(xué)習(xí)方法訓(xùn)練多個(gè)AI模型。實(shí)驗(yàn)結(jié)果顯示,幾何訓(xùn)練在四個(gè)空間智能測(cè)試基準(zhǔn)上都帶來顯著提升,其中最佳模型達(dá)到49.6%準(zhǔn)確率,超越此前最好成績(jī)。這項(xiàng)研究揭示了基礎(chǔ)幾何知識(shí)對(duì)培養(yǎng)AI空間智能的重要價(jià)值。