CNET科技資訊網(wǎng) 7月28日 北京消息:今天,阿里巴巴的“NASA大腦”iDST(Institute of Data Science Technology)表示,《Hierarchical Multimodal LSTM for Dense Visual-Semantic Embedding》入選2017年國際計算機(jī)視覺大會ICCV,即計算機(jī)視覺領(lǐng)域的頂級會議之一。
這也是阿里巴巴本月內(nèi)第三次公布論文入選國際頂級學(xué)術(shù)會議的好消息。
據(jù)了解,這篇論文涉及的是計算機(jī)視覺(Vision)和自然語言處理(Language)兩個獨(dú)立領(lǐng)域結(jié)合的學(xué)術(shù)研究,提出了對圖像(或圖像顯著區(qū)域)更為細(xì)致精確的描述,顯示出阿里巴巴在Vision&Language研究方向的持續(xù)挖掘。
該論文通過創(chuàng)新的多模態(tài)、層次化的遞歸神經(jīng)網(wǎng)絡(luò)(Hierarchical Multimodal LSTM)方法,可以將整個句子、句子中的短語、整幅圖像及圖像中的顯著區(qū)域同時嵌入語義空間,并且自動學(xué)習(xí)出“句子-圖像”及“短語-圖像區(qū)域”間的對應(yīng)關(guān)系,生成包含更多形容詞的稠密語義空間,對圖像或圖像區(qū)域進(jìn)行更詳細(xì)和生動的描述。
也就是說,計算機(jī)以后不僅能說“一只鳥站在樹枝上”,還能說出“一只羽翼未豐的小鳥站在春天抽芽的樹枝上”、“一只張嘴乞食的小鳥”、“一只小鳥站在抽芽的樹枝上,撲騰翅膀?qū)W習(xí)飛翔”這樣更為生動復(fù)雜的句子。
論文作者介紹,這一研究將被用于“看圖說話(Image Captioning)”任務(wù)及其他頗有意義的應(yīng)用場景。如應(yīng)用于自動導(dǎo)盲系統(tǒng),將拍攝的圖像轉(zhuǎn)換成文字和語音,以便提示盲人避障。
此外,還能用于“跨模態(tài)檢索(Cross-media Retrieval)”任務(wù),當(dāng)用戶在電商搜索引擎中輸入一段描述性文字如“夏季寬松波西米亞大擺沙灘裙”,系統(tǒng)就能為用戶提供最相關(guān)的商品。
ICCV全稱為IEEE International Conference on Computer Vision,與CVPR(計算機(jī)視覺模式識別會議)和ECCV(歐洲計算機(jī)視覺會議)并稱計算機(jī)視覺方向的三大頂級會議。
在本月早些時候,阿里巴巴先后發(fā)布三篇論文入選國際多媒體會議ACM MM,四篇論文入選國際計算機(jī)視覺與模式識別會議CVPR的消息。
今年3月,阿里巴巴宣布啟動NASA計劃,要為未來20年研發(fā)核心科技。在這一計劃的號召下,阿里正在人工智能領(lǐng)域全面發(fā)力,在機(jī)器學(xué)習(xí)、視覺識別等領(lǐng)域不斷追趕世界頂尖的學(xué)術(shù)水平。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團(tuán)隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊通過對比實驗發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強(qiáng)于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。