截止目前,中國(guó)移動(dòng)用戶規(guī)模已遠(yuǎn)超5億,移動(dòng)互聯(lián)網(wǎng)用戶數(shù)呈井噴式增長(zhǎng),伴隨著4G時(shí)代的開啟, 2014年移動(dòng)互聯(lián)網(wǎng)將進(jìn)一步出現(xiàn)爆發(fā)式發(fā)展。移動(dòng)互聯(lián)網(wǎng)從根本上改變了生活方式,網(wǎng)絡(luò)建設(shè)該如何跟上步伐,成為行業(yè)思考和熱議的話題。
2014年6月25日,移動(dòng)互聯(lián)變革將開啟加速按鈕,全球領(lǐng)先的CDN服務(wù)提供商——藍(lán)汛ChinaCache 攜手首都互聯(lián)網(wǎng)協(xié)會(huì),網(wǎng)絡(luò)信息技術(shù)安全專業(yè)委員會(huì)共同舉辦的2014年全球CDN大會(huì)將在中國(guó)電影導(dǎo)演中心召開。大會(huì)將聚集行業(yè)精英,共同探討移動(dòng)化大潮下的互聯(lián)網(wǎng)技術(shù)發(fā)展趨勢(shì),為企業(yè)把握移動(dòng)互聯(lián)網(wǎng)發(fā)展新契機(jī)提供討論和碰撞的平臺(tái)。
大數(shù)據(jù)時(shí)代,怎樣做好消費(fèi)者洞察和分析,通過數(shù)據(jù)的挖掘去改善客戶體驗(yàn)?會(huì)上,藍(lán)汛ChinaCache副總裁傅亮將分享大數(shù)據(jù)愿景,闡述大數(shù)據(jù)在互聯(lián)網(wǎng)的發(fā)展及應(yīng)用。
過去的10年中,全球移動(dòng)互聯(lián)網(wǎng)出現(xiàn)了巨大變遷,中國(guó)的移動(dòng)網(wǎng)民和全球用戶相比,在接入方式、應(yīng)用內(nèi)容、使用習(xí)慣上有哪些差異和共性?本次大會(huì)上,來(lái)自GFK集團(tuán)的Torsten Mueller-Klockmann將首次在中國(guó)分享全球移動(dòng)互聯(lián)網(wǎng)發(fā)展趨勢(shì)的專業(yè)數(shù)據(jù)。
在宏觀趨勢(shì)分享同時(shí),大會(huì)還聚焦細(xì)分行業(yè)做深度探討。本次全球CDN大會(huì)的視頻行業(yè)高峰論壇上,來(lái)自愛奇藝、樂視、中國(guó)國(guó)際廣播電視網(wǎng)絡(luò)等知名企業(yè)的領(lǐng)軍人物,將共同探討移動(dòng)化大潮流下視頻行業(yè)的機(jī)遇與挑戰(zhàn)。
而隨著傳統(tǒng)行業(yè)唱響“互聯(lián)網(wǎng)化”的主旋律,本屆大會(huì)特別設(shè)立了傳統(tǒng)行業(yè)互聯(lián)網(wǎng)化高峰論壇,探討互聯(lián)網(wǎng)如何滲透和顛覆傳統(tǒng)行業(yè)。值得一提的是,本次大會(huì)請(qǐng)到了谷歌研究院的專家,與大家一起分享有關(guān)谷歌汽車的最新資訊和動(dòng)向。
伴隨移動(dòng)互聯(lián)網(wǎng)的快速發(fā)展,CDN行業(yè)將面臨新的機(jī)遇和挑戰(zhàn)。在傳承2013年首屆全球CDN大會(huì)的成功基礎(chǔ)上,藍(lán)汛ChinaCache將召集全球互聯(lián)網(wǎng)各界精英,共探行業(yè)趨勢(shì),把脈中國(guó)移動(dòng)互聯(lián)。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。