移動(dòng)互聯(lián)網(wǎng)已經(jīng)成為互聯(lián)網(wǎng)行業(yè)兵家競(jìng)爭(zhēng)最激烈的領(lǐng)域之一,各路企業(yè)紛紛以用戶需求為導(dǎo)向進(jìn)行發(fā)展布局。
9月3日,2014年百度世界大會(huì)上,百度董事長(zhǎng)兼CEO李彥宏與業(yè)界分享了一個(gè)關(guān)于用戶行為變化的重要洞察:未來(lái)五年用戶的移動(dòng)需求會(huì)發(fā)生質(zhì)的變化,通過(guò)語(yǔ)音、圖像等非文字形式表達(dá)的用戶需求將超過(guò)50%。
李彥宏指出,移動(dòng)用戶正在逐漸脫離傳統(tǒng)鍵盤輸入習(xí)慣,相比較鍵盤這樣需要經(jīng)過(guò)長(zhǎng)久學(xué)習(xí)才能掌握的工具,通過(guò)語(yǔ)音、圖像等方式表達(dá)搜索請(qǐng)求,是最自然的,本能的表達(dá)需求方式。它所帶來(lái)用戶行為的轉(zhuǎn)變,也注定會(huì)成為移動(dòng)互聯(lián)網(wǎng)最重要入口。
發(fā)展心理學(xué)的研究表明,人類所獲取的70%的外部信息來(lái)自視覺(jué),因此人類跟周邊世界中人和物的溝通以及交互,極其依賴于圖像;而從嬰幼兒牙牙學(xué)語(yǔ)開(kāi)始,通過(guò)語(yǔ)言溝通實(shí)現(xiàn)需求表達(dá)即成為人類的本能。因此,在李彥宏看來(lái),移動(dòng)互聯(lián)網(wǎng)正不斷推動(dòng)語(yǔ)音、圖像等需求表達(dá),這樣的用戶行為變化也說(shuō)明未來(lái)的科技將更加回歸自然、貼近人性。
當(dāng)前移動(dòng)網(wǎng)絡(luò)基礎(chǔ)能力的增強(qiáng)使網(wǎng)速大幅提高,為用戶使用語(yǔ)音提供了良好的環(huán)境;智能設(shè)備的推陳出新,也為語(yǔ)音提供了高質(zhì)量的輸入條件。而全民低成本造圖,日均數(shù)億量級(jí)的社會(huì)化圖片分享也為移動(dòng)互聯(lián)網(wǎng)提供了大量圖片數(shù)據(jù)。這一趨勢(shì),在移動(dòng)互聯(lián)網(wǎng)技術(shù)依托下,讓圖像識(shí)別、語(yǔ)義理解和人機(jī)對(duì)話連在一起,幫助用戶完成任務(wù)。當(dāng)用戶需求隨著技術(shù)自由實(shí)現(xiàn)急劇增長(zhǎng),未來(lái)將足夠引起一個(gè)劃時(shí)代的變革。
“我們正在積極的努力,在技術(shù)上進(jìn)行研發(fā),不斷提升我們的語(yǔ)音識(shí)別和圖像識(shí)別能力,更好地滿足用戶的需求”,李彥宏說(shuō)。
試想一下,當(dāng)你在街上看到一個(gè)商標(biāo),用攝像頭對(duì)其進(jìn)行拍照,后臺(tái)可以先進(jìn)行提取,再進(jìn)行模板匹配的方法進(jìn)行圖像結(jié)算——與其特征進(jìn)行匹配,給出用戶最想要的結(jié)果——包括價(jià)格、購(gòu)買信息甚至一鍵下單;對(duì)手機(jī)說(shuō)“中午我想吃漢堡”,12點(diǎn)準(zhǔn)時(shí)外賣在敲門,這樣的行為真正地回歸了自然的方式,更方便、更人性地傳遞著互聯(lián)網(wǎng)技術(shù)改變?nèi)藗兩畹闹卮笠饬x。而這些想象,以李彥宏的趨勢(shì)洞察來(lái)審視,相信會(huì)在不遠(yuǎn)的將來(lái)即將實(shí)現(xiàn)。
不僅如此,李彥宏在百度世界上還宣布“百度筷搜”1.0版本問(wèn)世,對(duì)于這樣一款僅憑概念就火爆業(yè)界的產(chǎn)品,“百度筷搜”已經(jīng)能夠?qū)崿F(xiàn)檢測(cè)油質(zhì)優(yōu)劣、水質(zhì)酸堿度等交互功能,無(wú)疑正在向成為“非文字需求”的更多典型應(yīng)用場(chǎng)景而努力。
尼葛洛·龐帝早在《數(shù)字化生存》中提到,信息完全取決于我們眼中所見(jiàn)的品質(zhì)。經(jīng)過(guò)近年的技術(shù)研究與布局,百度的語(yǔ)音、圖像技術(shù)現(xiàn)在已經(jīng)到了破繭而出的關(guān)鍵時(shí)刻,而李彥宏和他掌舵的百度,正依靠技術(shù)積累和創(chuàng)新,在把握未來(lái)用戶移動(dòng)需求之路上得以先行,并催生移動(dòng)互聯(lián)網(wǎng)變革的春天
好文章,需要你的鼓勵(lì)
浙江大學(xué)團(tuán)隊(duì)提出動(dòng)態(tài)專家搜索方法,讓AI能根據(jù)不同問(wèn)題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準(zhǔn)確率,且不增加計(jì)算成本。研究發(fā)現(xiàn)不同類型問(wèn)題偏愛(ài)不同專家配置,為AI推理優(yōu)化開(kāi)辟新路徑。
清華大學(xué)研究團(tuán)隊(duì)提出SIRI方法,通過(guò)"壓縮-擴(kuò)張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準(zhǔn)確率低"的問(wèn)題。實(shí)驗(yàn)顯示,該方法在數(shù)學(xué)競(jìng)賽題上將模型準(zhǔn)確率提升43.2%的同時(shí),輸出長(zhǎng)度減少46.9%,真正實(shí)現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團(tuán)隊(duì)開(kāi)發(fā)出Rolling Forcing技術(shù),實(shí)現(xiàn)AI視頻實(shí)時(shí)流式生成的重大突破。該技術(shù)通過(guò)滾動(dòng)窗口聯(lián)合去噪、注意力錨點(diǎn)機(jī)制和高效訓(xùn)練算法三項(xiàng)創(chuàng)新,解決了長(zhǎng)視頻生成中的錯(cuò)誤累積問(wèn)題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標(biāo)從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開(kāi)辟新可能。
華中科技大學(xué)研究團(tuán)隊(duì)發(fā)現(xiàn),通過(guò)讓AI模型學(xué)習(xí)解決幾何問(wèn)題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個(gè)幾何題目的Euclid30K數(shù)據(jù)集,使用強(qiáng)化學(xué)習(xí)方法訓(xùn)練多個(gè)AI模型。實(shí)驗(yàn)結(jié)果顯示,幾何訓(xùn)練在四個(gè)空間智能測(cè)試基準(zhǔn)上都帶來(lái)顯著提升,其中最佳模型達(dá)到49.6%準(zhǔn)確率,超越此前最好成績(jī)。這項(xiàng)研究揭示了基礎(chǔ)幾何知識(shí)對(duì)培養(yǎng)AI空間智能的重要價(jià)值。