科技行者 1月16日 北京消息: 1月16日,在百度輸入法“AI·新輸入 全感官輸入2.0”發(fā)布會(huì)上,百度輸入法AI探索版正式亮相,這是一款默認(rèn)輸入方式為全語音輸入,并調(diào)動(dòng)表情、肢體等進(jìn)行全感官輸入的全新輸入產(chǎn)品。同時(shí),百度宣布語音技術(shù)取得一項(xiàng)對(duì)全球?qū)W術(shù)界和工業(yè)界都具備重大意義的技術(shù)突破,流式截?cái)嗟亩鄬幼⒁饬#⊿MLTA)將在線語音識(shí)別精度提升了15%,并在世界范圍內(nèi)首次實(shí)現(xiàn)了基于Attention技術(shù)的在線語音識(shí)別服務(wù)大規(guī)模上線應(yīng)用。
發(fā)布會(huì)現(xiàn)場(chǎng),百度高級(jí)副總裁王海峰表示,輸入法是離用戶最近的產(chǎn)品之一,也是AI落地的“橋頭堡”,百度全方位的AI能力正在不斷賦能輸入法,讓輸入法更”聰明“。他也給出了輸入法行業(yè)的“未來畫像”,他認(rèn)為,雖然目前的輸入法產(chǎn)品主要應(yīng)用于手機(jī)端,但未來的輸入法將應(yīng)用于各種智能設(shè)備與用戶的交互,并走向世界,為全球用戶提供更多元的輸入方式。
圖:百度高級(jí)副總裁 王海峰
據(jù)介紹,截至2018年底,百度輸入法月活躍人數(shù)已達(dá)5億,語音日請(qǐng)求量峰值突破5.5億,AR表情使用次數(shù)超過1億。同時(shí),百度海外輸入法全球安裝量超過1億,支持120種語言,覆蓋全球190個(gè)國(guó)家地區(qū),并已與超過100個(gè)全球知名IP達(dá)成合作,實(shí)現(xiàn)技術(shù)與市場(chǎng)的雙豐收。
SMLTA語音識(shí)別精度全球領(lǐng)先 語音技術(shù)創(chuàng)新帶動(dòng)交互變革
百度輸入法AI探索版是百度AI落地應(yīng)用的又一重要成果,全語音交互是它最大的特點(diǎn)之一。“雖然當(dāng)前輸入法主流是鍵盤輸入,但對(duì)用戶需求變化的洞察,讓我們有信心較早地推出這款全語音交互的產(chǎn)品”,百度中文輸入法負(fù)責(zé)人蔡玉婷表示,相較2016年,百度輸入法日均語音請(qǐng)求量增長(zhǎng)了8倍,語音輸入法的場(chǎng)景也從聊天和搜索拓展到游戲、娛樂、購(gòu)物等眾多場(chǎng)景。
全語音交互對(duì)于語音識(shí)別準(zhǔn)確率要求極高,百度推出全語音交互輸入法的信心,還來自于百度領(lǐng)先業(yè)界的語音技術(shù)?,F(xiàn)場(chǎng),百度語音技術(shù)部負(fù)責(zé)人高亮宣布了百度語音輸入的四項(xiàng)重大突破和給輸入法用戶帶來的體驗(yàn)提升。
在線語音領(lǐng)域,百度發(fā)布流式截?cái)喽鄬幼⒁饬#⊿MLTA),這是中文在線語音識(shí)別歷史上的兩個(gè)重大突破:世界上首次實(shí)現(xiàn)了局部注意力建模識(shí)別精度超過全局注意力模型;世界上第一次大規(guī)模部署在線語音交互注意力模型。這一技術(shù)能夠解決傳統(tǒng)Attention模型在識(shí)別中的時(shí)延性,以及因此導(dǎo)致的無法進(jìn)行大規(guī)模在線語音實(shí)時(shí)交互的問題,并將在線語音識(shí)別精度提升了15%,超越行業(yè)最高水平15%。
離線語音識(shí)別領(lǐng)域,為解決用戶多元輸入場(chǎng)景的需求,百度持續(xù)優(yōu)化Deep Peak 2系統(tǒng),讓離線語音輸入相對(duì)準(zhǔn)確率再次提升,高于行業(yè)平均水平35%。即使用戶處于地鐵、電梯、隧道或人流密集等離線場(chǎng)景中,依然可以借助百度輸入法進(jìn)行精準(zhǔn)的語音輸入。
中英文混合語音輸入技術(shù),以及方言與方言、方言與普通話的混合語音輸入技術(shù)突破,讓用戶真正實(shí)現(xiàn)“自由說”,無論是中英文夾雜,還是普通話家鄉(xiāng)話來回切換,百度輸入法都能準(zhǔn)確識(shí)別。據(jù)介紹,百度輸入法是目前唯一實(shí)現(xiàn)了高精度“中英自由說”和“方言自由說”的輸入法產(chǎn)品。
百度語音技術(shù)的突破同樣讓海外用戶帶來語音輸入的便捷體驗(yàn)。本次發(fā)布會(huì)上,百度海外輸入法展示了日語識(shí)別、印地語識(shí)別和印英混輸功能,據(jù)第三方評(píng)測(cè)顯示,百度日文輸入法的語音識(shí)別精度位列行業(yè)第一,識(shí)別結(jié)果用戶可接受度占比高達(dá) 90%,已成為日本最大的第三方輸入法產(chǎn)品;印度用戶語音功能的使用率已達(dá)21%,百度輸入法幫助印度用戶實(shí)現(xiàn)了自由溝通。
表情、動(dòng)作成為輸入新方式 全感官交互創(chuàng)造更多想象空間
伴隨著百度語音、視覺、自然語言處理、知識(shí)圖譜等百度AI技術(shù)落地輸入法,“全感官”的輸入變成現(xiàn)實(shí)。除了語音輸入,百度輸入法AI探索版還推出了拍立活、秀場(chǎng)、凌空手寫等新功能玩法。無論是心愛的偶像,還是日夜陪伴的寵物,“拍立活”功能都可以讓用戶通過自己的動(dòng)作“驅(qū)動(dòng)”對(duì)方做出相同表情;“秀場(chǎng)”功能運(yùn)用圖像分割技術(shù),讓用戶“穿越”到不同的虛擬場(chǎng)景之中,科技、清新、賽博朋克多種風(fēng)格隨意挑選,表情創(chuàng)作更具場(chǎng)景感、更加生活化;凌空手寫如同隔空打怪,在空中書寫也能被流暢識(shí)別,目前整體識(shí)別率已達(dá)到大規(guī)模應(yīng)用的要求。
百度輸入法全感官交互潮流也已進(jìn)入海外并獲得認(rèn)可。據(jù)悉,借助AI技術(shù)的加持,百度海外輸入法已經(jīng)在全球建立起最活躍、最權(quán)威的表情社區(qū)。超級(jí)IP《變形金剛》系列首部獨(dú)立電影《大黃蜂》已與百度海外輸入法聯(lián)手推出“大黃蜂”系列主題貼圖和AR表情。截止目前,百度海外輸入法已經(jīng)和Hello Kitty、小黃鴨、小王子、格林奇等全球100余個(gè)知名IP達(dá)成合作,推出了一系列深受用戶喜愛的IP皮膚和表情,同時(shí)深耕本地化運(yùn)營(yíng),針對(duì)海外用戶還設(shè)計(jì)了本地網(wǎng)紅合作推廣等定制化傳播。2018年,百度海外輸入法的推廣視頻,總觀看次數(shù)已超過1億。
輸入法本質(zhì)上是一款人機(jī)交互的工具,AI時(shí)代正在到來,人機(jī)交互的形態(tài)也將隨之革新。“未來,百度輸入法將不僅基于手機(jī)端,還將致力于連通包括智能家居、車聯(lián)網(wǎng)等多種終端場(chǎng)景,集多種輸入方式為一體,幫助用戶在各種場(chǎng)景下高效、自如地傳遞信息。” 百度高級(jí)副總裁王海峰表示。
好文章,需要你的鼓勵(lì)
浙江大學(xué)團(tuán)隊(duì)提出動(dòng)態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準(zhǔn)確率,且不增加計(jì)算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學(xué)研究團(tuán)隊(duì)提出SIRI方法,通過"壓縮-擴(kuò)張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準(zhǔn)確率低"的問題。實(shí)驗(yàn)顯示,該方法在數(shù)學(xué)競(jìng)賽題上將模型準(zhǔn)確率提升43.2%的同時(shí),輸出長(zhǎng)度減少46.9%,真正實(shí)現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團(tuán)隊(duì)開發(fā)出Rolling Forcing技術(shù),實(shí)現(xiàn)AI視頻實(shí)時(shí)流式生成的重大突破。該技術(shù)通過滾動(dòng)窗口聯(lián)合去噪、注意力錨點(diǎn)機(jī)制和高效訓(xùn)練算法三項(xiàng)創(chuàng)新,解決了長(zhǎng)視頻生成中的錯(cuò)誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標(biāo)從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學(xué)研究團(tuán)隊(duì)發(fā)現(xiàn),通過讓AI模型學(xué)習(xí)解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個(gè)幾何題目的Euclid30K數(shù)據(jù)集,使用強(qiáng)化學(xué)習(xí)方法訓(xùn)練多個(gè)AI模型。實(shí)驗(yàn)結(jié)果顯示,幾何訓(xùn)練在四個(gè)空間智能測(cè)試基準(zhǔn)上都帶來顯著提升,其中最佳模型達(dá)到49.6%準(zhǔn)確率,超越此前最好成績(jī)。這項(xiàng)研究揭示了基礎(chǔ)幾何知識(shí)對(duì)培養(yǎng)AI空間智能的重要價(jià)值。