Osterhout設(shè)計(jì)集團(tuán)(Osterhout Design Group,ODG)——一家為政府、工業(yè)和消費(fèi)市場(chǎng)開(kāi)發(fā)新興顛覆性光電和基于傳感器技術(shù)的領(lǐng)先開(kāi)發(fā)商,今天宣布推出下一代頭戴式計(jì)算設(shè)備——R-7眼鏡系統(tǒng)。
R-7將是首款全集成式3D透視擴(kuò)增實(shí)境(AR)眼鏡,采用Qualcomm Incorporated全資子公司Qualcomm Technologies, Inc.的驍龍805處理器,支持Qualcomm Connected Experiences, Inc.的Qualcomm® Vuforia™移動(dòng)視覺(jué)平臺(tái),為用戶的雙眼帶來(lái)沉浸式體驗(yàn)。
R-7采用ODG自主的光電、計(jì)算、傳感和電源系統(tǒng),其技術(shù)獨(dú)立驅(qū)動(dòng)雙720像素透視元件,帶來(lái)身臨其境的3D立體顯示效果,可在用戶環(huán)境中提供無(wú)縫和實(shí)時(shí)的3D疊加,包括照片般逼真的圖形、視頻和文字說(shuō)明。這項(xiàng)功能將為工業(yè)使用場(chǎng)景帶來(lái)一系列應(yīng)用。和ODG的R-6眼鏡一樣,R-7的一對(duì)完全集成的鏡片具有無(wú)與倫比的性能、多功能和優(yōu)化,其強(qiáng)大功能足以適應(yīng)各種環(huán)境,而且輕便舒適,適合日常使用。R-6和R-7眼鏡是首批全集成的頭戴式計(jì)算系統(tǒng)。
Osterhout設(shè)計(jì)集團(tuán)首席執(zhí)行官Ralph Osterhout表示:“ODG致力于革新可穿戴技術(shù),開(kāi)發(fā)創(chuàng)新的、精密的,情景感知、安全和第一響應(yīng)解決方案。ODG智能眼鏡旨在為頭戴式計(jì)算提供無(wú)與倫比的功能,為政府和工業(yè)提供不計(jì)其數(shù)的應(yīng)用程序。我們很高興為現(xiàn)在和未來(lái)的客戶提供產(chǎn)品,幫助在他們?cè)谌粘J褂弥刑岣呱a(chǎn)力、財(cái)務(wù)能力、準(zhǔn)確性和安全性。我們的最終目標(biāo)是變革消費(fèi)市場(chǎng)。”
R-7將充分利用驍龍805移動(dòng)處理器配備的高性能 Qualcomm® Krait™架構(gòu)CPU、領(lǐng)先且能帶來(lái)炫美圖形的Qualcomm® Adreno™ GPU,以及針對(duì)先進(jìn)攝像頭處理進(jìn)行功耗優(yōu)化的Qualcomm® Hexagon™ DSP。
R-7眼鏡系統(tǒng)的發(fā)布適逢9月18日至19日在舊金山舉行的Qualcomm® Uplinq™ 2014移動(dòng)開(kāi)發(fā)者大會(huì)。ODG將在這次大會(huì)上展示R-6和R-7模型。
ODG的R-6眼鏡目前正在發(fā)布測(cè)試版本,并將于2014年底向政府客戶出貨。R-7將首先針對(duì)工業(yè)和政府客戶,并將于2015年第二季度向開(kāi)發(fā)者和合作伙伴出貨。
R-7系統(tǒng)規(guī)格亮點(diǎn):
好文章,需要你的鼓勵(lì)
這項(xiàng)研究提出了"高效探測(cè)"方法,解決了掩碼圖像建模AI難以有效評(píng)估的問(wèn)題。通過(guò)創(chuàng)新的多查詢交叉注意力機(jī)制,該方法在減少90%參數(shù)的同時(shí)實(shí)現(xiàn)10倍速度提升,在七個(gè)基準(zhǔn)測(cè)試中均超越傳統(tǒng)方法。研究還發(fā)現(xiàn)注意力質(zhì)量與分類性能的強(qiáng)相關(guān)性,生成可解釋的注意力圖譜,展現(xiàn)出優(yōu)異的跨域適應(yīng)性。團(tuán)隊(duì)承諾開(kāi)源全部代碼,推動(dòng)技術(shù)普及應(yīng)用。
伊利諾伊大學(xué)研究團(tuán)隊(duì)開(kāi)發(fā)了CLAIMSPECT系統(tǒng),通過(guò)層次化分解復(fù)雜爭(zhēng)議、智能檢索相關(guān)文獻(xiàn)、多角度收集觀點(diǎn)的方法,將傳統(tǒng)的"真假"判斷轉(zhuǎn)變?yōu)槎嗑S度分析。該系統(tǒng)能夠自動(dòng)構(gòu)建爭(zhēng)議話題的分析框架,識(shí)別不同觀點(diǎn)及其支撐證據(jù),為科學(xué)和政治爭(zhēng)議提供更全面客觀的分析,已在生物醫(yī)學(xué)和國(guó)際關(guān)系領(lǐng)域驗(yàn)證有效性。
清華大學(xué)研究團(tuán)隊(duì)首次提出情感認(rèn)知融合網(wǎng)絡(luò)(ECFN),讓AI能像人類一樣理解和表達(dá)情感。該系統(tǒng)通過(guò)多層次情感處理架構(gòu),在情感識(shí)別準(zhǔn)確率上比現(xiàn)有最佳系統(tǒng)提升32%,情感表達(dá)自然度提升45%。研究突破了傳統(tǒng)AI情感理解的局限,實(shí)現(xiàn)了跨模態(tài)情感融合、動(dòng)態(tài)情感追蹤和個(gè)性化情感建模,為醫(yī)療、教育、客服等領(lǐng)域帶來(lái)革命性應(yīng)用前景。
哈佛大學(xué)研究團(tuán)隊(duì)通過(guò)創(chuàng)新的多智能體強(qiáng)化學(xué)習(xí)方法,讓AI在戰(zhàn)略游戲中學(xué)會(huì)復(fù)雜推理。研究發(fā)現(xiàn)AI通過(guò)游戲競(jìng)爭(zhēng)能發(fā)展出類人思維能力,在邏輯推理、創(chuàng)造性解決問(wèn)題等方面表現(xiàn)顯著提升。這項(xiàng)突破性成果為未來(lái)AI在醫(yī)療、教育、城市管理等領(lǐng)域的應(yīng)用奠定基礎(chǔ),展現(xiàn)了通過(guò)模擬人類學(xué)習(xí)過(guò)程培養(yǎng)真正智能AI的新路徑。