中國上海 - 2025年3 月 12日--安森美(onsemi,美國納斯達克股票代號:ON)推出其首款實時、間接飛行時間 (iToF) 傳感器Hyperlux™ ID 系列,可對快速移動物體進行高精度長距離測量和三維成像。
Hyperlux ID 系列采用安森美全新專有全局快門像素架構(gòu)且自帶存儲,可以捕捉完整場景,同時實時進行深度測量。這種創(chuàng)新方法突破標(biāo)準(zhǔn) iToF 傳感器的局限性,實現(xiàn)最遠 30 米的深度感知,是標(biāo)準(zhǔn) iToF 傳感器的四倍,而且外形尺寸更小。 此外,該傳感器系列還能同時生成黑白圖像和深度信息。 通過結(jié)合這兩種輸出,該傳感器系列可以提供全面的環(huán)境視圖,而無需為視覺和深度數(shù)據(jù)分別配置傳感器。
因此,Hyperlux ID 系列實現(xiàn)了簡化設(shè)計和業(yè)內(nèi)領(lǐng)先的超深度感知能力,能在動態(tài)場景條件下工作以及捕捉快速移動物體,這在以前都是無法實現(xiàn)的。
隨著自動化和機器人技術(shù)在工業(yè)領(lǐng)域的廣泛應(yīng)用,快速且高效地獲取高精度深度信息對于提升在復(fù)雜環(huán)境中的生產(chǎn)效率和安全性變得至關(guān)重要。然而,到目前為止,iToF傳感器由于測距范圍有限、在惡劣光照條件下性能不佳且無法對移動物體計算深度,其應(yīng)用受到了限制。
由于能夠?qū)σ苿游矬w和高分辨率圖像進行精確測量,Hyperlux ID 系列將有助于減少錯誤和停機時間,優(yōu)化制造系統(tǒng)的流程,從而降低運營成本。 此外,Hyperlux ID 系列還適用于面部識別、手勢檢測和 3D 視訊會議等消費應(yīng)用場景。
Hyperlux ID 系列非常適合用于廣泛的工業(yè)環(huán)境,例如:
• 自動化與機器人:通過檢測物體以實現(xiàn)更好的導(dǎo)航和避障,從而提高工廠車間的安全性。
• 制造與質(zhì)量控制:通過測量物體的體積和形狀、檢測缺陷,確保產(chǎn)品符合質(zhì)量標(biāo)準(zhǔn)。
• 物流與物料處理:通過測量托盤和貨物的位置、尺寸及貨物比例,以優(yōu)化倉儲管理和運輸流程。
• 農(nóng)業(yè)與種植:通過測量植物高度、檢測疾病以及優(yōu)化灌溉和施肥過程,來監(jiān)測作物生長和健康狀況。
• 訪問控制系統(tǒng):為支付終端、家庭和商業(yè)入口系統(tǒng)等提供高精細、高準(zhǔn)確度的面部識別。
Hyperlux ID 傳感器系列融合了全局快門架構(gòu)和iToF技術(shù),實現(xiàn)精確且快速的深度感知。iToF技術(shù)通過測量從一個或多個垂直腔面發(fā)射激光器(VCSEL)發(fā)出的反射光的相移來感知深度。專有的像素架構(gòu)使傳感器能夠在一次曝光中同時捕獲并存儲四種不同的光相位,即時捕捉完整場景并提高深度測量的準(zhǔn)確性。此外,全局快門技術(shù)將所有傳感器像素與VCSEL同步,從而顯著減少來自其他光源的環(huán)境紅外噪聲。自帶的深度處理功能還可輸出實時結(jié)果,而無需昂貴的外部存儲器和高性能處理器。
“Hyperlux ID 系列不僅具備比市場上其他iToF傳感器更高的分辨率和更好的環(huán)境光抑制能力,其集成處理功能也給我們留下了深刻印象。該功能可高速生成深度、置信度和強度圖,使其特別適合捕捉移動物體。” IDS Imaging Development Systems董事總經(jīng)理Alexander Lewinsky表示,“得益于與安森美的緊密合作,我們能夠非常迅速地開發(fā)并擴展我們的3D相機系列,推出了一款高性價比的飛行時間相機,大規(guī)模用于室內(nèi)和室外應(yīng)用。”
Hyperlux ID 系列包括120 萬像素全局快門、3.5µm背照式(BSI)像素傳感器。AF0130型號還自帶處理功能,令集成更簡單并降低系統(tǒng)成本。對于那些希望集成自有深度檢測算法的客戶可以選用AF0131,為他們的系統(tǒng)增加了更大的靈活性。
好文章,需要你的鼓勵
浙江大學(xué)團隊提出動態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準(zhǔn)確率,且不增加計算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學(xué)研究團隊提出SIRI方法,通過"壓縮-擴張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準(zhǔn)確率低"的問題。實驗顯示,該方法在數(shù)學(xué)競賽題上將模型準(zhǔn)確率提升43.2%的同時,輸出長度減少46.9%,真正實現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團隊開發(fā)出Rolling Forcing技術(shù),實現(xiàn)AI視頻實時流式生成的重大突破。該技術(shù)通過滾動窗口聯(lián)合去噪、注意力錨點機制和高效訓(xùn)練算法三項創(chuàng)新,解決了長視頻生成中的錯誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標(biāo)從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學(xué)研究團隊發(fā)現(xiàn),通過讓AI模型學(xué)習(xí)解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個幾何題目的Euclid30K數(shù)據(jù)集,使用強化學(xué)習(xí)方法訓(xùn)練多個AI模型。實驗結(jié)果顯示,幾何訓(xùn)練在四個空間智能測試基準(zhǔn)上都帶來顯著提升,其中最佳模型達到49.6%準(zhǔn)確率,超越此前最好成績。這項研究揭示了基礎(chǔ)幾何知識對培養(yǎng)AI空間智能的重要價值。