2 月 14 日消息,2 月 10 日,北京航空航天大學(xué)研究團(tuán)隊(duì)在《自然-通訊》發(fā)表研究稱(chēng),其開(kāi)發(fā)的視覺(jué)系統(tǒng)在運(yùn)動(dòng)處理速度上較現(xiàn)有主流光流技術(shù)快四倍,有望顯著提升自動(dòng)駕駛車(chē)輛、工業(yè)機(jī)器人和手術(shù)機(jī)器人等系統(tǒng)的反應(yīng)速度。
該成果源自神經(jīng)形態(tài)工程。不同于傳統(tǒng)芯片將存儲(chǔ)與運(yùn)算分開(kāi),神經(jīng)形態(tài)硬件仿照大腦結(jié)構(gòu)將二者融合,從而提高運(yùn)算效率并降低能耗。長(zhǎng)期以來(lái),這一方向被視為彌合機(jī)器與人類(lèi)感知差距的重要路徑。
據(jù)外媒 TechSpot 報(bào)道,團(tuán)隊(duì)負(fù)責(zé)人高碩(音譯)從大腦的外側(cè)膝狀體獲得靈感。外側(cè)膝狀體位于視網(wǎng)膜與視覺(jué)皮層之間,既負(fù)責(zé)傳遞信息,也負(fù)責(zé)篩選信號(hào)。由于能夠?qū)r(shí)間與空間變化高度敏感,人類(lèi)視覺(jué)系統(tǒng)可優(yōu)先處理快速變化的對(duì)象。研究團(tuán)隊(duì)嘗試將這種選擇性注意機(jī)制在芯片中實(shí)現(xiàn)。
傳統(tǒng)機(jī)器人視覺(jué)依賴(lài)攝像頭拍攝連續(xù)靜態(tài)幀,并通過(guò)光流算法追蹤像素亮度變化來(lái)判斷運(yùn)動(dòng),但該方法處理一幀圖像可能耗時(shí)超過(guò) 0.5 秒。對(duì)于高速行駛的自動(dòng)駕駛車(chē)輛而言,這種延遲意味著在感知空窗期內(nèi),車(chē)輛就可能前進(jìn)數(shù)米。
研究人員開(kāi)發(fā)的神經(jīng)形態(tài)模塊可直接檢測(cè)光強(qiáng)隨時(shí)間變化的區(qū)域,僅對(duì)發(fā)生變化的部分分配算力,實(shí)現(xiàn)實(shí)時(shí)運(yùn)動(dòng)識(shí)別。
在模擬駕駛和機(jī)器人操作測(cè)試中,該系統(tǒng)將延遲減少約 75%,并在復(fù)雜運(yùn)動(dòng)場(chǎng)景下將追蹤精度提升一倍。

該系統(tǒng)仍依賴(lài)傳統(tǒng)光流算法進(jìn)行最終圖像解析,且在多重運(yùn)動(dòng)交錯(cuò)場(chǎng)景中表現(xiàn)有限,不過(guò)整體性能已明顯優(yōu)于傳統(tǒng)方案,顯示未來(lái)機(jī)器視覺(jué)響應(yīng)速度可能接近甚至超過(guò)人類(lèi)。

▲ a. 示例應(yīng)用場(chǎng)景。b. 所提出的神經(jīng)形態(tài)運(yùn)動(dòng)提取硬件流水線與傳統(tǒng)光流流水線的并排視圖。c. 兩種方法的處理時(shí)間和準(zhǔn)確性比較。
熟悉該研究的專(zhuān)家認(rèn)為,這項(xiàng)技術(shù)有望擴(kuò)展機(jī)器人安全運(yùn)行的環(huán)境范圍,從道路到家庭場(chǎng)景。在家庭中,機(jī)器人需識(shí)別手勢(shì)與細(xì)微表情,更快的視覺(jué)反饋將使人機(jī)互動(dòng)更加自然。
下一階段挑戰(zhàn)在于擴(kuò)大神經(jīng)形態(tài)硬件規(guī)模,并在保持速度與精度的同時(shí)整合進(jìn)現(xiàn)有 AI 系統(tǒng)。如果順利推進(jìn),受生物啟發(fā)的視覺(jué)架構(gòu)可能改變機(jī)器人理解動(dòng)態(tài)世界的方式與速度。

