東京工業(yè)大學(xué)的研究團(tuán)隊(duì)稍早發(fā)表了一套僅用一般 RGB 影片,就能預(yù)測畫面中人物未來動向的「FuturePose」系統(tǒng)。過去有過類似的預(yù)測系統(tǒng)相關(guān)的研究,但使用的是本身就自帶深度信息的 Kinect,而東工大這邊則是完全靠著畫面本身畫素的流向,先透過機(jī)器學(xué)習(xí)與 AI 來定位關(guān)節(jié),再由定位出來的關(guān)節(jié)和擺動方向,去推斷 3D 環(huán)境中的位置,整個過程簡直神奇。
靠著 AI 的推斷,這套 FuturePose 系統(tǒng)可以大約猜出人類 0.5 秒后的位置,頗有一點(diǎn)小說或漫畫里那種「你的行動已經(jīng)被我看穿啦」的風(fēng)范。研究團(tuán)隊(duì)也還真的實(shí)際給人戴上 Vive 頭套,顯示面前的另一個測試者予測動作。相較于沒有予測系統(tǒng)的 0.62 秒平均反應(yīng)時間,戴上這套系統(tǒng)的人將平均降到了 0.41 秒。這是個很明顯的差距,但也沒有真的到可以變武林高手的程度就是啰 。
以真實(shí)世界的應(yīng)用來說,東京大認(rèn)為這可以做為格斗練習(xí)的輔助系統(tǒng),或是可以讓觀眾提前一步看到足球 PK 時守門員將往哪個方向躲。然而,只是為了這點(diǎn)小小的樂趣,就讓 AI 學(xué)會如何預(yù)判人類的行動,好像有點(diǎn)劃不來啊...
本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。