《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > 雙目視覺在助老助殘機器人定位系統(tǒng)中的應(yīng)用
雙目視覺在助老助殘機器人定位系統(tǒng)中的應(yīng)用
2016年微型機與應(yīng)用第13期
劉圭圭,樊炳輝,王傳江,張凱麗
(山東科技大學(xué) 機器人研究中心,山東 青島 266590)
摘要: 為幫助上肢活動不便的老人、殘疾人完成自主進食等行為,開發(fā)了一套基于雙目視覺的助老助殘機器人定位系統(tǒng)。通過藍色激光引導(dǎo)實現(xiàn)對雙目相機視野范圍內(nèi)任意物體的定位。采用多自由度助老助殘機器人和Bumblebee2立體視覺系統(tǒng)構(gòu)建定位實驗系統(tǒng),定位誤差在1.2 cm范圍內(nèi),滿足對助老助殘機器人定位精度的要求。
Abstract:
Key words :

  劉圭圭,樊炳輝,王傳江,張凱麗

  (山東科技大學(xué) 機器人研究中心,山東 青島 266590)

  摘要:為幫助上肢活動不便的老人、殘疾人完成自主進食等行為,開發(fā)了一套基于雙目視覺助老助殘機器人定位系統(tǒng)。通過藍色激光引導(dǎo)實現(xiàn)對雙目相機視野范圍內(nèi)任意物體的定位。采用多自由度助老助殘機器人和Bumblebee2立體視覺系統(tǒng)構(gòu)建定位實驗系統(tǒng),定位誤差在1.2 cm范圍內(nèi),滿足對助老助殘機器人定位精度的要求。

  關(guān)鍵詞:雙目視覺;助老助殘;機器人;定位

0引言

  助老助殘機器人即為幫助那些身體功能缺失或嚴重喪失的老人、殘疾人實現(xiàn)獨立生活的一類機器人。雙目視覺即為通過位于不同視角的兩個相機模擬人類視覺原理,實現(xiàn)對空間中三維物體的定位。雙目視覺已廣泛應(yīng)用于機器人導(dǎo)航、場景重建、虛擬現(xiàn)實等領(lǐng)域[13]。

  本文簡單介紹了雙目視覺原理,利用多自由度助老助殘機器人和Bumblebee2立體視覺系統(tǒng)構(gòu)建的定位系統(tǒng),進行了空間三維定位實驗。

1雙目視覺原理

  本文采用平行光軸雙目視覺,其原理如圖1所示。左右兩臺完全相同的相機精確位于同一平面上,主光線嚴格平行,相對位置固定,主點(clx,cly)和(crx,cry)在左右兩幅圖像上具有相同的像素坐標。T(基線長度)為兩臺相機中心之間的距離。左右相機成像平面坐標系分別為OlXlYl和OrXrYr,雙目相機坐標系為OXYZ。坐標系OXYZ中任一點P(x,y,z)在兩成像平面坐標系中分別對應(yīng)為點Pl(xl,yl)和點Pr(xr,yr)。點P在兩幅圖像中的y坐標值是一樣的,即yl=yr=ylr。根據(jù)三角幾何原理和小孔成像原理可得式(1):

  1.png

001.jpg

  假設(shè)d=xl-xr,d稱之為視差(即為同一個空間點在兩幅圖像中位置的偏差),代入式(1)即可計算出點P在相機坐標系下的三維坐標,如式(2):

  2.png

2實驗平臺

  實驗平臺主要包括多自由度助老助殘機器人和Bumblebee2雙目視覺系統(tǒng)兩個部分。整個實驗平臺的硬件結(jié)構(gòu)如圖2所示。

002.jpg

  2.1助老助殘機器人系統(tǒng)

  多自由度助老助殘機器人如圖3所示。結(jié)構(gòu)圖中1、2、3為伺服電機,PC通過USB轉(zhuǎn)CAN總線的方式對其發(fā)送控制命令;4、5為數(shù)字舵機,通過USB轉(zhuǎn)RS485的方式對其施行控制;6為直流電機,通過USB轉(zhuǎn)RS232與CortexM3底層控制器進行通信,之后由底層控制器對其進行控制操作。機械臂的DH[4]參數(shù)模型如表1所示。

 

003.jpg

  2.2雙目視覺系統(tǒng)

  Bumblebee203s2c是Point Grey Research公司的一款立體視覺產(chǎn)品。采用兩個Sony CCD芯片,分辨率為640×480,具有高速1394A接口,全視場深度測量,實時3D數(shù)據(jù)轉(zhuǎn)換(3D點100萬像素/s),相機位置偏差和鏡頭畸變可以自動校正,配套有靈活的軟件開發(fā)工具。

  Bumblebee2左右兩相機之間的基線長度為12 cm,每個相機的視場角為66°。根據(jù)上述兩個參數(shù),可得雙目相機視場范圍。圖4為實測坐標系OXYZ的位姿。

 

004.jpg

  2.3二者之間的位置關(guān)系

  圖5為雙目相機坐標系odxdydzd與世界坐標系oxyz之間的位置關(guān)系,圖中相機可繞xd軸旋轉(zhuǎn)(θ)。由圖中幾何關(guān)系及坐標變換公式[5]可知,在相機坐標系下的坐標P=[pxpypz1]T,轉(zhuǎn)換到世界坐標系下的坐標為[153-py×sin(θ)-pz×cos(θ),px+568,pz×sin(θ)-py×cos(θ)-286,1]T。

 

005.jpg

3助老助殘機器人定位實驗

  3.1雙目視覺定位精度實驗

  將Bumblebee2相機固定,在其正前方沿垂直于相機平面的直線移動目標物來測量Z的值,測量范圍為260 mm~1 000 mm,相鄰兩次測量位置間隔為20 mm。同樣的,在Z=750 mm,垂直于Z軸的平面上對X、Y值分別進行測量。為防止偶然誤差的出現(xiàn),采用同一位置測量10次取平均值的方式來確定測量結(jié)果。真實值與測量值(部分)如表2所示,各分量誤差關(guān)系曲線如圖6所示。由表2可知,雙目視覺定位誤差在5 mm范圍內(nèi)。

006.jpg

  3.2助老助殘機器人末端定位精度實驗

  室內(nèi)環(huán)境下,通過鼠標選擇目標物的方式進行了3組實驗,目標位置在相機坐標系、世界坐標系中的坐標以及通過運動學(xué)逆向求解[67]獲得的各關(guān)節(jié)實際坐標,如表3所示。表3中誤差計算公式為:

        3.png

 

  由表3可知,助老助殘機器人末端定位誤差在1.2 cm范圍內(nèi),滿足實驗要求。

  3.3實驗效果

 

007.jpg

  實驗過程中通過藍色激光筆的引導(dǎo)來選擇定位目標,通過閾值分割等方法[89]進行數(shù)字圖像處理,主動確定激光點所指目標點位置。實驗效果如圖7所示。圖中目標位置在相機坐標系下的坐標(單位:mm)為(-37.21,-17.03,264.33),在世界坐標系下的坐標為(270.41,530.79,-523.43),而手臂末端在世界坐標系下的實際坐標為(262,532,-520),誤差為9.16 mm,滿足實驗精度要求。除此之外,可以通過人嘴部識別[10]

  對嘴部進行定位,還可以通過模板匹配方式來定位某一特定物體。

4結(jié)論

  本文應(yīng)用雙目視覺對助老助殘機器人的操作目標位置進行定位,并對定位精度進行了實驗,精度限定在5 mm范圍內(nèi)。配合機械臂的運動,末端定位精度在1.2 cm范圍內(nèi),滿足實驗要求。但系統(tǒng)仍有需要改進的地方,比如控制器攜帶不方便,激光斑指引方法易受環(huán)境光照的影響等。

參考文獻

  [1] 丁良宏,王潤孝,馮華山,等.立體視覺測程研究進展[J].機器人,2011,33(1):119128.

 ?。?] 李丹程,劉景明,姜琳穎,等.基于柵格模型的雙目移動機器人三維場景重建[J].小型微型計算機系統(tǒng),2012,33(4):873877.

  [3] 徐宇杰,管會超,張宗衛(wèi),等.基于人眼視覺原理的虛擬現(xiàn)實顯示模型[J].計算機應(yīng)用,2015,35(10):29392944.

 ?。?] DENAVIT J, HARTENBERG R S. A kinematic notation for lowerpair mechanisms based on matrices[J].Journal of Applied Mechanics ASME Transactons, 1965,22(2): 215221.

 ?。?] 蔡自興.機器人學(xué)(第三版)[M].北京:清華大學(xué)出版社,2015.

  [6] 馬漢波,顏鋼鋒.基于DSP和FPGA的多軸運動控制系統(tǒng)設(shè)計[J].電子技術(shù)應(yīng)用,2013,39(3):3436.

 ?。?] 蔡自興.機器人學(xué)基礎(chǔ)[M].北京:機械工業(yè)出版社,2009.

 ?。?] KRSTINIC D, SKELIN A K, MILATIC I, et al. Laser spot tracking based on modified circular hough transform and motion pattern analysis[J]. Sensors, 2014, 14(11):2011220133.

  [9] 曹世康,李東堅,許瑞華,等.基于最優(yōu)弧的激光光斑中心檢測算法[J].紅外與激光工程,2014,43(10):34923496.

 ?。?0] 勒薇,張建奇,張翔.基于局部梯度算子的嘴部檢測與定位[J].光電工程,2009,36(10):135140.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。