《電子技術(shù)應用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應用 > 基于仿人智能控制的無標定視覺伺服
基于仿人智能控制的無標定視覺伺服
2015年電子技術(shù)應用第11期
龔 飛,謝 明,王夢佳,朱瑩瑩
(南京工業(yè)大學,江蘇 南京211816)
摘要: 設(shè)計了無標定視覺伺服的仿人智能控制器,仿真完成了無標定雙目視覺下機械臂的五自由度運動空間定位。選取點特征作為雙目視覺圖像特征,設(shè)計了視覺特征模型與多模態(tài)視覺伺服控制器,并在Matlab平臺下設(shè)計了五自由度運動空間的視覺定位仿真實驗,驗證了方法的有效性。
中圖分類號: TP391.4
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.2015.11.004

中文引用格式: 龔飛,謝明,王夢佳,等. 基于仿人智能控制的無標定視覺伺服[J].電子技術(shù)應用,2015,41(11):14-16,23.
英文引用格式: Gong Fei,Xie Ming,Wang Mengjia,et al. Uncalibrated visual servoing based on human simulated intelligent controller[J].Application of Electronic Technique,2015,41(11):14-16,23.
Uncalibrated visual servoing based on human simulated intelligent controller
Gong Fei,Xie Ming,Wang Mengjia,Zhu Yingying
College of Automation and Electrical Engineering,Nanjing University of Technology,Nanjing 211816,China
Abstract: In this paper, we design a humanoid intelligent controller with uncalibrated visual servoing, the simulation of the five degree of freedom motion of the robot arm is accomplished with the uncalibrated of the binocular vision. We choose point feature as the feature of the binocular vision image, and design the visual feature model and the multi mode visual servo controller, and the visual simulation experiment of the five degree of freedom motion space is conducted under the Matlab platform, we demonstrate the effectiveness of the method.
Key words : uncalibrated;binocular vision;humanoid intelligent control;Matlab


0 引言

  自20世紀以來,機器人的誕生是科技領(lǐng)域最重大的成就之一,也是衡量一個國家科技水平的重要標志[1]。作為當前主流的高新技術(shù),機器人是機械設(shè)計、控制工程、計算機、人工智能、傳感器多學科交叉產(chǎn)物,并朝著示教/再現(xiàn)、傳感控制到智能控制等研究方向不斷發(fā)展。目前機器人已經(jīng)被廣泛應用在眾多領(lǐng)域,已有成功應用在餐廳、商場等場合的服務(wù)機器人和實現(xiàn)搬運、抓取、電焊等動作的工業(yè)機器人,具有很好的應用前景。比爾·蓋茨甚至預言,機器人將改變世界,成為生活中不可代替的一部分。

  目前工業(yè)機器人被廣泛用在搬運、拾取、包裝、切割、焊接等領(lǐng)域,這些都離不開機械臂末端的定位問題,如何快速、準確的定位到目標物體是我們研究的重點[2]。本文以MOTOMAN-MH5S工業(yè)機器人為例,研究了具有視覺定位功能的智能系統(tǒng)[3]。

1 系統(tǒng)組成

  基于視覺伺服系統(tǒng)的工業(yè)機器人實時跟蹤系統(tǒng)由以下幾部分組成:機器人、上位機、攝像機、圖像處理系統(tǒng)、工作臺、定位系統(tǒng)、目標物體等。通常PC機作為上位控制器,通過攝像機進行數(shù)據(jù)采集,對目標工件進行拍攝,然后圖像處理校正實際位置與期望位置的偏差,并計算出機器人末端執(zhí)行器的運動軌跡,對目標物件進行實時定位。

  本實驗室有MOTOMAN-MH5S六自由度的關(guān)節(jié)型機器人,由S軸(旋轉(zhuǎn))、L軸(下臂)、U軸(上臂)、R軸(手腕旋轉(zhuǎn))、B軸(手腕擺動)、T軸(手腕回轉(zhuǎn))構(gòu)成,如圖1所示。

001.jpg

2 位姿描述和連桿坐標系

  2.1 位姿描述

  在三維空間中設(shè)有一剛體P,通常用該剛體的位置和姿態(tài)信息來描述該剛體的幾何形狀,其中剛體的位置和姿態(tài)信息又被稱為位姿。建立坐標系之后,可以用3×1的位置矢量來確定空間中任意一點的位置。例如建立一個直角坐標系{A},則剛體P的坐標為:

  1.png

  其中AP是位置矢量,用來表示機器人末端在空間中的位置,Px、Py、Pz是P點三個坐標分量。另外再定義一個直角坐標系{B},將剛體B固接與坐標系{B},則通常用坐標系{B}的單位矢量來表示剛體B相對于坐標系{A}的方位,即一個3×3的旋轉(zhuǎn)矩陣:

  2.png

  其中,R既是旋轉(zhuǎn)矩陣,又是單位正交矩陣。剛體B在坐標系{A}中的位姿我們描述成[R  APBO],APBO是位置矢量,如圖2所示。當R=I,則表示位置;當APBO=0,則表示方位。

002.jpg

  2.2 連桿坐標系

  平移和旋轉(zhuǎn)運動是工業(yè)機器人相鄰連桿之間的最基本的運動,用矩陣的形式來表示關(guān)節(jié)的平移和旋轉(zhuǎn),即坐標變換。剛體的齊次坐標描述已是空間姿態(tài)描述較為普遍的方法,相鄰連桿之間的關(guān)系通常用Denavit和Hatenberg提出的D-H方法來確定,即用4×4的齊次變換矩陣來描述,可以表示任意數(shù)量的平移和旋轉(zhuǎn)關(guān)節(jié)的各種復雜轉(zhuǎn)動[4]。對于6關(guān)節(jié)的機械臂而言,可以用18個參數(shù)來描述機器人結(jié)構(gòu)的固定部分,則只有6個參數(shù)是描述關(guān)節(jié)角度變量,是運動學中隨機器人變動的部分。

  機械臂運動分析中,通過一個4×4的齊次變換矩陣來描述坐標系之間的位姿關(guān)系,公式表示如下:

  3.png

  機器人末端位姿可以通過矩陣T反過來求解出來,即在極坐標系中,末端的坐標為(px,py,pz),得到末端連桿變換矩陣。

3 仿人智能控制器設(shè)計

  3.1 仿人智能控制理論基礎(chǔ)

  仿人智能控制理論(HSIC)于1979年提出,主導思想是研究模擬人的控制行為功能,即定性地推理映射和定量控制映射[5]。其二次映射模型的主要組成環(huán)節(jié)有:特征模型辨識與記憶、多模態(tài)控制與決策、推理與決策機構(gòu)等??刂破鞑捎玫目刂颇B(tài)根據(jù)不同的特征狀態(tài)做相應的調(diào)整,完成控制器的設(shè)計[6]。首先根據(jù)反饋誤差信息對特征模型進行辨識,識別出系統(tǒng)動態(tài)特征狀態(tài)i,然后根據(jù)推理與決策機構(gòu)來判斷,選擇出系統(tǒng)多控制模態(tài)中對應的控制模態(tài),最后完成定量地控制器輸出。

  3.2 特征模型與視覺伺服控制器

  仿人智能控制理論是通過模擬人的智能,弱化了控制器對模型精度的依賴,為了降低模型精度對控制器設(shè)計的影響,在控制器的設(shè)計中添加了先驗知識,依據(jù)被控對象的特性來劃分特征模型。

  本文用仿人智能控制理論來解決無標定視覺伺服的動態(tài)非線性問題,根據(jù)手眼映射關(guān)系劃分出了特征模型,設(shè)計了多模態(tài)的視覺控制器,保證了在像平面內(nèi)圖像特征收斂[7]。首先在上訴理論的基礎(chǔ)上劃分出了特征模型集,分別對應了不同的控制模態(tài);然后,設(shè)計了多模態(tài)控制器,根據(jù)映射模型的異同,將圖像特征的誤差量映射到笛卡爾空間;最后,根據(jù)李雅普諾夫穩(wěn)定性原理來判定系統(tǒng)穩(wěn)定性。

  本文假設(shè)機械臂末端和目標點在笛卡爾空間中分別是pe、pt,其對應在像平面的投影是fe、ft,則圖像特征誤差ef=fe-ft,笛卡爾空間距離偏差ep=G(p1-p2),則點特征在像平面的信息誤差表示如下:

  4.png

  當e中的元素都小于給定誤差,則表示笛卡爾空間中末端位置離期望位置比較近;反之,e中只要有一個元素比較大時,則表示笛卡爾空間中末端位置離期望位置比較遠。

  特征量E用來表示點特征的偏差量最大的特征元:

  5.png

  然后根據(jù)特征量E劃分出手眼映射關(guān)系的特征模型集。

  6.png

  通過設(shè)定的閾值來劃分特征狀態(tài),并判斷機械臂末端當前位置與期望位置之間的距離。根據(jù)此特征模型集給出了其與之相對應的控制模態(tài)

  視覺伺服控制器主要考慮到圖像特征誤差的特征模型,先判斷當前手眼系統(tǒng)的特征狀態(tài)i,然后選擇對應的控制模態(tài)?鬃i,最后輸出對應的圖像特征誤差的調(diào)整量。其控制策略如下:

  7.jpg

  不同的控制模態(tài)采用不同的雅克比矩陣來調(diào)整機械臂末端的位姿,使機械臂末端能夠快速接近期望位置,其中要考慮到機械臂在空間運動中速度的限制,并且要保證機械臂的空間運動不能過超出像平面空間,還需要設(shè)定控制模態(tài)輸出量滿足特定的關(guān)系。不同控制模態(tài)所采用的目標函數(shù)如式(8)所示。

  8.png

  這四個公式分別對應四個控制模態(tài)所采用的目標函數(shù),對F(q)進行泰勒級數(shù)展開,系統(tǒng)采用固定的采樣周期,使得目標函數(shù)最小化,并且對函數(shù)進行一階二階求導,最后整理求得:

  9.jpg

  其中S=ef,通過在線估計求得S,若靠近目標時,ef趨于0,可不考慮S。

  為了確定手眼關(guān)系控制器的穩(wěn)定性,我們利用李雅普諾夫穩(wěn)定性原理來檢驗,定義了函數(shù):

  10.png

  求導可得:

  11.png

  我們忽略約束條件,為了滿足手眼系統(tǒng)的穩(wěn)定性要求,要使得導數(shù),即K>0,可保證視覺系統(tǒng)在像平面內(nèi)誤差收斂。

4 實驗分析

  我們用Matlab 2012a搭建了視覺伺服仿真平臺,采用雙目eye-to-hand構(gòu)型,機械臂工具箱采用Robotics Toolbox Release 9.8,設(shè)計了無標定視覺系統(tǒng)的五自由度運動空間的定位仿真圖如圖3所示。

003.jpg

  該系統(tǒng)分為手眼系統(tǒng)模塊和控制器模塊設(shè)計,設(shè)計的五自由度仿人智能控制器的控制模態(tài)參數(shù)如表1所示。

005.jpg

  通過仿真得到像平面空間的圖像特征誤差曲線如圖4所示。

004.jpg

  由圖4可以看出,機械臂五維運動空間的圖像特征誤差量為逐漸衰減,最后目標圖像特征誤差量趨于0。各個圖像特征誤差量都在1個像素內(nèi),實現(xiàn)了基于圖像特征的機械臂視覺定位。

006.jpg

  三維笛卡爾空間的機械臂運動軌跡如圖5所示,笛卡爾空間機械臂位置誤差曲線如圖6所示。由圖中可看出,從起始位置到期望位置,機械臂實現(xiàn)了笛卡爾空間運動的末端誤差最小。其中機械臂末端點P1在笛卡爾空間中的誤差為ep1=[0.0091,-0.0112,-0.0354]T,P2的誤差為ep2=[0.0031,-0.0102,-0.0254]T,定位誤差在0.01 m內(nèi),基本上實現(xiàn)了機械臂末端點在笛卡爾空間中運動誤差趨于零。

5 結(jié)論

  本文采用仿人智能控制理論解決了無標定視覺伺服控制的問題,采用了多模態(tài)視覺控制器來進行運動空間的定位,并且通過仿真平臺驗證了該理論的正確性。

  但本文的視覺伺服控制器只對機械臂在像平面上的運動進行了規(guī)劃,并未考慮到笛卡爾空間的運動軌跡,存在機械臂笛卡爾空間的運動不是最優(yōu)路徑的問題,仍需做進一步改進。

參考文獻

  [1] 蔡自興.機器人學[M].北京:清華大學出版社,2000:46-54.

  [2] 張何棟.面向機器人的視覺伺服控制器設(shè)計[D].杭州:浙江工業(yè)大學,2014.

  [3] 丁建華.機器人視覺伺服控制方法的設(shè)計與研究[D].杭州:浙江工業(yè)大學,2013,3

  [4] 劉鵬玉.服務(wù)機器人手眼協(xié)調(diào)仿生控制研究[D].上海:上海大學,2012.

  [5] 陳眾.基于仿人智能控制理論的UPFC智能控制器結(jié)構(gòu)設(shè)計研究[D].重慶:重慶大學,2003.

  [6] 鄧萌.自主機器人全局定位系統(tǒng)的研究與應用[D].重慶:重慶大學,2007.

  [7] CUPERTINO F,GIORDANO V,MININNO E,et al.A neuralvisual servoing in uncalibrated environments for roboticmanipulators[C].Systems, Man and Cybernetics, 2004 IEEEInternational Conference on.IEEE,2004,6:5362-5367.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。