錢衛(wèi)星,黃麗亞
(1. 杭州職業(yè)技術學院 電子與信息學院,杭州 310018;2. 南京郵電大學 電子科學與工程學院,南京 210003)
?
機器人視覺定位精度的灰色評定方法研究*
錢衛(wèi)星1,黃麗亞2
(1. 杭州職業(yè)技術學院 電子與信息學院,杭州 310018;2. 南京郵電大學 電子科學與工程學院,南京 210003)
在不確定性動態(tài)擾動作用下,機器人視覺系統(tǒng)的各個位姿分量會產生不同量級的定位誤差。為了量化各位姿分量的誤差大小,提出一種視覺定位精度的灰色評定方法。首先,利用P3P特征點建模方法,建立機器人視覺系統(tǒng)的坐標映射模型;然后,利用GM(1,1)模型,分別對攝像機內參標定參數(shù)、2D坐標參數(shù)、3D坐標參數(shù)建立有干擾和無干擾條件下的灰色標準差模型;最后,將高斯噪音誤差引入灰色標準差模型中,分析各視覺參數(shù)對機器人定位精度的量化影響。實驗表明機器人視覺系統(tǒng)的位置精度優(yōu)于±6mm,姿態(tài)精度優(yōu)于±1.2°。
工業(yè)機器人;視覺系統(tǒng);定位精度;灰色系統(tǒng)
為了提高工業(yè)機器人對動態(tài)環(huán)境的反應能力,往往需要在機器人特定的機構上安裝視覺定位系統(tǒng)[1]。視覺定位系統(tǒng)是機器人實現(xiàn)待測目標的位姿估計、動態(tài)跟蹤、路徑規(guī)劃等的重要手段[2]。
視覺定位系統(tǒng)是通過攝像機的成像與坐標映射模型來確定目標位姿的。因此,機器人的視覺定位精度與攝像機的坐標映射參數(shù)密切相關。但是,由于機器人控制模型的非線性、結構設計的強耦合性以及工況擾動的不確定性,使其測量過程不可避免地存在噪聲干擾,降低視覺測量系統(tǒng)的定位精度[3-4]。
近年來,國內外學者研究的機器人視覺定位系統(tǒng)的精度評定方法主要分為兩類。第一類是基于統(tǒng)計學原理的精度評定方法,其統(tǒng)計數(shù)據(jù)一般來源于單點干擾測試或者攝像機P3P模型在不同距離下的定位誤差數(shù)據(jù)等[5-6],但是,由于該方法依賴于頻繁測試和大量的統(tǒng)計,因此,很難實現(xiàn)參數(shù)復雜且信息匱乏的視覺系統(tǒng)的精度評定。第二類是基于模型的精度評定方法。目前,研究人員設計的視覺精度評定模型大致包括參數(shù)誤差概率分布模型、誤差概率矩陣模型、支持矢量機回歸誤差校正模型和灰色關聯(lián)度模型等[7-10]。雖然這些模型能有效地分析視覺參數(shù)之間的誤差傳播機理,但其各參數(shù)精度損失對定位誤差的影響仍未實現(xiàn)系統(tǒng)性地研究。
因此,在測量樣本有限的情況下,為了系統(tǒng)地分析視覺模型的參數(shù)誤差對各位姿分量的干擾程度,本文在基于模型方法和基于統(tǒng)計方法的基礎上,提出一種視覺定位精度的灰色評定方法。首先,利用P3P特征點建模方法,建立機器人視覺系統(tǒng)的坐標映射模型;然后,利用GM(1,1)模型分別對攝像機內參標定參數(shù)、2D坐標參數(shù)、3D坐標參數(shù)建立有誤差和無誤差干擾下的灰色標準差模型;最后,將高斯噪聲誤差引入爬行機器人的視覺參數(shù)中,利用本文方法分析各參數(shù)誤差對其視覺定位精度的擾動量。
機器人是通過視覺模型來實現(xiàn)系統(tǒng)控制和路徑規(guī)劃的,因此,需要對其建立攝像機模型,求解機器人的坐標映射關系。在建立攝像機模型時,以Oc為攝像機坐標系、Oo為目標坐標系,分別選取三個特征點P1(x1,y1,z1),P2(x2,y2,z2),P3(x3,y3,z3)作為機器人的測量點來建立觀測模型,如圖1所示。
圖1 機器人視覺測量模型
令o-uv為像平面坐標系,oc-xcyczc為攝像機坐標系,f=(ax,ay)為攝像機有效焦距。由攝像機透視變換關系,空間一點P經(jīng)攝像機成像后,其像面坐標和攝像機坐標之間滿足:
(1)
式中,(u0,v0)為主點坐標。此時,P點在目標坐標系ow-xwywzw的坐標P(xw,yw,zw)與其在攝像機坐標系下的坐標P(xc,yc,zc)之間滿足:
(2)
式中,R為旋轉矩陣,由角度A=[a,b,g]組成;T[Tx,Ty,Tz]T為平移矢量,二者共同決定P點相對于ow-xwywzw的位置和姿態(tài)。由歐拉定理,得:
(3)
聯(lián)立式(1)~式(3)可得:
(4)
式中,Pi(xi,yi,zi)為目標坐標系下的點,i=1,2,3;(ax,ay)為歸一化焦距,(u0,v0)為主點坐標。令變量N(k)為[ax,ay,uo,v0,u1,v1,u2,v2,u3,v3,x1,y1,z1,x2,y2,z2,x3,y3,z3];其中,N(1)=ax,N(2)=ay,…,N(19)=z3;(u1,v1)、(u2,v2)和(u3,v3)均為P點的2D坐標;(x1,y1,z1)、(x2,y2,z2)和(x3,y3,z3)為該點對應的3D坐標。則式(4)可以簡化為:
(5)
顯然,N(k)是關于位置參數(shù)T和姿態(tài)參數(shù)A的隱函數(shù),其各參數(shù)的標定精度直接影響機器人的引導性能。因此,為了評價變量N(j)中各參數(shù)對機器人視覺定位精度的影響程度,需要對其各個分量進行誤差評定。
為了建立N(k)中各參數(shù)的誤差量與位姿變量(T,A)之間的關系,需要對各位姿變量進行一階泰勒展開,即:
(6)
式中,dN(k)為變量N(j)的干擾量,dTk為由干擾量dN(k)引起的位置測量誤差,dAk為誤差參量dN(k)引起的姿態(tài)測量誤差。
首先,當?shù)趉個參數(shù)N(k)在無誤差干擾時,對其進行m次測量,獲得初始數(shù)列:
(7)
(8)
(9)
顯然,累加生成數(shù)據(jù)滿足:
(10)
其次,當?shù)趉個參數(shù)N(k)有誤差干擾dN(k)的作用時,其初始序列滿足:
(11)
(12)
此時,參數(shù)N(k)的真值序列與其帶誤差干擾dN(k)的序列之間的距離滿足:
(13)
由最大距△kmax和重復測量次數(shù)m,可求得N(k)的標準差為:
(14)
式中,c為灰常數(shù),通常取c=2.5,則:
(15)
因此,一旦給定視覺模型參數(shù)的初值,即可判斷各變量N(k)對機器人視覺定位精度的影響大小。
機器人實驗裝置主要由伺服運動模塊、信息處理模塊、控制模塊和工業(yè)攝像機組成,如圖2所示。
圖2 機器人視覺測量模型
工業(yè)攝像機采集到的目標圖像,經(jīng)過數(shù)據(jù)處理模塊的處理后轉換成機器人坐標;然后,控制模塊將坐標信息傳遞給伺服電機,實現(xiàn)對機器人的運動控制,機器人視覺系統(tǒng)參數(shù)如表1所示。
表1 機器人視覺參數(shù)指標
由于各輸入?yún)?shù)的誤差相互獨立,因此,在實驗過程中,可單獨分析N(k)中各誤差干擾對位姿測量精度的影響。機器人視覺模型在工作時,其初始歸一化焦距(ax,ay)=(631.847,630.808);主點坐標(u0,v0)=(589.799,462.461);P1點坐標為(x1,y1,z1)= (55.53886,-0.59637,0.08426),P2為(x2,y2,z2)=(30.04425,-0.56151,0.017607),P3為(x3,y3,z3)=(13.15267,17.88115,0.15796)。另外,視覺系統(tǒng)在不同距離下的位姿測量真值如表2所示。
表2 不同測量距離的位姿真值
將不同位姿測量初值代入到機器人視覺模型中,再利用灰色評定方法進行精度模擬。令誤差干擾dN(k)為高斯噪聲,就能得到攝像機各位姿分量的干擾量,如圖3所示。
其中,圖3a~圖3c是誤差干擾dN(k)對測得的位置量T的量化影響。可以看出,對Tx的精度影響最大的是主點坐標中的u0的誤差干擾,其次為2D像點坐標(u1,u2)的誤差干擾;對Ty位置精度影響最大的是主點坐標中v0的誤差干擾,其次為歸一化焦距(ax,ay)和所有2D像點坐標(u1,v1)、(u2,v2)、(u3,v3) 的誤差干擾;對Tz位置精度影響較大的是ax的誤差干擾和所有2D像點坐標的誤差干擾。
(a) dN(k)對Tx精度的影響
(b) dN(k)對Ty精度的影響
(c) dN(k)對Tz精度的影響
(d) dN(k)對α精度的影響
(e) dN(k)對β精度的影響
(f) dN(k)對γ精度的影響圖3 誤差干擾dN(k)對定位精度的影響
圖3d~圖3f是誤差干擾dN(k)對姿態(tài)測量精度的量化影響。其中,主點坐標(u0,v0)和所有2D像點坐標的誤差干擾均對α、β、γ角精度影響最大;歸一化焦距(ax,ay)的誤差干擾對β、γ角精度的影響位居其次;3D參數(shù)的誤差干擾只會降低β角精度。同時,在dN(k)的作用下,攝像機的位置定位精度為±6 mm,姿態(tài)定位精度為±1.2°。
為了驗證本文方法的優(yōu)越性,在初始參數(shù)不變的情況下,還分別利用文獻[6]的傳統(tǒng)P3P法和文獻[9]的矢量機回歸法對機器人視覺系統(tǒng)開展了定位精度比對實驗。實驗中,機器人視覺參數(shù)和目標模型的初始參數(shù)均完全相同,結果如圖4所示。
(a)位置精度比較
(b)姿態(tài)精度比較表4 三種方法的精度比對
經(jīng)過20次實驗,結果表明灰色評定法的位置精度的均值為0.51 mm,標準差為0.07 mm;姿態(tài)精度的均值為1.12°,標準差為0.09°;傳統(tǒng)P3P法的位置精度的均值為0.51 mm,標準差為0.18 mm;姿態(tài)精度的均值為1.04°,標準差為0.25°;矢量機回歸法的位置精度的均值為0.52 mm,標準差為0.20 mm;姿態(tài)精度的均值為1.19°,標準差為0.20°。就求解的均值而言,灰色評定法與另外兩種方法一樣,均能正確的評價出位姿精度;但就標準差而言,灰色評定法的穩(wěn)定性是傳統(tǒng)P3P方法的2.6倍、是矢量機回歸法的2.9倍。因此,在工業(yè)機器人視覺定位精度的評定上,本文方法更優(yōu)越。
(1)將視覺模型控制和定位精度灰色評價方法相結合,能夠有效的估計機器人模型坐標系的映射精度,從而更好的完成誤差校正。實驗表明,機器人視覺定位精度同時受到攝像機內參標定參數(shù)、2D坐標參數(shù)和3D坐標參數(shù)的影響。
(2)利用視覺定位精度的灰色評定方法,對攝像機模型參數(shù)進行高斯噪聲干擾。實驗表明攝像機內參標定誤差和2D坐標誤差是影響位姿精度的主要因素,3D坐標誤差對位姿解算幾乎無誤差影響。同時,在高斯噪聲干擾下,本文設計的機器人的位置定位精度優(yōu)于±6mm;姿態(tài)定位精度優(yōu)于±1.2°。
(3)通過比對實驗表明,灰色評定法、傳統(tǒng)P3P方法和矢量機回歸法均能正確的評價出位姿精度。但是,灰色評定法的穩(wěn)定性是傳統(tǒng)P3P方法的2.6倍,是矢量機回歸法的2.9倍。因此,灰色評定法更為優(yōu)越,能對工業(yè)機器人的標定及其精度評價起到重要的指導意義。
[1] David B, Ben U, Gordon W, et al.Vision-based Obstacle Detection and Navigation for an Agricultural Robot[J]. Journal of Field Robotics, 2016, 33(8):1107-1130.
[2] Luis P, Rodríguez I, Nuria R, et al. Robot Guidance Using Machine Vision Techniques in Industrial Environments: A Comparative Review[J]. Sensors (Basel), 2016, 16(3):1101-1114.
[3] 朱永豐,朱述龍,張靜靜,等.基于ORB特征的單目視覺定位算法研究[J].計算機科學,2016,43(6A):198-202.
[4] Punpaisarn S, SujitjornS. Reviews of Vision-Based Servoing Control Techniques for Mobile Robots[J]. Recent Patents on Engineering, 2009,3(2):97-108.
[5] Michel A, Barretob P, Nunesb U. Piecewise planar reconstruction using two views [J]. Image and Vision Computing,2016, 46(2):47-63.
[6] 郝穎明,朱楓,歐錦軍,等. P3P位姿測量方法的誤差分析[J]. 計算機工程與應用,2008, 44(18): 239-242.
[7] Rodriguez J, Aggarwal K. Stochastic analysis of stereo quantization error[J]. IEEE Pami, 1990, 12(1): 467-470.
[8] Miraldo P, Araujo H, Goncalves N. Pose Estimation for General Cameras Using Lines [J]. IEEE Transactions on Cybernetics, 2015, 45(10):2156-2164.
[9] 尹湘云,殷國富,胡曉兵,等.基于支持矢量機回歸的機器人視覺系統(tǒng)定位精度[J]. 機械工程學報,2011,47(1):48-54.
[10] 唐巍,葉東,袁峰,等.均勻設計與灰色理論應用于視覺系統(tǒng)誤差分析[J].儀器儀表學報,2013,34(2):254-262.
[11] W S Jiang, Z Y Wang.Calibration of visual model for space manipulator with a hybrid LM-GA algorithm [J]. Mech. Syst. Signal Process, 2016,66(1): 399-409.
[12] 宋軍強. OpenCV耦合機器視覺的背光板表面異物檢測算法研究[J]. 組合機床與自動化加工技術,2015(11):83-87.
[13] 李二超,李戰(zhàn)明,李煒. 基于視覺的機器人灰色預測模糊力控制研究[J].中國機械工程,2010,21(17):2107-2109.
[14] 朱明清,王智靈,陳宗海. 基于灰色預測模型和粒子濾波的視覺目標跟蹤算法[J]. 控制與決策, 2012,27(1):53-57.
(編輯 李秀敏)
Location Accuracy Evaluation Method of Robot Vision System Based on Grey Generating Operation
QIAN Wei-xing1, HUANG Li-ya2
(1.College of Information Engineering, Hangzhou Vocational and Technical College, Hangzhou 310018, China; 2.School of Electronic Science and Engineering, Nanjing University of Posts and Telecommunications, Nanjing 210003, China)
The component both of the position and orientation has different error level under the effect of uncertain interference in practical engineering. To evaluate those different errors, a location accuracy analysis method is proposed based on Grey Generating Operation theory. Firstly, the coordinate mapping model of the robot vision system is built by the P3P modeling method with three feature points. Secondly, the grey standard deviation of intrinsic parameters of camera, 2D coordinate parameters, and 3D coordinate parameters are solved by GM(1,1) method both with interference and without interference. Thirdly, the grey standard deviation model of a robot vision system is motivated by Gaussian noise. The experimental result shows that the positional accuracy is ±6mm, and the pose accuracy is ±1.2°, which shows the evaluating capability of our suggested method.
industrial robot; visual system; locational accuracy; grey system
1001-2265(2017)06-0030-04
10.13462/j.cnki.mmtamt.2017.06.008
2017-01-18;
2017-02-20
浙江省教育廳科研項目(Y201327284);國家自然科學基金資助項目(61003237)
錢衛(wèi)星(1974—),男,江蘇常州人,杭州職業(yè)技術學院講師,碩士,研究方向為機器視覺技術研究、電路與系統(tǒng)設計, (E-mail)qwx_hz@126.com。
TH166;TG659
A