亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        仿人機(jī)器人頭部設(shè)計(jì)與目標(biāo)跟蹤運(yùn)動(dòng)控制

        2017-11-15 09:30:16宛敏紅周維佳劉玉旺
        關(guān)鍵詞:測(cè)量

        宛敏紅 周維佳 劉玉旺

        (1.中國(guó)科學(xué)院沈陽(yáng)自動(dòng)化研究所機(jī)器人學(xué)國(guó)家重點(diǎn)實(shí)驗(yàn)室,沈陽(yáng) 110016; 2.中國(guó)科學(xué)院大學(xué),北京 100049)

        仿人機(jī)器人頭部設(shè)計(jì)與目標(biāo)跟蹤運(yùn)動(dòng)控制

        宛敏紅1,2周維佳1劉玉旺1

        (1.中國(guó)科學(xué)院沈陽(yáng)自動(dòng)化研究所機(jī)器人學(xué)國(guó)家重點(diǎn)實(shí)驗(yàn)室,沈陽(yáng) 110016; 2.中國(guó)科學(xué)院大學(xué),北京 100049)

        針對(duì)仿人機(jī)器人視覺(jué)目標(biāo)跟蹤任務(wù)需求,設(shè)計(jì)了一種高精度、靈巧型仿人機(jī)器人頭部系統(tǒng),構(gòu)建了視覺(jué)感知模塊與3自由度機(jī)械臂運(yùn)動(dòng)機(jī)構(gòu)。利用虛擬連桿方法對(duì)仿人機(jī)器人頭部進(jìn)行運(yùn)動(dòng)學(xué)建模,將目標(biāo)跟蹤問(wèn)題轉(zhuǎn)換為機(jī)械臂的運(yùn)動(dòng)學(xué)逆解問(wèn)題,通過(guò)計(jì)算機(jī)構(gòu)可操作度與條件數(shù),顯示機(jī)器人頭部對(duì)目標(biāo)跟蹤任務(wù)具有良好的運(yùn)動(dòng)學(xué)靈活性。在此基礎(chǔ)上,基于梯度投影法建立了目標(biāo)跟蹤運(yùn)動(dòng)學(xué)逆解與規(guī)避關(guān)節(jié)極限位置的同步優(yōu)化算式,并針對(duì)視覺(jué)測(cè)量系統(tǒng)帶寬較窄、容易造成較大跟蹤誤差的問(wèn)題,提出了在兩次視覺(jué)測(cè)量間隔內(nèi)用軌跡預(yù)測(cè)的方法獲得目標(biāo)位置的估計(jì)值,以提高跟蹤精度。仿真與實(shí)驗(yàn)結(jié)果表明,在測(cè)量盲區(qū)內(nèi)采用軌跡預(yù)測(cè)方法,可將跟蹤精度提高約80%,實(shí)現(xiàn)高精度目標(biāo)跟蹤。所提出的仿人機(jī)器人頭部及控制方法,對(duì)動(dòng)態(tài)目標(biāo)具有良好的跟蹤性能。

        仿人機(jī)器人; 頭部; 目標(biāo)跟蹤; 虛擬連桿; 梯度投影法; 軌跡預(yù)測(cè)

        引言

        仿人機(jī)器人是當(dāng)前機(jī)器人領(lǐng)域的研究熱點(diǎn)之一,國(guó)內(nèi)外科研機(jī)構(gòu)與企業(yè)都對(duì)其開(kāi)展了大量的研究工作,開(kāi)發(fā)出了一系列仿人機(jī)器人[1-8]。仿人機(jī)器人頭部是仿人機(jī)器人的重要組成部分,其主要功能是實(shí)現(xiàn)與外界的交互,機(jī)器人頭部一般會(huì)根據(jù)任務(wù)需求集成視覺(jué)、聽(tīng)覺(jué)、嗅覺(jué)、表情表達(dá)等功能模塊中的一種或幾種。麻省理工學(xué)院開(kāi)發(fā)的機(jī)器人頭部Kismet,共有21個(gè)自由度,可通過(guò)面部表情、聲音以及動(dòng)作實(shí)現(xiàn)與外界的交互,并通過(guò)寬視場(chǎng)角低精度相機(jī)與窄視場(chǎng)角高精度相機(jī)的組合使用提高視覺(jué)測(cè)量的效率[9]。Wroclaw大學(xué)開(kāi)發(fā)的情感表達(dá)頭部機(jī)器人EMYS能夠通過(guò)頭部、眼睛以及眼瞼的動(dòng)作表達(dá)一系列情感,如高興、悲傷、驚訝等,EMYS頭部機(jī)器人共有11個(gè)自由度,利用面部動(dòng)作編碼系統(tǒng)(FACS)描述機(jī)器人的面部表情[10]。NASA開(kāi)發(fā)的航天員機(jī)器人Robonaut2,其頭部由3自由度機(jī)構(gòu)與感知系統(tǒng)組成,使用伺服電機(jī)與諧波傳動(dòng)系統(tǒng)實(shí)現(xiàn)高精度伺服控制[11]。兒童機(jī)器人iCub的頭部具有6個(gè)自由度,集成視覺(jué)、聽(tīng)覺(jué)及慣性傳感器,能實(shí)現(xiàn)視覺(jué)目標(biāo)跟蹤、身體平衡以及聲定位功能[12]。文獻(xiàn)[13]提出一種機(jī)器人頭部模塊,利用3個(gè)力傳感器的組合,可同時(shí)測(cè)出外界施加于頭部的力與位置。

        通過(guò)視線控制仿人機(jī)器人可以實(shí)現(xiàn)對(duì)動(dòng)態(tài)目標(biāo)的跟蹤,在控制方法上與光電跟蹤系統(tǒng)類(lèi)似[14]。文獻(xiàn)[15]通過(guò)采用虛擬連桿建模方法,將視線跟蹤控制問(wèn)題等效轉(zhuǎn)化為機(jī)械臂末端軌跡跟蹤問(wèn)題,基于梯度投影法求解出了視線跟蹤的最優(yōu)解。文獻(xiàn)[16]將阻尼最小二乘法用于具有冗余特性的機(jī)器人頭部視線控制中,以規(guī)避奇異點(diǎn)與關(guān)節(jié)極限位置。文獻(xiàn)[17]針對(duì)目標(biāo)軌跡的不確定性,運(yùn)用卡爾曼濾波技術(shù)對(duì)目標(biāo)位置進(jìn)行預(yù)測(cè)。文獻(xiàn)[18]通過(guò)機(jī)器人頭頸與眼睛部位聯(lián)合運(yùn)動(dòng),實(shí)現(xiàn)了目標(biāo)跟蹤控制。

        在現(xiàn)有的仿人機(jī)器人頭部跟蹤運(yùn)動(dòng)控制研究中,鮮少有提及針對(duì)特定跟蹤任務(wù)的運(yùn)動(dòng)學(xué)性能評(píng)估,特別是仿人機(jī)器人頭部大量采用冗余機(jī)構(gòu),控制上比較復(fù)雜,如果能得到運(yùn)動(dòng)學(xué)性能比較優(yōu)良的構(gòu)型,有利于提高跟蹤的實(shí)時(shí)性與精度。另一方面,受限于視覺(jué)測(cè)量計(jì)算的復(fù)雜性,視覺(jué)測(cè)量的頻寬一般只有10 Hz左右,而位置伺服的控制頻寬可以達(dá)到100 Hz左右,視覺(jué)測(cè)量的響應(yīng)滯后往往造成跟蹤誤差較大,在運(yùn)動(dòng)目標(biāo)速度較快時(shí)更是如此,如何提高在視覺(jué)測(cè)量頻寬較窄時(shí)的跟蹤精度,也是需要解決的問(wèn)題。為實(shí)現(xiàn)對(duì)動(dòng)態(tài)目標(biāo)的視覺(jué)跟蹤,仿人機(jī)器人頭部應(yīng)具有靈活運(yùn)動(dòng)、高精度跟蹤的能力。本文針對(duì)仿人機(jī)器人視覺(jué)跟蹤任務(wù)需求,提出一種具有視覺(jué)跟蹤能力的頭部系統(tǒng),基于虛擬連桿建模的方法,將視覺(jué)跟蹤任務(wù)轉(zhuǎn)換成機(jī)械臂軌跡跟蹤任務(wù),利用可操作度與條件數(shù)評(píng)估其運(yùn)動(dòng)學(xué)性能,驗(yàn)證其設(shè)計(jì)的合理性,并基于軌跡預(yù)測(cè)的方法提高視覺(jué)測(cè)量速度滯后下的跟蹤精度。

        1 仿人機(jī)器人頭部系統(tǒng)設(shè)計(jì)

        本文提出的仿人機(jī)器人頭部實(shí)物如圖1所示,主要由視覺(jué)感知模塊與機(jī)械臂本體組成,其任務(wù)是實(shí)現(xiàn)對(duì)運(yùn)動(dòng)小球的視覺(jué)跟蹤。機(jī)器人頭部整體上實(shí)現(xiàn)了緊湊型設(shè)計(jì),質(zhì)量為5.8 kg,包絡(luò)尺寸為400 mm×230 mm×230 mm,體積與成年人的頭頸相當(dāng)。選擇類(lèi)似人類(lèi)頭頸的串聯(lián)機(jī)構(gòu)作為機(jī)械臂構(gòu)型,包含下俯仰(關(guān)節(jié)1)、回轉(zhuǎn)(關(guān)節(jié)2)、上俯仰(關(guān)節(jié)3)3個(gè)關(guān)節(jié)。

        圖1 仿人機(jī)器人頭部系統(tǒng)組成Fig.1 Humanoid robot head system configuration1.CCD相機(jī) 2.TOF相機(jī) 3.機(jī)械臂 4.基座

        視覺(jué)感知模塊負(fù)責(zé)對(duì)小球進(jìn)行識(shí)別與定位,并將位置信息發(fā)送給機(jī)械臂控制器,驅(qū)動(dòng)機(jī)械臂運(yùn)動(dòng),以使機(jī)器人頭部視線始終對(duì)準(zhǔn)目標(biāo)。視覺(jué)感知模塊包括2個(gè)CCD相機(jī)與1個(gè)激光測(cè)距(TOF)相機(jī),CCD相機(jī)的分辨率為2 448像素×2 050像素,TOF相機(jī)的分辨率為176像素×144像素,利用兩種相機(jī)進(jìn)行信息融合以得到小球的位置。小球定位方法是首先利用TOF相機(jī)進(jìn)行粗定位,獲得小球在CCD相機(jī)上大致位置并計(jì)算感興趣區(qū)域,最后在感興趣區(qū)域內(nèi)利用雙目視覺(jué)進(jìn)行精確定位計(jì)算,這樣可以同時(shí)保證處理速度和測(cè)量精度[19]。

        圖2 模塊化關(guān)節(jié)結(jié)構(gòu)設(shè)計(jì)原理圖Fig.2 Schematic diagram of modular robot joint design1.關(guān)節(jié)編碼器 2.基座 3.電動(dòng)機(jī)組件 4.制動(dòng)器 5.諧波減速機(jī) 6.關(guān)節(jié)輸出端

        機(jī)械臂關(guān)節(jié)采用模塊化設(shè)計(jì)方法,驅(qū)動(dòng)元件使用無(wú)刷直流電動(dòng)機(jī)與諧波減速機(jī)以實(shí)現(xiàn)高精度位置伺服,圖2為模塊化關(guān)節(jié)設(shè)計(jì)原理。

        仿人機(jī)器人頭部控制系統(tǒng)采用基于EtherCAT總線的分布式控制方式,以倍福四核嵌入式計(jì)算機(jī)為控制器平臺(tái),實(shí)時(shí)性高,易于模塊化設(shè)計(jì),各關(guān)節(jié)之間通過(guò)總線連接實(shí)現(xiàn)主從關(guān)系或平行關(guān)系。主控制器作EtherCAT主站,完成圖像處理與運(yùn)動(dòng)規(guī)劃任務(wù),各關(guān)節(jié)控制器作為EtherCAT從站,通過(guò)EtherCAT總線與主控制器進(jìn)行通信,完成關(guān)節(jié)層控制。CCD相機(jī)、TOF相機(jī)與主控制器之間通過(guò)千兆以太網(wǎng)進(jìn)行通信,控制系統(tǒng)組成框圖如圖3所示。

        圖3 機(jī)器人頭部控制系統(tǒng)框圖Fig.3 Robot head control block diagram

        2 運(yùn)動(dòng)學(xué)建模與分析

        2.1 基于虛擬連桿的運(yùn)動(dòng)學(xué)建模

        采用虛擬連桿方法可以將視線跟蹤問(wèn)題等效轉(zhuǎn)換為運(yùn)動(dòng)機(jī)構(gòu)末端軌跡跟蹤問(wèn)題[15-16]。仿人機(jī)器人頭部視覺(jué)跟蹤的虛擬連桿建模方法如圖4所示,在視覺(jué)坐標(biāo)系原點(diǎn)與目標(biāo)之間建立一個(gè)虛擬的連桿,虛擬連桿在運(yùn)動(dòng)學(xué)上等效于一個(gè)移動(dòng)關(guān)節(jié),即虛擬連桿在長(zhǎng)度方向上可伸縮,使得在目標(biāo)跟蹤運(yùn)動(dòng)過(guò)程中,連桿的末端始終與目標(biāo)連接在一起。如此,視覺(jué)目標(biāo)跟蹤問(wèn)題,就等價(jià)于包含虛擬連桿在內(nèi)的4自由度機(jī)械臂的動(dòng)態(tài)軌跡跟蹤問(wèn)題。

        圖4 仿人機(jī)器人頭部虛擬連桿建模示意圖Fig.4 Modeling principle of humanoid robot head based on visual link method1.跟蹤目標(biāo) 2.虛擬連桿 3.仿人機(jī)器人頭部

        仿人機(jī)器人頭部連桿坐標(biāo)系如圖5所示,DH參數(shù)如表1所示。設(shè)連桿末端位置點(diǎn)為O4,目標(biāo)位置點(diǎn)為O4T,跟蹤運(yùn)動(dòng)控制方法是:由視覺(jué)感知模塊測(cè)量得到兩點(diǎn)位置差,即笛卡爾空間中的跟蹤誤差,再經(jīng)過(guò)逆運(yùn)動(dòng)學(xué)計(jì)算得到驅(qū)動(dòng)信號(hào),驅(qū)動(dòng)機(jī)械臂向目標(biāo)位置點(diǎn)運(yùn)動(dòng)。

        圖5 仿人機(jī)器人頭部連桿坐標(biāo)系Fig.5 Humanoid robot head link coordinates

        表1 仿人機(jī)器人頭部DH參數(shù)Tab.1 Humanoid robot head DH parameters

        類(lèi)似于人類(lèi)頭頸的運(yùn)動(dòng)機(jī)理與運(yùn)動(dòng)范圍,3個(gè)關(guān)節(jié)運(yùn)動(dòng)范圍分別設(shè)定為[-95°,-20°]、[90°,270°]與[-104°,-55°],3個(gè)關(guān)節(jié)的最大運(yùn)動(dòng)速度均為360(°)/s。機(jī)器人頭部的幾何參數(shù)為l1=l3=0.055 m,l2=0.163 m,l4=0.064 m。

        2.2 運(yùn)動(dòng)學(xué)特性分析

        通過(guò)可操作度與條件數(shù)指標(biāo)評(píng)估機(jī)器人頭部的運(yùn)動(dòng)性能,以驗(yàn)證機(jī)構(gòu)設(shè)計(jì)的合理性??刹僮鞫缺碚鳈C(jī)構(gòu)離奇異位形的遠(yuǎn)近,Yoshikawa提出的可操作度定義為

        (1)

        式中J——雅可比矩陣

        圖6 機(jī)器人頭部可操作度Fig.6 Manipulability of robot head

        機(jī)器人處于奇異位形時(shí),雅可比矩陣J行不滿秩,det(JJT)=0,w=0。w越大,機(jī)器人的靈活性就越好??刹僮鞫戎笜?biāo)受機(jī)器人關(guān)節(jié)參數(shù)影響,第一個(gè)關(guān)節(jié)為旋轉(zhuǎn)關(guān)節(jié),其取值不影響可操作度數(shù)值,為便于分析,設(shè)θ1=-90°,分別考察虛擬連桿長(zhǎng)度d4為0.5、2、5 m時(shí),可操作度與θ2、θ3之間的關(guān)系,如圖6所示??梢?jiàn),在整個(gè)運(yùn)動(dòng)范圍內(nèi),可操作度均大于零并且變化平緩,即不存在奇異位形以及運(yùn)動(dòng)性能的突變位置??刹僮鞫戎笜?biāo)是指機(jī)器人各個(gè)方向上運(yùn)動(dòng)能力的綜合度量,隨著虛擬連桿長(zhǎng)度d4的增加,機(jī)器人末端點(diǎn)距基坐標(biāo)系原點(diǎn)的距離增大,因此θ2、θ3的變化,能產(chǎn)生更大的末端位移,運(yùn)動(dòng)能力增加,這從圖6的可操作度變化趨勢(shì)可以看出,可操作度在逐漸增加。

        機(jī)構(gòu)條件數(shù)定義為

        C(J)=‖J‖‖J+‖

        (2)

        式中J+——雅可比矩陣J的廣義逆矩陣

        條件數(shù)的范圍為[1,∞),當(dāng)C=1時(shí)表明機(jī)構(gòu)具有最佳的運(yùn)動(dòng)傳遞性能。令θ1=-90°,當(dāng)虛擬連桿長(zhǎng)度d4分別為0.5、2、5 m時(shí),條件數(shù)與θ2、θ3之間的關(guān)系如圖7所示。可見(jiàn)在整個(gè)運(yùn)動(dòng)范圍內(nèi),條件數(shù)均大于1,取值合理,并且變化比較均勻,不存在不可控點(diǎn),運(yùn)動(dòng)性能變化均勻。條件數(shù)指標(biāo)是機(jī)器人各個(gè)方向上運(yùn)動(dòng)能力的均一性度量,圖7中隨著虛擬連桿長(zhǎng)度d4的增加,條件數(shù)逐漸增大,表征運(yùn)動(dòng)能力均一性變差,這是因?yàn)樾D(zhuǎn)關(guān)節(jié)在末端點(diǎn)產(chǎn)生運(yùn)動(dòng)的能力逐漸增加,而移動(dòng)關(guān)節(jié)的運(yùn)動(dòng)能力未變。

        圖7 機(jī)器人頭部條件數(shù)Fig.7 Condition number of robot head

        3 目標(biāo)跟蹤運(yùn)動(dòng)控制

        3.1 運(yùn)動(dòng)學(xué)逆解算法

        對(duì)于冗余機(jī)構(gòu),運(yùn)動(dòng)學(xué)逆解有無(wú)窮多個(gè),需要通過(guò)合理的優(yōu)化準(zhǔn)則選擇最優(yōu)解。設(shè)機(jī)器人頭部關(guān)節(jié)位置為q=(q1,q2,q3,q4)T=(θ1,θ2,θ3,d4)T,末端點(diǎn)在笛卡爾空間坐標(biāo)為x=(x,y,z)T,則可得到

        (3)

        其中,J為3×4階雅可比矩陣。式(3)基于廣義逆的解為

        (4)

        其中

        (5)

        式中I——單位矩陣k——優(yōu)化系數(shù)

        式(4)中右邊第1項(xiàng)為最小范數(shù)解,第2項(xiàng)為關(guān)節(jié)自運(yùn)動(dòng)的優(yōu)化解。

        當(dāng)J行滿秩時(shí),J+=JT(JJT)-1。

        為使機(jī)械臂規(guī)避關(guān)節(jié)極限位置,設(shè)優(yōu)化函數(shù)為

        (6)

        式中qimax、qimin——第i個(gè)關(guān)節(jié)的上、下極限位置

        在跟蹤運(yùn)動(dòng)控制過(guò)程中,機(jī)械臂關(guān)節(jié)位置q通過(guò)編碼器實(shí)時(shí)測(cè)量,機(jī)械臂末端點(diǎn)位置x通過(guò)前向運(yùn)動(dòng)學(xué)計(jì)算得到,設(shè)動(dòng)態(tài)目標(biāo)位置為xd,由視覺(jué)測(cè)量得到,可按如下步驟進(jìn)行迭代計(jì)算:

        (1)計(jì)算跟蹤位置差Δx=xd-x。

        (3)計(jì)算關(guān)節(jié)空間位置更新值q=q+Δq,返回步驟(1)。

        3.2 目標(biāo)軌跡預(yù)測(cè)

        如果目標(biāo)速度較快,而視覺(jué)測(cè)量更新速度又較慢,則在2次測(cè)量點(diǎn)之間的測(cè)量盲區(qū)內(nèi)目標(biāo)已經(jīng)運(yùn)動(dòng)到較遠(yuǎn)位置,導(dǎo)致產(chǎn)生較大的跟蹤誤差。對(duì)于高精度視覺(jué)測(cè)量系統(tǒng),一般更新頻率只能達(dá)到10 Hz左右,即更新間隔為0.1 s,如果目標(biāo)速度為3 m/s,則在測(cè)量盲區(qū)內(nèi)目標(biāo)運(yùn)動(dòng)的距離為0.3 m,這就是跟蹤誤差。

        如果能利用已測(cè)的目標(biāo)軌跡預(yù)測(cè)測(cè)量盲區(qū)內(nèi)的未測(cè)軌跡,以得到更致密的目標(biāo)位置,則能減小跟蹤誤差。在各種目標(biāo)位置預(yù)測(cè)的方法中,如卡爾曼濾波、粒子濾波、α-β濾波、最小二乘法濾波等,最小二乘法具有比較快的計(jì)算速度,更適合在實(shí)時(shí)目標(biāo)跟蹤中應(yīng)用[20]。

        利用最小二乘法,對(duì)已測(cè)點(diǎn)進(jìn)行多項(xiàng)式曲線擬合,即可用擬合曲線對(duì)測(cè)量盲區(qū)內(nèi)目標(biāo)軌跡進(jìn)行預(yù)測(cè)。擬合曲線的次數(shù)越高,位置預(yù)測(cè)精度越高[20],本文根據(jù)目標(biāo)的運(yùn)動(dòng)特征,即大體上比較平緩,沒(méi)有劇烈變化,選擇二次多項(xiàng)式曲線進(jìn)行位置擬合,兼顧精度與實(shí)時(shí)性要求。設(shè)最近4次視覺(jué)測(cè)量的時(shí)刻分別為(t1,t2,t3,t4)=(0,0.1,0.2,0.3) s,位置為xd1=(x1,y1,z1)T、xd2=(x2,y2,z2)T、xd3=(x3,y3,z3)T、xd4=(x4,y4,z4)T,利用此4個(gè)點(diǎn)的時(shí)間與位置可擬合出一條二次曲線,如果視覺(jué)測(cè)量間隔為0.1 s,利用此曲線在當(dāng)前測(cè)量盲區(qū)內(nèi)等時(shí)段預(yù)測(cè)9個(gè)點(diǎn),即可有效提高測(cè)量帶寬,預(yù)測(cè)原理如圖8所示。

        圖8 軌跡預(yù)測(cè)方法Fig.8 Trajectory prediction method

        以x方向?yàn)槔f(shuō)明位置預(yù)測(cè)方法,y、z方向與此類(lèi)似。設(shè)擬合曲線為

        d(t)=a0+a1t+a2t2

        (7)

        則根據(jù)最小二乘法原理,式(7)的解為

        A=(PTP)-1PTX

        (8)

        4 仿真

        設(shè)目標(biāo)運(yùn)動(dòng)軌跡為三維空間曲線,可以表示成二次多項(xiàng)式形式,參數(shù)方程為

        (9)

        仿真時(shí)間為0~1 s。設(shè)視覺(jué)測(cè)量更新周期為0.1 s,跟蹤控制周期為0.01 s,關(guān)節(jié)最大速度為360(°)/s,優(yōu)化系數(shù)k=-0.000 01。機(jī)器人頭部初始位形為(-90°,180°,-90°,0.4 m),初始位形時(shí)末端點(diǎn)位置與目標(biāo)初始位置有一定距離,這與實(shí)際情況中機(jī)械臂初始位形與目標(biāo)的關(guān)系存在隨意性比較相符,即總是存在一定的未知距離。在0~1 s內(nèi)視覺(jué)測(cè)量更新10次,跟蹤控制100次,采用軌跡預(yù)測(cè)方法的跟蹤效果及機(jī)器人頭部構(gòu)型變化如圖9所示。

        圖9 目標(biāo)跟蹤效果Fig.9 Target tracking effect

        跟蹤誤差如圖10所示,為便于比較,將采用非軌跡預(yù)測(cè)方法的跟蹤誤差也一并顯示??梢?jiàn),初始位形有較大跟蹤誤差,約0.185 m,但機(jī)器人頭部在0.1 s內(nèi)就能跟上目標(biāo),但跟蹤誤差仍然明顯,最大約為0.09 m,這是因?yàn)樵跍y(cè)量盲區(qū)內(nèi)目標(biāo)運(yùn)動(dòng)距離較遠(yuǎn)。直到視覺(jué)測(cè)量采集到4個(gè)點(diǎn)位置后,軌跡預(yù)測(cè)功能開(kāi)始起作用,采用軌跡預(yù)測(cè)方法的跟蹤誤差顯著減小到0.018 m左右,而采用非軌跡預(yù)測(cè)方法的跟蹤誤差在整個(gè)過(guò)程中有逐漸增大的趨勢(shì),這是因?yàn)槟繕?biāo)一直處于加速狀態(tài),在測(cè)量盲區(qū)內(nèi)運(yùn)動(dòng)的距離逐漸增大,表現(xiàn)出來(lái)的效果就是跟蹤誤差逐漸增大??梢?jiàn),軌跡預(yù)測(cè)方法對(duì)提高跟蹤精度作用明顯,能將跟蹤精度提高約80%。

        圖10 目標(biāo)跟蹤誤差Fig.10 Target tracking error

        關(guān)節(jié)位置變化如圖11所示,關(guān)節(jié)1、關(guān)節(jié)2均離極限位置較遠(yuǎn),關(guān)節(jié)3的最小位置為-102.5°,與下極限位置-104°仍有安全距離,可見(jiàn)在跟蹤過(guò)程中,基于梯度投影的優(yōu)化算法很好地保證了關(guān)節(jié)不超越極限位置。如果去除極限位置保護(hù)功能,即令k=0,則關(guān)節(jié)位置變化如圖12所示,此時(shí)關(guān)節(jié)3的最小位置為-104.5°,超越極限位置,這在實(shí)際中是不允許的??梢?jiàn),利用梯度投影法可以在得到運(yùn)動(dòng)學(xué)逆解的同時(shí),獲得次目標(biāo)的優(yōu)化解,這不僅是實(shí)際物理結(jié)構(gòu)的需要,也是仿人功能的體現(xiàn),人類(lèi)頭頸在進(jìn)行視覺(jué)目標(biāo)跟蹤時(shí),總是以最快、最省力的方式快速跟上目標(biāo),并且保證頭頸都在舒服的區(qū)間內(nèi)運(yùn)動(dòng),這是人類(lèi)天生的同步優(yōu)化能力。

        圖11 跟蹤過(guò)程關(guān)節(jié)位置變化Fig.11 Joint position changes during tracking

        圖12 去除極限位置規(guī)避功能的關(guān)節(jié)位置變化Fig.12 Joint position changes under no limits avoidance

        5 實(shí)驗(yàn)驗(yàn)證

        在倍??刂破髦?,采用VC++軟件實(shí)現(xiàn)上述仿人機(jī)器人頭部目標(biāo)跟蹤算法,視覺(jué)測(cè)量周期為0.1 s,跟蹤控制周期為0.01 s,考察仿人機(jī)器人頭部實(shí)際的目標(biāo)跟蹤能力。小球在機(jī)器人頭部前面約1 m處作空間三維曲線運(yùn)動(dòng),由人手控制小球運(yùn)動(dòng),因此小球運(yùn)動(dòng)軌跡表現(xiàn)出一定的隨意性。

        圖13為目標(biāo)跟蹤實(shí)驗(yàn)拍攝視頻的連續(xù)截屏,持續(xù)時(shí)間為18 s,共截取8個(gè)姿態(tài),均處于穩(wěn)定跟蹤階段,可見(jiàn)仿人機(jī)器人頭部視線始終跟隨目標(biāo)運(yùn)動(dòng),跟蹤誤差較小,達(dá)到了高精度跟蹤的效果。因此,前文中提到的仿人機(jī)器人頭部控制方法,能對(duì)動(dòng)態(tài)目標(biāo)實(shí)現(xiàn)穩(wěn)定、平滑的視覺(jué)跟蹤。

        圖13 仿人機(jī)器人頭部目標(biāo)跟蹤實(shí)驗(yàn)Fig.13 Target tracking experiment of humanoid robot head

        6 結(jié)論

        (1)對(duì)仿人機(jī)器人頭部采用冗余機(jī)構(gòu)方案,可以提高視覺(jué)跟蹤的靈巧性,在進(jìn)行目標(biāo)跟蹤的同時(shí),可以實(shí)現(xiàn)次目標(biāo),如規(guī)避關(guān)節(jié)極限位置,相較于傳統(tǒng)的雙軸跟蹤機(jī)構(gòu),冗余機(jī)器人頭部更好地展示了“仿人”的功能。

        (2)基于虛擬連桿方法對(duì)目標(biāo)跟蹤任務(wù)進(jìn)行運(yùn)動(dòng)學(xué)建模,將跟蹤問(wèn)題轉(zhuǎn)換成機(jī)械臂運(yùn)動(dòng)學(xué)逆解問(wèn)題,即可以借助于機(jī)械臂運(yùn)動(dòng)學(xué)性能指標(biāo),有效地評(píng)估機(jī)構(gòu)對(duì)跟蹤任務(wù)的靈活性。

        (3)在視覺(jué)測(cè)量的盲區(qū)內(nèi)采用軌跡預(yù)測(cè)方法,可以有效提高跟蹤精度。

        1 吳偉國(guó).面向作業(yè)與人工智能的仿人機(jī)器人研究進(jìn)展[J].哈爾濱工業(yè)大學(xué)學(xué)報(bào),2015,47(7): 1-19.

        WU Weiguo.Research progress of humanoid robots for mobile operation and artificial intelligence[J].Journal of Harbin Institute of Technology, 2015,47(7): 1-19.(in Chinese)

        2 于秀麗, 魏世民, 廖啟征.仿人機(jī)器人發(fā)展及其技術(shù)探索[J].機(jī)械工程學(xué)報(bào), 2009,45(3): 71-75.

        YU Xiuli, WEI Shimin, LIAO Qizheng.Development and technology research of humanoid robot[J].Chinese Journal of Mechanical Engineering,2009,45(3): 71-75.(in Chinese)

        3 LAW J, SHAW P, LEE M, et al.From saccades to grasping: a model of coordinated reaching through simulated development on a humanoid robot[J].IEEE Transactions on Autonomous Mental Development, 2014, 6(2):93-109.

        4 TAN K C, CHEN Y J, TAN K K, et al.Task-oriented developmental learning for humanoid robots[J].IEEE Transactions on Industrial Electronics, 2005, 52(3):906-914.

        5 KIM Y D, LEE B J, RYU J H, et al.Landing force control for humanoid robot by time-domain passivity approach[J].IEEE Transactions on Robotics, 2007, 23(6):1294-1301.

        6 ZHAO Jing, LI Wei, MAO Xiaoqian, et al.Behavior-based SSVEP hierarchical architecture for telepresence control of humanoid robot to achieve full-body movement[J].IEEE Transactions on Cognitive and Developmental Systems, 2017, 9(2):197-209.

        7 LIU H Y, WANG W J, WANG R J, et al.Image recognition and force measurement application in the humanoid robot imitation[J].IEEE Transactions on Instrumentation and Measurement, 2012, 61(1):149-161.

        8 LIU Zhi, XU Shuqiong, ZHANG Yun, et al.A multiple-feature and multiple-kernel scene segmentation algorithm for humanoid Robot[J].IEEE Transactions on Cybernetics, 2014, 44(11):2232-2240.

        9 BREAZEAL C, EDSINGER A, FITZPATRICK.P, et al.Active vision for sociable robots[J].IEEE Trans.Syst.Man Cybern.A, 2001,31:443-453.

        10 KEDZIERSKI J, MUSZYSKI R, ZOLL C, et al.EMYS—emotive head of a social robot[J].International Journal of Social Robotics, 2013, 5: 237-249.

        11 DIFTLER M A, AHLSTROM T D, JOYCE C A, et al.Robonaut 2-initial activities on-board the ISS[C]∥In Proc.IEEE Aerospace Conference, Big Sky, MT, 2012:1-12.

        12 BEIRA R, LOPES M, PRAGA M, et al.Design of the robot-cub (iCub) head[C]∥IEEE International Conference on Robotics & Automation, Orlando, Florida, 2006: 94-100.

        13 KIM D K, KIM J H, KWON H J, et al.Fabrication of robot head module using contact-resistance force sensor for human-robot interaction and its evaluation[J].Journal of Mechanical Science and Technology, 2012, 26(10):3269-3276.

        14 官伯林, 賈建援, 朱應(yīng)敏.基于自適應(yīng)差分進(jìn)化算法的三軸光電跟蹤策略[J].機(jī)械工程學(xué)報(bào), 2012, 48(10): 14-21.

        GUAN B L, JIA J Y, ZHU Y M.Tracking strategy of three-axis photoelectric tracking system based on adaptive differential evolution algorithm[J].Journal of Mechanical Engineering, 2012, 48(10): 14-21.(in Chinese)

        16 祁若龍, 張偉, 王鐵軍,等.仿人頭頸部機(jī)器人跟蹤運(yùn)動(dòng)控制方法[J].吉林大學(xué)學(xué)報(bào): 工學(xué)版, 2016, 46(5): 1595-1601.

        QI Ruolong, ZHANG Wei, WANG Tiejun, et al.Tracking motion control method of hunanoid head and neck robot[J].Journal of Jilin University: Engineering and Technology Edition, 2016, 46(5): 1595-1601.(in Chinese)

        17 GIULIO M, LUCA V, ALESSANDRO D L.Adaptive predictive gaze control of a redundant humanoid robot head [C]∥2011 IEEE/RSJ International Conference on Intelligent Robots and Systems, San Francisco, USA: CA, 2011: 3192-3198.

        18 GU Lizhong, SU Jianbo.Gaze control on humanoid robot head[C]∥Proceedings of the 6th World Congress on Intelligent Control and Automation, Dalian, China, 2006: 21-23.

        19 范曉鵬, 郝穎明, 朱楓, 等.面向機(jī)器人航天員的球形目標(biāo)識(shí)別與定位方法研究[J].載人航天, 2016, 22(3): 375-380.

        FAN Xiaopeng, HAO Yingming, ZHU Feng, et al.Study on spherical target identification and localization method for robonaut[J].Manned Spaceflight, 2016, 22(3): 375-380.(in Chinese)

        20 鐘建冬, 蘇劍波.基于視覺(jué)預(yù)測(cè)的運(yùn)動(dòng)目標(biāo)實(shí)時(shí)跟蹤系統(tǒng)[J].機(jī)器人,2010, 32(4): 516-521.

        ZHONG Jiandong, SU Jianbo.A real-time moving object tracking system based on virtual prediction[J].Robot, 2010, 32(4): 516-521.(in Chinese)

        DesignofHumanoidRobotHeadandMotionControlforObjectTracking

        WAN Minhong1,2ZHOU Weijia1LIU Yuwang1

        (1.TheStateKeyLaboratoryofRobotics,ShenyangInstituteofAutomation,ChineseAcademyofSciences,Shenyang110016,China2.UniversityofChineseAcademyofSciences,Beijing100049,China)

        According to the need for visual target tracking task of the humanoid robot, a new kind of humanoid robot head with high precision and good dexterity was put forward, and the visual perception module and the three degree of freedom robot mechanism were constructed.In order to evaluate the motion ability of humanoid robot head for the target tracking task,the kinematics model of the robot head was established by using the virtual link method, which made the problem of object tracking transform to the problem of inverse kinematics.And the kinematics characteristics was studied by the calculation of condition number and manipulability, which showed that the dexterity of the humanoid robot head was good for the tracking task.Based on this, by using gradient projection method, the synchronization optimization solution was obtained for the inverse kinematics and the avoidance of joint limits.Because of the complexity of image processing, the speed of the visual measurement system was generally slow, and the bandwidth was usually only about 10 Hz.Therefore, the target position can not be updated in the measurement blind area between the two measuring points, which led to great tracking error.According to this problem, a prediction method of trajectory in the two visual measurement interval to estimate the target position was proposed.The simulation and experimental results showed that the tracking accuracy can be improved by about 80% by using the trajectory prediction method in the blind area of vision measurement, and the high precision target tracking can be realized.The humanoid robot head and motion control method proposed had good tracking performance for dynamic target.

        humanoid robot; head; object tracking; virtual link; gradient projection method; trajectory prediction

        10.6041/j.issn.1000-1298.2017.10.051

        TP242

        A

        1000-1298(2017)10-0401-07

        2017-07-05

        2017-08-09

        國(guó)家自然科學(xué)基金項(xiàng)目(51605474)

        宛敏紅(1982—),男,副研究員,博士生,主要從事機(jī)器人學(xué)研究,E-mail: wanminhong@sia.cn

        猜你喜歡
        測(cè)量
        測(cè)量重量,測(cè)量長(zhǎng)度……
        把握四個(gè)“三” 測(cè)量變簡(jiǎn)單
        滑動(dòng)摩擦力的測(cè)量和計(jì)算
        滑動(dòng)摩擦力的測(cè)量與計(jì)算
        測(cè)量的樂(lè)趣
        二十四節(jié)氣簡(jiǎn)易測(cè)量
        日出日落的觀察與測(cè)量
        滑動(dòng)摩擦力的測(cè)量與計(jì)算
        測(cè)量
        測(cè)量水的多少……
        亚洲精品在线观看自拍| 欧美人妻精品一区二区三区| 国产日韩亚洲欧洲一区二区三区| 免费在线观看蜜桃视频| 久久精品国产自产对白一区| 欧美黑人又粗又大xxxx| 国产亚洲情侣一区二区无| 中文字幕乱偷乱码亚洲| 91中文在线九色视频| 夫妻免费无码v看片| 国产伦精品一区二区三区免费| 正在播放淫亚洲| 国产精品后入内射日本在线观看| 黑人大群体交免费视频| 又湿又黄裸乳漫画无遮挡网站| 亚洲av在线播放观看| 97人妻中文字幕总站| 中文字幕日韩欧美一区二区三区 | 久久er这里都是精品23| 天涯成人国产亚洲精品一区av| 伊人久久大香线蕉av色婷婷色| 成人午夜特黄aaaaa片男男| 欧美日韩在线免费看| 性感人妻中文字幕在线| 亚洲最大中文字幕在线| 少妇饥渴偷公乱a级无码| 亚洲an日韩专区在线| 久久影院最新国产精品| 粗大的内捧猛烈进出看视频| 欧美午夜精品久久久久久浪潮| 日韩av在线不卡一区二区三区| 成人国产精品三上悠亚久久| 内地老熟女老少配视频| 亚洲av无码片在线播放| 日本一区二区三区免费| (无码视频)在线观看| 国产精品熟妇视频国产偷人| 加勒比东京热综合久久| 极品嫩模大尺度av在线播放| 老熟妇乱子伦av| 手机AV片在线|