亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于特征點(diǎn)密度峰值的視覺(jué)伺服目標(biāo)選擇方法

        2021-08-23 04:12:22朱宏輝王嘉豪
        關(guān)鍵詞:移動(dòng)機(jī)器人機(jī)械特征

        朱宏輝,王嘉豪,朱 軼

        (武漢理工大學(xué) 物流工程學(xué)院,湖北 武漢 430063)

        0 引 言

        機(jī)器人視覺(jué)伺服是機(jī)器人研究領(lǐng)域的重要方向之一,通過(guò)利用圖像信息作為反饋,構(gòu)成機(jī)器人或者機(jī)械臂的閉環(huán)控制系統(tǒng)[1]。利用無(wú)標(biāo)定視覺(jué)伺服技術(shù)能夠提高機(jī)器人環(huán)境適應(yīng)能力,實(shí)現(xiàn)移動(dòng)機(jī)器人在室內(nèi)環(huán)境的實(shí)際應(yīng)用[2-4]。在室內(nèi)環(huán)境下,機(jī)器人能夠正確識(shí)別和選擇視覺(jué)伺服目標(biāo)是實(shí)現(xiàn)機(jī)器人視覺(jué)伺服的關(guān)鍵。

        快速進(jìn)行目標(biāo)識(shí)別是實(shí)現(xiàn)移動(dòng)機(jī)器人視覺(jué)伺服的前提,采用特征點(diǎn)匹配的方式能夠提高目標(biāo)識(shí)別的速度。目前,常用的特征點(diǎn)匹配算法有:SIFT算法、SURF算法和ORB算法[5-7],其中ORB算法因運(yùn)算速度快、抗噪能力強(qiáng),被廣泛用于各種實(shí)時(shí)特征檢測(cè)和目標(biāo)識(shí)別場(chǎng)景中。通過(guò)特征匹配方式識(shí)別目標(biāo)物體后,利用圖像信息作為反饋控制機(jī)器人抓取目標(biāo)物體,從而完成機(jī)器人視覺(jué)伺服。王博等[8]利用動(dòng)態(tài)擬牛頓算法實(shí)現(xiàn)機(jī)器人無(wú)標(biāo)定視覺(jué)伺服,避免了標(biāo)定技術(shù)對(duì)工業(yè)機(jī)器人視覺(jué)伺服系統(tǒng)的影響,提高了機(jī)器人視覺(jué)伺服系統(tǒng)的魯棒性。梁喜鳳等[9]通過(guò)自適應(yīng)無(wú)跡卡爾曼濾波算法估計(jì)圖像雅可比矩陣,成功實(shí)現(xiàn)了七自由度采摘機(jī)械手的視覺(jué)伺服。但是這些方法都只能實(shí)現(xiàn)對(duì)單一目標(biāo)物體的視覺(jué)伺服,而移動(dòng)機(jī)器人應(yīng)用的實(shí)際場(chǎng)景中往往會(huì)出現(xiàn)多個(gè)同樣目標(biāo)物體。為此,張璐等[10]通過(guò)無(wú)標(biāo)定視覺(jué)伺服方法完成采摘機(jī)器人的采摘作業(yè),并以果蔬成熟特性作為采摘目標(biāo)選擇依據(jù),成功實(shí)現(xiàn)采摘機(jī)器人的選擇性采摘作業(yè),但是卻不適合用于室內(nèi)移動(dòng)機(jī)器人視覺(jué)伺服。

        視覺(jué)伺服過(guò)程中,機(jī)器人視野中可能存在多個(gè)相同目標(biāo)物體,機(jī)器人容易因無(wú)法選擇目標(biāo)而導(dǎo)致視覺(jué)伺服失敗。為此,提出一種基于特征點(diǎn)密度峰值的視覺(jué)伺服目標(biāo)選擇方法,通過(guò)該方法機(jī)器人能夠選擇唯一視覺(jué)伺服目標(biāo),提高機(jī)器人視覺(jué)伺服的成功率。通過(guò)ORB算法對(duì)所有目標(biāo)物體進(jìn)行識(shí)別,然后采用特征點(diǎn)密度峰值聚類算法[11]將圖像中不同目標(biāo)物體特征點(diǎn)進(jìn)行分離,最后通過(guò)位置優(yōu)先決策方法在多個(gè)相同目標(biāo)物體中選擇一個(gè)最佳的抓取目標(biāo)。最后,通過(guò)實(shí)驗(yàn)驗(yàn)證該方法的正確性和可行性。

        1 特征點(diǎn)匹配與分離

        1.1 特征提取與匹配

        機(jī)器人視覺(jué)伺服首先需要識(shí)別目標(biāo)物體,采用ORB算法通過(guò)特征點(diǎn)提取與匹配能夠?qū)崿F(xiàn)對(duì)目標(biāo)物體的識(shí)別與定位。ORB算法建立在FAST特征點(diǎn)檢測(cè)算法和BRIEF特征點(diǎn)描述算法理論基礎(chǔ)上,并針對(duì)原算法進(jìn)行了一些改進(jìn)及優(yōu)化。保留了算法的旋轉(zhuǎn)、尺度不變性,同時(shí)極大提高了特征提取與匹配的速度。

        ORB算法首先通過(guò)FAST算法檢測(cè)圖像尺度空間中的特征點(diǎn),且ORB算法通過(guò)灰度質(zhì)心法為FAST特征點(diǎn)定義了主方向,以增加FAST特征點(diǎn)的旋轉(zhuǎn)不變性。

        為計(jì)算特征點(diǎn)方向,ORB定義領(lǐng)域矩,領(lǐng)域矩的定義式見(jiàn)式(1)

        (1)

        其中,(x,y)∈[-r,r]表示相對(duì)于FAST特征點(diǎn)的位置,r表示鄰域半徑;I(x,y)表示該位置的灰度值,鄰域質(zhì)心計(jì)算方法如下

        (2)

        其中,m00為零階矩,m01和m10為一階矩。

        ORB定義質(zhì)心與特征點(diǎn)連線方向即為FAST特征點(diǎn)的方向,角度計(jì)算方法如式(3)

        θ=atan2(m01,m10)

        (3)

        ORB使用BRIEF算法計(jì)算特征點(diǎn)的描述子,BRIEF描述子是一種二進(jìn)制特征描述子。BRIEF在特征點(diǎn)鄰域內(nèi)隨機(jī)選取n對(duì)像素點(diǎn),然后利用一個(gè)τ測(cè)試比較兩者的灰度值,τ測(cè)試定義如式(4)。最后,將所有測(cè)試結(jié)果形成一個(gè)由0和1組成的字符串,也就是特征點(diǎn)的描述子,BRIEF描述子表示方法見(jiàn)式(5)

        (4)

        (5)

        然而,BRIEF描述子同樣不具備旋轉(zhuǎn)不變性,ORB利用特征點(diǎn)檢測(cè)得到的主方向作為描述子的主方向,以增強(qiáng)BRIEF對(duì)于旋轉(zhuǎn)變化的不變性。利用BRIEF中所有點(diǎn)對(duì)定義一個(gè)2×n的矩陣,如下

        (6)

        由特征點(diǎn)主方向θ可以得到旋轉(zhuǎn)矩陣Rθ,由此能夠利用Rθ計(jì)算得到改進(jìn)后的BRIEF特征描述子,計(jì)算過(guò)程如下

        (7)

        gn(p,θ)=fn(p)|(xi,yi)∈Mθ

        (8)

        最后篩選出相關(guān)性較低的256個(gè)像素點(diǎn)對(duì)計(jì)算ORB特征描述符。然后,利用Hamming距離等相似性度量方法進(jìn)行特征點(diǎn)匹配。特征匹配中出現(xiàn)的誤匹配點(diǎn)會(huì)降低目標(biāo)定位精度,同時(shí)會(huì)導(dǎo)致機(jī)器人視覺(jué)伺服控制精度降低甚至失敗,為了提高匹配精度,本文采用PROSAC算法剔除誤匹配點(diǎn)[12],圖1為剔除誤匹配點(diǎn)后的特征點(diǎn)匹配結(jié)果。

        圖1 剔除誤匹配點(diǎn)后特征匹配結(jié)果

        1.2 特征點(diǎn)分離

        移動(dòng)機(jī)器人視覺(jué)伺服過(guò)程中出現(xiàn)多個(gè)相同目標(biāo)物體的時(shí)候,通過(guò)特征匹配方法將識(shí)別圖像中所有的目標(biāo)物體,而機(jī)器人視覺(jué)伺服需要選擇唯一目標(biāo)物體作為抓取目標(biāo)。為此,通過(guò)引入特征點(diǎn)密度峰值聚類算法將匹配特征點(diǎn)進(jìn)行分離,以實(shí)現(xiàn)對(duì)多個(gè)相同目標(biāo)物體的分離,進(jìn)而選擇最佳視覺(jué)伺服目標(biāo)。

        匹配特征點(diǎn)分離流程如下:

        (1)目標(biāo)物體中心點(diǎn)估計(jì)

        第一步需要尋找期望圖像上目標(biāo)物體的中心點(diǎn),使用期望圖像目標(biāo)物體的幾何中心點(diǎn)作為模板中心位置,記為C。期望圖像中ORB特征點(diǎn)集合為T,當(dāng)前圖像上的特征點(diǎn)集合為S,(t,s)表示一個(gè)特征匹配對(duì),滿足t∈T且s∈S。期望圖像特征點(diǎn)到中心位置的向量如式(9)所示

        ri(ti)=p(C)-p(ti)

        (9)

        其中,p(C)表示期望圖像上目標(biāo)物體的中心點(diǎn)位置,p(ti)是期望圖像上第i個(gè)特征點(diǎn)的圖像坐標(biāo)。

        (10)

        式中:θi=θs-θt,θs是當(dāng)前圖像上特征點(diǎn)的方向,θt是在期望圖像上對(duì)應(yīng)特征點(diǎn)的方向。

        (2)特征點(diǎn)分離

        (11)

        ρq1≥ρq2≥…≥ρqN

        (12)

        (13)

        圖2 估計(jì)中心點(diǎn)分類

        由不同中心點(diǎn)集中的估計(jì)中心點(diǎn)尋找與之對(duì)應(yīng)的圖像特征點(diǎn),得到圖像中每一個(gè)目標(biāo)物體的圖像特征點(diǎn)集。如此圖像中不同目標(biāo)物體上的特征點(diǎn)被分離,特征點(diǎn)分離的結(jié)果如圖3所示。

        圖3 分離匹配特征點(diǎn)

        2 視覺(jué)伺服目標(biāo)選擇

        2.1 位置優(yōu)先目標(biāo)決策方法

        通過(guò)特征點(diǎn)密度峰值聚類算法分離圖像中各個(gè)目標(biāo)物體之后,需在多個(gè)目標(biāo)物體之中選擇一個(gè)最佳視覺(jué)伺服目標(biāo)。為此,本文提出一種基于位置優(yōu)先的目標(biāo)決策方法,利用機(jī)器人手眼關(guān)系計(jì)算各目標(biāo)物體與機(jī)械臂末端的空間位置關(guān)系,以各目標(biāo)物體位置作為視覺(jué)伺服目標(biāo)的選擇依據(jù),為機(jī)器人視覺(jué)伺服選擇最佳抓取目標(biāo)。

        攝像機(jī)模型反映圖像坐標(biāo)系與笛卡爾空間坐標(biāo)系之間的關(guān)系,利用攝像機(jī)模型能夠根據(jù)圖像信息計(jì)算目標(biāo)物體的空間位置,從而實(shí)現(xiàn)對(duì)目標(biāo)物體的空間定位。攝像機(jī)模型本質(zhì)上是像素坐標(biāo)系、圖像坐標(biāo)系、攝像機(jī)坐標(biāo)系和世界坐標(biāo)系之間的轉(zhuǎn)換關(guān)系,P(Xc,Yc,Zc)表示空間中的一點(diǎn),其在圖像坐標(biāo)系的成像點(diǎn)為p(x,y),f表示攝像機(jī)焦距,攝像機(jī)坐標(biāo)系和像素坐標(biāo)系的轉(zhuǎn)換關(guān)系如式(14)所示

        (14)

        通過(guò)深度相機(jī)獲取的RGB-D圖像的深度信息和攝像機(jī)模型能夠計(jì)算出目標(biāo)物體在攝像機(jī)坐標(biāo)系中的位置,然后通過(guò)機(jī)器人手眼關(guān)系將目標(biāo)物體在攝像機(jī)坐標(biāo)系下的位置信息轉(zhuǎn)化為目標(biāo)物體在機(jī)械臂末端坐標(biāo)系下的位置信息,從而便于根據(jù)目標(biāo)物體位置信息選擇最佳目標(biāo)物體。

        手眼關(guān)系計(jì)算原理如圖4所示,將標(biāo)定板固定在機(jī)械臂末端上,控制機(jī)械臂運(yùn)動(dòng)到不同位置,通過(guò)機(jī)器人全局?jǐn)z像機(jī)獲取多組圖像。其中,攝像機(jī)和標(biāo)定板之間的外參矩陣Ci由攝像機(jī)標(biāo)定實(shí)驗(yàn)獲取。根據(jù)機(jī)器人機(jī)械臂機(jī)械結(jié)構(gòu),使用D-H參數(shù)法構(gòu)建機(jī)械臂連桿坐標(biāo)系,通過(guò)機(jī)械臂運(yùn)動(dòng)學(xué)分析[13,14]得到機(jī)械臂基坐標(biāo)系與機(jī)械臂末端坐標(biāo)系的位姿轉(zhuǎn)換矩陣Ai。

        圖4 手眼關(guān)系計(jì)算原理

        根據(jù)攝像機(jī)坐標(biāo)系與機(jī)械臂基坐標(biāo)系相對(duì)位姿不變條件可得到式(15)

        A1·X·C1=A2·X·C2

        (15)

        由于標(biāo)定板與機(jī)械臂末端固定在一起,所以式中X為恒定值,經(jīng)過(guò)變換之后可以得到如下關(guān)系

        (16)

        將式(16)按照矩陣形式展開,利用等式左右元素相等,可以得到如下方程

        RA·RX=RX·RC(RA-I)·tX=RX·tC-tA

        (17)

        (18)

        僅通過(guò)就近原則選擇最佳目標(biāo)物體無(wú)法保證目標(biāo)選擇的唯一性,特殊情況下場(chǎng)景中可能存在多個(gè)目標(biāo)物體同時(shí)被選擇作為抓取對(duì)象。當(dāng)根據(jù)距離最近方法同時(shí)選擇多個(gè)視覺(jué)伺服目標(biāo)時(shí),則表示這些目標(biāo)物體都處于以機(jī)械臂末端為球心的空間球面與桌面相交形成的圓上,此時(shí)需要根據(jù)輔助決策方法選擇唯一的視覺(jué)伺服目標(biāo)。圖5為機(jī)器人結(jié)構(gòu)俯視圖,圖中全局?jǐn)z像頭位于機(jī)器人頂端,機(jī)器人前方安裝有置物臺(tái)用于臨時(shí)放置抓取目標(biāo)物體。圖中A、B、C表示根據(jù)距離就近原則同時(shí)選中的目標(biāo)物體,3個(gè)目標(biāo)物體與機(jī)器人機(jī)械臂末端的距離相同。通過(guò)機(jī)械臂正運(yùn)動(dòng)學(xué)分析與實(shí)驗(yàn)數(shù)據(jù)分析知,機(jī)械臂末端沿YH軸方向的運(yùn)動(dòng)由兩個(gè)關(guān)節(jié)控制,沿XH方向的運(yùn)動(dòng)由3個(gè)關(guān)節(jié)控制,故相同距離下,物體距離軸YH越近,則機(jī)械臂的控制效率越高,所以物體A、C相比物體B更適合作為最佳視覺(jué)伺服目標(biāo)。抓取目標(biāo)之后,機(jī)器人需將物體放置于安裝在機(jī)器人上的置物臺(tái)上,所以選擇距離置物臺(tái)更近的物體A作為最佳視覺(jué)伺服目標(biāo)。通過(guò)上述輔助決策方法和距離最近原則可選擇唯一的視覺(jué)伺服目標(biāo),解決多目標(biāo)視覺(jué)伺服中的目標(biāo)選擇問(wèn)題。

        圖5 機(jī)器人結(jié)構(gòu)俯視圖

        2.2 移動(dòng)機(jī)器人視覺(jué)伺服

        由于目標(biāo)物體可能處于機(jī)器人機(jī)械臂抓取范圍之外,所以移動(dòng)機(jī)器人的視覺(jué)伺服過(guò)程分為兩步。初始的時(shí)候,全局?jǐn)z像機(jī)視角范圍大,能夠拍攝到當(dāng)前視角下所有的目標(biāo)物體。但是由于距離目標(biāo)物體較遠(yuǎn),獲取的圖像特征信息受環(huán)境影響較大,無(wú)法進(jìn)行精確的視覺(jué)伺服控制,因此采用基于位置的視覺(jué)伺服方法,以保證不丟失目標(biāo)。首先,通過(guò)全局?jǐn)z像機(jī)獲取圖像,使用視覺(jué)伺服目標(biāo)選擇方法選定抓取目標(biāo)。然后,根據(jù)目標(biāo)物體與機(jī)械臂末端的位置信息計(jì)算得到機(jī)器人旋轉(zhuǎn)和移動(dòng)控制量,從而控制機(jī)器人靠近目標(biāo)物體,并控制機(jī)械臂運(yùn)動(dòng)到期望位姿,使得目標(biāo)物體處于局部攝像機(jī)視場(chǎng)之中。

        當(dāng)機(jī)器人靠近目標(biāo)物體后,使用機(jī)械臂末端的局部攝像機(jī)獲取圖像,能夠獲得精確的特征點(diǎn)信息。視覺(jué)伺服中圖像雅可比矩陣反映了圖像特征變化與機(jī)械臂末端運(yùn)動(dòng)之間的映射關(guān)系,通過(guò)圖像雅可比矩陣能將當(dāng)前圖像與目標(biāo)圖像的特征偏差轉(zhuǎn)化為機(jī)械臂的控制量,進(jìn)而實(shí)現(xiàn)視覺(jué)伺服。采用基于圖像雅可比矩陣在線估計(jì)的無(wú)標(biāo)定視覺(jué)伺服方法對(duì)機(jī)器人機(jī)械臂進(jìn)行運(yùn)動(dòng)控制,能夠有效避免攝像機(jī)標(biāo)定和機(jī)器人模型的誤差,控制機(jī)械臂精確抓取目標(biāo)物體。無(wú)標(biāo)定視覺(jué)伺服方法通過(guò)粒子濾波算法對(duì)當(dāng)前時(shí)刻的圖像雅可比矩陣進(jìn)行在線估計(jì),視覺(jué)伺服控制器根據(jù)當(dāng)前圖像與期望圖像的特征偏差圖像雅可比矩陣估計(jì)值計(jì)算得到機(jī)械臂各關(guān)節(jié)控制量。然后,機(jī)械臂關(guān)節(jié)控制器控制機(jī)械臂運(yùn)動(dòng),使得圖像特征誤差不斷減小,直到趨近于零,從而控制機(jī)械臂運(yùn)動(dòng)到期望位姿,實(shí)現(xiàn)對(duì)目標(biāo)物體的準(zhǔn)確抓取,這一階段視覺(jué)伺服控制方法結(jié)構(gòu)如圖6所示。

        圖6 無(wú)標(biāo)定視覺(jué)伺服方法結(jié)構(gòu)

        完整的視覺(jué)伺服目標(biāo)選擇流程如圖7所示,通過(guò)ORB特征提取與匹配、誤匹配點(diǎn)剔除、特征點(diǎn)分離和位置優(yōu)先目標(biāo)決策等方法,可從圖像中多個(gè)相同目標(biāo)物體中選擇唯一的視覺(jué)伺服目標(biāo)。

        圖7 視覺(jué)伺服目標(biāo)選擇流程

        3 多目標(biāo)抓取決策實(shí)驗(yàn)

        本文搭建移動(dòng)機(jī)器人作為實(shí)驗(yàn)平臺(tái),如圖8所示。機(jī)器人視覺(jué)系統(tǒng)包括固定在頭部的全局?jǐn)z像機(jī)和固定在機(jī)械臂末端的局部攝像機(jī),全局?jǐn)z像機(jī)為奧比中光AstraPro深度攝像頭,局部攝像機(jī)是普通USB攝像頭。機(jī)器人基座為兩輪差速驅(qū)動(dòng)的移動(dòng)平臺(tái),機(jī)器人右臂為使用六個(gè)數(shù)字舵機(jī)和一個(gè)機(jī)械手爪構(gòu)建的六自由度機(jī)械臂,機(jī)器人上通過(guò)嵌入式計(jì)算機(jī)運(yùn)行程序,實(shí)現(xiàn)移動(dòng)機(jī)器人視覺(jué)伺服。實(shí)驗(yàn)在Windows7平臺(tái)下編寫程序,程序開發(fā)環(huán)境為Visual Studio2013,使用計(jì)算機(jī)視覺(jué)庫(kù)OpenCV3.4.1實(shí)現(xiàn)目標(biāo)識(shí)別和目標(biāo)選擇,并借助視覺(jué)伺服庫(kù)VISP完成機(jī)器人視覺(jué)伺服控制,最終根據(jù)視覺(jué)信息完成對(duì)靜態(tài)目標(biāo)物體的正確抓取。

        圖8 機(jī)器人實(shí)驗(yàn)平臺(tái)

        3.1 目標(biāo)識(shí)別實(shí)驗(yàn)

        機(jī)器人在不同視點(diǎn)下使用全局?jǐn)z像機(jī)獲取5組圖像,分別使用SIFT、SURF和ORB算法對(duì)獲取圖像進(jìn)行特征點(diǎn)提取與匹配實(shí)驗(yàn)。實(shí)驗(yàn)中,ORB算法特征提取與匹配平均耗時(shí)為423 ms,SIFT算法平均耗時(shí)約為ORB算法的4.34倍,SURF算法平均耗時(shí)約為ORB算法的4倍,實(shí)驗(yàn)數(shù)據(jù)見(jiàn)表1所示。實(shí)驗(yàn)結(jié)果表明使用ORB算法特征提取與匹配耗時(shí)遠(yuǎn)遠(yuǎn)小于SIFT算法和SURF算法,在保證能夠快速、準(zhǔn)確識(shí)別目標(biāo)物體的同時(shí),更能夠確保視覺(jué)伺服中目標(biāo)識(shí)別的實(shí)時(shí)性,更適合用于移動(dòng)機(jī)器人視覺(jué)伺服。

        表1 目標(biāo)識(shí)別算法耗時(shí)

        3.2 多目標(biāo)視覺(jué)伺服抓取實(shí)驗(yàn)

        目標(biāo)物體與機(jī)械臂末端相對(duì)位置和目標(biāo)物體姿態(tài)都可能影響視覺(jué)伺服目標(biāo)選擇的決策結(jié)果,算法以目標(biāo)物體與機(jī)械臂末端相對(duì)位置作為主要決策依據(jù),為驗(yàn)證目標(biāo)物體位姿對(duì)視覺(jué)伺服目標(biāo)選擇結(jié)果正確性的影響進(jìn)行如下實(shí)驗(yàn)。

        實(shí)驗(yàn)中,保證其它物體位置不變的前提下,改變同一位置下的單個(gè)目標(biāo)物體的位姿狀態(tài),使用視覺(jué)伺服目標(biāo)選擇方法進(jìn)行多次實(shí)驗(yàn),并通過(guò)視覺(jué)伺服方法控制機(jī)器人抓取目標(biāo)物體。圖9(a)、圖9(b)中方框選中目標(biāo)分別為改變右邊目標(biāo)物體位姿前后通過(guò)視覺(jué)伺服目標(biāo)選擇方法選定的目標(biāo)物體,分別進(jìn)行3組視覺(jué)伺服實(shí)驗(yàn)。獲取圖像中右邊目標(biāo)物體相比左邊的目標(biāo)物體距離機(jī)器人右機(jī)械臂更近,多次實(shí)驗(yàn)中均選擇右邊的目標(biāo)物體作為最佳視覺(jué)伺服目標(biāo),結(jié)果與實(shí)際相符合,驗(yàn)證目標(biāo)物體位姿變化不會(huì)影響視覺(jué)伺服目標(biāo)選擇方法的正確性。

        圖9 不同位姿下目標(biāo)選擇結(jié)果

        統(tǒng)計(jì)實(shí)驗(yàn)中目標(biāo)物體與機(jī)械臂末端距離和抓取目標(biāo)物體所耗時(shí)間,利用機(jī)器人視覺(jué)伺服耗時(shí)變化可以表示機(jī)器人視覺(jué)伺服受影響大小,見(jiàn)表2。由實(shí)驗(yàn)結(jié)果和表2中數(shù)據(jù)可知,改變視覺(jué)伺服目標(biāo)前后機(jī)器人視覺(jué)伺服過(guò)程耗時(shí)變化較小,即驗(yàn)證視覺(jué)伺服目標(biāo)位姿對(duì)機(jī)器人視覺(jué)伺服影響較小。

        表2 機(jī)器人抓取不同位姿下的目標(biāo)物體耗時(shí)

        移動(dòng)機(jī)器人在實(shí)際場(chǎng)景中抓取目標(biāo)物體的時(shí)候,無(wú)法確定機(jī)器人與目標(biāo)物體的初始相對(duì)位置,為此改變機(jī)器人初始位置進(jìn)行多次視覺(jué)伺服實(shí)驗(yàn)。圖10為實(shí)驗(yàn)中通過(guò)視覺(jué)伺服目標(biāo)選擇方法選定的抓取目標(biāo),由實(shí)驗(yàn)結(jié)果可知,機(jī)器人與目標(biāo)物體初始相對(duì)位置對(duì)視覺(jué)伺服目標(biāo)選擇結(jié)果的正確性無(wú)影響,在任意初始位置選擇的視覺(jué)伺服目標(biāo)均為位置最優(yōu)。表3為實(shí)驗(yàn)中通過(guò)算法計(jì)算得到的目標(biāo)物體與機(jī)械臂的距離及統(tǒng)計(jì)獲取的機(jī)器人視覺(jué)伺服耗時(shí),由實(shí)驗(yàn)數(shù)據(jù)可知選定的視覺(jué)伺服目標(biāo)為多個(gè)相同目標(biāo)物體中距離機(jī)械臂末端最近的,且距離機(jī)械臂越遠(yuǎn),視覺(jué)伺服耗時(shí)越長(zhǎng)。

        圖10 視覺(jué)伺服目標(biāo)選擇結(jié)果

        對(duì)比表2和表3中數(shù)據(jù)可知,目標(biāo)物體與機(jī)械臂末端距離變化相比目標(biāo)物體擺放位姿對(duì)移動(dòng)機(jī)器人視覺(jué)伺服耗時(shí)影響更大,目標(biāo)物體位姿對(duì)視覺(jué)伺服幾乎無(wú)影響。實(shí)驗(yàn)結(jié)果表明目標(biāo)物體位姿對(duì)位置優(yōu)先目標(biāo)決策方法的結(jié)果正確性無(wú)影響,驗(yàn)證了視覺(jué)伺服目標(biāo)選擇方法的正確性。

        表3 視覺(jué)伺服實(shí)驗(yàn)數(shù)據(jù)

        當(dāng)實(shí)際應(yīng)用場(chǎng)景中出現(xiàn)多個(gè)相同目標(biāo)物體時(shí),無(wú)法通過(guò)視覺(jué)伺服方法控制機(jī)械臂正確抓取目標(biāo)物體。采用基于特征點(diǎn)密度峰值的視覺(jué)伺服目標(biāo)選擇方法選定目標(biāo)物體后,移動(dòng)機(jī)器人視覺(jué)伺服成功率在90%以上。圖11為機(jī)器人視覺(jué)伺服過(guò)程,機(jī)器人先靠近目標(biāo)物體,然后通過(guò)無(wú)標(biāo)定視覺(jué)伺服方法控制機(jī)械臂準(zhǔn)確抓取目標(biāo)。

        圖11 移動(dòng)機(jī)器人視覺(jué)伺服過(guò)程

        4 結(jié)束語(yǔ)

        視覺(jué)伺服方法在移動(dòng)機(jī)器人實(shí)際應(yīng)用中,多個(gè)相同目標(biāo)同時(shí)出現(xiàn)在機(jī)器人視野中會(huì)導(dǎo)致機(jī)器人視覺(jué)伺服失敗。針對(duì)移動(dòng)機(jī)器人視覺(jué)伺服中出現(xiàn)的目標(biāo)選擇問(wèn)題,本文提出了一種基于特征點(diǎn)密度峰值的視覺(jué)伺服目標(biāo)選擇方法,該方法可以在多個(gè)相同目標(biāo)物體中選擇一個(gè)最佳視覺(jué)伺服目標(biāo)。為保證機(jī)器人視覺(jué)伺服實(shí)時(shí)性要求,通過(guò)ORB特征點(diǎn)匹配方法識(shí)別圖像中的目標(biāo)物體,并通過(guò)PROSAC算法剔除誤匹配點(diǎn),從而提高視覺(jué)伺服精度。將特征點(diǎn)密度峰值聚類算法引入視覺(jué)伺服,成功將圖像中不同目標(biāo)物體特征點(diǎn)分離,然后通過(guò)基于位置優(yōu)先的目標(biāo)決策方法選擇最佳視覺(jué)伺服目標(biāo)。通過(guò)視覺(jué)伺服目標(biāo)選擇方法有效解決了移動(dòng)機(jī)器人視覺(jué)伺服中的目標(biāo)選擇問(wèn)題,提高了機(jī)器人視覺(jué)伺服的成功率。最后,通過(guò)實(shí)驗(yàn)驗(yàn)證了視覺(jué)伺服目標(biāo)選擇方法的正確性,實(shí)驗(yàn)結(jié)果表明機(jī)器人在任意室內(nèi)場(chǎng)景下任意位置,本文提出的視覺(jué)伺服目標(biāo)選擇方法均能在當(dāng)前視場(chǎng)中選擇唯一視覺(jué)伺服目標(biāo),并且不受目標(biāo)物體位姿影響。本文研究?jī)?nèi)容對(duì)于機(jī)器人視覺(jué)伺服在實(shí)際中的應(yīng)用具有一定的價(jià)值,能夠提高移動(dòng)機(jī)器人視覺(jué)伺服對(duì)室內(nèi)場(chǎng)景的適用性。

        猜你喜歡
        移動(dòng)機(jī)器人機(jī)械特征
        移動(dòng)機(jī)器人自主動(dòng)態(tài)避障方法
        調(diào)試機(jī)械臂
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        簡(jiǎn)單機(jī)械
        抓住特征巧觀察
        基于Twincat的移動(dòng)機(jī)器人制孔系統(tǒng)
        機(jī)械班長(zhǎng)
        按摩機(jī)械臂
        極坐標(biāo)系下移動(dòng)機(jī)器人的點(diǎn)鎮(zhèn)定
        日韩毛片在线| 老熟女的中文字幕欲望| 国产综合精品一区二区三区| 国产欧美日韩一区二区三区在线| 91精品国产色综合久久不卡蜜| 国产精品毛片av一区二区三区 | 专干老肥熟女视频网站300部| 熟妇人妻AV中文字幕老熟妇| 国产精品一区二区午夜久久| 国产三区三区三区看三区| 亚洲av成人无遮挡网站在线观看| 依依成人精品视频在线观看| 亚洲精品成人国产av| 国产一级黄色片一区二区| 亚洲日韩小电影在线观看| 99精产国品一二三产品香蕉| 精品综合久久久久久8888| 97久久综合精品国产丝袜长腿| 一区二区和激情视频| 最新国产乱人伦偷精品免费网站| 国产美女裸身网站免费观看视频| 在线观看二区视频网站二区| 一本久久综合亚洲鲁鲁五月天| 亚洲国产成人va在线观看天堂| 国产亚洲精品性爱视频| 国产高清一区二区三区三州| 国产偷国产偷精品高清尤物| 爱a久久片| 最新日韩人妻中文字幕一区| 国产高颜值女主播在线| 国内精品人妻无码久久久影院导航| 深夜国产成人福利在线观看女同| 精品女同一区二区三区亚洲| 精品偷自拍另类在线观看| 18无码粉嫩小泬无套在线观看| 午夜无码片在线观看影院y| 福利利视频在线观看免费| 特级a欧美做爰片第一次| 国产精品99久久久久久98AV| 亚洲国产大胸一区二区三区| 色哟哟最新在线观看入口|