亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于單目視覺(jué)的裝配機(jī)器人研究及應(yīng)用

        2018-05-16 07:51:00鐘德星楊元劉瑞玲韓九強(qiáng)

        鐘德星, 楊元, 劉瑞玲, 韓九強(qiáng)

        (西安交通大學(xué)電子與信息工程學(xué)院, 710049, 西安)

        機(jī)器人技術(shù)是一門涉及傳感器、控制理論、機(jī)械工程等多學(xué)科的應(yīng)用技術(shù)[1]。20世紀(jì)80年代,計(jì)算機(jī)視覺(jué)技術(shù)首次應(yīng)用到了機(jī)器人系統(tǒng)中,與傳統(tǒng)的機(jī)器人相比,視覺(jué)機(jī)器人在適應(yīng)能力、控制精度、魯棒性等方面都更為出色。美國(guó)Willow Garage于2013年研發(fā)成功的PR2機(jī)器人,借助視覺(jué)傳感器感知周圍環(huán)境,可完成清潔打掃、自主充電等一系列動(dòng)作[2]。但是,因?yàn)橐曈X(jué)機(jī)器人的技術(shù)難度較大,所以未能在工業(yè)領(lǐng)域得到大規(guī)模應(yīng)用。

        本文對(duì)視覺(jué)機(jī)器人的運(yùn)動(dòng)目標(biāo)識(shí)別、定位測(cè)距、抓取裝配等技術(shù)進(jìn)行了研究。利用計(jì)算機(jī)視覺(jué)技術(shù)對(duì)傳送帶上的工件進(jìn)行自主識(shí)別定位,對(duì)視覺(jué)機(jī)械臂的運(yùn)動(dòng)方式進(jìn)行數(shù)學(xué)建模,來(lái)分析其運(yùn)動(dòng)抓取方案。本文以五自由度的機(jī)械臂AL5D[3]為實(shí)驗(yàn)對(duì)象,設(shè)計(jì)并組建了視覺(jué)機(jī)器人自主裝配生產(chǎn)線的軟硬件系統(tǒng)。通過(guò)相關(guān)測(cè)試,采用本文所提工件識(shí)別和抓取算法的單目視覺(jué)機(jī)器人工件裝配系統(tǒng)可以穩(wěn)定高效地運(yùn)行。

        1 基于特征的動(dòng)態(tài)目標(biāo)識(shí)別算法

        視覺(jué)機(jī)器人系統(tǒng)將視覺(jué)傳感器獲取的圖像信息作為反饋,構(gòu)成閉環(huán)控制系統(tǒng)[4]。這為實(shí)現(xiàn)機(jī)器人自主目標(biāo)識(shí)別、定位測(cè)距、抓取裝配奠定了基礎(chǔ)。本文的研究對(duì)象是傳送帶上一整套工件的各個(gè)單個(gè)部件,其中包括底座、內(nèi)芯、彈簧和頂蓋,本文將采用改進(jìn)型Camshift[5]算法來(lái)對(duì)其進(jìn)行檢測(cè)和跟蹤。

        1.1 目標(biāo)識(shí)別

        Camshift算法在跟蹤開(kāi)始前要先人為定位跟蹤目標(biāo),并手動(dòng)初始化搜索框。為了實(shí)現(xiàn)全自動(dòng)視覺(jué)機(jī)器人裝配,先通過(guò)算法識(shí)別出目標(biāo),然后對(duì)其進(jìn)行跟蹤。為了識(shí)別目標(biāo)工件,本文提出了一種以目標(biāo)的R、G、B三通道處理值和形狀作為特征的目標(biāo)識(shí)別算法。

        在實(shí)驗(yàn)過(guò)程中發(fā)現(xiàn)工件表面光線反射會(huì)導(dǎo)致在對(duì)應(yīng)圖像區(qū)域R通道分量值變大,這對(duì)紅色目標(biāo)的識(shí)別形成了很大的干擾。針對(duì)這種情況本文所使用的顏色特征采用通道之間求差的方法獲得,即

        (1)

        式中:R、G、B為彩色圖像的三通道值。采用以dgb、drg、drb為顏色特征的方案,對(duì)于以紅綠藍(lán)為基色的目標(biāo),可有效緩解由于光照不均所導(dǎo)致的顏色特征差異不明顯情況。

        確定了對(duì)目標(biāo)顏色特征的提取方案后,還要對(duì)目標(biāo)的形狀特征進(jìn)行判斷。由于目標(biāo)工件都是圓形,且半徑有所不同,所以本文采用Hough圓檢測(cè)算法來(lái)進(jìn)行目標(biāo)的形狀特征提取[6]。根據(jù)顏色特征以及形狀特征識(shí)別并標(biāo)記圖像中的目標(biāo)區(qū)域,而后作出目標(biāo)反向投影圖,并據(jù)此來(lái)跟蹤目標(biāo)的位置。

        1.2 目標(biāo)跟蹤

        Camshift算法對(duì)Meanshift均值漂移算法[7]做了改進(jìn),將Meanshift算法擴(kuò)展到連續(xù)視頻幀序列中,使更加適合視頻流目標(biāo)跟蹤[8]。而本文對(duì)Camshift算法做了進(jìn)一步改進(jìn),提高其目標(biāo)跟蹤的性能。Camshift算法的具體步驟如下:

        (1)對(duì)初始框標(biāo)定的待跟蹤物體進(jìn)行顏色空間轉(zhuǎn)換,轉(zhuǎn)換到HSV空間并提取H分量圖像,繼而進(jìn)行反向投影得到反向投影圖;

        (2)根據(jù)反向投影圖和輸入框進(jìn)行Meanshift迭代;

        (3)下一幀圖像用上一幀的輸出框進(jìn)行迭代。

        在Meanshift迭代過(guò)程中,d維空間Rd中的樣本集中x點(diǎn)的Meanshift向量可定義為

        (2)

        Sh(x)≡{y:(y-x)T(y-x)≤h2}

        (3)

        式中:h為半徑;Sh為高維球區(qū)域;k為n個(gè)樣本點(diǎn)中落入Sh的個(gè)數(shù)。(xi-x)是xi相對(duì)于x的偏移,Mh(x)指向概率密度梯度方向[9]。

        由式(2)(3)可知,無(wú)論xi、x間的距離多大,在Sh中所有樣本點(diǎn)對(duì)均值偏移量Mh(x)的影響相差不大,距離x越近的樣本點(diǎn)應(yīng)對(duì)Mh(x)的影響越大。對(duì)此,本文對(duì)于均值偏移量的計(jì)算公式做了如下改進(jìn)

        (4)

        GH(xi-x)=|H|-1/2G(H-1/2(xi-x))

        (5)

        式中:G(x)為單位核函數(shù);H為正定矩陣,即帶寬矩陣;w(xi)為非負(fù)的樣本點(diǎn)權(quán)值。

        在實(shí)際應(yīng)用過(guò)程中,一般將H限定為一個(gè)對(duì)角陣,故式(5)可改寫(xiě)為

        (6)

        將式(6)中x放到求和符外面,可得

        (7)

        將式(7)等號(hào)右邊第1項(xiàng)記為

        (8)

        在給定初始點(diǎn)x、核函數(shù)G(x)以及允許誤差ε后,Meanshift算法進(jìn)行迭代計(jì)算:①計(jì)算mh(x);②將x賦為mh(x);③當(dāng)‖mh(x)-x‖<ε時(shí),停止迭代,反之執(zhí)行步驟①,繼續(xù)迭代。

        2 目標(biāo)空間定位

        確定目標(biāo)識(shí)別與跟蹤的算法后,為實(shí)現(xiàn)視覺(jué)機(jī)器人對(duì)于工件的準(zhǔn)確抓取,還需對(duì)識(shí)別出目標(biāo)的空間位置進(jìn)行測(cè)量。視覺(jué)測(cè)量技術(shù)是一種基于坐標(biāo)測(cè)量和視覺(jué)技術(shù)的新興測(cè)量技術(shù)[10],本文就是采取單目視覺(jué)測(cè)量技術(shù)來(lái)獲取目標(biāo)的位置信息。

        2.1 單目視覺(jué)空間測(cè)距算法

        目標(biāo)水平與豎直方向的空間位置分別為其相對(duì)于攝像頭光軸在XY軸方向的偏移[11]。目標(biāo)水平方向空間位置測(cè)量原理如圖1所示。其中O為攝像頭透鏡光心,π為成像平面,V為像距,即光心到成像平面的距離,Z為目標(biāo)中心到成像平面的距離,可得

        (9)

        同理,Y向測(cè)量示意如圖2所示,可得

        (10)

        當(dāng)檢測(cè)到目標(biāo)工件后,設(shè)得到的目標(biāo)中心點(diǎn)像素坐標(biāo)為(x′,y′),圖像中心坐標(biāo)為(x0,y0),則

        圖1 X向測(cè)量示意圖

        圖2 Y向測(cè)量示意圖

        (11)

        將式(11)代入式(9)、(10),可得

        (12)

        因其中像距V難以測(cè)量,故借助攝像頭焦距f、物距U可得

        (13)

        在現(xiàn)實(shí)應(yīng)用中,物距都遠(yuǎn)遠(yuǎn)大于像距,故

        (14)

        將式(14)代入式(13),可得

        V≈f

        (15)

        將式(15)代入式(12),可得

        (16)

        至此,可通過(guò)式(16)求得目標(biāo)的水平豎直位置。(x′,y′)為目標(biāo)中心點(diǎn)像素坐標(biāo),Z為目標(biāo)中心到像平面的垂直距離,攝像頭焦距f可以通過(guò)攝像頭標(biāo)定的方法得到,本文采用基于二維靶標(biāo)標(biāo)定法來(lái)進(jìn)行標(biāo)定[12]。

        單目視覺(jué)測(cè)距原理的示意如圖3所示,其中π′為攝像頭光心O所在平面,O′為實(shí)際目標(biāo)的圓心,D為實(shí)際目標(biāo)的直徑,o′為圖像中目標(biāo)的圓心,d為目標(biāo)在圖像中的直徑,Z′為實(shí)際目標(biāo)中心到攝像頭光心的直線距離,θ為實(shí)際目標(biāo)中心相對(duì)于攝像頭光軸的偏向角。

        圖3 單目測(cè)距算法原理

        由式(15)以及三角形相似原理可得

        (17)

        (18)

        又因?yàn)?/p>

        (19)

        (20)

        可得目標(biāo)中心到攝像頭光心的距離

        (21)

        從而得到了目標(biāo)物體的三維空間位置信息。

        2.2 運(yùn)動(dòng)目標(biāo)位置預(yù)測(cè)

        在實(shí)際抓取過(guò)程中,由于傳送帶是運(yùn)動(dòng)的,所以需要相機(jī)持續(xù)采集圖像,并對(duì)于工件的抓取位置做出預(yù)測(cè)。先用幀差法計(jì)算出傳送帶的運(yùn)動(dòng)速度,其次確定抓取動(dòng)作的執(zhí)行時(shí)間,最后與傳送帶速度結(jié)合預(yù)測(cè)合適的抓取點(diǎn)坐標(biāo)[13]。

        通過(guò)測(cè)量目標(biāo)工件在傳送帶運(yùn)動(dòng)方向坐標(biāo)的變化(xn-xm)與單幀的采樣時(shí)間間隔fs,便可以求得傳送帶的速度

        (22)

        由于視覺(jué)機(jī)器人在獲取目標(biāo)位置后運(yùn)轉(zhuǎn)機(jī)械手臂到執(zhí)行抓取操作的位置還需要一定的時(shí)間ts,在此過(guò)程中抓取目標(biāo)工件還是處于運(yùn)動(dòng)狀態(tài),故要通過(guò)ts對(duì)工件的測(cè)量的X向位置x0進(jìn)行矯正,即

        xt=x0+tsvc

        (23)

        3 目標(biāo)抓取

        本文所使用的機(jī)械臂為鏈?zhǔn)浇Y(jié)構(gòu),由連桿和關(guān)節(jié)組成,通過(guò)其末端的執(zhí)行機(jī)構(gòu)來(lái)操作目標(biāo)物體。其中可控變量為機(jī)械臂的各個(gè)關(guān)節(jié)角度,通過(guò)建立機(jī)械臂數(shù)學(xué)模型,研究各關(guān)節(jié)角與末端執(zhí)行器的位姿關(guān)系。

        3.1 機(jī)器人標(biāo)準(zhǔn)坐標(biāo)系描述

        本文采用三維笛卡爾標(biāo)準(zhǔn)坐標(biāo)系,在視覺(jué)機(jī)器人運(yùn)動(dòng)的過(guò)程中,主要涉及以下坐標(biāo)系:基坐標(biāo)系{B}、參考坐標(biāo)系{S}(參考坐標(biāo)系1的設(shè)立是為了方便目標(biāo)識(shí)別與定位,參考坐標(biāo)系2則是針對(duì)目標(biāo)抓取)、腕部坐標(biāo)系{W}、工具坐標(biāo)系{T}、目標(biāo)坐標(biāo)系{G}、相機(jī)坐標(biāo)系{C},如圖4所示。

        以往公積金異地轉(zhuǎn)移流程太復(fù)雜,如今,隨著全國(guó)住房公積金異地轉(zhuǎn)移接續(xù)平臺(tái)的上線,職工只需向轉(zhuǎn)入地公積金中心提出轉(zhuǎn)移申請(qǐng),轉(zhuǎn)入地公積金中心通過(guò)全國(guó)轉(zhuǎn)移接續(xù)平臺(tái)辦理,即可實(shí)現(xiàn)“賬隨人走、錢隨賬走”,手續(xù)簡(jiǎn)化了很多。

        圖4 視覺(jué)機(jī)器人標(biāo)準(zhǔn)坐標(biāo)系

        3.2 運(yùn)動(dòng)學(xué)正解

        本文從固定基座開(kāi)始編號(hào),稱為連桿0,第一個(gè)可動(dòng)連桿記為連桿1,最末端的連桿記為連桿n。連桿i和連桿i+1之間的關(guān)節(jié)為關(guān)節(jié)i+1。對(duì)于AL5D機(jī)器人,連桿參數(shù)是:連桿i-1的連桿轉(zhuǎn)角αi-1,連桿i-1連桿長(zhǎng)度ai-1,連桿偏距即相鄰的兩個(gè)連桿長(zhǎng)度ai-1和ai與關(guān)節(jié)軸i交點(diǎn)之間的有向距離di,關(guān)節(jié)角即αi-1按右手法則繞軸i旋轉(zhuǎn)到αi的角度θi。其連桿參數(shù)值如表1所示,其中a2、a3為確定值,為了易于用公式表示,故用符號(hào)表示。

        表1 連桿參數(shù)表

        在確定機(jī)器人各連桿參數(shù)與坐標(biāo)系后,使用改進(jìn)的D-H參數(shù)法,就可確定各連桿變換矩陣。將各連桿變換矩陣相乘就便得到最終變換矩陣,本文的最終變換矩陣為

        (24)

        其中對(duì)三角函數(shù)進(jìn)行了簡(jiǎn)寫(xiě),即si=sinθi,sijk=sin(θi+θj+θk),cijk=cos(θi+θj+θk)。

        3.3 運(yùn)動(dòng)學(xué)逆解

        運(yùn)動(dòng)學(xué)正解是由關(guān)節(jié)角求得機(jī)械臂末端操作夾的位姿,但是在實(shí)際應(yīng)用中,需通過(guò)操作夾的位姿來(lái)求得關(guān)節(jié)角組合,即運(yùn)動(dòng)學(xué)逆解問(wèn)題[14]。

        運(yùn)動(dòng)學(xué)逆解一般都有多組關(guān)節(jié)角對(duì)應(yīng)一個(gè)位姿的情況。對(duì)于本文所研究的機(jī)械臂,各關(guān)節(jié)角的旋轉(zhuǎn)幅度為0°~180°,且目標(biāo)的夾取位置只能是目標(biāo)的正上方,故給定目標(biāo)位置后,末端操作夾的位置也就確定了,繼而機(jī)械臂的各關(guān)節(jié)角唯一。

        對(duì)于逆運(yùn)動(dòng)求解問(wèn)題可通過(guò)封閉解法求得,研究表明:所有具備轉(zhuǎn)動(dòng)關(guān)節(jié)和移動(dòng)關(guān)節(jié)的串聯(lián)型6自由度機(jī)構(gòu)均是可解的,而且具備6處旋轉(zhuǎn)關(guān)節(jié)的機(jī)械臂存在封閉解的充分條件為相鄰的3個(gè)關(guān)節(jié)軸相交于一點(diǎn)[15]。本文采用的機(jī)器人的2、3、4關(guān)節(jié)軸是平行的,所以其封閉解存在,故本文采用幾何解法進(jìn)行機(jī)器人逆運(yùn)動(dòng)學(xué)求解。

        圖5 腕部坐標(biāo)系相對(duì)于基坐標(biāo)系的位置

        圖6 關(guān)節(jié)平面幾何關(guān)系

        由圖6中角度關(guān)系以及機(jī)械臂關(guān)節(jié)的角度限定,可用幾何解法求出各個(gè)關(guān)節(jié)角的準(zhǔn)確值,即

        (25)

        綜上所述,利用本文所提出的基于顏色和形狀特征的目標(biāo)工件識(shí)別算法檢測(cè)到傳送帶上的目標(biāo)工件,繼而通過(guò)基于Camshift的目標(biāo)跟蹤算法以及單目視覺(jué)測(cè)距算法對(duì)目標(biāo)工件進(jìn)行實(shí)時(shí)跟蹤測(cè)距。通過(guò)式(23)得到抓取位置,換算成腕部坐標(biāo)系相對(duì)于基坐標(biāo)系的位置后,通過(guò)式(25)求得機(jī)械臂各個(gè)關(guān)節(jié)角的大小,從而完成整個(gè)識(shí)別抓取動(dòng)作。

        4 視覺(jué)機(jī)器人工件裝配系統(tǒng)實(shí)現(xiàn)

        為驗(yàn)證上述研究結(jié)果,本文搭建了一個(gè)視覺(jué)機(jī)器人工件裝配平臺(tái)來(lái)進(jìn)行測(cè)試實(shí)驗(yàn)。

        4.1 系統(tǒng)搭建

        視覺(jué)機(jī)器人工件裝配平臺(tái)以AL5D機(jī)械臂作為抓取裝置,選擇USC舵機(jī)控制板進(jìn)行舵機(jī)的控制,選擇羅技C270相機(jī)作為圖像傳感器。利用Qt作為開(kāi)發(fā)框架開(kāi)發(fā)上位軟件,利用狀態(tài)設(shè)計(jì)模式,在系統(tǒng)內(nèi)部維護(hù)動(dòng)作、目標(biāo)兩個(gè)狀態(tài)機(jī),分別用來(lái)描述機(jī)器人可執(zhí)行的動(dòng)作和當(dāng)前動(dòng)作狀態(tài)機(jī)中所操作的目標(biāo)工件種類。

        4.2 性能測(cè)試

        為測(cè)試本系統(tǒng)性能,本文設(shè)計(jì)了兩個(gè)性能測(cè)試實(shí)驗(yàn):視覺(jué)測(cè)距精度測(cè)試和裝配成功率測(cè)試。

        本文對(duì)不同位置的不同目標(biāo)工件進(jìn)行了視覺(jué)測(cè)距測(cè)試。實(shí)驗(yàn)對(duì)目標(biāo)工件不同情況下進(jìn)行共計(jì)50次視覺(jué)測(cè)距,視覺(jué)測(cè)距所得三維空間坐標(biāo)與目標(biāo)實(shí)際空間坐標(biāo)之間相對(duì)誤差如圖7所示。由圖7可知,視覺(jué)測(cè)距所得三維空間坐標(biāo)與目標(biāo)實(shí)際空間坐標(biāo)之間的相對(duì)誤差在5%以內(nèi),完全滿足本文抓取裝配的精度要求。

        圖7 空間測(cè)距相對(duì)誤差統(tǒng)計(jì)

        此外,對(duì)視覺(jué)機(jī)器人工件裝配平臺(tái)進(jìn)行了6組隨機(jī)空間位置的自主抓取裝配測(cè)試,每組測(cè)試進(jìn)行5輪完整自主抓取裝配實(shí)驗(yàn),最終只有第5組測(cè)試中的一輪裝配由于光線干擾造成頂蓋工件角度測(cè)量錯(cuò)誤,導(dǎo)致最終裝配失敗??傮w自主抓取裝配成功率達(dá)到96.7%,完全達(dá)到了應(yīng)用的要求。

        5 結(jié) 論

        針對(duì)傳統(tǒng)工業(yè)機(jī)器人示教型控制策略所導(dǎo)致的靈活性差的缺點(diǎn),本文就視覺(jué)機(jī)器人的關(guān)鍵技術(shù)展開(kāi)研究,提出了一套完整的視覺(jué)識(shí)別定位抓取算法實(shí)現(xiàn)方案,使得工業(yè)機(jī)器人環(huán)境適應(yīng)能力大幅提高,執(zhí)行任務(wù)的靈活性大大提高。

        本文通過(guò)基于改進(jìn)型Camshift的動(dòng)態(tài)目標(biāo)識(shí)別跟蹤算法對(duì)目標(biāo)工件進(jìn)行識(shí)別跟蹤,實(shí)驗(yàn)測(cè)試結(jié)果表明,該算法對(duì)于目標(biāo)工件的識(shí)別率達(dá)到100%,與此同時(shí)處理速度達(dá)到16.36幀/s,完全滿足對(duì)于實(shí)時(shí)性的要求。為保證視覺(jué)機(jī)器人機(jī)械手臂對(duì)目標(biāo)工件的精準(zhǔn)抓取,本文采用單目視覺(jué)測(cè)距對(duì)目標(biāo)的三維坐標(biāo)位置進(jìn)行測(cè)量,實(shí)驗(yàn)結(jié)果表明,該算法對(duì)于近距離目標(biāo)空間位置的測(cè)量相對(duì)誤差小于5%。最終整體裝配成功率達(dá)到96.7%。

        本文所提算法雖可以滿足本文指定的裝配工件的識(shí)別、定位、裝配等一系列操作,但對(duì)于更加精細(xì)或裝配精度更高的工件,本文所采用的單目測(cè)距算法的定位精度是有限的。在更高精度要求時(shí),可采用深度攝像機(jī)和改進(jìn)測(cè)距算法來(lái)對(duì)工件進(jìn)行精度更高的空間測(cè)距定位。

        參考文獻(xiàn):

        [1] 方勇純. 機(jī)器人視覺(jué)伺服研究綜述 [J]. 智能系統(tǒng)學(xué)報(bào), 2008, 3(2): 109-114.

        FANG Chunyong. A survey of robot visual servoing [J]. CAAI Transactions on Intelligent Systems, 2008, 3(2): 109-114.

        [2] HSIAO E, COLLET A, HEBERT M. Making specific features less discriminative to improve point-based 3D object recognition [C]∥Proceedings of the 23rd IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ, USA: IEEE, 2010: 2653-2660.

        [3] LYNXMOTION. AL5D arm assembly instructions rev. 2.1 [EB/OL]. [2017-08-18]. http: ∥www. lynxmotion.com/images/html/build143b.htm.

        [4] 苑晶, 李陽(yáng), 董星亮, 等. 基于運(yùn)動(dòng)模式在線分類的移動(dòng)機(jī)器人目標(biāo)跟蹤 [J]. 儀器儀表學(xué)報(bào), 2017, 38(3): 568-577.

        YUAN Jing, LI Yang, DONG Xingliang, et al. Target tracking with a mobile robot based on on-line classification for motion patterns [J]. Chinese Journal of Scientific Instrument, 2017, 38(3): 568-577.

        [5] WANG Z, YANG X, XU Y, et al. Camshift guided particle filter for visual tracking [J]. Pattern Recognition Letters, 2009, 30(4): 407-413.

        [6] 夏磊, 蔡超, 周成平, 等. 一種用Hough變換檢測(cè)圓的快速算法 [J]. 計(jì)算機(jī)應(yīng)用研究, 2007, 24(10): 197-199.

        XIA Lei, CAI Chao, ZHOU Chengping, et al. New fast algorithm of Hough transform detection of circles [J]. Application Research of Computers, 2007, 24(10): 197-199.

        [7] FUKUNAGA K, HOSTETLER L D. The estimation of the gradient of a density function, with applications in pattern recognition [J]. IEEE Transactions on Information Theory, 1975, 21(1): 32-40.

        [8] LIU X, CHU H, LI P. Research of the improved Camshift tracking algorithm [C]∥International Conference on Mechatronics and Automation. Piscataway, NJ, USA: IEEE, 2007: 968-972.

        [9] 孫小煒, 李言俊, 陳義. MeanShift圖像分割的快速算法 [J]. 測(cè)控技術(shù), 2008, 27(7): 23-25.

        SUN Xiaowei, LI Yanjun, CHEN Yi. Fast mean shift algorithm in image segmentation [J]. Measurement & Control Technology, 2008, 27(7): 23-25

        [10] 陳小林. 單目視覺(jué)系統(tǒng)的姿態(tài)解算算法研究 [J]. 儀器儀表學(xué)報(bào), 2014(s1): 45-48.

        CHEN Xiaolin. Research of attitude calculation of single camera visual system [J]. Chinese Journal of Scientific Instrument, 2014(s1): 45-48.

        [11] 韓延祥, 張志勝, 戴敏. 用于目標(biāo)測(cè)距的單目視覺(jué)測(cè)量方法 [J]. 光學(xué)精密工程, 2011, 19(5): 1110-1117.

        HAN Yanxiang, ZHANG Zhisheng, DAI Min. Monocular vision system for distance measurement based on feature points [J]. Optics and Precision Engineering, 2011, 19(5): 1110-1117.

        [12] 馬頌德, 張正友. 計(jì)算機(jī)視覺(jué)-計(jì)算機(jī)理論與算法基礎(chǔ) [M]. 北京: 科學(xué)技術(shù)出版社, 1998.

        [13] XIONG P, ZHU X, SONG A, et al. A target grabbing strategy for telerobot based on improved stiffness display device [J]. IEEE/CAA Journal of Automatica Sinica, 2017, 4(4): 1-7.

        [14] 張曉艷, 孫建橋, 丁千. 五自由度機(jī)械臂的運(yùn)動(dòng)學(xué)分析及時(shí)滯控制 [J]. 西安交通大學(xué)學(xué)報(bào), 2013, 47(10): 103-108.

        ZHANG Xiaoyan, SUN Jianqiao, DING Qian. Kinematics analysis and time delayed control of a five-degree of freedom manipulator [J]. Journal of Xi’an Jiaotong University, 2013, 47(10): 103-108.

        [15] GOSSELIN C, FOUCAULT S. Dynamic point-to-point trajectory planning of a two-DOF cable-suspended parallel robot [J]. IEEE Transactions on Robotics, 2017, 30(3): 728-736.

        [本刊相關(guān)文獻(xiàn)鏈接]

        張鐵,林康宇,鄒焱飚,等.用于機(jī)器人末端殘余振動(dòng)控制的控制誤差優(yōu)化輸入整形器.2018,52(4):90-97.[doi:10.7652/xjtuxb201804013]

        董肖莉,李衛(wèi)軍,寧欣,等.應(yīng)用三角形坐標(biāo)系的風(fēng)格化肖像生成算法.2018,52(4):139-144.[doi:10.7652/xjtuxb201804 020]

        楊航,劉凌,倪駿康,等.雙關(guān)節(jié)剛性機(jī)器人自適應(yīng)BP神經(jīng)網(wǎng)絡(luò)算法.2018,52(1):129-135.[doi:10.7652/xjtuxb201801 019]

        程傳奇,郝向陽(yáng),李建勝,等.融合改進(jìn)A*算法和動(dòng)態(tài)窗口法的全局動(dòng)態(tài)路徑規(guī)劃.2017,51(11):137-143.[doi:10.7652/xjtuxb201711019]

        李兵,杜俊偉,陳磊,等.工業(yè)機(jī)器人RV減速器傳動(dòng)誤差分析.2017,51(10):1-6.[doi:10.7652/xjtuxb201710001]

        尹貴,張小棟,陳江城,等.下肢康復(fù)機(jī)器人按需輔助自適應(yīng)控制方法.2017,51(10):39-46.[doi:10.7652/xjtuxb201710 007]

        欒玉亮,榮偉彬,吳方勇,等.3-PPSR柔性并聯(lián)機(jī)器人力控制研究.2017,51(4):85-90.[doi:10.7652/xjtuxb201704013]

        黃昔光,黃旭,李啟才.利用共形幾何代數(shù)的串聯(lián)機(jī)器人位置逆解求解方法.2017,51(1):9-12.[doi:10.7652/xjtuxb2017 01002]

        周雪峰,孫廣彬,劉曉光,等.應(yīng)用擴(kuò)展零力矩點(diǎn)預(yù)觀控制和分解動(dòng)量控制的仿人機(jī)器人全身運(yùn)動(dòng)規(guī)劃方法.2016,50(12):58-63.[doi:10.7652/xjtuxb201612010]

        久久中文字幕人妻熟av女蜜柚m| 免费人成视频网站在线不卡| 亚洲av午夜福利精品一区| 最近最好的中文字幕2019免费| 国产高清精品自在线看| 日本一区二区高清视频| 久久熟妇少妇亚洲精品| 麻豆精品久久久久久久99蜜桃| 久久久亚洲经典视频| 蜜桃色av一区二区三区麻豆| av在线观看一区二区三区| 亚洲av无码成人专区片在线观看| 国产欧美精品一区二区三区,| 丰满人妻无套内射视频| 精品精品久久宅男的天堂| 欧美最猛性xxxxx免费| 91精品国产91久久久久久青草| 老熟妇嗷嗷叫91九色| 久久人人爽av亚洲精品| 少妇对白露脸打电话系列| 中文字幕午夜AV福利片| 亚洲av在线观看播放| 久久精品国产亚洲av无码娇色 | 亚洲性啪啪无码av天堂| 亚洲黄色尤物视频| 久久亚洲国产高清av一级| 十八禁无遮挡99精品国产| 免费又黄又爽又猛的毛片| 天堂网av在线| 高清日韩av在线免费观看| 午夜福利院电影| 精品久久综合一区二区| 亚洲精品中文字幕乱码无线| 男女做爰高清免费视频网站| 亚洲av无码专区亚洲av桃| 成人黄网站免费永久在线观看| 亚洲av综合国产av日韩| 国产福利酱国产一区二区| 国产精品久久久久久久y| 亚洲不卡在线免费视频| 人妻聚色窝窝人体www一区|