亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于單目視覺的高速并聯(lián)機器人動態(tài)目標跟蹤算法

        2020-01-10 03:06:00梅江平
        關鍵詞:傳送帶圓心標定

        梅江平,王?浩,張?舵,閆?寒,李?策

        基于單目視覺的高速并聯(lián)機器人動態(tài)目標跟蹤算法

        梅江平,王?浩,張?舵,閆?寒,李?策

        (天津大學機構理論與裝備設計教育部重點實驗室,天津 300350)

        在高速并聯(lián)機器人視覺分揀系統(tǒng)中,由于安裝誤差等原因,視覺系統(tǒng)與傳送帶以及機器人與傳送帶之間會存在一定的角度偏差,導致目標物體在分揀系統(tǒng)中的定位精度較低,使機器人末端不能精確抓取動態(tài)目標.而且傳統(tǒng)的單目視覺定位及跟蹤算法存在精度低、運算速度慢等問題,影響視覺分揀系統(tǒng)的計算速度,降低系統(tǒng)的實時性.針對以上問題,提出了一種基于圓特征的單目視覺定位與傳送帶標定結合的動態(tài)目標跟蹤算法,首先不需考慮相機坐標系與傳送帶坐標系的角度偏差,拍攝一個圓形目標,并以光心為頂點構造直橢圓錐的幾何成像模型.在此基礎上利用其幾何關系求取圓心在相機坐標系下的深度信息,再結合傳送帶標定與張正友標定方法,確定傳送帶編碼器的比例因子以及機器人坐標系和傳送帶坐標系之間的角度偏差,并實時跟蹤圓形目標運動過程中圓心在機器人下的位置.最后,對所提算法和傳統(tǒng)算法分別進行實驗對比,結果表明,該動態(tài)跟蹤算法通過圓錐投影的幾何關系推導圓心的空間坐標,避免了傳統(tǒng)復雜的非線性方程求解,定位精度和計算速度大幅提高.該算法消除了傳統(tǒng)算法的角度偏差,平均位置誤差為0.82mm,具有較高的定位精度.運行中系統(tǒng)耗時較短,運行效率得到了有效提高,且誤抓率和漏抓率分別為0.2%和0,具有很高的實用價值.

        單目視覺定位;高速并聯(lián)機器人;相機標定;傳送帶標定;動態(tài)跟蹤

        作為應用最為成功的并聯(lián)機構之一,高速并聯(lián)機器人因具有剛度大、精度高、速度快等優(yōu)勢而廣泛應用于電子、食品、醫(yī)藥等行業(yè)[1-2].傳統(tǒng)的機器人分揀生產線,常采用離線示教的方法對物品進行抓取分揀,該方法易受到周圍環(huán)境的干擾.近年來,隨著機器人與其相關領域的結合日益緊密,機器視覺技術的引入增強了機器人對環(huán)境變化的適應能力,使其向更加智能化的方向發(fā)展[3].高速并聯(lián)機器人視覺分揀系統(tǒng),通過相機實時獲取傳送帶上的圖像,經圖像處理分析得到目標物體的形狀位置等信息,并傳輸給運動控制系統(tǒng),實現(xiàn)高速并聯(lián)機器人對動態(tài)目標的抓取?任務[4].

        單目視覺定位僅用一臺相機完成定位而無需解決立體視覺中兩相機間的最優(yōu)距離和特征點匹配問題,具有簡單易用、適用范圍廣等優(yōu)點[5].但由于其損失了目標點的深度信息而無法得到完整的圖像信息,如何解決目標和投影圖像之間的匹配問題是其研究的重點[6].常用的基于單幀圖像的方法利用點或直線等特征進行定位[7],但均存在實時性低、精度差等缺點[8].此外,在實際工程應用中由于安裝誤差等原因,相機與傳送帶以及機器人與傳送帶之間均有一定角度偏差,也會影響目標物體的定位精度,最終導致機器人末端不能精準地抓取動態(tài)目標[9],如果采用提高加工精度的方法,則勢必會增加成本.

        針對上述問題,本文提出了一種基于圓特征的單目視覺定位與傳送帶標定結合的動態(tài)目標跟蹤算法.該算法不需考慮相機和傳送帶之間的角度關系拍攝一個圓形目標,根據(jù)成像模型構造出一個以光心為頂點的斜橢圓錐,并將其映射為直橢圓錐,通過直橢圓錐的幾何關系,計算圓心在相機下的空間三維坐標,避免了傳統(tǒng)復雜的非線性代數(shù)方程求解,提高了計算速度和定位精度.再結合傳送帶標定和張正友標定方法,實時跟蹤圓形目標的位置.最后與傳統(tǒng)方法進行對比實驗,驗證了該視覺定位及跟蹤算法的精確性,結果表明本文算法提高了分揀系統(tǒng)的實時性和定位精度.

        1?基于圓特征的單目視覺定位

        高速并聯(lián)機器人視覺分揀系統(tǒng)一般應用于對輕小物料分揀的自動化生產線上,如圖1所示,該系統(tǒng)主要分為機器視覺系統(tǒng)與機器人控制系統(tǒng). 機器視覺系統(tǒng)利用工業(yè)相機實時獲取傳送帶上物料的圖像,實現(xiàn)對物料的識別定位等功能,并將所得信息發(fā)送到機器人控制系統(tǒng),引導高速并聯(lián)機器人完成物料的分揀工作.

        圖1?高速并聯(lián)機器人視覺分揀系統(tǒng)

        1.1?直橢圓錐參數(shù)求取

        傳統(tǒng)的單目視覺定位方法多采用點特征或線特征,基于曲線特征的定位算法如經典的利用共面曲線和非共面曲線,由于需要對幾個高次多項式進行求解,算法比較復雜而較少應用[10].圓作為二次曲線的一種且用其定位可以擺脫匹配問題而被廣泛關注,本算法基于圓特征并運用圓錐投影的幾何關系推導出圓心的空間坐標,避免了復雜的非線性方程求解.

        由于實際安裝中相機相對傳送帶會有一定偏角,光軸不垂直于傳送帶平面,故拍攝一個圓形目標在成像平面上所得圖像被映射成橢圓.圖2為目標在相機坐標系下的成像模型,通過圖像處理分析得到橢圓輪廓的圖像像素坐標(u,v),其成像點的圖像物理坐標(x,y)為

        設相機坐標系為C,并以向量元素左上方字母表示其所在坐標系,后面類似記法與此含義相同,則成像點在相機坐標系下的位置為[Cxi,Cyi,f]T.

        將相機光心作為頂點,以圓目標為底面形成一個斜圓錐,以成像橢圓為底面形成一個斜橢圓錐,由于斜橢圓錐幾何關系不標準,很難進行幾何運算,故擬對該斜橢圓錐進行變換.當給定光心至任意平面的距離時,必然存在一個與斜橢圓錐共用所有母線的直橢圓錐,故當構造其母線為任意長度時,可形成一個以光心為頂點的直橢圓錐,此橢圓可以在任意平面上,并將其記為1,直橢圓錐記為1,有

        式中:C為橢圓1輪廓點在相機下的坐標;焦距由相機內參數(shù)標定獲得;為母線長度,可取同一數(shù)量級的任意值.

        求取橢圓1輪廓坐標集的平均值得到其中心0在相機下的坐標為

        式中為橢圓輪廓坐標點的個數(shù).

        得到成像點在新相機坐標系下的位置為

        式中:C′為新成像點在新相機坐標系下的位置;X3為C′的第3行元素.

        1.2?橢圓擬合

        由上述得到了橢圓2的輪廓點坐標,下面用橢圓擬合算法求取橢圓方程[11].式(10)為橢圓的一般方程,由最小二乘法,擬合目標函數(shù)如式(11)所示.

        為使函數(shù)最小,由式(12)求取、、、、的值.

        最后由式(13)~(15)擬合出橢圓標準方程,如式(16)所示.

        式中:(0,0)為橢圓中心坐標;為橢圓傾斜角;、分別為橢圓的長軸和短軸.

        1.3?圓目標空間位姿求解

        圖3為新相機坐標系下圓目標和直橢圓錐2的投影關系,幾何關系為

        式中:1=∠;2=∠;為圓目標半徑;為點1和2的距離.

        圖3?圓形目標與直橢圓錐的投影關系

        在△1與△1中,由正弦定理得

        式中∠1.解此方程得到.

        在△和△2中分別利用正弦定理和余弦定理得

        最終得到目標圓心在相機下的坐標為

        式中(Cx,Cy,)T為成像平面橢圓圓心在相機下的坐標,由成像點通過橢圓擬合算法求得.

        2?傳送帶標定

        傳送帶標定即確定傳送帶和機器人之間的轉換關系和編碼器的比例因子[12].設機器人坐標系為R,傳送帶坐標系為B,若知道任意點在傳送帶坐標系下的坐標B,則通過式(23)即可得到其在機器人坐標系下的坐標[13].

        如圖4所示,讓圓形目標在機器人工作空間隨傳送帶移動一段距離,以始末位置圓心連線為軸,方向指向傳送帶運動方向,并記錄兩位置編碼器的讀數(shù)1、2.

        圖4?傳送帶標定

        用機器人末端觸碰始末位置目標圓心,從控制器中讀出兩圓心在機器人下的位置分別為R1=(R1,R1,R1)T和R2=(R2,R2,R2)T,有如下關系:

        式中:DR為始末兩點的距離;DB為傳送帶始末示數(shù)變化;為編碼器比例因子.

        因此當目標隨傳送帶移動,由始末位置的編碼器讀數(shù)差D即可求得目標移動的距離為

        接著控制機器人末端沿其R軸移動一段距離,由于機器人相對傳送帶有偏角,故機器人末端的軌跡不垂直于傳送帶移動方向,記終點的位置為R3=(R3,R3,R3)T.

        建立傳送帶坐標系BBBB,有如下關系:

        其中

        傳送帶基坐標系為

        則傳送帶相對于機器人的轉換矩陣為

        3?基于傳送帶的相機標定

        圖5?相機針孔成像模型

        機器人視覺分揀系統(tǒng)中的相機標定分為基于機器人的相機標定與基于傳送帶的相機標定[19].前者相機位于機器人工作空間內,依靠機器人坐標系標定相機,確定二者轉換矩陣,本文基于傳送帶對相機標定,是指相機安裝在機器人工作空間外的情況.

        相機從不同角度拍攝20張如圖6所示的棋盤格,采用張正友標定法[20],確定相機的內參數(shù).外參數(shù)求取即依靠傳送帶坐標系作為媒介,確定相機坐標系與機器人坐標系之間的關系.

        根據(jù)式(22)得到拍照時刻目標圓心在相機下的坐標,記為C,由式(34)可得圓心在傳送帶坐標系下的位置,并記錄此時編碼器讀值為.

        圖6?黑白棋盤格標定板

        接著,當圓目標隨傳送帶移動到機器人工作空間時停止運動并記錄編碼器讀數(shù),可得此時圓心在傳送帶坐標系下的位置為

        其中

        然后,用機器人末端觸碰目標圓心,從控制器讀出其在機器人坐標系下的位置為

        聯(lián)立式(34)~(36),有

        因此,該綜合算法通過從圖像中獲任意圓形目標圓心位置2就能夠實時跟蹤其在傳送帶上移動任意距離D后在機器人坐標系下的位置為

        4?實驗與數(shù)據(jù)

        傳統(tǒng)的動態(tài)目標定位算法沒有考慮相機相對傳送帶的偏角,并且假定傳送帶坐標系與機器人坐標系僅有位置偏移而沒有姿態(tài)變化,而本文算法均考慮了二者的角度偏差.

        如圖7所示,本實驗采用瑞思機器人有限公司開發(fā)的D3S-500型Delta高速并聯(lián)機器人視覺分揀系統(tǒng)進行,該系統(tǒng)采用Windows操作系統(tǒng),相機選用Congnex-CAM-CIC-300-120-G,標稱幀率為120幀/s,配套使用軟件In-Sight Explore 5.4.0,并采用Ether CAT總線傳輸數(shù)據(jù),控制器選用KeControl CP263/X及擴展I/O模塊DM272/A和編碼器模塊MM240/A,伺服驅動器為清能德創(chuàng)CoolDrive-R4,并搭載200W多摩川伺服電機,圓形目標采用直徑為60mm的圓形薄板.

        圖7?Delta機器人視覺分揀系統(tǒng)實驗平臺

        首先,根據(jù)第2節(jié)所述方法進行傳送帶標定,使圓形薄板在機器人工作空間中隨傳送帶運動一段距離,傳送帶速度為300mm/s.通過始末位置編碼器脈沖值及圓心在機器人下的坐標由式(24)~(26)計算編碼器比例因子0.078.接著,使機器人末端從終止位置圓心開始沿垂直于薄板運動方向移動任意距離,并測量終止位置圓心坐標,通過式(28)~(31)求得轉換矩陣為

        由歐拉角的定義,旋轉矩陣=()()(),進而解方程求出傳送帶坐標系與機器人坐標系、、軸之間的角度偏差分別為0.78°,=0.52°,1.27°.

        然后使圓形薄板從傳送帶開始端進入系統(tǒng),在經過相機視野下時拍照,并通過圖像處理算法在計算機中獲取100個圓周點坐標,進而利用第1節(jié)中所提算法并根據(jù)式(17)~(22)求得圓心在相機下的空間坐標C2=[10.641,12.847,510.085]T.當圓形薄板移動到機器人工作空間時停止運動,利用此時和拍照時刻的編碼器脈沖的差值計算薄板移動的距離D,并由式(35)~(37)計算出相機相對傳送帶的轉換矩陣

        同樣由歐拉角定義,推導出相機坐標系與機器人坐標系、、軸之間的角度偏差分別為′90.67°、′=90.48°、′1.13°.至此,影響分揀系統(tǒng)定位精度的角度偏差均已求出.

        考慮上述角度偏差,分別測量圓形薄板在5組不同運動距離D′下,在終止位置處其圓心在機器人下的實際位置,如表1所示.然后通過式(38)求取圓心在機器人下的計算位置,并以兩位置的平均誤差是否在毫米級內來驗證視覺定位及跟蹤算法的準確性.最后讓圓形薄板運動同樣的距離,傳送帶速度不變,用傳統(tǒng)的動態(tài)跟蹤算法[21]進行相同的5組實驗,并測量每組的圓心在機器人下的位置,與本文算法所得結果進行誤差比較.

        表1?本文算法和傳統(tǒng)算法的數(shù)據(jù)及誤差

        Tab.1?Date and errors of the proposed algorithm and the traditional algorithm

        通過兩種算法對比,可以看到本文算法的平均位置誤差為0.816mm,而傳統(tǒng)方法平均位置誤差為1.455mm,顯然本文算法的定位精度較高,且該算法的誤差均在毫米級以內,驗證了視覺定位算法的精確性,使得機器人末端能夠實時跟蹤目標物體的位置,為后續(xù)機器人高精確抓取目標奠定了基礎.

        如圖8所示,在此基礎上,分別用本文算法和傳統(tǒng)算法對連續(xù)的200個圓形薄板進行循環(huán)抓取實驗,機器人抓放行程為30mm,傳送帶速度均為500mm/s,并且保證放置的每個圓形薄板間隔近似相等,傳送帶共循環(huán)5次,測量每一次從第1個目標進入相機視野到最后一個目標放置完成時刻所消耗的時間,實驗結果如表2所示.

        顯然本文算法耗時較短,抓取200個圓形薄板系統(tǒng)平均用時約為98.80s,而傳統(tǒng)方法系統(tǒng)平均用時約為101.70s.相比較下,本文算法提高了該機器人視覺分揀系統(tǒng)的運行效率.最后,對總共約500個圓形薄板進行2次相同的循環(huán)抓取實驗,并記錄總的誤抓數(shù)和漏抓數(shù),如表3所示.通過計算可得本文算法漏抓率為0,誤抓率為0.2%,相比傳統(tǒng)算法均有提高,能滿足一般的工程需求.

        表2?本文算法與傳統(tǒng)算法循環(huán)抓取時間對比

        Tab.2?Comparisons of cyclic catching time between the proposed and traditional algorithms

        圖8?Delta機器人連續(xù)抓取動態(tài)目標

        表3 本文算法與傳統(tǒng)算法進行5次循環(huán)實驗的總誤抓數(shù)與漏抓數(shù)

        Tab.3 Error and miss catching number of the proposed and traditional algorithms in five cycling tests

        5?結?論

        (1) 本文針對高速并聯(lián)機器人抓取動態(tài)物料的需求,提出了一種基于圓特征的單目視覺定位與傳送帶標定相結合的動態(tài)目標跟蹤算法,該算法獲取平面圓形目標物的輪廓圖像坐標,通過構建的直橢圓錐的幾何成像模型,求取了圓心深度信息,進而結合傳送帶標定方法,可以實時跟蹤運動薄板圓心在機器人下的位置.

        (2) 與傳統(tǒng)方法相比,本文算法考慮了由于安裝誤差等原因導致的相機與傳送帶以及機器人與傳送帶之間的角度偏差,定位精度較高,符合實際工程中機器人視覺分揀系統(tǒng)的運用.

        (3) 在視覺定位算法中將斜橢圓錐映射為直橢圓錐,運用直橢圓錐投影的幾何關系推導出目標圓心的空間坐標,避免了復雜的高階方程求解,加快了運算速度,提高了計算精度.

        (4) 對本文算法和傳統(tǒng)算法分別進行了圓形薄板抓取實驗,對比了兩種算法的位置誤差和系統(tǒng)運行時間,并計算了漏抓率與誤抓率.結果表明該算法的定位精度較高,耗時較短,系統(tǒng)的運行效率得到了提高,符合動態(tài)物料分揀的實際工程需求.在未來,希望該算法不僅限于具有圓形特征的目標物體,且能夠應用到更多的領域中.

        [1] 馮李航,張為公,龔宗洋,等. Delta系列并聯(lián)機器人研究進展與現(xiàn)狀[J]. 機器人,2014,36(3):375-384.

        Feng Lihang,Zhang Weigong,Gong Zongyang,et al. Developments of Delta-like parallel manipulators:A review[J]. Robot,2014,36(3):375-384(in Chinese).

        [2] 劉海濤,熊?坤,賈昕胤,等. 3自由度冗余驅動下肢康復并聯(lián)機構的運動學優(yōu)化設計[J]. 天津大學學報:自然科學與工程技術版,2018,51(4):357-366.

        Liu Haitao,Xiong Kun,Jia Xinyin,et al. Kinematic optimization of a redundantly actuated 3-DOF parallel mechanism for lower-limb rehabilitation[J]. Journal of Tianjin University:Science and Technology,2018,51(4):357-366(in Chinese).

        [3] 倪鶴鵬,劉亞男,張承端,等. 基于機器視覺的Delta機器人分揀系統(tǒng)算法[J]. 機器人,2016,38(1):49-55.

        Ni Hepeng,Liu Yanan,Zhang Chengduan,et al. Sorting system algorithms based on machine vision for Delta robot[J]. Robot,2016,38(1):49-55(in Chinese).

        [4] 查?英,劉鐵根,杜?東,等. 基于機器視覺的零件自動裝配系統(tǒng)[J]. 天津大學學報,2006,39(6):722-726.

        Zha Ying,Liu Tiegen,Du Dong,et al. Part automatic assembling system based on machine vision[J]. Journal of Tianjin University,2006,39(6):722-726(in Chinese).

        [5] Wei Luosi,Jiao Zongxia. Research and application of visual location technology for solder paste printing based on machine vision[J]. Frontiers of Mechanical Engineering in China,2009,4(2):184-191.

        [6] 趙?霞,袁家政,劉宏哲. 基于視覺的目標定位技術的研究進展[J]. 計算機科學,2016,43(6):10-16.

        Zhao Xia,Yuan Jiazheng,Liu Hongzhe. Advances in vision-based target location technology[J]. Computer Science,2016,43(6):10-16(in Chinese).

        [7] Jia Yunwei,Liu Tiegen,Gao Lilan,et al. Mobile robot localization and navigation system based on monocular vision[J]. Transactions of Tianjin University,2012,25(5):335-342.

        [8] 張子淼,王?鵬,孫長庫. 單目視覺位姿測量方法及數(shù)字仿真[J]. 天津大學學報,2011,44(5):440-444.

        Zhang Zimiao,Wang Peng,Sun Changku. Position and orientation measurement method with monocular vision and digital simulation[J]. Journal of Tianjin University,2011,44(5):440-444(in Chinese).

        [9] 許?勇,郭鵬宇,苑?云,等. 相機靶面安裝誤差標定方法[J]. 光學學報,2013,33(4):139-147.

        Xu Yong,Guo Pengyu,Yuan Yun,et al. Calibration method of installation error of camera sensor plane[J]. Acta Optica Sinica,2013,33(4):139-147(in Chinese).

        [10] Forsyth D A,Munday J L,Zisserman A,et al. Projective. invariant representation using implicit algebraic curves[J]. Image and Vision Compute,1991,9(2):130-136.

        [11] 閆?蓓,王?斌,李?媛. 基于最小二乘法的橢圓擬合改進算法[J]. 北京航空航天大學學報,2008,34(3):295-298.

        Yan Bei,Wang Bin,Li Yuan. Optimal ellipse fitting method based on least square principle[J]. Journal of Beijing University of Aeronautics and Astronautics,2008,34(3):295-298(in Chinese).

        [12] 陳?丹,石國良. 基于視覺幾何的傳送帶測速方法研究[J]. 儀器儀表學報,2016,37(10):2307-2315.

        Chen Dan,Shi Guoliang. Research on velocity measurement method of conveyor belt based on view geometry[J]. Chinese Journal of Scientific Instrument,2016,37(10):2307-2315(in Chinese).

        [13] 鄧明星,劉冠峰,張國英. 基于Delta并聯(lián)機器人的傳送帶動態(tài)跟蹤[J]. 機械工程與自動化,2015(1):153-156.

        Deng Mingxing,Liu Guanfeng,Zhang Guoying. Dynamic conveyor tracking for Delta robot[J]. Mechanical Engineering & Automation,2015(1):153-156(in Chinese).

        [14] 賈丙西,劉?山,張凱祥,等. 機器人視覺伺服研究進展:視覺系統(tǒng)與控制策略[J]. 自動化學報,2015,41(5):861-873.

        Jia Bingxi,Liu Shan,Zhang Kaixiang,et al. Survey on robot visual servo control:Vision system and control strategies[J]. Acta Automatica Sinica,2015,41(5):861-873(in Chinese).

        [15] 孫月海,王?蘭,梅江平,等. 基于單目視覺的Delta機器人零點標定方法[J]. 天津大學學報:自然科學與工程技術版,2013,46(3):239-243.

        Sun Yuehai,Wang Lan,Mei Jiangping,et al. Zero calibration of delta robot based on monocular vision[J]. Journal of Tianjin University:Science and Technology,2013,46(3):239-243(in Chinese).

        [16] Kruger L,Wohler C. Accurate chequerboard corner localisation for camera calibration[J]. Pattern Recognition Letter,2011,54(10):1428-1435.

        [17] 解則曉,辛少輝,李緒勇,等. 基于單目視覺的機器人標定方法[J]. 機械工程學報,2011,47(5):35-39.

        Xie Zexiao,Xin Shaohui,Li Xuyong,et al. Method of robot calibration based on monocular vision[J]. Journal of Mechanical Engineering,2011,47(5):35-39(in Chinese).

        [18] 朱?嘉,李醒飛,徐穎欣. 攝像機的一種主動視覺標定方法[J]. 光學學報,2010,30(5):1297-1303.

        Zhu Jia,Li Xingfei,Xu Yingxin. Camera calibration technique based on active vision[J]. Acta Optica Sinica,2010,30(5):1297-1303(in Chinese).

        [19] 楊?強,劉冠峰. Delta機器人傳送帶與視覺的綜合標定方法[J]. 機電工程技術,2015,44(1):5-10.

        Yang Qiang,Liu Guanfeng. Method of integrated calibration on Delta robot conveyor and vision[J]. Mechanical and Electrical Engineering Technology,2015,44(1):5-10(in Chinese).

        [20] Zhang Z Y. A flexible new technique for camera calibration[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(11):1330-1334.

        [21] 張文昌. Delta高速并聯(lián)機器人視覺控制技術及視覺標定技術研究[D]. 天津:天津大學機械工程學院,2012.

        Zhang Wenchang. Control Technique and Kinematic Calibrition of Delta Robot Based on Computer Vision[D]. Tianjin:School of Mechanical Engineering,Tianjin University,2012(in Chinese).

        Dynamic Target Tracking Algorithm of a High-Speed Parallel Robot Based on Monocular Vision

        Mei Jiangping,Wang Hao,Zhang Duo,Yan Han,Li Ce

        (Key Laboratory of Mechanism Theory and Equipment Design,Ministry of Education,Tianjin University,Tianjin 300350,China)

        Due to installation errors and other reasons,a certain angle deviation has existed between the visual system and the conveyor belt and between the robot and the conveyor belt,leading to a low-positioning accuracy of the target object in the visual system.This has made the robot end unable to catch its dynamic target accurately. Moreover,the traditional monocular vision positioning and tracking algorithm has had some problems,such as low accuracy and slow operation speed,affecting the calculation speed of the visual sorting system and reducing real-time system performance.Addressing these problems,a dynamic target tracking algorithm,based on a circular feature combining monocular vision positioning and a conveyor belt calibration is proposed.A circular target was shot by the camera without consideration of the angle of deviation between the camera coordinate system and the conveyor coordinate system,and a geometric imaging model of the straight elliptical cone,with its optical center as the apex,was constructed.On this basis,the depth information of the center of a circle in the camera coordinate system was obtained using its geometric relationship.Combining conveyor belt calibration and the Zhang Zhengyou calibration method,the ratio factor of the conveyor belt encoder and the angle deviation between the robot coordinate system and the conveyor belt coordinate system were determined.The position of the center of the circle under the robot was then tracked in real time.Finally,experiments were carried out on both the proposed algorithm and traditional algorithms.Results showed that this dynamic tracking algorithm can deduce the spatial coordinates of the center of a circle through the geometric relationship of conical projection,while avoiding solution of the traditional complex non-linear equation.The positioning accuracy and calculation speed were improved greatly.This algorithm can eliminate the angle deviation of traditional methods.The average positioning error was 0.82mm,achieving a higher positioning accuracy.The system consumed less time in the operation,the operation efficiency was effectively improved,and the rate of wrong catch and missing catch were 0.2% and 0respectively,which displayed good practical value.

        monocular vision positioning;high-speed parallel robot;camera calibration;conveyor calibration;dynamic tracking

        TP242

        A

        0493-2137(2020)02-0138-09

        10.11784/tdxbz201903009

        2019-03-11;

        2019-05-05.

        梅江平(1969—??),男,博士,研究員.

        梅江平,ppm@tju.edu.cn.

        國家科技重大專項資助項目(2017ZX04013-001).

        Supported by the Major National Science and Technology Program(No.2017ZX04013-001).

        (責任編輯:金順愛)

        猜你喜歡
        傳送帶圓心標定
        傾斜傳送帶問題突破
        二次曲線的一個類似圓心的性質
        淺探傳送帶模型的分析策略
        使用朗仁H6 Pro標定北汽紳寶轉向角傳感器
        以圓周上一點為圓心作圓的圖的性質及應用
        基于勻速率26位置法的iIMU-FSAS光纖陀螺儀標定
        船載高精度星敏感器安裝角的標定
        基于Harris-張正友平面標定法的攝像機標定算法
        物體在傳送帶上的運動剖析
        物理通報(2012年1期)2012-03-20 03:42:16
        四種方法確定圓心和半徑
        无码久久精品国产亚洲av影片| 青青草国产手机观看视频| 99在线精品免费视频| 国产成人综合亚洲精品| 被欺辱的高贵人妻被中出| 一区二区日本免费观看| www婷婷av久久久影片| 国产在线视频一区二区三区| 国产国拍亚洲精品永久不卡| 久久精品亚洲成在人线av| 麻豆国产一区二区三区四区| 开心五月激情综合婷婷| 美女高潮黄又色高清视频免费| 丰满岳乱妇久久久| 中文字幕乱码人妻无码久久久1| 男人的精品天堂一区二区在线观看 | 久久久久久一级毛片免费无遮挡| 久久99国产精品久久99密桃| 搡女人真爽免费视频大全| 亚洲国产精品嫩草影院久久| 天天澡天天揉揉AV无码人妻斩| 无色码中文字幕一本久道久| 久久99热狠狠色精品一区| 97无码人妻Va一区二区三区| 日韩国产有码精品一区二在线| 国产黄色av一区二区三区| 中文字幕精品一二三四五六七八| 日产精品一区二区三区| 日韩精品一区二区三区影音视频| 台湾佬中文娱乐网22| 国产普通话对白视频二区| 少妇极品熟妇人妻高清| 久久精品中文少妇内射| 日本欧美视频在线观看| 狠狠综合亚洲综合亚色| 日本少妇一区二区三区四区| 欧洲熟妇色 欧美| 亚洲无码夜夜操| 一区二区三区国产精品麻豆| 国产99在线 | 亚洲| 国产精品久久码一区二区|