亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視覺測量的工業(yè)機器人重復(fù)定位精度間接測量方法

        2022-01-19 04:25:16柴永生崔立民陳義保王昌輝
        關(guān)鍵詞:測量法位姿定位精度

        李 林,柴永生,崔立民,陳義保,王昌輝

        (煙臺大學(xué)機電汽車工程學(xué)院,山東 煙臺 264005)

        工業(yè)機器人具有自動化程度高、通用性強、方便靈活等優(yōu)點,在生產(chǎn)制造業(yè)中的應(yīng)用越來越廣泛,例如已在焊接、裝配、搬運、噴涂等領(lǐng)域?qū)崿F(xiàn)具體應(yīng)用[1]。隨著工業(yè)機器人在工業(yè)應(yīng)用領(lǐng)域的需求不斷上升,譬如精密加工、高精度裝配等精密制造領(lǐng)域?qū)C器人的性能要求也越來越苛刻[2]。良好的重復(fù)定位精度是提高機器人絕對定位精度的硬件基礎(chǔ),也是反映工業(yè)機器人性能的重要指標(biāo)之一[3]。為了保證產(chǎn)品的生產(chǎn)合格率,要將工業(yè)機器人的重復(fù)定位精度限制在生產(chǎn)加工所要求的范圍內(nèi),因此工業(yè)機器人重復(fù)定位精度的測量是工業(yè)機器人出廠使用之前必須進(jìn)行的工作。

        針對機器人末端位姿的測量技術(shù),國內(nèi)外學(xué)者探索出了很多測量方法和裝置。主要分為兩類:直接測量法和組合測量法。直接測量法包括:內(nèi)部編碼法、多陀螺儀測量法等;組合測量法包括:激光系統(tǒng)與陀螺儀組合測量法、攝影系統(tǒng)與陀螺儀組合測量法等。直接測量法的精度并不高,由于這種測量方法需要已知機器人的臂長或者內(nèi)部的角度編碼器信息,會引入機器人自身的誤差。組合測量法使得機器人末端位姿測量系統(tǒng)的精度有了很大的提升,自動化程度也越來越高。例如,采用激光跟蹤儀進(jìn)行重復(fù)定位精度檢測[4]。激光跟蹤儀是一種大尺寸的測量儀器,具有精度高、自動化程度高、測量范圍大等優(yōu)點,在機器人精度檢測、裝配、質(zhì)量檢驗等領(lǐng)域被廣泛應(yīng)用[5-7]。但是,激光跟蹤儀在應(yīng)用中依然存在一些不足:(1)價格昂貴,且需要支付軟件服務(wù)費,主要面向機器人研發(fā)檢測,不適合批量檢測;(2)對操作人員的技術(shù)水平要求較高,并且對工作環(huán)境的要求也極為苛刻;(3)測量時需要與目標(biāo)靶鏡配合使用,在某些特殊使用場景中,將目標(biāo)靶鏡固定到待測位置的難度較大。中汽檢測技術(shù)有限公司提出了一種基于激光位移傳感器的機器人重復(fù)精度測試系統(tǒng),通過采集x、y、z三個方向的位移值并代入公式計算機器人的重復(fù)定位精度。該系統(tǒng)受溫度、濕度等因素影響較大,目前并沒有在機器人末端測量領(lǐng)域得到廣泛的應(yīng)用。

        因此,文中提出了一種間接測量工業(yè)機器人重復(fù)定位精度的方法,此測量系統(tǒng)既適用于機器人制造商對其出廠前的檢測,又可用于機器人購買方在使用過程中的精度檢測。結(jié)構(gòu)精簡、經(jīng)濟實惠、不受實驗條件及檢測環(huán)境限制為本測量系統(tǒng)的優(yōu)勢所在,在今后的機器人重復(fù)定位精度測量方法中有很大的潛力。

        1 視覺測量系統(tǒng)

        機器視覺系統(tǒng)是用工業(yè)相機代替人的眼睛實現(xiàn)圖像獲取、識別等復(fù)雜功能的系統(tǒng),視覺測量系統(tǒng)的應(yīng)用可大幅提高檢測速度與精度、提升質(zhì)量、降低人工成本,防止人眼疲勞產(chǎn)生的誤判[8-9]。文中提出的視覺測量系統(tǒng)由待測機器人、工業(yè)相機及高清鏡頭、相機夾具、高精度棋盤格標(biāo)定靶等硬件以及軟件工具組成(圖1)。

        圖1 視覺測量平臺Fig.1 Visual measuring platform

        1.1 測量對象與視覺系統(tǒng)硬件構(gòu)成

        以KUKA KR210 R2700型工業(yè)機器人作為視覺測量系統(tǒng)的待測對象,此型號工業(yè)機器人的運動軸數(shù)為6,即機器人末端具有6個自由度,自重1068 kg,最大有效載荷為210 kg,最大臂展2696 mm,機器人技術(shù)文件中給出的參考重復(fù)定位精度值≤0.02 mm,幾何參數(shù)與工作空間如圖2,機器人實物如圖3。

        圖2 KUKA KR210 R2700型工業(yè)機器人幾何參數(shù)與工作空間(mm)Fig.2 KUKA KR210 R2700 industrial robot geometric parameters and working space

        圖3 KUKA KR210 R2700型工業(yè)機器人Fig.3 KUKA KR210 R2700 industrial robot

        視覺測量系統(tǒng)的硬件構(gòu)成主要包括工業(yè)相機及高清鏡頭、相機夾具、高精度棋盤格標(biāo)定靶等。相機選用BASLER acA2500-14gc高清工業(yè)相機,分辨率3840×2748,采用CMOS感光芯片,相機上安裝有高清鏡頭;靶標(biāo)選用高精度棋盤格標(biāo)定靶,型號為GP070 12×9,棋盤格數(shù)為12列9行且每個小方格邊長為5 mm,靶面總尺寸為70 mm×70 mm,圖案的噴涂精度為0.02 mm,如圖4。

        圖4 GP070 12×9高精度棋盤格標(biāo)定靶尺寸及實物Fig.4 High-precision checkerboard calibration target size and real objects

        相機采用“眼在手”的固定方式,即相機固定連接在工業(yè)機器人末端法蘭上,可跟隨末端執(zhí)行器按編寫好的程序運動,所以設(shè)計并加工了如圖5的相機安裝夾具,保證相機能夠便捷、穩(wěn)定地安裝在機器人的末端。夾具的制造材料選用較高強度的45鋼,不易變形,基本忽略其柔性變形。相機安裝模塊如圖5。

        圖5 相機安裝模塊Fig.5 Camera mounting module

        1.2 軟件工具箱與檢測流程

        視覺測量系統(tǒng)采用開源圖像處理軟件庫OpenCV作為工具,基于Python語言,編寫了用于相機標(biāo)定、位姿估計以及數(shù)據(jù)處理的自動化程序。OpenCV是一個基于BSD許可(開源)發(fā)行的跨平臺計算機視覺和機器學(xué)習(xí)軟件庫。

        1.1節(jié)中提到,機器人末端與工業(yè)相機之間通過專門設(shè)計的相機夾具剛性連接,由于相機夾具材料具有高強度特性,可忽略機器人在運動過程中,相機夾具發(fā)生的微小柔性變形。因此,相機在空間中運動前后的空間位置數(shù)據(jù)可以間接反映機器人末端執(zhí)行器原點的運動情況,基于此結(jié)論,制定檢測流程如圖6。

        圖6 視覺測量系統(tǒng)檢測流程框Fig.6 Visual measurement system detection flow diagram

        1.3 圖像數(shù)據(jù)采集方案

        參照國標(biāo)GB/T 12642—2013《工業(yè)機器人性能規(guī)范及其試驗方法》[10]中規(guī)定的機器人重復(fù)定位精度數(shù)據(jù)采集方法,檢測方案中采集靶標(biāo)圖像操作采用循環(huán)測量法。即在待測機器人有效工作空間內(nèi)固定位置放置一枚靶標(biāo),示教編寫控制程序,將5個位姿寫入機器人控制器中分別對應(yīng)P1,P2,P3,P4,P5,并且保證機器人在每個位姿下,末端安裝的相機能夠拍攝到完整的靶標(biāo)圖像。啟動機器人以正常運行速度依次移動到設(shè)定好的五個位姿并保存每個位姿下的圖像信息,并重復(fù)執(zhí)行20次,具體循環(huán)流程如圖7。最后,將采集好的靶標(biāo)圖像進(jìn)行圖像處理操作并提取數(shù)據(jù)信息,經(jīng)進(jìn)一步的計算處理可得重復(fù)定位精度。

        圖7 機器人末端位置圖像采集流程Fig.7 Image acquisition process of robot end-effector position

        2 圖像信息提取與誤差計算

        2.1 相機標(biāo)定

        相機標(biāo)定與位姿估計是測量方案中最重要的兩個步驟,相機標(biāo)定操作是精確位姿估計的前提和基礎(chǔ)[11]。要建立相機成像的幾何模型來確定某個點三維幾何位置(世界坐標(biāo)系)與在圖像中所對應(yīng)點的相互位置關(guān)系,該模型的參數(shù)就是相機內(nèi)參,通過圖像處理以及算法來獲取并優(yōu)化該參數(shù)的過程稱為相機標(biāo)定。

        視覺測量系統(tǒng)中的相機標(biāo)定操作基于張正友標(biāo)定法,是單平面棋盤格的相機標(biāo)定方法,僅需要一張水平放置的棋盤格圖案即可完成相機標(biāo)定操作[12-15]。由于鏡頭在制造中不可避免地會存在加工誤差,未經(jīng)標(biāo)定的相機拍攝出的圖像普遍存在與真實的場景不完全吻合問題,原因是獲取的圖像存在徑向畸變和輕微的切向畸變,導(dǎo)致測量結(jié)果不可靠。相機標(biāo)定的目的之一是獲取畸變系數(shù)并糾正圖像畸變獲得矯正后真實的圖像信息,另一目的是獲取精確的相機內(nèi)參數(shù)矩陣,以此提升實驗所測得的重復(fù)定位精度的準(zhǔn)確性與可靠性。

        為提升精確的相機內(nèi)參與畸變系數(shù),采用待測機器人在20個隨機位姿下拍攝的靶標(biāo)圖像(圖8),執(zhí)行標(biāo)定獲得相機內(nèi)參α,β,u0,v0,畸變系數(shù)k1—k5并輸出重投影誤差,標(biāo)定結(jié)果見表1和表2。

        圖8 20組隨機位姿下的靶標(biāo)Fig.8 Target images under 20 random poses

        表1 相機標(biāo)定結(jié)果:焦距、主點及重投影誤差Tab.1 Camera calibration results: focal length, main point and reprojection error

        表2 相機標(biāo)定獲得的畸變系數(shù)Tab.2 Distortion coefficient obtained by camera calibration

        2.2 位姿估計

        位姿估計是在相機標(biāo)定所得結(jié)果基礎(chǔ)上的進(jìn)一步圖像信息提取操作,是求解機器人末端處固定連接的相機光心的位置信息問題[16-17]。外部參數(shù)平移向量t旋轉(zhuǎn)向量R由相機標(biāo)定得到的單應(yīng)性矩陣H和內(nèi)參矩陣A計算,步驟如下:

        r1=λA-1h1,r2=λA-1h2,

        r3=r1×r2,t=λA-1h3,

        其中,λ是比例系數(shù),且:

        通過計算,即可獲得相機光心在世界坐標(biāo)系中的位姿信息,即平移向量t和旋轉(zhuǎn)向量R。世界坐標(biāo)系建立在靶標(biāo)左下角,如圖9,其中箭頭豎直向上軸、箭頭水平向右軸、箭頭斜指向左下方軸分別為x軸、y軸、z軸。

        2.3 重復(fù)定位誤差計算方法

        空間點的位姿信息包含平移向量t和旋轉(zhuǎn)向量R,共計6個參數(shù):(x,y,z,a,b,c)。重復(fù)定位精度由平移向量中x、y、z三個位置參數(shù)得出,與旋轉(zhuǎn)向量的a、b、c三個方向參數(shù)無關(guān)。第i張圖像位置誤差errori和所有圖像的平均位置誤差error計算公式:

        其中,Δxi、Δyi、Δzi分別為第i張圖像在x、y、z三個方向的分量誤差,表示為

        3 實驗結(jié)果與分析

        為了驗證所提出視覺測量系統(tǒng)的準(zhǔn)確性,搭建了如圖10的視覺測量實驗平臺進(jìn)行實驗研究。采用1.3節(jié)基于國標(biāo)GB/T 12642—2013《工業(yè)機器人性能規(guī)范及其試驗方法》的圖像數(shù)據(jù)采集方案,選用待測機器人以正常的運行速度,P1位姿為例,經(jīng)相機標(biāo)定、位姿估計操作得出相機光心在世界坐標(biāo)系下的真實位姿信息數(shù)據(jù)見表3。

        表3 P1在正常運行速度時的位姿信息Tab.3 Position information of P1 at normal operating speed

        表3(續(xù))

        對表3數(shù)據(jù)進(jìn)行重復(fù)定位誤差計算,方法見2.3節(jié),每張圖像可得到的分量誤差與總誤差統(tǒng)計見表4。最后對全部總誤差作數(shù)據(jù)統(tǒng)計得:errormean=0.007 747 mm,errormax=0.01 271 mm,errormin=0.001 423 mm。選用最大誤差作為測量,結(jié)果即待測機器人在正常運行速度時的重復(fù)定位精度為0.01 271 mm。

        表4 每張圖像的分量誤差與總誤差Tab.4 Component error and total error per image mm

        4 小 結(jié)

        針對現(xiàn)有工業(yè)機器人重復(fù)定位精度測量技術(shù)所存在的成本高、操作繁瑣、工作環(huán)境要求苛刻等問題,提出了一種用于工業(yè)機器人重復(fù)定位精度的間接測量方法,該方法是以視覺測量技術(shù)為基礎(chǔ),通過應(yīng)用固定在機器人末端執(zhí)行機構(gòu)上的工業(yè)相機獲取高精度靶標(biāo)圖像信息,運用圖像處理算法程序,實現(xiàn)對工業(yè)機器人重復(fù)定位精度的精確測量。

        在分析理論的基礎(chǔ)上,設(shè)計測量實驗并以KUKA KR210 R2700型六軸工業(yè)工業(yè)機器人作為測量對象搭建視覺測量實驗平臺。實驗測得待測機器人在正常運行速度時的重復(fù)定位精度為0.012 71 mm。待測機器人出廠前,制造單位給出的激光跟蹤儀測量得到的重復(fù)定位誤差精度值0.014 mm,證明文中提出的基于視覺測量的工業(yè)機器人重復(fù)定位精度間接測量方法有效可行。

        猜你喜歡
        測量法位姿定位精度
        北斗定位精度可達(dá)兩三米
        軍事文摘(2023年4期)2023-04-05 13:57:35
        GPS定位精度研究
        智富時代(2019年4期)2019-06-01 07:35:00
        組合導(dǎo)航的AGV定位精度的改善
        基于比較測量法的冷卻循環(huán)水系統(tǒng)電導(dǎo)率檢測儀研究
        基于共面直線迭代加權(quán)最小二乘的相機位姿估計
        基于CAD模型的單目六自由度位姿測量
        垂直面內(nèi)建立基線的特殊點位高程測量法
        航空攝影測量法在農(nóng)村土地確權(quán)登記發(fā)證工作中的應(yīng)用分析
        小型四旋翼飛行器位姿建模及其仿真
        環(huán)繞測量法
        国产精品综合一区久久| 特黄三级一区二区三区| 无码国产精品一区二区高潮| 国产午夜福利小视频合集| 四月婷婷丁香七月色综合高清国产裸聊在线| 日韩中文字幕中文有码| 亚洲国产一区二区三区最新| bbbbbxxxxx欧美性| 中文字幕这里都是精品| 男女搞基视频免费网站| 大香蕉av一区二区三区| 久久精品夜色噜噜亚洲a∨| 巨大巨粗巨长 黑人长吊| 国产人妻精品一区二区三区| 日韩欧美亚洲综合久久影院d3 | 最新日本一道免费一区二区| 亚洲av永久无码国产精品久久 | 国产不卡在线免费视频| 中文字幕精品亚洲字幕| 无码av一区二区大桥久未| 少妇人妻200篇白洁| 国内精品久久久影院| 午夜久久精品国产亚洲av| 91在线观看国产自拍| 午夜免费观看一区二区三区| 亚洲精品国产精品乱码视色| 风流老太婆大bbwbbwhd视频| 国产av永久无码天堂影院| 熟妇人妻中文av无码| 亚洲V在线激情| av网址不卡免费在线观看| 91色综合久久熟女系列| 久久久久成人精品无码中文字幕| 少妇无码一区二区三区免费| 无码一区二区三区在线在看| 狼人av在线免费观看| 强d乱码中文字幕熟女免费| 亚洲国产成人av在线观看| 波多野结衣亚洲一区二区三区| 亚洲无线码一区在线观看| 国产三级一区二区三区在线观看|