亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度視覺傳感的巡檢機器人行進軌跡跟蹤控制

        2023-10-08 00:56:18郭建仙
        機械與電子 2023年9期
        關(guān)鍵詞:深度環(huán)境方法

        郭建仙

        (國能神福(石獅)發(fā)電有限公司,福建 泉州 362700)

        0 引言

        隨著科學(xué)技術(shù)的快速發(fā)展,智能機器人[1]成為21世紀最受歡迎的科研項目之一。在不同類別屬性、不同工作領(lǐng)域的眾多智能機器人中,巡檢機器人作為調(diào)試范圍不受限的工業(yè)型機器人,因具備較為優(yōu)越的復(fù)雜環(huán)境適應(yīng)能力,常被應(yīng)用于各種軌跡跟蹤任務(wù)中。不同于其他機器人對平衡中心點線的依賴性,巡檢機器人采用雙輪支撐質(zhì)心。由于雙輪對前饋-反饋滾動趨勢具有較為精準的預(yù)測性,因此,巡檢機器人面對不同路況能夠做出較其他類型機器人更為迅速、敏捷的反應(yīng)。但這種反應(yīng)速度產(chǎn)生的時間差使巡檢機器人在運行過程中軌跡跟蹤控制容易產(chǎn)生誤差,這成為巡檢機器人的研究難點。

        張磊等[2]通過變增益自抗擾控制器,實現(xiàn)機器人軌跡跟蹤控制;張婷婷等[3]提出欠驅(qū)動搬運機器人軌跡跟蹤控制技術(shù);賈松敏等[4]通過反步控制技術(shù),從橫向、縱向2個方向控制機器人閉環(huán)系統(tǒng)、補償機器人打滑擾動,實現(xiàn)機器人軌跡跟蹤控制。上述3種方法未考慮實際巡檢環(huán)境中的地形條件,在存在障礙物的環(huán)境中跟蹤控制效果較差。

        為了解決上述方法中存在的問題,提出基于深度視覺的巡檢機器人行進軌跡跟蹤控制方法。

        1 巡檢機器人運動學(xué)方程

        巡檢機器人的電機部分并不統(tǒng)一組裝,即應(yīng)用于不同領(lǐng)域的巡檢機器人在電機裝配方面存在較大差異。但無論裝配哪種電機,巡檢機器人的移動位姿和軸向運動軌跡產(chǎn)生的角速度和線速度在綜合情況上均大致相同。因此,想要獲取巡檢機器人運動學(xué)方程,應(yīng)忽略電機類型,轉(zhuǎn)而以地面坐標系為參考坐標,以巡檢機器人所處位點為中心點,分別計算機器人行進方向在X軸、Y軸的夾角,確定機器人當前移動位姿,并將軸向運動軌跡產(chǎn)生的角速度、線速度與巡檢機器人移動位姿結(jié)合。機器人行進方向在X軸、Y軸夾角T和U的計算公式為[5]

        (1)

        g為巡檢機器人中心點;α為巡檢機器人兩輪間的速度差;v為X軸行進的理想角速度;δ為中心點與X軸的夾角;y為修正偏差;h為車輪半徑;?為Y軸運動軌跡理想線速度;f為Y軸運動軌跡理想角速度;θ為中心點與Y軸的夾角。

        巡檢機器人移動位姿的描述公式為

        (2)

        機器人實際角速度R和線速度C的計算公式為

        (3)

        ?為巡檢機器人的幾何中心;ι為雙輪驅(qū)動力;u為雙輪滑動阻力;k為巡檢機器人實際位姿;χ為X軸方向的航向角;λ為Y軸方向的航向角;z為任務(wù)空間與地面的垂直高度;p為坐標變換維數(shù)。

        巡檢機器人運動學(xué)方程的表達式為

        (4)

        Δj為任務(wù)空間速度向量;η為空間位移;γ為滑動模態(tài)。由此完成巡檢機器人行進軌跡跟蹤控制的運動學(xué)模型。但以上模型未考慮實際巡檢路況中的障礙物,獲得的軌跡控制結(jié)果為理想值,實際應(yīng)用中存在一定偏差。因此,需要利用深度視覺技術(shù)和滑模器解決軌跡控制誤差問題。

        2 巡檢機器人行進軌跡跟蹤控制

        2.1 地圖創(chuàng)建

        Kinect深度視覺傳感器是建立在環(huán)境感知設(shè)備基礎(chǔ)上的自動化信息采集裝置,該裝置能夠通過釋放紅外散射激光掃描場景內(nèi)的全部信息,并根據(jù)掃描獲取的RGB彩色信息和深度信息[6]構(gòu)建與實際環(huán)境貼合度較高的三維地圖。將Kinect深度視覺傳感器與巡檢機器人搭配在一起,Kinect深度視覺傳感器可以為巡檢機器人提供虛擬地圖,指導(dǎo)巡檢機器人前往目標任務(wù)點,避免與巡檢環(huán)境中的障礙物發(fā)生碰撞。

        Kinect深度視覺傳感器創(chuàng)建虛擬地圖的具體過程為:首先啟動電機底座的CCD相機[7]掃描巡檢機器人所處環(huán)境的深度圖像,然后根據(jù)掃描獲取的RGB彩色信息和深度信息建立場景深度模型??紤]到巡檢機器人對具體測距的高精要求,Kinect深度視覺傳感器在建立場景深度模型時,要時刻注意每個像素點是否滿足像素均值對應(yīng)的深度值。提取場景深度模型特征點并將特征點匹配到三維坐標系中,即可自動創(chuàng)建巡檢機器人所處環(huán)境的虛擬地圖。深度圖像采集公式為

        (5)

        像素均值對應(yīng)深度值的計算公式為

        J=-κsgn(s1)-s2

        (6)

        κ為圖像中頂點兩兩距離的均值;s1為圖像采集信息與預(yù)測深度信息間的對應(yīng)關(guān)系;s2為深度值不確信度。

        場景深度模型的表達式為

        D=2ρsinφ(ξ+qijtan ?)

        (7)

        ρ為環(huán)境信息豐富度;φ為模型視野范圍;ξ為模型與實際場景的貼合度;qij為點i和點j的深度視覺射線距離;?為模型權(quán)重。

        場景深度模型特征點提取公式為

        X=e1p1+e2p2+ψp3

        (8)

        e1為三維點云模擬數(shù)據(jù);p1為特征點成像原理;e2為特征點傾斜因子;p2為互不相交的特征點融合度;ψ為特征點在X軸上的物理尺寸;p3為特征點在Y軸上的物理尺寸。

        特征點匹配公式為

        (9)

        l為初始化地圖柵格單元;ζ為先驗地圖面積;I為幾何轉(zhuǎn)換率;ε為交叉匹配出現(xiàn)錯誤的概率。由此完成巡檢環(huán)境虛擬地圖的構(gòu)建,為跟蹤控制奠定基礎(chǔ)。

        2.2 跟蹤控制

        滑??刂破鱗8]是遵循動態(tài)補償原理的電動執(zhí)行器,在反饋控制動態(tài)目標上具有精準度高和浮動偏差低等特點。由Kinect深度視覺傳感器創(chuàng)建的虛擬地圖在給定巡檢機器人示教路線后,滑??刂破魍ㄟ^高速視覺反饋和位置動態(tài)補償?shù)姆椒?自動判斷巡檢機器人運動學(xué)方程中實際軌跡與期望軌跡存在的偏差,并在偏差演變?yōu)槭噶空`差前離線編程巡檢機器人制動區(qū)間,使原本粗糙的巡檢機器人軌跡轉(zhuǎn)趨于平滑,實現(xiàn)巡檢機器人軌跡自動化跟蹤控制。

        巡檢機器人制動區(qū)間編程平滑曲線公式為

        (10)

        滑模控制器的位置動態(tài)補償表達式為

        M=σν+G

        (11)

        σ為補償執(zhí)行器的活動范圍;ν為PD控制率;G為誤差收斂的速度。

        將式(11)的動態(tài)補償結(jié)果輸入到滑模器的制動區(qū)間編程中,消除行進軌跡跟蹤控制偏差。

        3 實驗與結(jié)果

        為了驗證基于深度視覺的巡檢機器人行進軌跡跟蹤控制的整體有效性,需要對其測試。

        隨機選擇2款不同型號的巡檢機器人作為驗證算法行進軌跡跟蹤控制性能的實驗對象,如圖1所示。

        圖1 實驗對象

        實驗對象相關(guān)參數(shù)如表1所示。

        表1 實驗對象相關(guān)參數(shù)

        使用Kinect深度視覺傳感器獲取的信息如圖2所示。

        圖2 Kinect深度視覺傳感器獲取的信息

        將傳感器輸入到滑模器中進行位置動態(tài)補償。為了體現(xiàn)本文方法可以不受實際巡檢環(huán)境障礙物的影響,設(shè)置非障礙物環(huán)境和障礙環(huán)境2種測試環(huán)境,如圖3所示。

        圖3 障礙環(huán)境設(shè)置

        3.1 非障礙物環(huán)境

        將實驗對象置于非障礙環(huán)境,分別采用本文方法、文獻[2]方法和文獻[3]方法跟蹤控制實驗對象行進軌跡,通過對比不同方法的控制結(jié)果,判斷不同方法對巡檢機器人行進軌跡的跟蹤控制性能。不同方法的控制結(jié)果如圖4所示。

        圖4 不同方法的控制結(jié)果

        由圖4可知,采用本文方法跟蹤控制巡檢機器人行進軌跡,其在直線、圓周2種軌跡模式中的跟蹤控制結(jié)果均與期望軌跡重合,說明本文方法的跟蹤控制效果較好。因為本文方法在跟蹤控制巡檢機器人軌跡前,優(yōu)先利用Kinect深度視覺傳感器創(chuàng)建貼合實際環(huán)境的虛擬地圖,并以此為基礎(chǔ),為巡檢機器人提供軌跡跟蹤控制的最優(yōu)方案。采用文獻[2]方法和文獻[3]方法跟蹤控制巡檢機器人軌跡,二者在直線、圓周2種軌跡模式中的跟蹤控制效果均與期望軌跡存在較大偏差,說明文獻[2]方法和文獻[3]方法的跟蹤控制效果較差。經(jīng)上述對比可知,本文方法的跟蹤控制效果明顯優(yōu)于傳統(tǒng)方法。

        3.2 障礙物環(huán)境

        將實驗對象置于障礙環(huán)境,分別采用本文方法、文獻[3]方法和文獻[4]方法跟蹤控制實驗對象軌跡,通過對比不同方法的控制結(jié)果,判斷不同方法對巡檢機器人行進軌跡的跟蹤控制性能。不同方法的控制結(jié)果如圖5所示。

        圖5 不同方法的控制結(jié)果

        由圖5可知,本文方法在障礙物環(huán)境中仍與期望軌跡保持較高的重合率,而文獻[3]方法和文獻[4]方法在障礙物環(huán)境中極易與障礙物碰撞導(dǎo)致巡檢機器人無法到達終點位置。經(jīng)上述對比,進一步驗證了本文方法的實用性。

        4 結(jié)束語

        近年來,巡檢機器人軌跡跟蹤控制技術(shù)已成為焊接、打磨和噴漆等機械制造領(lǐng)域不可或缺的重要技術(shù)。國內(nèi)外學(xué)者為了減少工業(yè)制造損失和運行間隙誤差,均投身到巡檢機器人軌跡跟蹤控制方法的研究之中。本文提出的基于深度視覺的巡檢機器人行進軌跡跟蹤控制經(jīng)過測試在障礙物環(huán)境和非障礙物環(huán)境的跟蹤控制效果均較好,能夠消除機械制造領(lǐng)域的安全隱患。

        猜你喜歡
        深度環(huán)境方法
        長期鍛煉創(chuàng)造體內(nèi)抑癌環(huán)境
        一種用于自主學(xué)習(xí)的虛擬仿真環(huán)境
        深度理解一元一次方程
        孕期遠離容易致畸的環(huán)境
        深度觀察
        深度觀察
        環(huán)境
        深度觀察
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        日日噜噜噜夜夜狠狠久久蜜桃 | 女同av免费在线播放| 人妻少妇偷人精品久久人妻| 亚洲国产一区中文字幕| 国产在线视频网友自拍| 国产精品国产三级国产在线观| 日本久久精品在线播放| 国产亚洲日本精品二区| 日本av天堂一区二区三区| 中文字幕一区二区三区四区五区| 丰满的人妻hd高清日本| 无码国产伦一区二区三区视频| 精品无码国产自产野外拍在线| 亚洲自偷自偷偷色无码中文| 国产精品天堂avav在线| 久久精品综合国产二区| 亚洲一区二区三区精品久久| 一区二区三区视频亚洲| 日本亲近相奷中文字幕| 妺妺窝人体色www看美女| 男人扒开女人下面狂躁小视频| 国内精品九九久久久精品| 天天干夜夜躁| 久久免费精品视频老逼| 一区二区三区人妻av| 精品国产第一国产综合精品| 精品国产人妻一区二区三区| 97se亚洲国产综合自在线图片| 国内精品久久久久久久亚洲| 午夜av福利亚洲写真集| 第一九区另类中文字幕| 人妻激情偷乱视频一区二区三区 | 国产三级精品三级在线专区2| 国产精品久线在线观看| 一本久久a久久精品亚洲| 精品日韩欧美| 日韩中文字幕一区二十| 水蜜桃精品视频在线观看| 国内精品久久久久久久97牛牛 | 国产成人无码区免费网站| 国产伦精品一区二区三区四区|