亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視覺定位的七軸機械臂目標抓取研究

        2020-07-01 05:35:54馬向華曲佳睿
        應用技術學報 2020年2期
        關鍵詞:手眼標定攝像頭

        馬向華, 曲佳睿, 趙 陽, 方 爽

        (上海應用技術大學 電氣與電子工程學院, 上海 201418)

        在“工業(yè)4.0”和中國制造“2025”的背景下,為了適應現(xiàn)代社會快速多變的特點以及滿足日益增長的復雜性要求,機器人不僅要能長期穩(wěn)定的完成重復性工作,還應具備智能化、網(wǎng)絡化、開放性、人機友好性等特點。而機械臂是機器人領域中最廣泛實際應用的自動化裝置,被廣泛應用在工業(yè)、醫(yī)療、軍事及空間探索等領域[1-3]。它是集機械工程、電氣工程、仿生學、計算機工程、智能控制等多個學科最新成果為一體的綜合領域[4-5],是衡量一個國家制造水平和科技水平的重要標志[1,6]。同時隨著工業(yè)4.0時代的到來,機械臂在工業(yè)生產(chǎn)中的使用率將會越來越大,所以相應的機械臂智能控制技術急需不斷發(fā)展。智能技術領域,對機械臂的功能作用提升最大的便是機器視覺技術,機器視覺技術簡單概括就是用機器代替人眼來做測量與判斷的技術,通過獲取目標的圖像,利用計算機模擬人的識別標準去分析理解圖像[7]。傳統(tǒng)的工業(yè)生產(chǎn)中,依據(jù)固定的工作流程,控制器指揮機械臂去完成生產(chǎn)任務,機械臂的每一次動作都是規(guī)劃好的,所以對于分揀貨物、采摘果蔬等需要判別或一定自主性的工作任務便顯得捉襟見肘,而將機器視覺技術與機械臂的控制相結合,就等于賦予機械臂一雙“眼睛”,讓它能夠像人類一樣自主識別需要抓取或分揀的目標物體[8]。

        自1959年世界第一臺機器人誕生以來,機器人技術取得了長足的發(fā)展,大量的機器人被轉換成了生產(chǎn)力,被應用于工業(yè)、農(nóng)業(yè)、服務業(yè)等行業(yè)當中[9]。機器人的發(fā)展使得工業(yè)制造領域發(fā)生了翻天覆地的改變,因此機器人引起了眾多科研人員的研究興趣。

        機器人在徹底改變技術的同時也改變著生活方式。從幫助殘疾人在家中執(zhí)行各種任務到在人類無法訪問的環(huán)境中自主收集數(shù)據(jù),機器人正在應用于一系列激動人心且有影響力的領域[10]。這些應用中的許多應用要求機器人以某種方式抓握和操縱物體(例如,通過把手打開門,或從海底拾取物體),但這提出了具有挑戰(zhàn)性的問題。具體地,機器人必須解釋場景的感官信息以定位對象并計劃抓握方法。解決此類問題的一種方法是識別物體并確定其相對于機器人的姿勢[11]。作為制造業(yè)大國,越來越多的機械臂被廣泛應用于我國工業(yè)生產(chǎn)中,但是現(xiàn)階段采用的機械臂大多是示教型,需要在生產(chǎn)前進行操作示范,記錄工作參數(shù)[12],其運動方式簡單,并且只能抓取單一規(guī)格型號的零件,無法智能的獲取零件的三維尺寸并據(jù)此來實現(xiàn)機械臂自適應抓取和分類,所以這種方式無法滿足未來工業(yè)生產(chǎn)的需求,更無法適應未來工業(yè)生產(chǎn)的復雜性和其所要求的靈活性[13]。為此,本文提出了一種基于機器人操作系統(tǒng)(robot operating system,ROS)的七自由度機械臂手眼結合抓取方法,同時可有效解決機器人結合機器視覺在面對特定物體進行抓取任務時,系統(tǒng)設計工作量大,可移植性差的問題。

        1 ROS仿真平臺簡介

        ROS是一個專門用于機器人軟件開發(fā)的靈活框架,是由斯坦福大學人工智能實驗室和 Willow Garage 合作共同研發(fā)并于2007年公開發(fā)布的次級操作系統(tǒng),是針對機器人研究與開發(fā)所設計出來的一套系統(tǒng)結構[14]。ROS框架集成了大量的工具、庫、協(xié)議,提供了類似操作系統(tǒng)所提供的功能,包括硬件抽象描述、底層驅動程序管理、公用功能的執(zhí)行、程序間的消息傳遞、程序發(fā)行包管理,極大程度簡化了復雜多樣的機器人平臺下的復雜任務創(chuàng)建與穩(wěn)定行為控制[15]。

        1.1 三維可視化平臺—RViz

        機器人綜合開發(fā)環(huán)境(robotic integrated development environment,RViz)是ROS針對機器人系統(tǒng)可視化需求,為用戶提供的一款三維可視化仿真工具。RViz可以通過圖形化方式,將機械臂的各種位姿狀態(tài)參數(shù)以3D可視化狀態(tài)顯示出來[16]。包括顯示RGBD攝像頭、激光雷達等機器人傳感器的信息、運動的狀態(tài)以及機器人周圍環(huán)境的變化等。開發(fā)者也可在RViz中,通過按鍵、滑動條、數(shù)值輸入等方式控制機器人的運動。

        1.2 機械臂控制—MoveIt!

        MoveIt!為開發(fā)者提供了一個易于使用的集成化開發(fā)平臺,由一系列移動操作的功能包組成,包含運動規(guī)劃、操作控制、3D感知、運動學、控制與導航算法等[17],并提供友好的GUI以便可以實時看到機器人的形態(tài),進而完成基于界面的一系列操作。此外,MoveIt!還可廣泛應用于工業(yè)、商業(yè)、研發(fā)和其他領域,是 ROS 社區(qū)中使用度排名前三的功能包[18]。

        其中,move_group是MoveIt!的核心節(jié)點,可以綜合其他獨立的功能組件為用戶提供ROS中的動作指令和服務,其結構如圖1所示。用戶接口方面,MoveIt!提供3種可供調用的接口:C++(使用move_group_interface包提供的API)、Python(使用moveit_commander包提供的API)和GUI(使用MoveIt!的RViz插件)。

        圖1 Move_group結構圖Fig.1 Move_group structure diagram

        1.3 Gazebo仿真環(huán)境

        Gazebo是一個三維物理仿真平臺,使用了分布式架構,擁有獨立的庫,可用于物理模擬、呈現(xiàn)、用戶界面、通信和傳感器生成[19],最重要的還有其具備開源免費的特性。同時,Gazebo仿真平臺非常適用于交互式的機器人的開發(fā),可以模擬機器人舉起、抓取物體等動作或者在空間中進行目標識別、物體定位等活動。Gazebo不僅可以仿真機器人的運動,還可以仿真?zhèn)鞲衅鞯臄?shù)據(jù),得到的數(shù)據(jù)可直接在RViz三維可視化工具中顯示[20]。

        2 機械臂仿真模型建立

        本文選用Franka Panda七軸機械臂為研究對象,其機器人描述文件(unified robot description format,URDF)可在ROS wiki官網(wǎng)得到。URDF是ROS中機器人模型的描述文件,包含了對機器人剛體外觀、物理屬性、關節(jié)類型等方面的描述。在使用xacro優(yōu)化模型后,可以為復雜模型添加更多可編程功能。URDF文件主要由Link和Joint 2種標簽構成,Link標簽用于描述機器人連桿的外觀和物理屬性,包括尺寸(size)、顏色(color)、形狀(shape)、慣性矩陣(inertial matrix)、碰撞參數(shù)(collision properties)等,Joint標簽用于描述機器人關節(jié)的運動學和動力學屬性。Link和Joint中均含有用于描述位置、顏色等幾何信息的子標簽。除此之外,Joint標簽中可以定義關節(jié)旋轉軸線、輸出力矩、關節(jié)轉速限制等信息。在機器人的可視碰撞檢測方面,則通過Link和Joint標簽中所包含的dae圖形文件或者stl圖形文件實現(xiàn)。程序如下所示:

        〈robot name=“panda” xmlns:xacro=

        “http://www.ros.org/wiki/xacro” 〉

        〈link name=base_link〉

        〈visual〉

        〈orgin xyz=“0.017 0 0” rpy=“0 0 0”/〉

        〈geometry〉

        〈mesh filename=“package://franka_description/meshes/visual/link0.dae”/〉

        〈/geometry〉

        〈/visual〉

        〈collision〉

        〈origin xyz=“0.017 0 0” rpy=“0 0 0”/〉

        〈geometry〉

        〈mesh filename=“package://franka_description/meshes/visual/link0.stl”/〉

        〈/geometry〉

        〈/collision〉

        〈inertial〉

        〈orgin xyz=“-0.010934 0.23134 0.0051509” rpy=“0 0 0”/〉

        〈mass value=“0.1”/〉

        〈inertial ixx=“0.03” iyy=“0.03” izz=“0.03” ixy=“0.0” ixz=“0.0” iyz=“0.0”/〉

        〈/inertial〉

        Visual標簽用于描述機器人Link部分的外觀參數(shù),Inertial標簽用于描述Link的慣性參數(shù),而Collision標簽用于描述Link的碰撞屬性。圖2為在Gazebo中建立的七自由度機械臂仿真模型。

        圖2 Gazebo環(huán)境下機械臂仿真模型Fig.2 Model of robotic arm in Gazebo environment

        3 機器視覺攝像頭標定

        本文選用單目RGBD攝像頭,通常由于攝像頭內(nèi)、外部的一些原因,生成的物體圖形可能會發(fā)生畸變,為了避免數(shù)據(jù)源所造成的誤差,需要針對攝像頭的參數(shù)來進行內(nèi)參與外參的標定。在ROS中可以使用camera_calibration功能包來對雙目和單目攝像頭進行標定。

        機器人與攝像頭的手眼標定。在機器人視覺應用中,通過手眼標定來獲取機器人坐標系和相機坐標系的關系,最后將視覺識別的結果轉移到機器人坐標系下。根據(jù)相機位置的不同,若相機和機器人末端執(zhí)行器固定在一起,成之為“眼在手”(eye-in-hand),若相機固定在機器人外部的底座上,則稱之為“眼在外”(eye-to-hand)。本文采用eye-to-hand手眼標定方法,如圖3所示,將攝像頭固定在機械臂上方的合理位置。機械臂在運動過程中,末端執(zhí)行器和標定板的位姿關系始終不變,在eye-to-hand配置方式中對于機器人夾著標定板移動任意2個位姿,有以下公式成立:

        經(jīng)過轉換后,可得下式:

        圖3 眼在外構型Fig.3 Eye to hand

        該問題可轉換為齊次方程AX=XB的求解:在圖3所示的變換中,T(base to end)表示的是機械臂基座標與末端執(zhí)行器的變換關系,可以通過機械臂運動學正解求得;T(object to end)表示相機識別物體位置與末端執(zhí)行器之間的變換關系;T(object to camera)表示相機識別物體與相機的變換關系。而未知的部分為機械臂末端執(zhí)行器與相機位置的關系,該關系是需要求解的位置變換。

        真實機械臂與攝像頭進行手眼標定時,可以使用ROS環(huán)境下的開源軟件easy_handeye,通過ROS環(huán)境下MoveIt!程序自動調整手眼標定過程中的機械臂位姿,以此提高手眼標定的自動化程度。在實驗的仿真環(huán)境中,base_link與camera_link位置是已知的,通過程序:Obj_robot_frame = camera_to_robot_×obj_camera_frame;來計算物體在機器人坐標系下位置。

        4 OpenCV物體識別

        OpenCV庫(open source computer vision library)是一個基于BSD許可發(fā)現(xiàn)的跨平臺開源計算機視覺庫,而ROS提供了與OpenCV的接口功能包—cv_bridge。其功能如圖4所示,實驗中使用cv_bridge功能包將ROS中的圖像信息轉換成OpenCV格式圖像,并且調用OpenCV庫來進行圖像處理,OpenCV將處理后的圖像數(shù)據(jù)轉換成ROS圖像信息,通過話題來進行發(fā)布,最終實現(xiàn)各節(jié)點之間的圖像傳輸。

        圖4 Cv_bridge功能包的作用圖Fig.4 Function diagram of cv_bridge

        5 實驗結果與分析

        在機械臂工作空間內(nèi),機械臂的前方放置1個黑色的長方體,將目標物“綠色易拉罐”放在長方體上,圖5為gazebo環(huán)境下使用rqt_image_view命令查看的相機視角圖像。機械臂運動規(guī)劃算法采用快速擴展隨機樹法(rapidly-exploring random tree,RRT)。機械臂開始運動到預設的準備姿態(tài),防止機械臂遮擋物體導致相機無法捕捉到目標物體圖像,之后程序中main函數(shù)中while循環(huán)不斷查看圖像隊列,當有圖像出現(xiàn)時,通過對圖像的分析來獲得目標物體的位置信息,之后完成目標的定位和抓取,如圖6所示。

        圖5 攝像機視角物體圖Fig.5 Corner object view from camera

        圖6 目標定位及抓取Fig.6 Targeting and grabbing

        6 結 語

        本文針對機器人結合機器視覺在面對特定物體進行抓取任務時,系統(tǒng)設計工作量大,可移植性差的問題,提出一種基于開源機器人操作系統(tǒng)ROS的七軸機械臂手眼結合抓取方法,在ROS框架下利用協(xié)作機器人FRANKA PANDA結合RGBD攝像頭進行目標抓取研究。結果表明,該方法簡單有效,以ROS為基礎設計的抓取方法可移植性強,解決了面對復雜多樣的物體,機器人系統(tǒng)需進行大規(guī)模控制改動的問題。

        猜你喜歡
        手眼標定攝像頭
        浙江首試公路非現(xiàn)場執(zhí)法新型攝像頭
        攝像頭連接器可提供360°視角圖像
        觀察力、手眼協(xié)調能力
        培養(yǎng)手眼協(xié)調能力,創(chuàng)意思維能力
        使用朗仁H6 Pro標定北汽紳寶轉向角傳感器
        觀察力、手眼協(xié)調能力
        培養(yǎng)手眼協(xié)調能力,創(chuàng)意思維能力
        基于勻速率26位置法的iIMU-FSAS光纖陀螺儀標定
        船載高精度星敏感器安裝角的標定
        奔馳360°攝像頭系統(tǒng)介紹
        亚洲AV秘 无码一区二区三区臀| 亚洲中文字幕无码av永久| 久久精品人妻无码一区二区三区| 久久亚洲国产精品成人av秋霞| 亚洲最稳定资源在线观看| 精品一区二区三区国产av| 极品老师腿张开粉嫩小泬| 色老头在线一区二区三区| 中字亚洲国产精品一区二区| 在线免费观看毛视频亚洲精品| 老妇高潮潮喷到猛进猛出| 综合无码一区二区三区| 国产精品精品自在线拍| 国产午夜三级一区二区三| 亚洲中文字幕久爱亚洲伊人| 国产优质av一区二区三区 | 亚洲色欲久久久综合网东京热| 国产精品jizz在线观看老狼| 在线毛片一区二区不卡视频| 亚洲av少妇一区二区在线观看| 亚洲av无码一区二区三区网址| 色一乱一伦一图一区二区精品| 18禁国产美女白浆在线| 日本视频一中文有码中文| 日本入室强伦姧bd在线观看| 亚洲va欧美va| 丝袜美腿亚洲综合久久| 国产自国产自愉自愉免费24区| 亚洲美免无码中文字幕在线| av天堂线上| 嫩呦国产一区二区三区av| 无码少妇一区二区性色av| 久精品国产欧美亚洲色aⅴ大片| 91青青草手机在线视频| 国产又黄又硬又粗| 欧美老妇与禽交| 亚洲美女av一区二区| 最新中文字幕一区二区| 久久人人爽人人爽人人av| 国产在线视频h| 人妖一区二区三区在线|