李紅衛(wèi),張煜奇,周 軍,汪 俊
(1.航空工業(yè)西安飛機(jī)工業(yè)(集團(tuán))有限責(zé)任公司,西安710089;2.南京航空航天大學(xué)機(jī)電學(xué)院,南京210016)
隨著工業(yè)機(jī)器人在零件識(shí)別、抓取和現(xiàn)場(chǎng)巡檢等制造環(huán)節(jié)、場(chǎng)景的大量應(yīng)用[1],基于機(jī)器人對(duì)零件的位姿計(jì)算技術(shù)已經(jīng)成為智能制造領(lǐng)域中的重要一環(huán)。飛機(jī)制造過(guò)程中大量的機(jī)械零件,由于其形狀種類多、尺寸大小不一等特點(diǎn),始終缺乏快速、有效的零件自動(dòng)分揀手段,使分揀環(huán)節(jié)難以與零件的自動(dòng)配送系統(tǒng)形成高效的有機(jī)整體,限制了飛機(jī)制造的自動(dòng)化程度及生產(chǎn)效率的進(jìn)一步提升。研究機(jī)械零件的位姿計(jì)算技術(shù)已日益迫切。
傳統(tǒng)的機(jī)械零件位姿識(shí)別計(jì)算方案如Delta 機(jī)器人識(shí)別方法、射頻識(shí)別技術(shù)等,由于準(zhǔn)確率與效率較低、應(yīng)用局限性大以及位姿計(jì)算精度低等原因,很難滿足現(xiàn)代飛機(jī)制造的需求。近年來(lái),國(guó)內(nèi)外許多科研人員基于點(diǎn)對(duì)特征(Point pair feature,PPF)[2]對(duì)三維物體的位姿識(shí)別開(kāi)展了大量的研究[3?7]。王化明等[8]提出了基于點(diǎn)對(duì)特征和局部參考系的位姿計(jì)算算法,提高了目標(biāo)物體識(shí)別的準(zhǔn)確率以及效率。魯榮榮等[9]提出一種增強(qiáng)型點(diǎn)對(duì)特征用來(lái)識(shí)別目標(biāo)物體,解決了原始算法中存在的內(nèi)存浪費(fèi)以及效率低下的問(wèn)題。然而,在嚴(yán)重遮擋、散亂堆放的場(chǎng)景中,如圖1所展示的機(jī)械零件和機(jī)械臂抓取現(xiàn)場(chǎng),現(xiàn)有的位姿識(shí)別方法面臨較大的挑戰(zhàn),無(wú)法達(dá)到工業(yè)現(xiàn)場(chǎng)要求的識(shí)別效率以及準(zhǔn)確率。飛機(jī)機(jī)械零件因表面無(wú)紋理或紋理少、幾何形狀種類繁多、大小不一,位姿計(jì)算的技術(shù)難度更大。
圖1 機(jī)械零件及機(jī)械臂抓取現(xiàn)場(chǎng)Fig.1 Mechanical parts and grabbing scene
本文針對(duì)上述問(wèn)題,通過(guò)引入基于深度學(xué)習(xí)的機(jī)械零件語(yǔ)義分割方法,智能感知機(jī)械零件的空間區(qū)域信息,優(yōu)化基于特征描述子的機(jī)械零件位姿計(jì)算算法,以實(shí)現(xiàn)基于機(jī)械臂的機(jī)械零件高效率精準(zhǔn)抓取。具體地,本文首先構(gòu)建一些常用的機(jī)械零件語(yǔ)義分割RGB 數(shù)據(jù)集,訓(xùn)練深度學(xué)習(xí)分割網(wǎng)絡(luò),實(shí)現(xiàn)基于RGB 圖像數(shù)據(jù)的機(jī)械零件語(yǔ)義分割;接著,結(jié)合深度數(shù)據(jù)及視覺(jué)傳感器內(nèi)參,計(jì)算二維圖像與三維點(diǎn)云的映射關(guān)系,實(shí)現(xiàn)不同機(jī)械零件所在三維空間區(qū)域的分割;最后,基于分割的不同類別的零件,分別計(jì)算描述子特征,提高常用機(jī)械零件位姿計(jì)算的準(zhǔn)確率及效率,最終通過(guò)實(shí)驗(yàn)對(duì)本文方法進(jìn)行驗(yàn)證。
本文首先基于機(jī)械臂視覺(jué)傳感器,獲取到待抓取機(jī)械零件的RGBD 數(shù)據(jù)。為了提高直接利用特征描述子進(jìn)行機(jī)械零件位姿計(jì)算的精度及效率,在進(jìn)行機(jī)械零件位姿計(jì)算之前,本文提出了一種基于深度學(xué)習(xí)的機(jī)械零件三維空間區(qū)域感知方法,即利用深度學(xué)習(xí)方法對(duì)機(jī)械臂視覺(jué)信息進(jìn)行分析,實(shí)現(xiàn)機(jī)械零件在二維空間的分類及分割。進(jìn)一步地,結(jié)合傳感器參數(shù)及深度信息,利用二維與三維的空間映射關(guān)系,實(shí)現(xiàn)不同機(jī)械零件所在三維空間區(qū)域感知?;谌S感知結(jié)果,本文針對(duì)不同類別的機(jī)械零件,分別計(jì)算PPF 特征,縮小特征匹配的范圍,提高機(jī)械零件位姿計(jì)算的精度及效率。最后基于計(jì)算結(jié)果,自動(dòng)規(guī)劃?rùn)C(jī)械臂路徑,支持機(jī)械零件的自動(dòng)分揀抓取。整體的實(shí)驗(yàn)配置及方案如圖2 所示。
圖2 實(shí)驗(yàn)配置及方案Fig.2 Configuration and solution of this research
本文首先利用深度學(xué)習(xí)框架Mask R?CNN[10]對(duì)機(jī)械臂視覺(jué)傳感器獲取的視覺(jué)信息進(jìn)行智能分析;接著基于二維到三維的空間映射關(guān)系,實(shí)現(xiàn)機(jī)械零件的三維區(qū)域感知;最后利用PPF 特征,實(shí)現(xiàn)機(jī)械零件的位姿計(jì)算。
為了實(shí)現(xiàn)基于視覺(jué)信息的機(jī)械零件的分類與分割,本文采用Mask R?CNN 深度學(xué)習(xí)框架。Mask R?CNN 是Faster R?CNN[11]的擴(kuò)展,在Faster R?CNN 原有的用于對(duì)象分類和邊界框識(shí)別的分支上增加了一個(gè)用于預(yù)測(cè)對(duì)象掩碼的并行分支。因此,Mask R?CNN 與Faster R?CNN 類似,同樣由兩個(gè)階段所構(gòu)成。在第1 階段,通過(guò)區(qū)域生成網(wǎng)絡(luò)(Region proposal network,RPN)生成候選對(duì)象邊界框;在第2 階段,除了進(jìn)行預(yù)測(cè)對(duì)象類別和邊界框識(shí)別外,Mask R?CNN 還使用一個(gè)全卷積網(wǎng)絡(luò)(Ful?ly convolutional networks,F(xiàn)CN)為每個(gè)感興趣區(qū)域(Region of interest,ROI)生成一個(gè)二進(jìn)制掩碼。基于以上兩個(gè)階段,形成一個(gè)小型的、靈活的通用對(duì)象實(shí)例分割框架,不僅可以檢測(cè)圖像中的目標(biāo),還可以為每個(gè)目標(biāo)提供高質(zhì)量的分割結(jié)果。然而,原始的Mask R?CNN 框架是基于COCO 開(kāi)源訓(xùn)練數(shù)據(jù)集[12],將其直接用到機(jī)械零件的語(yǔ)義分割任務(wù)中,精度較差。因此,本文首先構(gòu)建幾類常用的機(jī)械零件語(yǔ)義分割RGB 數(shù)據(jù)集,基于該數(shù)據(jù)集進(jìn)一步優(yōu)化模型參數(shù),提高機(jī)械零件語(yǔ)義分類分割的精度。
2.1.1 數(shù)據(jù)集構(gòu)建
本文使用的視覺(jué)傳感器配置如圖2(a)所示。規(guī)劃?rùn)C(jī)械臂路徑之前,視覺(jué)傳感器獲取當(dāng)前機(jī)械零件擺放場(chǎng)景的RGBD 數(shù)據(jù)。本文選取10 類比較常見(jiàn)的機(jī)械零件,具備通孔、倒角和棱邊等機(jī)械零件的典型特征,且表面光滑無(wú)紋理。設(shè)計(jì)不同的擺放場(chǎng)景,共獲取1 000 張RGB 圖像數(shù)據(jù),并通過(guò)中心裁剪統(tǒng)一調(diào)整大小到1 024 像素×1 024 像素。此外,為了實(shí)現(xiàn)更加魯棒的訓(xùn)練,本文對(duì)采集到的數(shù)據(jù)集進(jìn)行擴(kuò)充。具體來(lái)說(shuō),數(shù)據(jù)集主要通過(guò)3 種方式進(jìn)行擴(kuò)充:隨機(jī)旋轉(zhuǎn),水平/垂直翻轉(zhuǎn)和模糊。隨機(jī)旋轉(zhuǎn)和翻轉(zhuǎn)技術(shù)可以模擬傳感器在不同的角度和不同的方向采集到的圖像。圖像模糊用于模擬相機(jī)抖動(dòng)或無(wú)法對(duì)焦時(shí)的圖像捕獲。在此基礎(chǔ)上,本文采用Label me 軟件對(duì)所有圖像進(jìn)行人工的語(yǔ)義標(biāo)注及分割,作為訓(xùn)練Mask R?CNN 的真實(shí)值。最終,本文數(shù)據(jù)集包括4 000 張機(jī)械零件無(wú)序擺放的RGB 圖像及對(duì)應(yīng)的語(yǔ)義分類、分割真值。這一數(shù)據(jù)集被分成3 個(gè)部分:80% 的樣本用于訓(xùn)練,10%的樣本用于驗(yàn)證,而10%的樣本用于測(cè)試。
2.1.2 框架細(xì)節(jié)
本文采用特征金字塔網(wǎng)絡(luò)[13](Feature pyramid network,F(xiàn)PN)和深度殘差網(wǎng)絡(luò)[14](Deep residual network,ResNet101)作為Mask R?CNN 的主干網(wǎng)絡(luò)。輸入視覺(jué)傳感器獲取到的RGB 圖像,基于ResNet101 中Block1 至Block5 每個(gè)殘差塊的最后一層卷積計(jì)算得到自底而上的特征圖。卷積層之間的最大池化操作使每一層生成的特征圖大小分別為輸入圖 像的1/2、1/4、1/8、1/16 和1/32。接著,通過(guò)特征融合操作將高層特征映射逐層合并到低層特征映射,實(shí)現(xiàn)上下文特征融合。此外,本文是針對(duì)10 類機(jī)械零件的語(yǔ)義分割,因此需要對(duì)模型關(guān)于分類的分支最后的全連接層進(jìn)行修改,模型的結(jié)構(gòu)框架如圖3 所示。
本文同時(shí)考慮提高機(jī)械零件定位精度、分類及分割準(zhǔn)確度,定義如下優(yōu)化方程
式中:θ 是Mask R?CNN 模型參數(shù)。式(1)第1 項(xiàng)計(jì)算機(jī)械零件的定位精度,l 包含機(jī)械零件包圍盒的位置及尺寸信息;第2 項(xiàng)計(jì)算機(jī)械零件的分類準(zhǔn)確度,q 表示模型對(duì)單個(gè)機(jī)械零件輸出的分類的概率;第3 項(xiàng)計(jì)算機(jī)械零件分割的精度,f 表示輸出圖像上的單個(gè)像素;gt 表示這些信息來(lái)自本文數(shù)據(jù)集,包括:第i 張RGB 圖像上,機(jī)械零件j 真實(shí)包圍盒的位置及尺寸lgtij,機(jī)械零件真實(shí)分類pgtij,及輸入圖像每個(gè)像素對(duì)應(yīng)的分割真值fgtik,輔助優(yōu)化,更新模型參數(shù)。此外,α、β 和γ 調(diào)節(jié)以上3 項(xiàng)的相對(duì)重要性,通過(guò)大量的實(shí)驗(yàn)驗(yàn)證,本文的權(quán)重設(shè)為α=0.8,β=1 和γ=0.5。
圖3 基于Mask R-CNN 的機(jī)械零件RGB 圖像語(yǔ)義分割模型結(jié)構(gòu)框架Fig.3 Mask R-CNN architecture for semantic segmentation of mechanical parts
2.1.3 訓(xùn)練實(shí)驗(yàn)配置
給定機(jī)械零件RGB 圖像和數(shù)據(jù)集中對(duì)應(yīng)的語(yǔ)義分割真實(shí)結(jié)果,本文采用交并比(Intersection over union,IOU)策略來(lái)定義FPN 錨框中的正樣本和負(fù)祥本。IOU 表示預(yù)測(cè)邊界盒與地面真實(shí)邊界盒的交集與并集之比。本文將ROI 得分大于0.7的錨框定為正,將IOU 得分小于0.3 的錨框定為負(fù),這樣可以丟棄大部分無(wú)效的區(qū)域提案。接著,在每個(gè)小批量迭代中,使用所有選擇的錨點(diǎn),基于式(1),計(jì)算分類和協(xié)調(diào)回歸損失。本文共訓(xùn)練50 000 次迭代,將權(quán)值衰減和動(dòng)量分別設(shè)置為0.000 1 和0.9。 本文將初始學(xué)習(xí)速率設(shè)置為0.001。經(jīng)過(guò)30 000 次迭代后,將學(xué)習(xí)率重新設(shè)置為0.000 1。實(shí)驗(yàn)環(huán)境描述如下:深度學(xué)習(xí)框架Tensorflow 2.0,Windows 10,Python 2.7,Intel Core I7?8700,帶有8 GB 內(nèi)存的GTX 1080 圖形處理單元(GPU)。
為了實(shí)現(xiàn)機(jī)械零件所在三維空間區(qū)域感知,本文基于以上機(jī)械零件RGB 圖像語(yǔ)義分割結(jié)果,結(jié)合視覺(jué)傳感器的內(nèi)參及采集到的深度信息,利用二維與三維的空間映射關(guān)系,構(gòu)建附帶語(yǔ)義信息的機(jī)械零件三維點(diǎn)云。
機(jī)械零件具有表面光滑無(wú)紋理、結(jié)構(gòu)特征明顯等特點(diǎn),PPF 特征可有效利用機(jī)械零件的結(jié)構(gòu)特點(diǎn)進(jìn)行特征表達(dá),因此,本文利用PPF 特征對(duì)機(jī)械零件和場(chǎng)景進(jìn)行描述。傳統(tǒng)基于PPF 的位姿計(jì)算方法對(duì)整個(gè)場(chǎng)景進(jìn)行采樣,在運(yùn)行階段同時(shí)計(jì)算并存儲(chǔ)場(chǎng)景和模型的特征,存在以下問(wèn)題:(1)特征計(jì)算量大,存儲(chǔ)空間內(nèi)存消耗大,需要較長(zhǎng)的匹配時(shí)間,算法效率低。(2)除了待識(shí)別的機(jī)械零件,存在其他冗余數(shù)據(jù),可能造成誤匹配,影響位姿識(shí)別的精度。為了提高位姿計(jì)算的精度及效率,本文基于PPF 特征和上述區(qū)域感知結(jié)果改進(jìn)位姿識(shí)別算法。在離線階段,計(jì)算待檢測(cè)機(jī)械零件模型PPF 特征,構(gòu)建機(jī)械零件特征庫(kù);在檢測(cè)階段,計(jì)算由區(qū)域感知結(jié)果分割的機(jī)械零件點(diǎn)云數(shù)據(jù)的PPF 特征,搜索特征庫(kù)獲得與場(chǎng)景機(jī)械零件上點(diǎn)對(duì)對(duì)應(yīng)的模型點(diǎn)對(duì)。由這兩組點(diǎn)對(duì)執(zhí)行局部坐標(biāo)對(duì)齊和投票決策,優(yōu)化得票值高的位姿結(jié)果,實(shí)現(xiàn)機(jī)械零件的位姿計(jì)算。
2.2.1 PPF 特征描述
PPF 特征用于描述點(diǎn)對(duì),它是一個(gè)由4 個(gè)參數(shù)組成的向量,如圖4 所示。點(diǎn)云中存在兩個(gè)點(diǎn)p1、p2,構(gòu)成點(diǎn)對(duì),用∠(a,b) ∈[0,π]表示兩個(gè)向量之間的夾角,則PPF 特征可表示為
式中:d 表示由點(diǎn)p1指向p2的向量;n1、n2分別表示兩個(gè)點(diǎn)所在表面的法向量。
圖4 PPF 特征Fig.4 Point pair feature
視覺(jué)傳感器采集場(chǎng)景數(shù)據(jù)轉(zhuǎn)化成點(diǎn)云,點(diǎn)云中每對(duì)點(diǎn)對(duì)計(jì)算一個(gè)PPF 特征將導(dǎo)致存儲(chǔ)空間的巨大消耗,計(jì)算量十分龐大,為了加快算法速度,本文首先對(duì)點(diǎn)云進(jìn)行泊松采樣,采樣點(diǎn)構(gòu)成點(diǎn)對(duì)計(jì)算PPF 特征,隨后利用Hash 表結(jié)構(gòu)對(duì)PPF 特征進(jìn)行編碼,利用鏈表和數(shù)組結(jié)構(gòu)存儲(chǔ)信息,具有相同Hash 值的點(diǎn)對(duì)將存儲(chǔ)在同一個(gè)線性表中,構(gòu)建機(jī)械零件特征庫(kù),如圖5 所示。
圖5 Hash 編碼Fig.5 Hash coding
2.2.2 局部坐標(biāo)對(duì)齊
建立機(jī)械零件特征庫(kù)后,基于區(qū)域感知結(jié)果分割場(chǎng)景中的機(jī)械零件,對(duì)于場(chǎng)景機(jī)械零件數(shù)據(jù)進(jìn)行相同的泊松采樣,計(jì)算采樣點(diǎn)間的PPF 特征,匹配Hash 值。在這里,基于分割結(jié)果避免對(duì)場(chǎng)景中背景等其他數(shù)據(jù)的計(jì)算,一定程度上提高匹配的精度和效率。假設(shè)場(chǎng)景中存在機(jī)械零件點(diǎn)對(duì)Si、Sj,則模型機(jī)械零件上存在點(diǎn)對(duì)Mi、Mj與其匹配,為了獲得一個(gè)統(tǒng)一的表示,本文建立局部坐標(biāo)系,如圖6所示,分別將兩點(diǎn)對(duì)對(duì)齊到局部坐標(biāo)原點(diǎn),圍繞法線旋轉(zhuǎn)物體,完成場(chǎng)景與模型間的局部坐標(biāo)對(duì)齊,具體公式為
式中:Rs、Rm、R(α)為旋轉(zhuǎn)變換;ts、tm為平移變換。場(chǎng) 景 點(diǎn) 對(duì)Si、Sj和 模 型 點(diǎn) 對(duì)Mi、Mj存 在 對(duì) 應(yīng) 關(guān) 系,建立局部坐標(biāo)系,通過(guò)剛體變換,分別將點(diǎn)Si、Mi變換到坐標(biāo)原點(diǎn),并旋轉(zhuǎn)其法線與x 軸方向?qū)R。此時(shí),兩個(gè)點(diǎn)對(duì)之間存在錯(cuò)位,再通過(guò)旋轉(zhuǎn)變換R(α)旋轉(zhuǎn)角度α 完成局部坐標(biāo)對(duì)齊,最后,通過(guò)5個(gè)變換關(guān)系,求解模型空間到場(chǎng)景空間的轉(zhuǎn)換關(guān)系,即可獲得待求機(jī)械零件的一個(gè)位姿結(jié)果。
圖6 局部坐標(biāo)變換Fig.6 Local coordinate transformation
2.2.3 投票策略
研究目標(biāo)是找到“最優(yōu)”的位姿結(jié)果,使得經(jīng)過(guò)位姿變換后的模型點(diǎn)落在場(chǎng)景中機(jī)械零件上的數(shù)量最大。本文采用一種投票策略對(duì)局部坐標(biāo)進(jìn)行投票,最終找到“最優(yōu)”局部坐標(biāo)。
首先,創(chuàng)建一個(gè)二維累加器,行數(shù)與模型采樣點(diǎn)數(shù)量一致,列數(shù)與旋轉(zhuǎn)角度采樣步數(shù)一致,本文設(shè)置為30,即僅允許采樣角度與正確角度之間的最大差值為12°,在保證識(shí)別精度的同時(shí)降低采樣步數(shù),以滿足效率要求;接著選定場(chǎng)景機(jī)械零件上一點(diǎn)作為參考點(diǎn),與其他場(chǎng)景點(diǎn)配對(duì),計(jì)算PPF 特征并從庫(kù)中尋找匹配項(xiàng),返回在模型上具有相似距離和方向的點(diǎn)對(duì);隨后對(duì)齊局部坐標(biāo),根據(jù)參考點(diǎn)和角度建立二維累加器的索引值,并計(jì)數(shù)投票;最后,所有采樣點(diǎn)遍歷上述階段,得到一組二維累加器陣列,完成投票。
由此,獲得了多個(gè)位姿結(jié)果,本文引入位姿優(yōu)化策略,來(lái)提高位姿的精確性。首先,對(duì)于一個(gè)位姿,與已存在的位姿相比較,若旋轉(zhuǎn)量和平移量小于給定的閾值,則將這個(gè)位姿歸為一類,否則,創(chuàng)建新的位姿類。遍歷所有位姿結(jié)果,即可得到位姿聚類結(jié)果,累加同一聚類內(nèi)的位姿得票值,取峰值為正確位姿聚類結(jié)果。最后,均值化類內(nèi)位姿,得到“最優(yōu)”位姿結(jié)果。
為了驗(yàn)證本文方法對(duì)于位姿識(shí)別的準(zhǔn)確性,本文首先利用人工合成的機(jī)械零件數(shù)據(jù)搭建虛擬場(chǎng)景,采集RGBD 數(shù)據(jù),并對(duì)其中的機(jī)械零件位姿進(jìn)行手動(dòng)標(biāo)注,獲得真值位姿,以此作為評(píng)估精度的標(biāo)準(zhǔn)。此外,本文與傳統(tǒng)的PPF 位姿識(shí)別算法比較,分別評(píng)估兩種方法對(duì)相同的合成數(shù)據(jù)集進(jìn)行位姿計(jì)算的精度,并引入匹配時(shí)間來(lái)評(píng)判算法的效率,通過(guò)精度和效率兩個(gè)指標(biāo)評(píng)判兩種算法的優(yōu)劣。
圖7 表示兩種方法的位姿識(shí)別結(jié)果,識(shí)別的位姿用3D 包圍盒表示,雖然兩種方法都能計(jì)算目標(biāo)物體的位姿,但本文方法優(yōu)于PPF 方法,原因在于本文方法進(jìn)行三維點(diǎn)云語(yǔ)義分割,避免冗余數(shù)據(jù)特征影響位姿識(shí)別結(jié)果。表1 給出兩種方法位姿結(jié)果與真值位姿的平均誤差,本文方法的識(shí)別結(jié)果平均誤差平移量為0.52 mm,旋轉(zhuǎn)角度為3.38°,相較于傳統(tǒng)的PPF 算法提高一倍,優(yōu)于傳統(tǒng)算法。從數(shù)據(jù)可以得出結(jié)論,本文的方法在位姿識(shí)別精度方面有所提高,而匹配速度明顯高于PPF 算法,原因是本文對(duì)待抓取的機(jī)械零件進(jìn)行三維感知,語(yǔ)義分割出待識(shí)別的機(jī)械零件,而待識(shí)別的機(jī)械零件在整個(gè)場(chǎng)景數(shù)據(jù)中占比小,此方法只對(duì)相同類別的場(chǎng)景零件數(shù)據(jù)計(jì)算特征,避免大量冗余數(shù)據(jù)的計(jì)算。由此可見(jiàn),本文的方法在提高位姿識(shí)別精度的同時(shí),提高位姿識(shí)別的速度,在實(shí)際工程應(yīng)用中更具有優(yōu)勢(shì)。
圖7 合成數(shù)據(jù)的單實(shí)例識(shí)別Fig.7 Single-instance recognition of synthetic data
表1 兩種方法的誤差對(duì)比Table 1 Error comparison of the two method
圖8 遮擋和噪聲的影響Fig.8 Influence of occlusion and noise
此外,本文還測(cè)試算法對(duì)遮擋、噪聲的影響,其中遮擋率及噪聲比率定義及設(shè)置方式參考文獻(xiàn)[15]。本文分別以20%、40%、60%、80%的遮擋率進(jìn)行遮擋測(cè)試,添加0.5%、1.0%、1.5%、2.0%、2.5%的高斯噪聲進(jìn)行噪聲測(cè)試,如圖8 所示,該算法在一般的遮擋和噪聲水平下識(shí)別率能達(dá)到80%,魯棒性較好。
為了測(cè)試本文方法在真實(shí)場(chǎng)景中的適用性,本文采集真實(shí)的機(jī)械零件數(shù)據(jù)進(jìn)行位姿識(shí)別實(shí)驗(yàn),為了采集測(cè)試數(shù)據(jù),利用視覺(jué)傳感器采集場(chǎng)景的RG?BD 圖像,作為本文方法的原始輸入。圖9 展示實(shí)際場(chǎng)景中的位姿識(shí)別效果,其中,藍(lán)框部分的位姿識(shí)別效果較好,模型數(shù)據(jù)和場(chǎng)景數(shù)據(jù)基本擬合,紅框部分位姿識(shí)別效果較差,原因在于該機(jī)械零件處于數(shù)據(jù)采集框邊緣,數(shù)據(jù)質(zhì)量較差,特征被遮擋。本文利用機(jī)械臂和視覺(jué)傳感器在實(shí)驗(yàn)室進(jìn)行抓取實(shí)驗(yàn)。表2 展示了本文方法進(jìn)行的若干次標(biāo)準(zhǔn)件的抓取結(jié)果,可以觀察到,位姿識(shí)別結(jié)果直接影響抓取結(jié)果,正確的位姿識(shí)別結(jié)果可以有效引導(dǎo)機(jī)械臂抓取,本文的方法對(duì)抓取的成功率較高。經(jīng)過(guò)上述實(shí)驗(yàn),表明該方法適用于實(shí)際場(chǎng)景。總體來(lái)說(shuō),本方法對(duì)真實(shí)的場(chǎng)景有效,能夠識(shí)別出零件的位姿。
圖9 真實(shí)場(chǎng)景多實(shí)例識(shí)別Fig.9 Multi-instance recognition of real data
表2 抓取實(shí)驗(yàn)結(jié)果Table 2 Result of crawling experiment
本文提出一種基于區(qū)域感知的機(jī)械零件位姿計(jì)算方法,并在大量的合成數(shù)據(jù)和實(shí)際場(chǎng)景中進(jìn)行了實(shí)驗(yàn)論證。結(jié)果表明,本文的位姿計(jì)算方法的平移誤差在1 mm 以內(nèi),旋轉(zhuǎn)角度誤差在4°以內(nèi),識(shí)別結(jié)果用于抓取任務(wù)中成功率可達(dá)85%。針對(duì)實(shí)際項(xiàng)目需求,在場(chǎng)景中擺放20 個(gè)機(jī)械零件,利用機(jī)械臂進(jìn)行實(shí)際抓取實(shí)驗(yàn)并設(shè)定200 次的抓取次數(shù)上限,通過(guò)本方法可在限定次數(shù)下將場(chǎng)景中的機(jī)械零件全部抓取成功,驗(yàn)證了本方法的實(shí)際應(yīng)用價(jià)值,可以為實(shí)際工程應(yīng)用提供有效支撐。