田 剛,曹 鳳,韓 昌*
(1.天門職業(yè)學院,湖北 天門 431700;2.武漢商學院,湖北 武漢 430056)
隨著產(chǎn)品多樣化的發(fā)展,包裝盒的需求與日俱增,比如酒盒、手機盒、禮品盒等,這類盒子統(tǒng)稱天地蓋,盒子的蓋子為“天”,底部為“地”。傳統(tǒng)方法是手工貼合,盒子有4個角,需要貼合4次,效率極低,有的廠家使用輔助設備配合人工完成包裝盒裱糊,不僅會存在人工誤差,還會增加原料以及生產(chǎn)成本。
以機器人為主體,可以批量完成產(chǎn)品裝配的流水線,即機器人動態(tài)裝配生產(chǎn)線[1]。此生產(chǎn)線可以讓大量勞動力得以解放,降低生產(chǎn)成本,保證產(chǎn)品的生產(chǎn)效率和穩(wěn)定性。目前,機器視覺廣泛應用于食品包裝、制藥、消費電子、印刷、安防監(jiān)控等領域[2]。機器人視覺系統(tǒng)也在朝著智能化、高精度、多目三維發(fā)展。常見的視頻目標檢測措施有光流法[3]、幀間差分法[4]、背景差分法[5]等。李鵬[6]等人使用了視覺注意輔助ViBe算法進行目標檢測。該方法首先估計背景運動模型,然后用輔助ViBe算法處理補償幀,進而獲取運動背景下序列圖像中的前景目標,提高了檢測能力,但是如果運動目標較大則無法達到要求。牛文雨[7]等人在補償相機運動時,采用二維稀疏光流法,利用幀間差分法將檢測到的目標與靜態(tài)區(qū)域分離,從而達到了更好的補償相機運動的效果,這些方法減小了運動目標對相機位姿估計的影響,但是耗時有所增加,而且該方法在對垂直相機平面運動的物體檢測方面有待完善。近期又陸續(xù)出現(xiàn)了許多視覺定位的方法[8-9],在定位精度或者處理速度上會有所限制。鑒于此,本文提出了基于目標中心點的機器人動態(tài)視覺定位系統(tǒng)。
在裱糊線機器人定位過程中,視覺系統(tǒng)屬于核心部分。光源負責給采集對象打光,使采集對象在采集的圖像中更加清晰。該設計的相機部分主要由圖像采集卡和CMOS芯片組成。圖像處理系統(tǒng)是對目標的有效信息進行提取,是視覺系統(tǒng)的核心部分,包括圖像分析和特征提取等。機器人視覺跟蹤與定位系統(tǒng)架構如圖1所示。
圖1 機器人視覺跟蹤與定位系統(tǒng)架構
本設計選用COMS芯片的MVC5001MF數(shù)字攝像頭,其綜合性價比較高。相機成像時,光源對成像效果具有一定影響。打光不好會使視覺系統(tǒng)采集圖像的質量變差,甚至影響算法定位精度。光源一般有白熾燈、LED、紅外線、紫外線等。工業(yè)視覺所使用的光源主要為LED,其單色性好,顏色多樣,壽命長,成本低,是工業(yè)拍照打光首選。本設計選用紅色LED燈作為光源。依據(jù)本設計實際情況,選用vanch公司中的V4L140210-R24矩形光源及VR205-90-red環(huán)形光,是通過4根LED條形光組成的,可以更好地提高圖片質量等。
1.3.1 相機參數(shù)
相機成像模型表達了給定世界坐標與圖像坐標的關系,每臺攝像機的自身特點以及擺放位置等參數(shù)都對世界坐標和圖像坐標的轉換有極大影響,因此,需要一組已知的坐標作為參考點來計算這兩種影響因素所表達的參數(shù)。從World坐標系轉換為pixel坐標系的轉換關系為:
(1)
結合公式(1),可知相機內(nèi)參矩陣為公式(2)。
(2)
1.3.2 基于多點測量的目標定位
本文提出了一種基于四點排序篩選的四點目標中心定位法。首先在像素坐標系將工件的4個角點檢測出來,然后對矩形工件畫對角線,對角線的交點即為工件中心點,再用四點排序篩選出工件中心點坐標(即工件行坐標的中間坐標與列坐標的中間坐標組合)。本文研究對象的尺寸為長350 mm、寬194 mm。設工件的角點為A,B,C,D,工件中心點為E(x,y)。工件行坐標的中間坐標為AB的中點,工件列坐標的中間坐標為AD的中點。
四點排序過程:首先在像素坐標系將工件初始行坐標和結束行坐標從小到大排序,取中間行坐標(即為x),將工件初始列坐標和結束列坐標從小到大排序,取中間列坐標(即為y),將篩選出的行列坐標組合即為中心點(x,y)。通過像素坐標系與世界坐標系之間的關系矩陣,將像素坐標系的工件中心點坐標轉化為世界坐標系的工件中心點坐標,視覺定位系統(tǒng)將處理得到的工件中心點坐標信息通過網(wǎng)絡通信傳遞給機器人,即可實現(xiàn)中心點定位。四點目標中心點定位法如圖2所示。
圖2 四點目標中心點定位法
視覺軟件實現(xiàn)過程首先要進行相機內(nèi)參和位姿標定,通過這兩個標定對相機進行矯正,然后用halcon算法提取產(chǎn)品中心點,最后采用四點排序篩選出交點中的工件中心點(見圖3)。
圖3 中心點跟蹤算法實現(xiàn)過程
界面會顯示當前時間、視覺定位系統(tǒng)通信狀態(tài)、系統(tǒng)信息以及手動/自動設置等信息以及模式切換,可以將系統(tǒng)模式變?yōu)楣芾韱T、顧客、自動生產(chǎn)等模式。管理員模式可以設置7個選項,分別是選擇產(chǎn)品、產(chǎn)品設置、相機設置、制作模板、相機標定、坐標系標定、雙相機位置標定。
在所有的參數(shù)都設置好以及產(chǎn)品匹配、手眼標定、傳送帶標定完成后,系統(tǒng)會根據(jù)設置好的參數(shù)自動進行目標跟蹤。在生產(chǎn)模式的界面最下面會顯示當前系統(tǒng)狀態(tài)為自動運行,顯示目標的行列坐標以及旋轉角度,還會顯示對這3個參數(shù)的補償數(shù)據(jù)、生產(chǎn)效率等。另外還可以設置開始時間、產(chǎn)出數(shù)量等。
在管理員模式對相機進行標定。制作模板,將標定板分別擺成各種姿態(tài),進行圖像采集并保存,本實驗選取了16種姿態(tài)圖片可進行相機內(nèi)參標定;導入采集的整個標定板圖進行相機位姿標定;采集標定板的左右標志點獲取橫縱坐標,計算夾角。相機內(nèi)參和外參可利用World坐標系和pixel坐標系的關系矩陣進行求取,進行計算之后就可以對相機進行矯正。
在進行相機標定、坐標系標定、坐標及角度補償?shù)冗^程后,機器人視覺定位系統(tǒng)成功地進行了包裝盒中心點定位,因此,本次機器人視覺跟蹤與定位系統(tǒng)軟件設計測試比較成功,較精確地實現(xiàn)了工件中心點定位。在相機內(nèi)參標定時選取了16種位姿,成功在圖像中建立了標定坐標,使標定更加精確。對坐標系的標定也較成功,獲取的點位置計算較精確,計算夾角時算法也未出現(xiàn)異常。切換至自動生產(chǎn)時,視覺算法較好的進行了位置補償,實現(xiàn)了精準定位,大大提高了包裝盒生產(chǎn)效率和裝配精度。
本文介紹了一種視覺定位系統(tǒng),設計了機器人視覺系統(tǒng)架構,對圖像采集模塊進行分析,包括相機選型、光源選型等。位置標定處理模塊進行分析,提出了四點目標中心點定位法,分析了工件位置運動補償原理,設計了視覺定位軟件系統(tǒng),最終經(jīng)過測試,該軟件可以精確實現(xiàn)包裝盒中心點跟蹤定位。