摘 要:機器人自動上下料系統(tǒng)作為智能制造的核心關鍵技術之一,已廣泛應用于智能化工廠、智能化車間及自動化生產線,但其仍存在自主作業(yè)能力低,環(huán)境適應能力差,缺乏多機及人機協(xié)作能力等技術缺陷?,F(xiàn)構建一種基于結構光視覺導引協(xié)作機器人的自動上下料系統(tǒng),針對系統(tǒng)標定、毛坯上料和成品下料,制訂了一種自動上料策略,搭建了自動上下料實驗平臺,開展了毛坯與成品的上下料試驗。試驗結果表明,該系統(tǒng)運行狀況良好,可穩(wěn)定高效地完成自動上下料工作,提升了企業(yè)的生產效率和自動化水平,創(chuàng)造了較好的經濟效益和社會效益。
關鍵詞:結構光視覺;協(xié)作機器人;視覺導引;多機協(xié)作;自動上下料
0? ? 引言
隨著機器人、圖像技術的發(fā)展,以視覺為感官,以機器人為執(zhí)行主體的多機協(xié)同裝備受到國內外專家學者的熱烈追捧和廣泛關注[1]。周書華等人提出了一種基于視覺引導的工業(yè)機器人動態(tài)分揀系統(tǒng),但抓取目標為結構化物體,并不涉及非合作目標的位姿估計,因而應用范疇有限[2]。季旭全等人提出了針對星載設備的視覺導引機器人智能裝配方法,將機器學習智能算法融入雙目視覺測量方法中,但系統(tǒng)復雜、成本高、環(huán)境適應性差,難以在工業(yè)制造領域推廣應用[3]。
本文重點論述了結構光視覺系統(tǒng)、協(xié)作機器人系統(tǒng)和數控機床的多機協(xié)作自動上料方案及其在實踐中的應用。
1? ? 系統(tǒng)構成
基于視覺導引的協(xié)作機器人自動上下料系統(tǒng)架構如圖1所示,主要包括出料倉、供料架、結構光視覺系統(tǒng)、協(xié)作機器人、數控機床等。結構光視覺系統(tǒng)具有測量精度高、抗噪能力強的優(yōu)點,可適應光照時變、沖擊振動等物理變化的非結構化工業(yè)制造場景;協(xié)作機器人具有安全性高、感知能力敏銳等優(yōu)勢。因此本文選擇結構光測量系統(tǒng)和協(xié)作機器人作為感知和執(zhí)行系統(tǒng)。出料倉、供料架及機床設置在協(xié)作機器人作業(yè)范圍內,結構光視覺系統(tǒng)架設于供料架上方,工件毛坯放置于供料架上且在結構光視覺系統(tǒng)視場范圍內。
2? ? 自動上料策略
圖2為自動上料策略流程圖,主要包括系統(tǒng)標定、毛坯上料和成品下料三個階段。
階段一:系統(tǒng)標定。將標定板固裝于協(xié)作機器人末端,結構光系統(tǒng)采集標定板圖像,根據張正友標定法,獲取結構光視覺系統(tǒng)與協(xié)作機器人末端外部參數,結合機器人當前位姿先驗信息,構建光視覺系統(tǒng)與協(xié)作機器人的手眼轉換關系。改變協(xié)作機器人位姿,多次采集不同位姿下的標定板圖像,獲取手眼轉換關系最優(yōu)最小二乘解。
階段二:毛坯上料。結構光視覺系統(tǒng)檢測毛坯圖像,若存在毛坯,估計毛坯空間位姿。根據階段一中手眼轉換關系,以毛坯位姿為目標位姿,以當前協(xié)作機器人位姿為初始位姿,實現(xiàn)協(xié)作機器人抓取毛坯。
階段三:成品下料。數控機床打開艙門,運用示教器或者PLC系統(tǒng)作為上位機,構建機器人軌跡規(guī)劃,實現(xiàn)工件抓取,完成成品下料。
3? ? 視覺導引方法
視覺導引方法是實現(xiàn)工件自動上下料的核心關鍵技術之一。基于結構光視覺系統(tǒng)的協(xié)作機器人導引方法主要包括工件位姿估計和機器人運動軌跡規(guī)劃。
3.1? ? 位姿估計
結構光視覺系統(tǒng)可獲得毛坯的三維點云信息,完成毛坯抓取需實際解決毛坯的絕對定向問題。絕對定向問題是指一組三維空間點,在兩個不同坐標系下的三維坐標已知,解算兩個坐標系間的坐標轉換關系。如圖3所示,假設n個空間特征點分布于坐標系O1-X1Y1Z1和O2-X2Y2Z2,分別為pi,pi′,那么絕對定向問題可描述為以下最優(yōu)問題:
||pi′-(Rpi+t)||2? ? ? ? ? ? ? ? (1)
為解決該問題,首先將特征點坐標去質心化,即:
Q=pi-p,Qi′=pi′- p′? ? (2)
其中,p=pi,p′=pi′。相應的去質心點可表示為A=[Q1,Q2,…,Qn],B=[Q1′,Q2′,…,Qn′],可將絕對定向最優(yōu)問題轉化為:
||A-RB||2? ? ? ? (3)
已知||M||2=tr(MTM),tr(MN)=tr(NM),可將式(3)化簡為:
||A-RB||2 =tr(ATA)+tr(BTB)-2tr(RTABT)? ? ? (4)
因此獲得式(3)的最小解即獲取tr(RTABT)的最大值,該絕對定向問題的最優(yōu)解為:
R=UDVT? ? ? ? ? ? ? ? (5)
其中U和V滿足ABT=UΣVT,即ABT的SVD分解,D=
dig(1,1,det(UVT))。
旋轉信息提取之后,可進一步解算平移值最優(yōu)解:
t=p′ -Rp? ? ? ? ? ? ? ? ? ? ? ?(6)
3.2? ? 軌跡規(guī)劃
首先,在充分考慮遮擋、避障、沖擊、振動等因素的前提下,以運動時間最短為性能指標,預設初始點位和目標點位間若干離散中間點位。
其次,軌跡插補作為軌跡規(guī)劃的核心關鍵技術,在實際應用中任意兩點位常利用三次多項式插值,擬合中間過程位姿,即:
θ(t)=a0+a1t+a2t2+a3t3? ? ? ? ? ? ? ? (7)
式中:θ為關鍵轉角;t為時間;a0、a1、a2、a3為參數。
為保障機器人運動的平穩(wěn)性,運動函數需滿足起始點與終點關節(jié)角約束及速度連續(xù)性約束,即:
θ(0)=θ0,
θ(tf)=θf,
(0)=
0,
(tf)=
f? ? ? ? (8)
可得公式(7)的參數解,即a0=θ0,a1=0,a2=3(θf-θ0)/tf2-20/
tf-tff,a3=
0+
f/tf2-2(θf-θ0)/tf3。
最后,根據機器人逆運動學[3]解算關節(jié)轉角,控制關節(jié)角到達目標位姿。
4? ? 試驗驗證
本文搭建了基于結構光系統(tǒng)導引協(xié)作機器人的上下料系統(tǒng),借助標定板對結構光系統(tǒng)進行標定,獲取相機內部參數、結構光平面參數及結構光系統(tǒng)與機器人系統(tǒng)的手眼轉換關系,標定結果如表1所示。
以100個毛坯為例,開展毛坯上料,并進行成品下料作業(yè)。試驗結果表明,該系統(tǒng)自動上下料的成功率為100%,驗證了該系統(tǒng)和方法的可行性和有效性。
5? ? 實踐應用
采用結構光視覺檢測目標位姿并導引協(xié)作機器人實現(xiàn)自動上下料,聯(lián)合數控機床,能夠形成自動化工作站或生產線,顯著解決了實踐中的以下問題:
5.1? ? 使用協(xié)作機器人有效解決了人機協(xié)作難題
實踐中廣泛存在的機床上下料需求,由于其產品的高頻換型以及機床本身換刀等方面的需求,采用工業(yè)機器人無法解決人機高效協(xié)同的問題。本文構建的系統(tǒng),成功引入了協(xié)作機器人,有效解決了機床加工產品高頻換型以及加工刀具、工作臺切換時的人機協(xié)同問題。
5.2? ? 采用結構光視覺增加了系統(tǒng)的抗干擾性能
結構光視覺的成功測試應用,對于整個自動上下料系統(tǒng)適應加工車間實際工況提供了極大的便利。區(qū)別于實驗室的測試,在實際機床加工時會有諸如光照條件、加工機床的沖擊振動以及上下料機構等的微量移動變化等導致的綜合性干擾,成功剔除這些干擾可能導致的視覺定位偏差直接決定了協(xié)作機器人能否實現(xiàn)有效作業(yè)。
采用結構光視覺后,在機床加工實踐中顯著改善了上述各種因素導致的對定位的偏差判斷。結構光視覺可以更加有效地識別非結構化工業(yè)生產場景,實現(xiàn)精準的位置坐標確定,進而為協(xié)作機器人的精準取放提供依據。
5.3? ? 基于結構光視覺與協(xié)作機器人的協(xié)同,實現(xiàn)了設備快速部署
結構光視覺系統(tǒng)與協(xié)作機器人可以實現(xiàn)坐標綁定,形成的子系統(tǒng)可以與機床實現(xiàn)便捷的通信對接。這對諸多高技術人才匱乏的機床加工企業(yè)部署自動上下料系統(tǒng),實現(xiàn)“機器換人”的目標提供了便利。綁定的結構光視覺系統(tǒng)與協(xié)作機器人實現(xiàn)了通過機器人控制器作為主站控制整個系統(tǒng)的目的,可以直接提供給機床加工企業(yè)完整的解決方案,縮短了系統(tǒng)部署時間,得到了目標企業(yè)的肯定。
6? ? 結語
本文構建了一種基于視覺導引的協(xié)作機器人自動上下料系統(tǒng),采用結構光視覺系統(tǒng)檢測目標位姿信息導引協(xié)作機器人抓取,協(xié)作機器人聯(lián)合數控機床合作上下料。針對系統(tǒng)標定、工件毛坯上料和成品下料,制訂了一種自動上料策略。系統(tǒng)開發(fā)成功后在實踐中得到了實際應用,有效適應了非結構化的機床加工場景,實現(xiàn)了高效的設備部署。該系統(tǒng)極大地降低了工人勞動強度,提升了企業(yè)的生產效率和自動化水平,促進了多機協(xié)同作業(yè)在智能制造領域的發(fā)展,創(chuàng)造了較好的經濟效益和社會效益。
[參考文獻]
[1] 張豐.空間機械臂裝配建模與視覺導引問題研究[D].哈爾濱:哈爾濱工業(yè)大學,2019.
[2] 周書華,雷偉敏,葉曉平,等.基于視覺導引的工業(yè)機器人動態(tài)分揀與控制系統(tǒng)開發(fā)[J].麗水學院學報,2019,41(5):10-15.
[3] 季旭全,王君臣,趙江地,等.基于機器人與視覺引導的星載設備智能裝配方法[J].機械工程學報,2018,54(23):63-72.
收稿日期:2021-04-02
作者簡介:劉偉萍(1985—),女,浙江杭州人,機械工程師,主要從事機械自動化設計、研發(fā)等工作。