閆俊濤,吳自然,陳憲帥,吳桂初,舒 亮
(溫州大學(xué),浙江 溫州 325000)
隨著制造行業(yè)不斷發(fā)展,眾多企業(yè)已經(jīng)實現(xiàn)了“機器換人”的自動化改造,正在向智能化邁進。傳統(tǒng)的自動化裝配都是通過振動盤來上料保證零件姿態(tài)和位置的一致性,然后通過示教或離線編程的方式使工業(yè)機器人從固定的位置夾取零件至固定的安裝位置,之后重復(fù)固定的軌跡、執(zhí)行固定的任務(wù)[1]。這種傳統(tǒng)的自動化裝配雖然在一定程度上提高了產(chǎn)品的質(zhì)量和生產(chǎn)效率,但是也存在一些問題:1)某些零部件無法通過振動盤機構(gòu)調(diào)整姿態(tài)和位置,需要通過特定復(fù)雜機構(gòu)完成調(diào)整;2)按照傳統(tǒng)的方案一臺工業(yè)機器人通常只執(zhí)行一項固定的安裝任務(wù),為了完成所有的安裝步驟就需要配置大量的工業(yè)機器人,這樣會增加設(shè)備的投入,也造成了工業(yè)機器人資源的浪費;3)最重要的是,這種傳統(tǒng)裝配方案是根據(jù)裝配零件的形狀特征來設(shè)計振動盤、導(dǎo)軌、工業(yè)機器人夾爪等配套設(shè)備,在產(chǎn)線的靈活度方面存在很大的缺陷,一旦產(chǎn)品升級或者其中某一個零件有輕微改動,則整個配套設(shè)施都需要重新設(shè)計和改造。
隨著機器視覺技術(shù)迅速發(fā)展,將機器視覺引入自動裝配中可以根據(jù)視覺識別結(jié)果來調(diào)整抓取點坐標及姿態(tài)對零件進行抓取,然后將夾起的零件進行相應(yīng)的平移、旋轉(zhuǎn)操作以達到標準的安裝位置和姿態(tài)[2]。一些基于機器視覺的自動化裝配的方案也相繼被提出。郭瑞,劉振國等人[3]提出了通過視覺系統(tǒng)對機器人精確定位的智能引導(dǎo)方法,相機采用移動式安裝,固定在機器人手爪上跟隨手爪移動使機器人可以根據(jù)工件的實際位置動態(tài)調(diào)整抓取點,實現(xiàn)裝配機器人精確定位和智能抓取。劉泉晶,沈俊杰[4]提出了利用機器視覺技術(shù)結(jié)合CV-X100 Series Ver3.4圖像處理軟件進行邊緣位置和邊緣寬度檢測,得到零件的外形尺寸,提高產(chǎn)品的裝配質(zhì)量的方法,并且在汽車發(fā)電機部件自動裝配上得到應(yīng)用。張明建,曾偉明[5]提出了以德國MVTec Software GmbH公司開發(fā)的MERLIC圖像處理軟件為支撐的機器人視覺控制平臺,構(gòu)建了小型電機目標裝配零件與裝配位置自動識別的單目視覺機器人智能抓取系統(tǒng)。徐遠,宋愛國等人[6]針對工業(yè)生產(chǎn)中自動裝配技術(shù)裝配精度不高的問題,提出了一種基于機器視覺和六維力傳感器的自動裝配控制方法,該方法采用兩個攝像頭對裝配物體和裝配孔兩次定位,通過六維力傳感器實現(xiàn)裝配過程中的力位控制,完成精密裝配作業(yè)。由以上可知機器視覺技術(shù)在自動裝配領(lǐng)域具有很好的應(yīng)用前景。然而現(xiàn)有的方案只是針對單一的對象進行識別和抓取,如果在待識別區(qū)域有多種零件,并且每一種零件都需要進行類別、坐標、姿態(tài)的識別,同時需要根據(jù)識別的結(jié)果來切換工業(yè)機器人末端的氣缸及夾爪,現(xiàn)有的方案無法滿足上述需求。
針對上述問題,本文提出了一種基于機器視覺的柔性裝配方案,該方案是通過深度學(xué)習(xí)在相機視野中先進行多種零件種類的識別,再結(jié)合圖像處理算法程序完成多個零件的種類、坐標以及姿態(tài)的識別,可根據(jù)不同產(chǎn)品的特征進行靈活優(yōu)化,達到最佳的識別效果,通過該視覺識別模塊可以對零件種類以及實際的位置坐標和姿態(tài)進行識別,然后將識別結(jié)果發(fā)送給工業(yè)機器人,指導(dǎo)工業(yè)機器人進行夾爪的切換和抓取點的位置調(diào)整,最后將夾起的零件進行旋轉(zhuǎn)和平移達到標準的安裝位置和姿態(tài),從而實現(xiàn)了一機多用的柔性裝配。該系統(tǒng)已經(jīng)在小型斷路器裝配生產(chǎn)線上得到了應(yīng)用。
如圖1所示是標準托盤及零件安裝姿態(tài)圖,其中零件0、1、2、3、4、5是在相機視野中小型斷路器的裝配零件通過視覺識別和工業(yè)機器人系統(tǒng)進行分類和姿態(tài)調(diào)整后的標準狀態(tài)。
實際工程應(yīng)用中為了使系統(tǒng)具有一定的容錯能力,在設(shè)計標準零件托盤的時候采用倒角及滑軌的形式,使零件在一定的角度和坐標偏差的情況下依然可以放置到正確的位置,根據(jù)多次實驗證明,旋轉(zhuǎn)角度的容錯偏差范圍為±0.8°,坐標的容錯偏差范圍為±0.3 mm。
圖1 標準托盤及零件安裝姿態(tài)圖
如圖2所示是級聯(lián)分類器的零件分類圖,其中包含了小型斷路器中可采用自動裝配的內(nèi)部零件圖以及所有可能的放置狀態(tài),其中包含6大類零件,零件名稱分別為0、1、2、3、4、5,另外,由圖2中可知其中有些放置狀態(tài)無論旋轉(zhuǎn)多少角度都無法達到如圖1所示的標準的安裝姿態(tài),還需要借助翻轉(zhuǎn)才能達到標準姿態(tài),因此,對于同一零件的不同放置狀態(tài)進一步細分,采用二級命名的形式“(零件種類)-(放置狀態(tài))”,如“0-0”表示如圖2所示中第一個零件的第一種狀態(tài),其它零件的命名以此類推。這種命名方式可以根據(jù)第二級名稱——放置狀態(tài)來確定零件是否需要在旋轉(zhuǎn)平移的基礎(chǔ)上再進行翻轉(zhuǎn)操作才能達到標準姿態(tài),其中翻轉(zhuǎn)的方式也會根據(jù)二級分類器識別出的結(jié)果調(diào)出提前設(shè)定的翻轉(zhuǎn)程序。由此,任意零件的任意姿態(tài)和位置都能通過視覺系統(tǒng)的識別結(jié)果指導(dǎo)工業(yè)機器人進行夾取、旋轉(zhuǎn)、平移、翻轉(zhuǎn)操作后以標準的姿態(tài)放入標準托盤中,之后進入組裝程序進行最后的組裝操作。
圖2 級聯(lián)分類器
如圖3所示是基于機器視覺的小型斷路器柔性裝配系統(tǒng)的整體架構(gòu)框圖,該系統(tǒng)主要由視覺識別和運動控制兩個子系統(tǒng)構(gòu)成,其中視覺識別子系統(tǒng)是核心的組成部分,它包括圖像采集、圖像處理、相機標定以及通信模塊,該子系統(tǒng)可以獲取相機視野中每個待裝配零件的種類、夾取點坐標以及姿態(tài)信息,其中夾取點坐標再經(jīng)過相機標定轉(zhuǎn)換到工業(yè)機器人坐標系下,然后將上述信息通過Socket通信[7]發(fā)送給機器人控制器。此時運動控制子系統(tǒng)中的工業(yè)機器人就能夠通過這些信息切換夾爪來夾取和調(diào)整零件的位置和姿態(tài),以達到標準的安裝狀態(tài)。
圖3 系統(tǒng)整體架構(gòu)框圖
基于機器視覺的柔性裝配系統(tǒng)硬件部分由視覺識別部分和機器人運動控制部分構(gòu)成。如圖4所示為系統(tǒng)硬件實物圖,其中視覺識別包含相機支架、工業(yè)相機及鏡頭、光源、底座、待識別零件,機器人運動控制部分包含工業(yè)機器人、伸縮氣缸、夾爪、中間過渡組件、標準托盤,另外有些特殊的零件姿態(tài)不能直接通過旋轉(zhuǎn)平移得到,因此需要中間過渡組件進行中轉(zhuǎn)調(diào)整,得到零件標準的安裝姿態(tài)后放入到標準托盤中,標準托盤中的零件傳送到下一工序直接進行裝配。
圖4 系統(tǒng)硬件實物圖
視覺識別部分包含3個重要的內(nèi)容:一個是單個零件種類的識別,包括零件的不同種類以及同一零件的不同放置狀態(tài);另一個是零件的姿態(tài)(角度)識別,再有一個是零件位置坐標的確定。如圖5所示為視覺識別系統(tǒng)程序設(shè)計流程圖,該流程圖展示了從接收工業(yè)機器人的圖片采集信號到最終將獲取到的信息發(fā)送給工業(yè)機器人的過程為一個處理周期。其中包括用Python + OpenCV[8]調(diào)用相機獲取圖片,然后將圖片經(jīng)過預(yù)處理分割成多個獨立的零件圖,這些零件圖一方面經(jīng)過深度學(xué)習(xí)模型來進行類別預(yù)測,進而根據(jù)預(yù)測類別找到對應(yīng)的零件模板,通過與模板進行特征提取與匹配得到單應(yīng)性矩陣,通過單應(yīng)性矩陣分解可以得到旋轉(zhuǎn)矩陣,通過旋轉(zhuǎn)矩陣就可以得到當前零件相對于該零件模板的旋轉(zhuǎn)角度,另一方面,也可以通過模板中定義的夾取點坐標來找到當前零件圖片對應(yīng)點的坐標,然后再根據(jù)之前該零件圖片切割點的位置坐標求出夾取點在圖片像素坐標系中的位置,該像素坐標點再經(jīng)過相機標定和坐標轉(zhuǎn)換就可以得到夾取點相對于機器人坐標系的位置坐標。結(jié)合零件類別、旋轉(zhuǎn)角度、夾取點坐標就可以確定出該零件需要的夾爪類型,零件夾取點位置坐標,以及將零件進行旋轉(zhuǎn)平移特定角度之后放置到對應(yīng)的安裝托盤上,以供后續(xù)的裝配機器人進行裝配。
圖5 視覺識別系統(tǒng)程序設(shè)計流程圖
如圖6所示為圖像預(yù)處理過程框圖,其中包括Sobel算子[9]提取零件的邊緣信息,高頻濾波及二值化以及形態(tài)學(xué)腐蝕與膨脹,完成上述預(yù)處理后對圖像中的零件進行分割。
圖6 圖像預(yù)處理過程框圖
由工業(yè)相機獲取相機視野中如圖7所示的圖片,之后進行如圖8所示Sobel算子計算x、y方向的梯度然后梯度做差,如圖9所示低通濾波器平滑圖像高頻噪聲然后模糊二值化,如圖10所示圖像形態(tài)學(xué)腐蝕與膨脹,一系列圖像預(yù)處理操作后得到如圖11所示的零件的最小矩形框,然后按照最小矩形框的4個角的坐標計算出零件的垂直切割點,從而得到如圖12所示的單個零件的切分圖。
圖7 圖片獲取 圖8 Sobel算子
圖9 濾波及二值化 圖10 形態(tài)學(xué)腐蝕與膨脹
圖11 畫最小矩形框
圖12 零件切分
零件種類識別是基于深度學(xué)習(xí)搭建的分類器模型經(jīng)過大量訓(xùn)練樣本訓(xùn)練,最終得到專注于對這部分零件進行分類的特定分類器。另外,由于在實際的識別任務(wù)中不僅要識別零件種類還要識別該零件的放置狀態(tài),因為同一零件的不同放置狀態(tài)在后期機器人抓取的情況處理的方法也有所不同,因此也歸屬于不同的類別。對于這種特殊的分類情況,本文采用了級聯(lián)分類器來做分類,如圖2所示,其原理是第一級分類器做零件的種類識別,本文為6大類,第二級分類器是接在每一個一級分類器之后的,作用是在確定了該零件類別的情況下再做這個零件不同放置狀態(tài)的識別,即識別哪一面朝上,其中零件0有3種放置狀態(tài)、零件1有4種、零件2有5種、零件3有5種、零件4有3種、零件5有3種,一共有23類;采用兩級分類器來識別的目的是為了提高識別的準確率,如果用常規(guī)的分類器一次做23種分類,則分類錯誤率會較高,而這種級聯(lián)的方式第一級只做6分類,第二級最多做5分類,這樣錯誤的概率就會得到有效的降低。整個分類器需要根據(jù)訓(xùn)練樣本得到7個模型參數(shù),以實現(xiàn)7個分類器的功能,其中1個一級分類器,6個二級分類器。
在圖像分類識別領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)以其模型簡單且識別準確率高而普遍應(yīng)用,其中以LeNet5經(jīng)典網(wǎng)絡(luò)模型為開端,LeNet5模型簡單但是識別精度不夠高,而在LeNet5上發(fā)展而來的VGG-Net架構(gòu)[10]采用了更深的網(wǎng)絡(luò)架構(gòu)、更小的卷積核以及用ReLU作為激活函數(shù),在一定程度上提高了識別的準確率。雖然到目前為止已經(jīng)有更深更復(fù)雜的模型在大型的識別任務(wù)比賽中比VGG-Net表現(xiàn)更好,但是針對本文的分類任務(wù)(一級分類器6類、二級分類器最多5類),VGG-Net在保證模型和參數(shù)簡單的情況下足以達到預(yù)期的識別準確率。本文在實現(xiàn)分類器模型設(shè)計時,從卷積神經(jīng)網(wǎng)絡(luò)模型的識別準確率和模型的復(fù)雜程度來綜合考慮,參考的是經(jīng)典的CNN(卷積神經(jīng)網(wǎng)絡(luò))結(jié)構(gòu)模型VGG-Net架構(gòu),在該架構(gòu)的基礎(chǔ)上根據(jù)實際零件的特征和分類需求進行了深度和卷積核參數(shù)以及輸出參數(shù)的調(diào)整,得到如圖13所示的基于卷積神經(jīng)網(wǎng)絡(luò)的分類器模型,根據(jù)本文的兩級分類需求,一級分類器是識別零件的大類,各個零件的特征區(qū)別較大,因此采用5*5的卷積核以及較大的步幅就能達到分類效果,同時,一級分類器是6分類,因此最后輸出的Softmax參數(shù)設(shè)置為6。而二級分類器是對同一零件的不同放置狀態(tài)分類,特征相似度較高,因此采用3*3的卷積核以及較小的步幅,以獲取更多的細節(jié)特征,由于二級分類器是對不同放置狀態(tài)進行分類,而每種零件可能的放置狀態(tài)不一樣,因此每一個二級分類器的最后輸出的Softmax參數(shù)都是取決于該零件有幾種放置狀態(tài)。
圖13 基于卷積神經(jīng)網(wǎng)絡(luò)的分類器模型
對于零件姿態(tài)的識別,根據(jù)零件特征點是否明顯采用了兩種處理方案。方案一:特征匹配法,其原理是找出模板與實際零件圖片的對應(yīng)特征點對,然后根據(jù)這些特征點對求出單應(yīng)性矩陣,根據(jù)單應(yīng)性矩陣可以求出旋轉(zhuǎn)矩陣,再根據(jù)旋轉(zhuǎn)矩陣求出對應(yīng)的旋轉(zhuǎn)角度。單應(yīng)性矩陣H與模板中的夾取點坐標相乘可以得到實際的夾取點坐標。
假設(shè)兩張圖像中的對應(yīng)點對齊次坐標為(x′,y′,1)和(x,y,1),單應(yīng)矩陣H定義為:
(1)
則有如下對應(yīng)關(guān)系式:
(2)
上式經(jīng)過矩陣運算可得到如下對應(yīng)的表達式:
(3)
(4)
(5)
理論上一組對應(yīng)點坐標可以帶入表達式(3) (4)中可以得到2個求解方程式,則四組對應(yīng)點坐標就可以得到8個求解方程式,另外再結(jié)合H的約束條件(5)就可以得到個數(shù)為9的方程組,因此可以解出單應(yīng)性矩陣H中的9個未知量,最終得到單應(yīng)性矩陣H[11]。
在真實的應(yīng)用場景中,計算的點對中都會包含噪聲。比如點的位置偏差幾個像素,甚至出現(xiàn)特征點對誤匹配的現(xiàn)象,如果僅僅使用4個點對來計算單應(yīng)矩陣,會出現(xiàn)較大的誤差[11]。因此,為了使得計算更精確,一般都會使用遠大于4個點對來計算單應(yīng)矩陣。另外直接采用線性解法通常很難得到最優(yōu)解,所以實際使用中一般會用其它優(yōu)化方法,如奇異值分解。由單應(yīng)性矩陣H分解可以得到旋轉(zhuǎn)矩陣H和平移矩陣t, 旋轉(zhuǎn)矩陣RH定義如式(6)所示:
(6)
由式(6)旋轉(zhuǎn)矩陣R可以分別得到繞x,y,z軸旋轉(zhuǎn)的如式(7) (8) (9)所示的歐拉角θx,θy,θz:
θx= atan2(r32,r33)
(7)
(8)
θz= atan(r21,r11)
(9)
(10)
這種方案的優(yōu)點是對零件圖片特征的明顯程度要求不高,能夠應(yīng)用于眾多零件,而且準確率有保證;但是其缺點就是計算量會隨著識別精度提高而增大;對于這個缺點本文采用了如下方法來提高效率:1)提前將模板按照一定間隔旋轉(zhuǎn)一周,保存下來,這樣做可以避免在程序運行過程中進行旋轉(zhuǎn),用內(nèi)存換效率;2)先以較大間隔旋轉(zhuǎn)一周找到相關(guān)系數(shù)較高的旋轉(zhuǎn)角度范圍,即可以將第一次得到的相關(guān)系數(shù)進行排序,找出最大的幾個值,然后在這個范圍中進行小間隔旋轉(zhuǎn),最終確定出最大相關(guān)系數(shù)對應(yīng)的旋轉(zhuǎn)角度;3)在程序設(shè)計上由于C++的運行效率遠遠高于python,因此為了程序的高效運行,這一部分程序采用C++來實現(xiàn),然后生成dll動態(tài)鏈接庫文件,用python來擴展調(diào)用該動態(tài)鏈接庫文件。
前面對于圖片的處理都是基于圖片的像素坐標系,與機器人坐標系不一致,因此還需要進行坐標系轉(zhuǎn)化,將像素坐標通過相機標定和坐標轉(zhuǎn)換轉(zhuǎn)變成機器人的坐標系,視覺系統(tǒng)的處理結(jié)果經(jīng)過坐標轉(zhuǎn)換之后才能指導(dǎo)機器人控制系統(tǒng)進行相應(yīng)的操作。
坐標轉(zhuǎn)換是指將獲取的像素坐標轉(zhuǎn)換為機器人坐標。過程中涉及如圖14所示5個坐標系的轉(zhuǎn)換,分別為像素坐標系、圖像坐標系、相機坐標系、世界坐標系及機器人坐標系[13-14]。
圖14 坐標系示意圖
設(shè)像素坐標系中一點P(u,v),對應(yīng)機器人坐標系下的點為P(x,y,z),其變換經(jīng)如圖15所示的流程實現(xiàn)。
圖15 坐標系轉(zhuǎn)換流程圖
其中,M1、M2分別為相機的內(nèi)外參矩陣,由相機標定獲得,方法選用張正友教授的棋盤標定法[15]。將棋盤格第一個內(nèi)角點作為世界坐標系原點,(x0,y0,z0)為世界坐標系與機器人坐標系原點坐標的偏移值,把機器人末端移動到世界坐標原點位置,記錄此時機器人的坐標即為兩者間的偏移量[16]。經(jīng)上述變換,得到機器人坐標與像素坐標的轉(zhuǎn)換關(guān)系如公式(11)所示:
(11)
其中:由于實際中世界坐標系與機器人坐標系的x軸正方向相反,而圖14所示坐標系示意圖為便于公式描述,取世界坐標系的x軸正方向與機器人坐標系方向一致。因此,實際計算時,需將計算出的世界坐標的x值取負。
視覺識別系統(tǒng)在完成識別任務(wù)之后需要通過Socket通信與機器人控制系統(tǒng)建立通信連接,機器人控制系統(tǒng)發(fā)送指令給視覺系統(tǒng)開始采集圖像,之后視覺系統(tǒng)將識別的零件種類、位置坐標和旋轉(zhuǎn)角度發(fā)送給機器人控制系統(tǒng),機器人控制系統(tǒng)根據(jù)接收到的識別結(jié)果切換并控制機械手來抓取對應(yīng)零件同時對零件進行旋轉(zhuǎn)和平移達到指定位置和姿態(tài)。
在分類器模型選擇方面,選擇500個測試樣本,分別用訓(xùn)練好的LeNet網(wǎng)絡(luò)和VGG-Net網(wǎng)絡(luò)進行測試,識別的準確率及測試樣本所用時間如表1所示,結(jié)構(gòu)簡單的LeNet5的識別率與VGG-Net相比明顯偏低,不能滿足要求;VGG-Net模型,識別精度可以滿足要求,且測試500個樣本所用的時間只比LeNet5模型多0.4秒,對整個識別效率的影響不是很大;因此,從識別準確率和識別效率上綜合考慮,選擇VGG-Net作為分類器的模型結(jié)構(gòu)。
表1 LeNet5與VGG-Net對比
在夾取點坐標和姿態(tài)獲取方面,如表2是特征匹配法與歸一化互相關(guān)法在識別精度和識別效率上的性能對比,歸一化互相關(guān)法對每個零件的坐標和姿態(tài)的識別精度都可以滿足系統(tǒng)設(shè)計的容錯范圍0.3 mm,但是識別單個零件用時平均為0.96秒,用時與特征匹配法相比較長,識別效率偏低;特征匹配法識別單個零件的坐標和姿態(tài)用時平均為0.1秒,識別效率較高,但是在識別特征相似度較高的零件1時,識別誤差為1.86 mm超過了系統(tǒng)設(shè)計的容錯范圍0.3 mm。因此,從識別效率和準確度兩方面綜合考慮,零件0、零件2、零件3、零件4、零件5采用特征匹配法獲取零件的坐標和姿態(tài),表2中用灰色標記的零件1采用歸一化互相關(guān)法獲取零件的坐標和姿態(tài)。
表2 特征匹配與歸一化互相關(guān)性能對比
如表3所示是采用最優(yōu)方案后的零件類別、旋轉(zhuǎn)角度、夾取點x,y坐標數(shù)據(jù)的標準值與實際值,其中零件類別的標準值是通過對照圖2來獲取,旋轉(zhuǎn)角度和夾取點坐標的標準值是通過手動操作工業(yè)機器人將零件放置在待識別區(qū)域,記錄下此時控制系統(tǒng)中夾爪的坐標和旋轉(zhuǎn)角度,重復(fù)上述步驟得到多個零件的坐標和角度的標準值后將機器人復(fù)位,移出相機視野,此時啟動視覺識別系統(tǒng)進行類別、角度以及坐標的測試值的獲取,通過測試值和標準值可得到偏差值。根據(jù)表中的結(jié)果可以得出本次待識別的6個零件中,類別的識別準確率為100%,旋轉(zhuǎn)角度偏差的最大值為0.62°,夾取點坐標x的偏差最大值為-0.23 mm,y的偏差最大值為-0.26 mm,偏差結(jié)果滿足需求分析中標準托盤旋轉(zhuǎn)角度的容錯偏差范圍±0.8°以及坐標的容錯偏差范圍±0.3 mm。
圖16 零件夾取 圖17 零件放置
表3 零件識別信息表
通過視覺識別系統(tǒng)與工業(yè)機器人通信將上述表1中的測試數(shù)據(jù)發(fā)送給工業(yè)機器人控制器,如圖16所示工業(yè)機器人根據(jù)接收到的夾取點坐標和姿態(tài)夾取底座上的零件,經(jīng)過旋轉(zhuǎn)和平移后如圖17所示放置到標準的零件托盤中供后續(xù)裝配使用。
本文設(shè)計并實現(xiàn)的基于機器視覺的小型斷路器柔性裝配方案不僅解決了人工裝配效率低和一致性差的問題,同時也解決了基于振動盤自動裝配噪音大和靈活差的問題。從而實現(xiàn)了一條生產(chǎn)線就能高效率、高質(zhì)量、高靈活性地完成多種型號的小型斷路器的生產(chǎn)任務(wù),滿足了市場對產(chǎn)品小批量、個性化的需求。另外,由于該方案采用的是模塊化設(shè)計,因此只需進行部分模塊的修改就可以將該系統(tǒng)應(yīng)用到其它的柔性裝配領(lǐng)域, 降低了企業(yè)的設(shè)備投入,也降低了后期設(shè)備升級的難度。