摘 要:為了解決傳統(tǒng)自動(dòng)細(xì)紗落紗機(jī)在拔管和插管操作中存在的漏拔、漏插問(wèn)題,將機(jī)器視覺(jué)技術(shù)引入自動(dòng)細(xì)紗落紗機(jī)中,提出了一種兩次識(shí)別分割的方法,以準(zhǔn)確識(shí)別管紗和紗錠,降低漏拔和漏插發(fā)生的概率。針對(duì)復(fù)雜環(huán)境對(duì)原始圖像造成的嚴(yán)重干擾,首先在圖像預(yù)處理時(shí)調(diào)整目標(biāo)與背景之間的對(duì)比度,突出紗錠和管紗的圖像特征;然后在目標(biāo)識(shí)別過(guò)程中進(jìn)行初始識(shí)別和二次識(shí)別。為進(jìn)一步提高識(shí)別的準(zhǔn)確率,分別在圖像預(yù)處理和目標(biāo)識(shí)別階段進(jìn)行改進(jìn),在預(yù)處理中通過(guò)圖像乘法融合的方式進(jìn)一步增強(qiáng)對(duì)比度,在目標(biāo)篩選決策中引入目標(biāo)數(shù)量特征以提高識(shí)別準(zhǔn)確率。結(jié)果表明,該方法對(duì)不同場(chǎng)景下的紗錠和管紗的識(shí)別準(zhǔn)確率超過(guò)98.40%,實(shí)現(xiàn)了在復(fù)雜背景下紗錠和管紗的精確識(shí)別。
關(guān)鍵詞:機(jī)器視覺(jué);落紗機(jī);紗錠識(shí)別;管紗識(shí)別
中圖分類號(hào):TP391
文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1009-265X(2024)07-0022-11
在紡織織造中,細(xì)紗落紗機(jī)的落紗操作至關(guān)重要,直接影響到紗線質(zhì)量、產(chǎn)量以及整個(gè)工廠的運(yùn)營(yíng)[1-2]。細(xì)紗落紗機(jī)的落紗操作主要涉及滿管紗的拔管操作和空紗錠的插管操作。傳統(tǒng)的自動(dòng)落紗機(jī)雖然能夠自動(dòng)執(zhí)行這些操作,但由于操作精度不足等問(wèn)題,在拔管和插管操作中,漏拔和漏插的問(wèn)題時(shí)有發(fā)生。為了解決上述問(wèn)題,吳叢俊等[3]采用集體落紗裝置對(duì)細(xì)紗機(jī)進(jìn)行改造,以提高落紗效率。高紅河[4]提出了一種環(huán)錠紡細(xì)紗機(jī)集體落紗的自動(dòng)化升級(jí)改造方案。陳祖英等[5]研究了新一代高端智能毛紡集聚紡自動(dòng)落紗細(xì)紗機(jī),機(jī)電一體化水平大幅提升,并提高了毛紡紗線和織物的質(zhì)量。林如忠等[6]研究的FX510型智能集落亞麻細(xì)紗機(jī)具有良好的性能,但是制造成本高、單錠檢測(cè)故障率高,對(duì)紗管要求更高。
機(jī)器視覺(jué)在紡織織造領(lǐng)域已廣泛應(yīng)用于各種檢測(cè)。李樂(lè)樂(lè)等[7]提出一種管紗抓取系統(tǒng),該系統(tǒng)通過(guò)Yolov4-Tiny模型進(jìn)行管紗識(shí)別,通過(guò)RANSAC算法進(jìn)行點(diǎn)云配準(zhǔn),成功抓取率約為64%。李靖宇等[8]提出了一種基于參數(shù)可調(diào)的均值遷移濾波算法,可以滿足對(duì)筒子紗的精確識(shí)別檢測(cè)。張文昌等[9]提出一種離線檢測(cè)與在線檢測(cè)相結(jié)合的視覺(jué)定位方法,通過(guò)紗桿的位置信息引導(dǎo)機(jī)器人完成相應(yīng)的取放作業(yè)。王文勝等[10]提出了一種改進(jìn)的頻率調(diào)諧顯著性檢測(cè)算法,對(duì)筒子紗紗籠和紗桿進(jìn)行定位檢測(cè)。
在細(xì)紗車間的復(fù)雜環(huán)境中,傳統(tǒng)的圖像處理技術(shù)在管紗和紗錠的準(zhǔn)確識(shí)別方面面臨多重挑戰(zhàn),包括目標(biāo)背景的復(fù)雜性、光線亮度的變化、無(wú)關(guān)物體的遮擋以及拍攝角度等。此外,在紗錠和管紗的目標(biāo)識(shí)別過(guò)程中還需要根據(jù)經(jīng)驗(yàn)來(lái)設(shè)置參數(shù),進(jìn)一步增加了目標(biāo)的識(shí)別難度。因此,在復(fù)雜的車間環(huán)境中準(zhǔn)確識(shí)別管紗和紗錠成為基于機(jī)器視覺(jué)技術(shù)的自動(dòng)落紗機(jī)設(shè)計(jì)的關(guān)鍵。本文將機(jī)器視覺(jué)引入獨(dú)立式自動(dòng)細(xì)紗落紗機(jī)中,通過(guò)準(zhǔn)確識(shí)別管紗和紗錠,降低拔管和插管過(guò)程中漏拔和漏插情況發(fā)生的概率。本文在圖像預(yù)處理階段調(diào)整目標(biāo)與背景之間的對(duì)比度,在目標(biāo)識(shí)別階段進(jìn)行初始識(shí)別和二次識(shí)別,實(shí)現(xiàn)對(duì)不同場(chǎng)景下紗錠和管紗的準(zhǔn)確識(shí)別,并計(jì)算輸出其頂點(diǎn)、中心點(diǎn)的像素坐標(biāo),從而提高目標(biāo)識(shí)別的準(zhǔn)確度,為后續(xù)機(jī)械臂的操作提供基礎(chǔ)。
1 紗錠、管紗的分割與識(shí)別
傳統(tǒng)自動(dòng)落紗機(jī)漏拔、漏插現(xiàn)象的檢測(cè)依賴于對(duì)紗錠、管紗狀態(tài)及數(shù)量的識(shí)別判斷。在拔管后檢測(cè)落紗機(jī)上紗錠、管紗的狀態(tài)及數(shù)量,如出現(xiàn)管紗即有漏拔現(xiàn)象發(fā)生,如出現(xiàn)紗錠則有漏插現(xiàn)象發(fā)生。細(xì)紗落紗機(jī)裝載視覺(jué)傳感器獲取紗錠、管紗的原始圖像如圖1和圖2所示。圖1(a)為原始圖像中紗錠的排列情況,從圖中可以看出,細(xì)紗落紗機(jī)的結(jié)構(gòu)復(fù)雜,細(xì)紗落紗機(jī)的支撐桿和無(wú)關(guān)紗錠與目標(biāo)紗錠混合,給紗錠的分割識(shí)別帶來(lái)了挑戰(zhàn)。圖1(b)為單獨(dú)的紗錠圖像,其主體呈細(xì)長(zhǎng)柱體,垂直方向線性度較高,除中間小部分磨損部位亮度較低外,主體呈亮白狀態(tài),其體積特征與背景存在明顯差異。因此,可以依據(jù)紗錠的高度、豎直方向線性度、灰度及面積特征來(lái)分割目標(biāo)主體,實(shí)現(xiàn)紗錠的識(shí)別與定位。圖2(a)為原始圖像中管紗的排列情況,雖然背景中存在無(wú)關(guān)管紗,但管紗的面積特征明顯,因此,管紗的識(shí)別難度偏低。圖2(b)為單獨(dú)的管紗圖像,管紗套于紗錠之上,主體豎直且較粗,在滿紗后主體呈白色,顏色分布均勻且無(wú)斷層現(xiàn)象,特征突出。因此,可以依據(jù)管紗豎直方向的高度、線性度、顏色及面積特征分割目標(biāo)主體,實(shí)現(xiàn)管紗的識(shí)別與定位。
識(shí)別紗錠、管紗的處理流程包括圖像預(yù)處理和目標(biāo)識(shí)別兩個(gè)階段,整體識(shí)別處理流程如圖3所示。在圖像預(yù)處理階段,首先進(jìn)行圖像裁切去除原始圖像與目標(biāo)識(shí)別無(wú)關(guān)的區(qū)域,再通過(guò)增強(qiáng)處理提高圖像清晰度,突出目標(biāo)的邊緣輪廓;然后經(jīng)灰度化、中值濾波和灰度線性變換,進(jìn)一步強(qiáng)化目標(biāo)與背景之間的差異,為后續(xù)目標(biāo)的分割識(shí)別提供條件。在目標(biāo)識(shí)別階段,首先二值化預(yù)處理圖像,然后進(jìn)行初次分割識(shí)別。根據(jù)目標(biāo)的相關(guān)特征范圍,從初次分割的圖像區(qū)域中篩選目標(biāo)區(qū)域,剔除無(wú)關(guān)區(qū)域,其次依次執(zhí)行腐蝕和填充操作以進(jìn)一步精確分割目標(biāo)區(qū)域的形狀。由于腐蝕操作會(huì)向圖像引入新的干擾區(qū)域,通過(guò)二次執(zhí)行分割、篩選、膨脹和填充操作,克服干擾,精確分割目標(biāo)區(qū)域。最后計(jì)算和分析目標(biāo)區(qū)域的特征,實(shí)現(xiàn)紗錠和管紗的識(shí)別與定位。
1.1 圖像預(yù)處理
1.1.1 圖像裁切與增強(qiáng)處理
為避免原始圖像中無(wú)關(guān)區(qū)域的干擾,同時(shí)降低
后續(xù)處理的數(shù)據(jù)量以提高處理的實(shí)時(shí)性,首先對(duì)原始圖像進(jìn)行裁切處理,即保持原始圖像行序不變,截取像素列序460~1630范圍內(nèi)的圖像。裁切后的圖像如圖4(a)和圖5(a)所示,與原始圖像相比,裁切后的圖像僅包含與主體目標(biāo)相關(guān)的圖像區(qū)域。受光線影響,裁切后的圖像中紗錠輪廓邊緣模糊,管紗主體區(qū)域內(nèi)存在較多暗紋。采用emphasize函數(shù)進(jìn)行增強(qiáng)處理[11-12],提高圖像清晰度。在增強(qiáng)處理中,取計(jì)算內(nèi)核大小為(10,10),對(duì)比度增強(qiáng)系數(shù)為6。通過(guò)圖像增強(qiáng)處理,突出了紗錠和管紗的輪廓邊緣,增加了紗錠和管紗與背景間的對(duì)比度,降低目標(biāo)區(qū)域內(nèi)的暗紋。對(duì)紗錠和管紗進(jìn)行增強(qiáng)處理后的圖像分別如圖4(b)和圖5(b)所示。
1.1.2 灰度化、中值濾波和灰度線性變換
基于加權(quán)平均原理對(duì)增強(qiáng)處理后的圖像進(jìn)行灰度化處理。因圖像光線變化、拍攝角度、反光亮點(diǎn)及灰塵影響,灰度圖中仍存在較多噪聲。為降低噪聲干擾,保持圖像整體的均一性,同時(shí)保證目標(biāo)邊緣不受影響,避免主體模糊化,采用中值濾波[13]對(duì)灰度化后的圖像進(jìn)行降噪處理?;叶然椭兄禐V波處理后的圖像主體目標(biāo)與背景的對(duì)比度進(jìn)一步增強(qiáng),效果分別如圖4(c)和圖5(c)所示。
為進(jìn)一步凸顯管紗與紗錠的輪廓邊緣,增大其與圖像背景的對(duì)比度,執(zhí)行灰度線性變換[14-15]以縮放中值濾波后圖像灰度值。對(duì)紗錠和管紗執(zhí)行灰度線性變換后的結(jié)果分別如圖4(d)和圖5(d)所示,由圖可知,圖像中低灰度值區(qū)域趨向于更暗,高灰度值區(qū)域趨向于更亮,目標(biāo)主體與圖像背景間的灰度差值進(jìn)一步增大,保證后續(xù)目標(biāo)分割的準(zhǔn)確性及完整性。
1.2 紗錠及管紗識(shí)別
在圖像預(yù)處理階段,通過(guò)圖像裁切、增強(qiáng)、灰度化、中值濾波及灰度線性變換等處理,使目標(biāo)主體區(qū)域與背景間的對(duì)比度進(jìn)一步增大,濾除目標(biāo)區(qū)域內(nèi)的斑點(diǎn)及細(xì)紋,減少對(duì)后續(xù)識(shí)別操作的干擾,突出紗錠、管紗的輪廓邊緣與背景間的灰度差值,保證分割的完整性,同時(shí)避免產(chǎn)生對(duì)無(wú)關(guān)區(qū)域的誤分割[16]。在目標(biāo)識(shí)別階段,首先對(duì)預(yù)處理圖像進(jìn)行二值化處理,然后執(zhí)行初次分割與識(shí)別。由于分割后目標(biāo)區(qū)域仍然存在分割不完整或分割黏連無(wú)關(guān)區(qū)域的現(xiàn)象,經(jīng)二次分割與識(shí)別可以獲得更準(zhǔn)確的目標(biāo)區(qū)域,提高紗錠、管紗的識(shí)別準(zhǔn)確率。
1.2.1 二值化處理
經(jīng)預(yù)處理后的圖像背景大部分呈灰暗狀態(tài),灰度值較低,小部分呈高亮斑點(diǎn),但并不與紗錠或管紗主體相連通,同時(shí),紗錠和管紗主體呈白亮狀態(tài),灰度值較高,因此,采用二值化[17]分割圖像中的高亮灰度區(qū)域。為確保對(duì)紗錠和管紗主體完全分割的同時(shí)保留適當(dāng)冗余,設(shè)定灰度閾值區(qū)間為[220,255]。獲取的目標(biāo)區(qū)域如圖6所示。經(jīng)二值化的圖像中,除紗錠、管紗主體區(qū)域外,還存較多的無(wú)關(guān)區(qū)域。相較于目標(biāo)區(qū)域,無(wú)關(guān)區(qū)域呈現(xiàn)出零散、形狀無(wú)規(guī)則、面積較小的特征,與目標(biāo)區(qū)域差異較大。因此,可以根據(jù)面積和高度特征剔除圖像中的無(wú)關(guān)區(qū)域。
1.2.2 初始分割與識(shí)別
初始分割與識(shí)別旨在濾除二值化的圖像中無(wú)關(guān)區(qū)域,并優(yōu)化目標(biāo)區(qū)域的輪廓邊緣,填充目標(biāo)區(qū)域內(nèi)的空洞和縫隙。具體操作如下:
a)圖像分割與目標(biāo)篩選。采用圖像鄰域分析法[18-19]將二值化的圖像中不相連的區(qū)域分割成獨(dú)立區(qū)域。紗錠和管紗的分割效果分別如圖7(a)和圖8(a)所示。計(jì)算分割后的紗錠和管紗的高度和面積特征,并分別統(tǒng)計(jì)分析20個(gè)紗錠、管紗的特征。結(jié)果顯示,紗錠的高度最小值為1141個(gè)像素單位值,面積最小值為62894個(gè)像素單位值,管紗的高度最小值為1080個(gè)像素單位值,面積最小值為187097個(gè)像素單位值??紤]適當(dāng)冗余,設(shè)定目標(biāo)的高度和面積特征下限分別為980和60000個(gè)像素單位值。根據(jù)以上特征閾值篩選目標(biāo),獲得的紗錠和管紗目標(biāo)區(qū)域圖像分別如圖7(b)和圖8(b)所示。通過(guò)篩選,保留了所有目標(biāo),濾除了無(wú)關(guān)區(qū)域噪聲。
b)腐蝕和填充操作。觀察圖7(b)和8(b)可知,由于紗錠頂端卡珠的影響,篩選獲取的目標(biāo)區(qū)域頂端存在凸點(diǎn),輪廓邊緣存在毛刺;管紗區(qū)域邊緣存在凸點(diǎn)、毛刺,并黏連無(wú)關(guān)細(xì)小區(qū)域??赏ㄟ^(guò)執(zhí)行腐蝕操作[20]去除凸點(diǎn)和毛刺,斷開(kāi)黏連的細(xì)小無(wú)關(guān)區(qū)域。由于紗錠高亮區(qū)域狹長(zhǎng),不恰當(dāng)?shù)馗g操作內(nèi)核值,會(huì)導(dǎo)致區(qū)域斷裂甚至消失。為避免過(guò)度腐蝕,設(shè)定腐蝕操作內(nèi)核值上限為6;通過(guò)循環(huán)尋找的策略,循環(huán)判斷腐蝕內(nèi)核數(shù)值由1-6的過(guò)程中,如腐蝕后出現(xiàn)高度特征數(shù)值小于900個(gè)像素單位的目標(biāo)區(qū)域,則前序數(shù)值為最佳腐蝕內(nèi)核值,如無(wú),則6為最佳腐蝕內(nèi)核值。紗錠和管紗目標(biāo)區(qū)域的腐蝕處理效果分別如圖7(c)和圖8(c)所示。
盡管腐蝕操作可有效消除凸點(diǎn)、毛刺、斷開(kāi)黏連的細(xì)小無(wú)關(guān)區(qū)域,但同時(shí)也使管紗區(qū)域出現(xiàn)空洞,紗錠區(qū)域內(nèi)的空洞也進(jìn)一步增大,經(jīng)腐蝕斷開(kāi)的黏連區(qū)域成為新的無(wú)關(guān)區(qū)域。為消除目標(biāo)區(qū)域內(nèi)空洞和縫隙干擾,采用填充操作將目標(biāo)區(qū)域的空隙、島嶼填充為一體,形成新的輪廓區(qū)域。執(zhí)行填充操作后的紗錠和管紗目標(biāo)區(qū)域效果分別如圖7(d)和圖8(d)所示,填充后的目標(biāo)區(qū)域空洞和縫隙明顯減少,存在空洞的目標(biāo)區(qū)域大多形成了新的連通輪廓區(qū)域。
1.2.3 二次分割與識(shí)別
二次分割與識(shí)別旨在濾除初始分割與識(shí)別中產(chǎn)生的新的細(xì)小無(wú)關(guān)區(qū)域,平滑輪廓邊緣,并使目標(biāo)區(qū)域大小恢復(fù)至紗錠、管紗實(shí)際大小狀態(tài)。具體操作如下:
a)二次分割與篩選處理。分析圖7(c)和圖8(c)可知,經(jīng)腐蝕操作的圖像會(huì)產(chǎn)生新的細(xì)小無(wú)關(guān)區(qū)域,導(dǎo)致目標(biāo)區(qū)域的特征計(jì)算錯(cuò)誤。因此,需再次分割不相連的無(wú)關(guān)細(xì)小區(qū)域,重新計(jì)算分割后的各個(gè)區(qū)域的高度、面積等特征信息,并通過(guò)新的目標(biāo)區(qū)域與無(wú)關(guān)區(qū)域特征的差異濾除細(xì)小無(wú)關(guān)區(qū)域。采用與1.2.2小節(jié)相同的二次分割處理流程及閾值參數(shù)。對(duì)紗錠和管紗進(jìn)行二次分割與篩選,處理效果分別如圖9(a)和圖10(a)所示。
b)膨脹與二次填充操作。分析圖7(d)和圖8(d)可知,在新獲取的目標(biāo)區(qū)域中,因受紗錠頂端卡珠的影響,導(dǎo)致紗錠分割輪廓邊緣產(chǎn)生凹坑,個(gè)別紗錠區(qū)域中仍有縫隙未被填充;管紗區(qū)域下端因受光線影響,獲取的目標(biāo)區(qū)域比實(shí)際目標(biāo)更窄,同時(shí)輪廓邊緣呈鋸齒狀。采用膨脹操作處理以上情況,使紗錠區(qū)域中部縫隙相連,管紗區(qū)域輪廓過(guò)渡平緩。執(zhí)行膨脹操作后的紗錠和管紗目標(biāo)區(qū)域效果分別如圖9(b)和圖10(b)所示。當(dāng)目標(biāo)紗錠和管紗大小與實(shí)際紗錠和管紗大小相同時(shí),停止膨脹操作,此時(shí)在少數(shù)情況下,紗錠區(qū)域仍存在空洞。通過(guò)二次填充操作消除空洞,減少縫隙,實(shí)現(xiàn)對(duì)紗錠、管紗目標(biāo)區(qū)域的完全分割。紗錠和管紗經(jīng)二次填充處理后的效果分別如圖9(c)和圖10(c)所示。
1.2.4 目標(biāo)識(shí)別
圖9(d)和圖10(d)分別展示了紗錠和管紗的目標(biāo)區(qū)域分割識(shí)別效果。除個(gè)別特殊部位受光照及干擾因素影響未能完全分割外,通過(guò)二值化、腐蝕膨脹、填充、特征信息篩選等操作實(shí)現(xiàn)了對(duì)紗錠、管紗目標(biāo)區(qū)域的精確識(shí)別分割。通過(guò)遍歷計(jì)算每個(gè)目標(biāo)區(qū)域的面積、中心點(diǎn)、高度、寬度、最小外接矩形等特征值,得到紗錠、管紗在圖像內(nèi)中心點(diǎn)、頂點(diǎn)的像素坐標(biāo)值,完成了目標(biāo)檢測(cè)與定位。同時(shí),管紗纏滿細(xì)紗時(shí),其面積、最大寬度及最小外接矩形等特征信息與紗錠存在明顯差異。經(jīng)計(jì)算與統(tǒng)計(jì)分析可得,紗錠面積最大值為71869個(gè)像素單位,管紗面積最小值為187097個(gè)像素單位;紗錠寬度最大值為139個(gè)像素單位,管紗寬度最小值為248個(gè)像素單位。由面積、寬度兩個(gè)特征信息的限定閾值,可實(shí)現(xiàn)紗錠、管紗類型的區(qū)分。紗錠、管紗識(shí)別結(jié)果如圖11所示。
1.3 方法改進(jìn)
由于細(xì)紗落紗機(jī)結(jié)構(gòu)的特殊性,獲取原始圖像背景復(fù)雜,對(duì)紗錠和管紗的識(shí)別存在嚴(yán)重干擾。盡管已經(jīng)通過(guò)圖像預(yù)處理進(jìn)行降噪處理,但是在某些情況下,仍然無(wú)法獲得預(yù)期效果。例如,在圖12(a)中,個(gè)別紗錠與支撐桿位置交疊,且特征極為相似,易將兩者判定為一體,造成分割紗錠區(qū)域面積增大,將交疊了支撐桿的紗錠誤判為管紗;在圖12(b)中,細(xì)紗落紗機(jī)的支撐桿與紗錠外觀、色澤及高度等特征相似,導(dǎo)致將支撐桿誤判為紗錠。在圖14(a)中,部分細(xì)紗落紗機(jī)背板與管紗顏色相近,二值化分割時(shí)背板與管紗易連為一體,造成分割區(qū)域形狀畸形,致使目標(biāo)區(qū)域面積增大;另外反光因素也會(huì)導(dǎo)致管紗面積增大,形狀不規(guī)則,致使管紗區(qū)域的中心點(diǎn)、頂點(diǎn)坐標(biāo)位置計(jì)算錯(cuò)誤。上述干擾因素會(huì)嚴(yán)重影響紗錠和管紗的識(shí)別準(zhǔn)確率,必須在現(xiàn)有方法基礎(chǔ)上進(jìn)行優(yōu)化改進(jìn)。為便于區(qū)分,稱現(xiàn)有方法為基本方法,優(yōu)化解決干擾因素后的方法稱為改進(jìn)方法。
分析圖12、圖14中的典型干擾示例。圖12(a)中紗錠與支撐桿位置存在細(xì)微交疊,且支撐桿位置相對(duì)紗錠位置靠后,整體色澤比紗錠更灰暗,同時(shí)高度特征小于紗錠約120個(gè)像素;圖12(b)中紗錠與支撐桿輪廓分明,但兩者在整體色澤和高度特征上的差別與圖12(a)中一致。因此,可從預(yù)處理階段、目標(biāo)識(shí)別階段兩方面進(jìn)行改進(jìn)優(yōu)化。分析圖13(a)可知,紗錠及支撐桿邊緣比中部區(qū)域更灰暗,因此在預(yù)處理階段,采用圖像乘法融合的方式,將濾波輸出圖像與灰度線性變換輸出圖像相乘,得到高對(duì)比度圖像。如圖13(b)所示,此時(shí)目標(biāo)主體區(qū)域呈高亮狀態(tài),且輪廓邊緣鮮明,易于分割。在目標(biāo)識(shí)別過(guò)程中,基于支撐桿的高度特征信息,當(dāng)出現(xiàn)識(shí)別的紗錠或管紗數(shù)目異常增多
時(shí),遍歷尋找目標(biāo)區(qū)域內(nèi)水平方向距離最近的兩個(gè)輪廓體,剔除兩者中高度較小的輪廓體,直至剩余的識(shí)別數(shù)目與設(shè)定識(shí)別數(shù)目一致為止。改進(jìn)后的紗錠識(shí)別如圖13(c)所示。對(duì)于圖14(a)中干擾因素導(dǎo)致的分割錯(cuò)誤,同樣可采用增大圖像對(duì)比度、放大輪廓邊緣差異、提高二值化閾值來(lái)解決。在預(yù)處理階段,將濾波輸出圖像與灰度線性變換輸出圖像相乘,得到高對(duì)比度圖像。如圖14(b)所示,管紗主體呈高亮狀態(tài),輪廓邊緣鮮明,背景干擾被消除。改進(jìn)后設(shè)備背板干擾下的管紗識(shí)別如圖14(c)所示。
2 驗(yàn)證與分析
為了驗(yàn)證基本方法和改進(jìn)方法的有效性,測(cè)試目標(biāo)識(shí)別的準(zhǔn)確率,從細(xì)紗車間現(xiàn)場(chǎng)采集了1000張?jiān)紙D像,進(jìn)行了4組驗(yàn)證實(shí)驗(yàn)。第1組實(shí)驗(yàn)中原始圖像包含的目標(biāo)全部為紗錠或者全部為管紗,其中全部為紗錠和全部為管紗的原始圖像各500張,測(cè)試對(duì)單純管紗和單純紗錠的識(shí)別準(zhǔn)確率。第2組實(shí)驗(yàn)中原始圖像中管紗和紗錠混合出現(xiàn),共測(cè)試圖像500張,測(cè)試在管紗和紗錠的混合場(chǎng)景中的目標(biāo)識(shí)別準(zhǔn)確率。第3組實(shí)驗(yàn)中原始圖像包含整排紗錠,測(cè)試圖像500張,測(cè)試對(duì)整排紗錠的識(shí)別能力及準(zhǔn)確率。第4組實(shí)驗(yàn)中原始圖像包含整排管紗,測(cè)
試圖像500張,測(cè)試對(duì)整排管紗的識(shí)別能力及準(zhǔn)確率。
利用1.2節(jié)的基本方法分別進(jìn)行4組實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表1所示。從表1中可知,單獨(dú)管紗和紗錠的識(shí)別準(zhǔn)確率分別為98.00%和97.40%,紗錠、管紗混合情況下識(shí)別準(zhǔn)確率為97.20%,整排紗錠和管紗的識(shí)別準(zhǔn)確率分別為97.60%和97.80%。紗錠、管紗混合測(cè)試實(shí)驗(yàn)組識(shí)別準(zhǔn)確率為97.20%,在所有實(shí)驗(yàn)組中的識(shí)別準(zhǔn)確率最低;單獨(dú)管紗測(cè)試實(shí)驗(yàn)組準(zhǔn)確率為98.00%,在所有實(shí)驗(yàn)組中的識(shí)別準(zhǔn)確率最高。
基于表1的實(shí)驗(yàn)結(jié)果和原因分析,結(jié)合1.3節(jié)的優(yōu)化改進(jìn)措施得到改進(jìn)方法,重新進(jìn)行實(shí)驗(yàn),結(jié)果如表2所示。單獨(dú)管紗和紗錠的識(shí)別準(zhǔn)確率分別提高到99.20%和98.80%,紗錠、管紗混合情況下識(shí)別準(zhǔn)確率提高到98.40%,整排紗錠和管紗的識(shí)別準(zhǔn)確率分別提高到98.40%和98.60%。所有實(shí)驗(yàn)組的目標(biāo)識(shí)別準(zhǔn)確度均有提高,驗(yàn)證了改進(jìn)方法的有效性。
表1和表2表明,基本方法對(duì)紗錠、管紗的識(shí)別準(zhǔn)確率均可達(dá)97.00%以上。針對(duì)原始圖像中存在細(xì)紗落紗機(jī)設(shè)備支撐桿與紗錠高度相似、紗錠和管紗輪廓邊緣與背景像素對(duì)比度小、設(shè)備背板與管紗顏色差異較小等干擾因素,從預(yù)處理和目標(biāo)識(shí)別兩方面對(duì)基本方法進(jìn)行改進(jìn)優(yōu)化。在預(yù)處理階段,采用圖像乘法融合的方式,進(jìn)一步增強(qiáng)圖像的高頻區(qū)域(邊緣和拐角),放大輪廓邊緣與周圍像素的差異;將濾波輸出圖像與灰度線性變換輸出圖像相乘,得到高對(duì)比度圖像,突出目標(biāo)主體輪廓邊緣與周圍像素間的差異。在目標(biāo)識(shí)別階段,一是通過(guò)增加腐蝕操作環(huán)節(jié)腐蝕保護(hù)操作,尋找設(shè)定上限內(nèi)的最佳腐蝕內(nèi)核值,減少過(guò)度腐蝕造成識(shí)別誤差;二是目標(biāo)篩選環(huán)節(jié),對(duì)識(shí)別目標(biāo)數(shù)目異常增多現(xiàn)象,依據(jù)水平距離特征及高度特征遍歷剔除無(wú)關(guān)目標(biāo)區(qū)域。上述三項(xiàng)優(yōu)化,解決了對(duì)支撐桿的誤判,有效提升了對(duì)紗錠、管紗區(qū)域分割的準(zhǔn)確性,識(shí)別準(zhǔn)確率可提升至98.40%以上。結(jié)合一些解決不利環(huán)境因素的方法,例如,對(duì)支撐桿噴涂深色油漆、提供均勻光照等,可進(jìn)一步提升識(shí)別準(zhǔn)確率。
3 結(jié)論
對(duì)于現(xiàn)有細(xì)紗落紗機(jī)在拔管和插管操作中出現(xiàn)的漏拔和漏插現(xiàn)象,本文將機(jī)器視覺(jué)引入自動(dòng)細(xì)紗落紗機(jī)中,提高識(shí)別管紗和紗錠準(zhǔn)確率,降低落紗操作中漏拔和漏插情況發(fā)生的概率。首先,針對(duì)細(xì)紗車間復(fù)雜的環(huán)境干擾原始圖像的問(wèn)題,設(shè)計(jì)了一種二次識(shí)別的方法,在圖像預(yù)處理階段增強(qiáng)目標(biāo)與背景之間的對(duì)比度,突出紗錠和管紗的特征,同時(shí)在目標(biāo)識(shí)別中設(shè)計(jì)了初始識(shí)別和二次識(shí)別,以更準(zhǔn)確地獲取目標(biāo)區(qū)域。其次,為進(jìn)一步提高紗錠和管紗識(shí)別準(zhǔn)確率,分別從預(yù)處理階段、目標(biāo)識(shí)別階段對(duì)基本方法進(jìn)行改進(jìn)。經(jīng)驗(yàn)證測(cè)試,本文的方法對(duì)不同場(chǎng)景下紗錠和管紗的識(shí)別準(zhǔn)確率超過(guò)98.40%,實(shí)現(xiàn)了在復(fù)雜背景下對(duì)紗錠和管紗的精確識(shí)別,但仍未充分解決光線變化、目標(biāo)位置交疊帶來(lái)的干擾因素。在未來(lái)的工作中,可引入機(jī)器學(xué)習(xí)方法,解決強(qiáng)光、反光等特殊場(chǎng)景時(shí)個(gè)別參數(shù)設(shè)置無(wú)法適應(yīng)的情況,進(jìn)一步提高紗錠和管紗的識(shí)別準(zhǔn)確率。
參考文獻(xiàn):
[1]鄭小虎,劉正好,陳峰,等.紡織工業(yè)智能發(fā)展現(xiàn)狀與展望[J].紡織學(xué)報(bào),2023,44(8): 205-216.
ZHENG Xiaohu, LIU Zhenghao, CHEN Feng, et al. Current status and prospect of intelligent development in textile industry [J]. Journal of Textile Research,2023,44(8): 205-216.
[2]廉繼紅, 王炳炎, 王延年, 等. 改進(jìn)自抗擾下的細(xì)紗機(jī)卷繞系統(tǒng)控制策略[J]. 西安工程大學(xué)學(xué)報(bào), 2023, 37(4): 40-47.
LIAN Jihong, WANG Bingyan, WANG Yannian, et al. Control strategy of winding system of spinning frame based on improved active disturbance rejection[J]. Journal of Xi'an Polytechnic University, 2023, 37(4): 40-47.
[3]吳叢俊,卞克玉.FA506型細(xì)紗機(jī)集體落紗改造關(guān)鍵技術(shù)分析[J].棉紡織技術(shù),2021,49(9): 64-67.
WU Congjun, BIAN Keyu. Analysis of FA506 spinning frame collective doffing modification key technology[J]. Cotton Textile Technology, 2021,49(9): 64-67.
[4]高紅河.環(huán)錠紡細(xì)紗機(jī)集體落紗的自動(dòng)化升級(jí)改造實(shí)踐[J].現(xiàn)代紡織技術(shù),2019,27(2):88-92.
GAO Honghe. Practice of automation upgrading and transformation of ring spinning frame with collective doffing [J]. Advanced Textile Technology, 2019,27 (2): 88-92.
[5]陳祖英,吳奕宏,高勇,等.高端智能毛紡集聚紡自動(dòng)落紗細(xì)紗機(jī)的開(kāi)發(fā)與研究[J].紡織機(jī)械,2023,(1): 62-66.
CHEN Zuying, WU Yihong, GAO Yong, et al. Development and research of high-end intelligent woolen agglomeration spinning automatic doffing frame [J]. Textile Machinery, 2023, (1): 62-66.
[6]林如忠,楊飛.FX510型智能集落亞麻細(xì)紗機(jī)的技術(shù)特點(diǎn)[J].中原工學(xué)院學(xué)報(bào),2022,33(5): 48-51.
LIN Ruzhong, YANG Fei. Research on the technical features of FX510 intelligent collective doffing flax spinning frame [J]. Journal of Zhongyuan University of Technology, 2022,33 (5): 48-51.
[7]李樂(lè)樂(lè),張團(tuán)善,馬浩然,等.基于Yolov4-Tiny與RANSAC算法的管紗識(shí)別抓取系統(tǒng)[J].輕工機(jī)械,2021,39(4): 68-73.
LI Lele, ZHANG Tuanshan, MA Haoran, et al. Yarn recognition and grasping system based on Yolov4-Tiny and Ransac algorithm[J]. Light Industry Machinery, 2021,39 (4): 68-73.
[8]李靖宇,沈丹峰,王玉,等.基于參數(shù)可調(diào)均值遷移濾波實(shí)現(xiàn)筒子紗的識(shí)別檢測(cè)[J].輕工機(jī)械,2021,39(3): 63-68.
LI Jingyu, SHEN Danfeng, WANG Yu, et al. Recognition and detection of cheese based on edge preserving filtering algorithm [J]. Light Industry Machinery, 2021,39 (3): 63-68.
[9]張文昌,單忠德,盧影.基于機(jī)器視覺(jué)的紗籠紗桿快速定位方法[J].紡織學(xué)報(bào),2020,41(12): 137-143.
ZHANG Wenchang, SHAN Zhongde, LU Ying. Fast location of yarn-bars on yarn-cage based on machine vision [J]. Journal of Textile Research, 2020,41 (12): 137-143.
[10]王文勝,李天劍,冉宇辰,等.筒子紗紗籠紗桿的定位檢測(cè)方法[J].紡織學(xué)報(bào),2020,41(3): 160-167.
WANG Wensheng, LI Tianjian, RAN Yuchen, et al. Method for position detection of cheese yarn rod [J]. Journal of Textile Research, 2020,41 (3): 160-167.
[11]LF, LI Y, LU F. Attention guided low-light image enhancement with a large scale low-light simulation dataset[J].International Journal of Computer Vision,2021,129(7): 2175-2193.
[12]LI C Y, GUO C L, LOY C C. Learning to enhance low-light image via zero-reference deep curve estimation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022,44(8):4225-4238.
[13]陳初俠,丁勇.基于中值濾波的激光雷達(dá)圖像邊緣特征提取方法[J].激光雜志,2023,44(8):94-98.
CHEN Chuxia, DING Yong. Lidar image edge feature extraction method based on median filter[J]. Laser Journal,2023,44(8): 94-98.
[14]游達(dá)章,陶加濤,張業(yè)鵬,等.基于灰度變換及改進(jìn)Retinex的低照度圖像增強(qiáng)[J].紅外技術(shù),2023,45(2):161-170.
YOU Dazhang, TAO Jiatao, ZHANG Yepeng, et al. Low-light image enhancement based on gray scale transformation and improved Retinex [J]. Infrared Technology,2023,45(2):161-170.
[15]陳龍,趙巍.一種改進(jìn)的自適應(yīng)分段線性變換算法[J].激光與紅外,2020,50(8):1020-1024.
CHEN Long,ZHAO Wei. An improved adaptive piecewise linear transformation algorithm [J]. Laser amp; Infrared,2020,50(8):1020-1024.
[16]WANG X, XUE H. An improved Canny edge detection algorithm based on predisposal method for image corrupted by Gaussian noise[J]. IEEE, 2010: 113-116.
[17]王紅霞,武甲禮,陳德山.分離復(fù)雜背景下的文檔圖像二值化方法[J].中國(guó)圖象圖形學(xué)報(bào),2023,28(7):2011-2025.
WANG Hongxia, WU Jiali, CHEN Deshan. A complex background-related binarization method for document-contextual information processing [J]. Journal of Image and Graphics, 2023,28(7):2011-2025.
[18]羅鈞,劉建強(qiáng),龐亞男.基于鄰域搜索JADE的二維Otsu多閾值圖像分割[J].系統(tǒng)工程與電子技術(shù),2020,42(10):2164-2171.
LUO Jun, LIU Jianqiang, PANG Yanan. Multi-threshold image segmentation of 2D Otsu based on neighborhood search JADE[J]. Systems Engineering and Electronics,2020,42(10):2164-2171.
[19]董躍華,張先光.二值形態(tài)學(xué)邊緣檢測(cè)算法的量子實(shí)現(xiàn)及仿真[J].量子電子學(xué)報(bào),2023,40(5): 654-665.
DONG Yuehua, ZHANG Xianguang. Quantum realization and simulation of edge detection algorithm based on binary morphology [J]. Chinese Journal of Quantum Electronics,2023,40(5): 654-665.
[20]徐成桂,徐廣順.基于數(shù)學(xué)形態(tài)學(xué)的非規(guī)則缺失圖像修復(fù)仿真[J].現(xiàn)代電子技術(shù),2023,46(1):59-63.
XU Chenggui, XU Guangshun. Simulation of irregular missing image repair based on mathematical morphology[J]. Modern Electronics Technique,2023,46(1):59-63.
Recognition of spindles and tube yarns of spinning frames under complex
environment based on machine vision
YAN" Xiaopeng1," YANG" Yaning2
(1.Scraper Research Branch, Ningxia Tiandi Benniu Industrial Group Co., Ltd., Shizuishan 753001, China;
2.School of Physics and Electronic Information Engineering, Ningxia Normal University, Guyuan 756500, China)
Abstract:
In the textile manufacturing industry, the process of yarn dropping in spinning frames is critical as it directly impacts yarn quality, production output, and factory operations. Traditional automatic doffers, while capable of performing operations automatically, often suffer from imprecise of operations, resulting in missed of empty tube insertion or tube yarn extraction during the doffing process. The current approach is to assign dedicated personnel to track, inspect, and address the issue, which increases labor costs and restricts the level of automation and intelligence in the workshop.
This paper aimed to address the issues of yarn tube extraction missing and empty tube insertion missing in traditional automatic fine yarn doffers by introducing machine vision technology to accurately recognize tube yarns and yarn spindles, so as to reduce the probability of missed extractions and insertions in subsequent operations. However, traditional image processing techniques face challenges in complex fine yarn workshop environments, such as complex target backgrounds, lighting variations, obstructions, and shooting angles. In addition, it is necessary to set parameters and thresholds based on experience during the recognition process of spindles and tube yarns, which increases the difficulty of recognition. Therefore, accurate recognition of tube yarns and spindles is crucial for automatic doffers based on machine vision technology. To solve the interference problem of images gathered by visual sensors in workshop environments, this paper proposed a basic image processing method. By adjusting the contrast between the targets and the background, the characteristics of spindles and tube yarns could be highlighted. This method also performed initial and secondary recognition in the targets recognition process to obtain the target areas more accurately. In order to further improve the recognition accuracy of yarn spindles and tube yarns, the basic image processing method was improved in image preprocessing phase and object recognition phase, respectively. In the preprocessing phase, image multiplication fusion was used to obtain high-contrast images to reduce the difficulty of subsequent image segmentation. For the interference introduced by the support rod of the spinning machine in the original image, the study found the nearest two horizontal contour bodies in the target region, and eliminated the smaller contour body in the target selection decision, until the remaining recognition quantity was consistent with the set number.
The experimental results demonstrate that the recognition accuracy of yarn spindles and tube yarns in different scenarios exceeds 98.40%, realizing the accurate recognition of spindles and tube yarns in complex background. In future work, machine learning methods can be introduced to solve the problem that individual parameter setting cannot adapt to special scenes such as strong light and reflection, and further improve the recognition accuracy of spindles and pipe yarns.
Keywords:
machine vision; doffer; spindle recognition; tube yarn recognition