羅彬豪 王杰
摘要:化纖長絲是常見的紡織品原料之一,為保證化纖絲筒產(chǎn)品質(zhì)量,必須在出廠前對其進(jìn)行全面檢測。對此,設(shè)計(jì)了一套化纖絲筒外觀品質(zhì)分類系統(tǒng),可以實(shí)現(xiàn)對化纖絲筒的快速檢測。首先對實(shí)驗(yàn)平臺進(jìn)行建模并完成搭建,然后實(shí)地采集四類化纖絲筒照片,并利用數(shù)據(jù)增強(qiáng)制成化纖色澤品質(zhì)分類數(shù)據(jù)集。之后,為更好地融合化纖圖片的多尺度信息,引入PANet結(jié)構(gòu)代替FPN層。此外,為讓網(wǎng)絡(luò)模型在多尺度融合時(shí)關(guān)注重點(diǎn)特征,在PANet中引入PSA注意力機(jī)制。實(shí)驗(yàn)結(jié)果表明,該方法在當(dāng)前數(shù)據(jù)集上達(dá)到99.87%的準(zhǔn)確率,與ResNet,VGG,DenseNet等網(wǎng)絡(luò)相比在精確率和召回率上均有提升,能有效完成化纖色澤的分類判斷。
關(guān)鍵詞:化纖;檢測;注意力機(jī)制;數(shù)據(jù)增強(qiáng);EfficientNet
中圖分類號:TH18;TS151.9 文獻(xiàn)標(biāo)志碼:A doi:10.3969/j.issn.1006-0316.2024.02.007
文章編號:1006-0316 (2024) 02-0039-07
Color Quality Classification System for Chemical Fibers Based on Improved EfficientNet
LUO Binhao,WANG Jie
(?School of Mechanical Engineering, Sichuan University, Chengdu 610065, China?)
Abstract:Chemical filament long silk is one of the common textile raw materials. In order to ensure the quality of chemical filament spools, a?thorough?inspection must be carried out before leaving the factory. In?this paper, a system for classifying the appearance quality of the?chemical filament spools is?designed, which enables?rapid detection of the?chemical filament spools. First, the experimental platform is?modeled and constructed, and then four types of chemical filament spool photos are?collected in the field and converted into a chemical color quality classification dataset using data augmentation. Furthermore, to better integrate the multiscale information of chemical images, the PANet structure is?introduced to replace the FPN layer. Additionally, to ensure?that?the network model focused?on the?key features during the?multiscale fusion, the PSA attention mechanism is?introduced into the PANet. The?experimental results show that this method achieved an accuracy of 99.87% on the current dataset with improvements in precision and recall compared with?ResNet, VGG, and DenseNet, and can effectively classify the?chemical color quality.
Key words:chemical fiber;testing;attention mechanism;data enhancement;EfficientNet
化纖長絲是常見的紡織品原料之一,其因具有優(yōu)良的透氣性、懸垂性、耐磨性等優(yōu)點(diǎn),被廣泛應(yīng)用于服裝紡織、航空航天、醫(yī)學(xué)用料等多個(gè)領(lǐng)域。在化纖長絲生產(chǎn)過程中,由于卷繞張力不合適、環(huán)境設(shè)備臟污或溶體原因,容易導(dǎo)致纏繞形成的絲筒的部分區(qū)域偏黃或偏黑,使得化纖長絲的品質(zhì)發(fā)生嚴(yán)重降級。這類顏色缺陷既會影響后續(xù)紡織物的質(zhì)量,又會影響化纖長絲生產(chǎn)企業(yè)的聲譽(yù)。因此,在絲筒封裝出廠前,必須對化纖長絲進(jìn)行全面檢測,嚴(yán)格把控質(zhì)量。目前,針對化纖絲筒的檢測方法較為原始,主要由人工完成。這種檢測方式效率低下、檢測結(jié)果主觀性強(qiáng),易造成判別結(jié)果的不穩(wěn)定,一定程度上影響絲筒檢測質(zhì)量。
隨著工業(yè)技術(shù)的不斷提升,機(jī)器視覺技術(shù)已經(jīng)成功應(yīng)用于各類工業(yè)生產(chǎn)的質(zhì)量檢測。郭根[1]基于單方向凸包和SVM(Support Vector Machine,支持向量機(jī))進(jìn)行了絲餅毛羽檢測與分類,然后基于DoG(Difference of Gaussians,高斯差分)和坐標(biāo)序列檢測表面油污與凹陷,最后基于MLP(Multilayer Perceptron,多層感知機(jī))的紙管顏色識別,快速穩(wěn)定地實(shí)現(xiàn)了檢測需求。王澤霞[2]提出使用改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)對缺陷絲餅進(jìn)行分類識別,通過改進(jìn)AlexNet的卷積核大小和連接結(jié)構(gòu),達(dá)到97.1%的分類準(zhǔn)確率。張?jiān)姾?sup>[3]提出一種基于破壞學(xué)習(xí)的殘差網(wǎng)絡(luò)絲餅毛羽缺陷分類方法,該方法設(shè)計(jì)了一種區(qū)域混亂機(jī)制,將輸入的圖像按照區(qū)域隨機(jī)打亂以凸顯局部特征,經(jīng)過池化處理后進(jìn)行分類,在構(gòu)建數(shù)據(jù)集下平均分類準(zhǔn)確率達(dá)到95.0%。景學(xué)鋒等[4]將采集到的絲餅圖像進(jìn)行稀疏編碼和邊緣檢測的預(yù)處理,然后通過極坐標(biāo)變換改變空間域,接著用信息熵和能量的組合特征來表征缺陷,設(shè)置恰當(dāng)?shù)呐R界閾值來分割出缺陷區(qū)域和正常區(qū)域,最后對實(shí)驗(yàn)結(jié)果進(jìn)行一定方式的處理得到了最終結(jié)果,經(jīng)測試,檢驗(yàn)準(zhǔn)確率達(dá)到98.85%,滿足工業(yè)需求。盡管已有很多人針對絲筒檢測進(jìn)行了研究,但大多集中在絲線、異物檢測上,對絲筒的色澤缺陷檢測很少。
近年來,深度卷積神經(jīng)網(wǎng)絡(luò)(Diffusion-?Convolutional Neural Networks,DCNNs)取得了飛躍式發(fā)展,被證明是一種有效的視覺檢測算法。因此,本文設(shè)計(jì)了一種基于DCNNs的智能檢測系統(tǒng),利用改進(jìn)后的EfficientNet深度學(xué)習(xí)算法完成對絲筒品質(zhì)的分類檢測。實(shí)驗(yàn)結(jié)果表明,該系統(tǒng)運(yùn)行速度快、準(zhǔn)確率高,可為工業(yè)應(yīng)用帶來實(shí)際效益。
1 絲筒檢測流水線及數(shù)據(jù)集
化纖絲筒的現(xiàn)行檢測方式為:絲筒經(jīng)過傳送帶運(yùn)送到檢測工位,工人從傳送帶上取下絲筒,將其放到強(qiáng)光下利用肉眼進(jìn)行觀察,然后依據(jù)出廠標(biāo)準(zhǔn)進(jìn)行分揀。參考這一流程,在原有的傳送帶平臺上進(jìn)行改進(jìn)。在傳送帶中間部分加上鋁制外框,在外框上添加遮光玻璃,使系統(tǒng)的環(huán)境光照保持穩(wěn)定,然后將攝像頭布置在合適位置進(jìn)行圖像采集。搭建好的系統(tǒng)整體圖和框內(nèi)圖如圖1和圖2所示。
整個(gè)化纖絲卷檢測流水線分為以下幾部分:
(1)運(yùn)輸系統(tǒng)。由傳送帶和步進(jìn)電機(jī)組成。絲卷被夾具放置在傳送帶上,向前運(yùn)動到達(dá)檢測區(qū)域,完成檢測。
(2)光源。由環(huán)形光源和條形光源組成,為圖像采集提供照明條件。
(3)圖像采集系統(tǒng)。由工業(yè)相機(jī)、紅外傳感器、PLC控制塊組成。當(dāng)紅外傳感器檢測到化纖絲卷時(shí),PLC收到信號,控制電機(jī)停轉(zhuǎn)并向工業(yè)相機(jī)發(fā)送拍攝指令。
(4)上位機(jī)。負(fù)責(zé)檢測算法的運(yùn)行和記錄每一個(gè)絲卷的檢測結(jié)果,并顯示在顯示器上。
除此之外,還有用于提供穩(wěn)定拍攝環(huán)境的遮光罩,以及各種支撐裝置。
工作時(shí),化纖絲筒依次進(jìn)入檢測箱。紅外傳感器檢測到化纖絲筒時(shí),向PLC發(fā)送信號。PLC控制電機(jī)停轉(zhuǎn),并向上位機(jī)發(fā)送檢測信號。收到信號后,上位機(jī)開始拍攝照片,并根據(jù)照片進(jìn)行品質(zhì)分類和缺陷檢測,并保存當(dāng)前絲卷的檢測結(jié)果。上位機(jī)將分類結(jié)果發(fā)送給PLC,PLC根據(jù)結(jié)果亮起不同的指示燈,屏幕上將顯示缺陷位置信息。PLC控制電機(jī)繼續(xù)運(yùn)轉(zhuǎn),進(jìn)行下一個(gè)化纖絲筒的檢測。
項(xiàng)目采集的化纖絲筒圖像來自四川某絲織品生產(chǎn)公司,分為四種類型,如圖3所示??梢钥闯觯@四類化纖絲筒分類等級越高的,各部分的色澤差異越小。由于采集到的圖片樣本較少,為獲得較好的訓(xùn)練效果并提升系統(tǒng)魯棒性,對圖片進(jìn)行數(shù)據(jù)增強(qiáng)。采用翻轉(zhuǎn)、傾斜、鏡像、模糊等圖像處理手段,最終獲得的數(shù)據(jù)集組成如表1所示,總計(jì)數(shù)量為2500。
2 方法介紹
近年來,卷積神經(jīng)網(wǎng)絡(luò)在圖像識別領(lǐng)域大放異彩,從最早的LeNet[5],到后來的AlexNet[6]、VGG[7](Visual Geometry Group,視覺幾何小組)、ResNet[8]、DenseNet[9],模型質(zhì)量與模型效果都不斷提高。
從卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展趨勢可以得知,其模型通常是在有限的資源配給下開發(fā)的,若資源充足,則可通過增大模型來獲取更高的精度。EfficientNet[10]通過NAS(Neural Architecture Search,神經(jīng)網(wǎng)絡(luò)架構(gòu)搜索)的方式,尋找不同的增大系數(shù),對網(wǎng)絡(luò)的深度、寬度、分辨率進(jìn)行增大,其擴(kuò)展策略如圖4所示。原有方法中,有的會采用增加矩陣特征的通道數(shù)(圖4b)、加深網(wǎng)絡(luò)深度(圖4c),或增加輸入網(wǎng)絡(luò)的分辨率(圖4d)的策略來提升網(wǎng)絡(luò)的性能,而在EfficientNet中,會同時(shí)采用以上三種擴(kuò)張策略(圖4e),以更好地捕獲目標(biāo)特征,提升網(wǎng)絡(luò)的檢測效果。
由于化纖絲筒分類數(shù)據(jù)集較小,直接訓(xùn)練學(xué)習(xí)到特征的時(shí)間較長、難度較大,因此在利用EfficientNet進(jìn)行訓(xùn)練時(shí),將使用遷移學(xué)習(xí)[11]的策略。即從與當(dāng)前任務(wù)相關(guān)的其他任務(wù)中獲得經(jīng)驗(yàn),找到二者的相似性,然后利用學(xué)到的相似性輔助原任務(wù)完成訓(xùn)練。EfficientNet在ImageNet等圖像分類數(shù)據(jù)集上取得了較好的分類準(zhǔn)確率,故本文將EfficientNet在ImageNet的權(quán)重遷移到化纖絲筒分類任務(wù)。通過這種方式可以降低學(xué)習(xí)難度,加快模型收斂速度。
FPN(Feature Pyramid Network,特征金字塔網(wǎng)絡(luò))[12]是一種有效的特征提取模塊,被廣泛應(yīng)用于多尺度物體檢測問題中。它通過構(gòu)造一個(gè)自頂向下的網(wǎng)絡(luò),能夠充分提取高層次的語義信息,在帶來極小額外消耗的情況下,對大范圍的尺度變化有著良好的處理效果。其模塊結(jié)構(gòu)如圖5所示。
為進(jìn)一步提高準(zhǔn)確率,增強(qiáng)對淺層特征的提取,本文引入PANet[13]的Bottom-Up結(jié)構(gòu)。PANet是FPN的一種改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),它在FPN的基礎(chǔ)上加入一條Bottom-Up的通道,將底層的特征傳遞到上層,使融合之后的層對各部分的特征充分結(jié)合,有利于對化纖絲筒特征的準(zhǔn)確識別。
為讓網(wǎng)絡(luò)關(guān)注化纖的重點(diǎn)特征,提升模型提取特征的能力,引入PSA(Pyramid Split Attention,金字塔切分注意力)[14]注意力機(jī)制。PSA是一種基于通道和空間的雙重注意力機(jī)制,將輸入張量從通道分成S組。首先,對于每一組,應(yīng)用不同的卷積操作來獲得感知場,提取不同尺度的信息。然后,SE(Squeeze-and- Excitation,壓縮與激勵)[15]注意力模塊提取每組通道的加權(quán)信道值。最后,使用Softmax將S組的加權(quán)值進(jìn)行歸一化處理。將PSA加入到PANet中間,來幫助網(wǎng)絡(luò)在多次融合時(shí)更好地關(guān)注重點(diǎn)信息,從而提升化纖檢測效果。
PSA網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。改造后的網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示。
3 實(shí)驗(yàn)結(jié)果及分析
(1)訓(xùn)練策略
訓(xùn)練時(shí),共設(shè)置訓(xùn)練次數(shù)為100輪,批量大小為16,初始學(xué)習(xí)率為0.01,利用帶重啟的隨機(jī)梯度下降法(Stochastic Gradient Descent with Warm Restarts,SGDR)進(jìn)行訓(xùn)練,學(xué)習(xí)率衰減方式為余弦退火(Cosine annealing),該方式可以有效避免訓(xùn)練師陷入局部最小值,其公式為:
(1)
式中:為更新后的學(xué)習(xí)率;和為運(yùn)行到第i次時(shí)學(xué)習(xí)率的上下限;
為最后一次重啟時(shí)執(zhí)行過的輪數(shù);
為第i次運(yùn)行時(shí)的總輪數(shù)。
(2)評價(jià)指標(biāo)
圖像分類中廣泛使用的評價(jià)指標(biāo)有準(zhǔn)確率(Accuracy)、精確率(Precision)和召回率(Recall)。分別計(jì)算為:
Accuracy???????(2)
Precision? ? ? ? ? ? ? ?(3)
Recal? ? ? ? ? ? ? ? ? (4)
式中:TP表示預(yù)測為正實(shí)際為正;FP表示預(yù)測為正實(shí)際為負(fù);TN表示預(yù)測為負(fù)實(shí)際為負(fù);FN表示預(yù)測為負(fù)實(shí)際為正。
其中,準(zhǔn)確率統(tǒng)計(jì)正確分類的樣本數(shù)占樣本總數(shù)的比例,可以反應(yīng)一個(gè)模型整體的預(yù)測能力。精確率統(tǒng)計(jì)分類正確的正樣本數(shù)占模型預(yù)測的正樣本總數(shù)的比例。召回率統(tǒng)計(jì)分類正確的正樣本數(shù)占實(shí)際正樣本數(shù)的比例。
(3)實(shí)驗(yàn)環(huán)境
實(shí)驗(yàn)在Windows 11系統(tǒng)下進(jìn)行,內(nèi)存16G,處理器為11th Gen Intel(R) Core(TM) i5-11400H @2.70GHz,顯卡為英偉達(dá)GeForce RTX 3050。實(shí)驗(yàn)利用基于Python3.8的Pycharm2021進(jìn)行編寫,基于深度學(xué)習(xí)框架Pytorch1.7.1框架實(shí)現(xiàn)。
(4)實(shí)驗(yàn)結(jié)果
為了驗(yàn)證EfficientNet網(wǎng)絡(luò)的有效性,將VGG、ResNet、DenseNet、MobileNetV3[16]、EfficientNet-B7在化纖絲筒數(shù)據(jù)集上分別進(jìn)行訓(xùn)練,然后在測試集上進(jìn)行測試。測試集準(zhǔn)確率結(jié)果如表2所示。可以看出,EfficientNet-B7在化纖絲筒測試集上的準(zhǔn)確率優(yōu)于其余四種模型,證明了EfficientNet在化纖分類任務(wù)上的有效性。
為驗(yàn)證改進(jìn)后的EfficientNet模型有效性,同樣利用之前的化纖絲筒數(shù)據(jù)集進(jìn)行訓(xùn)練,訓(xùn)練集和測試集的比例為7:3,其余參數(shù)設(shè)置和原始EfficientNet網(wǎng)絡(luò)訓(xùn)練方式一致。
訓(xùn)練結(jié)果如圖8所示。可以看出,模型在經(jīng)過100輪迭代后,訓(xùn)練準(zhǔn)確率和損失曲線都趨于平緩,且最終訓(xùn)練準(zhǔn)確率趨于100%。
為驗(yàn)證所提出改進(jìn)方法的有效性,設(shè)計(jì)了消融實(shí)驗(yàn),如表3所示??梢钥闯觯琍SA和PANet均帶來了檢測效果的提升。
將訓(xùn)練好的模型到測試集進(jìn)行驗(yàn)證,最終得到化纖絲筒各類別的分類結(jié)果,如表4所示??梢钥闯觯摼W(wǎng)絡(luò)僅在極個(gè)別的樣本上發(fā)生誤判,整體準(zhǔn)確率高達(dá)99.87%,較基礎(chǔ)網(wǎng)絡(luò)EfficientNet-B7的準(zhǔn)確率提高了1.07%。
繪制出訓(xùn)練集上的混淆矩陣,如圖9所示。其中,顏色表示置信度,顏色越深說明置信度越高??梢钥闯?,各類別分類準(zhǔn)確率接近100%,這表明了改進(jìn)EfficientNet算法應(yīng)用于化纖絲筒分類任務(wù)的有效性。
4 結(jié)論
本項(xiàng)目利用機(jī)器視覺技術(shù)實(shí)現(xiàn)了對化纖絲筒外觀的品質(zhì)分類和缺陷標(biāo)識任務(wù)。針對紡織業(yè)產(chǎn)品長期依賴人工檢測導(dǎo)致的效率低、主觀性大、有損員工健康的問題,設(shè)計(jì)了一種自動化的化纖絲筒檢測系統(tǒng)。本文搜集了四類共2500張化纖絲筒圖像,構(gòu)成了化纖絲筒分類數(shù)據(jù)集。采用EfficientNet作為原始網(wǎng)絡(luò),為了加強(qiáng)EfficientNet對化纖淺層特征的提取,引入了PANet中的Bottom-Up結(jié)構(gòu),并引入PSA注意力機(jī)制提升模型關(guān)注重點(diǎn)特征的能力。通過召回率和準(zhǔn)確率的比較,驗(yàn)證了改進(jìn)模型的有效性。改進(jìn)后的模型準(zhǔn)確率高達(dá)99.87%,有效解決了化纖色澤品質(zhì)分類的問題。之后,將在色澤檢測的基礎(chǔ)上繼續(xù)研究化纖跳絲、污染、毛絲等缺陷問題。
參考文獻(xiàn):
[1]郭根. 基于機(jī)器視覺的絲餅外觀缺陷檢測系統(tǒng)設(shè)計(jì)[D]. 西安:西安工程大學(xué),2019.
[2]王澤霞. 基于深度學(xué)習(xí)的化纖絲餅表面缺陷識別方法研究[D]. 上海:東華大學(xué),2020.
[3]張?jiān)姾?,景軍鋒,宋智偉. 基于破壞學(xué)習(xí)的殘差網(wǎng)絡(luò)絲餅毛羽缺陷分類[J]. 棉紡織技術(shù),2022,50(3):8-13.
[4]景軍鋒,張君揚(yáng),張緩緩,等. 梯度空間下的絲餅表面缺陷檢測[J]. 紡織學(xué)報(bào),2020,41(2):44-51.
[5]LECUN Y,BOTTOU L,BENGIO Y,et al.?Gradient-based learning applied to documentrecognition[C].?USA:IEEE,1998:2278-2324.
[6]KRIZHEVSKY A,SUTSKEVER I,HINTON G E. ImageNet Classification with Deep Convolutional Neural Networks[C]. Cambrige, USA:Annual Conference on Neural Information Processing Systems,MIT Press,2012:1097-1105.
[7]SIMONYAN K,ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[C]. International Conference on Learning Representations(ICLR),2014.
[8]HE K,ZHANG X,REN S,et al. Deep Residual Learning for Image Recognition[C]. NJ, USA:IEEE Conference on Computer Vision and Pattern Recognition, Piscataway,2016:770-778.
[9]HUANG G,LIU Z,MAATEN L V D,et al. Densely connected convolutional networks[C]. Ho nolulu:IEEE,Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2017:2261-2269.
[10]TAN M,LE Q. EfficientNet:Rethinking Model Scaling for Convolutional Neural Net-w orks[C]. International Conference on Machine Learning,2019:6105-6114.
[11]MAXIMEO,LEOB B,IVAN L. Learning and Transferring Mid-level Image Representations Using Convolutional Neural Networks[C]. IEEE Conference on Computer Vision and Pattern Recognition?(CVPR),2014.
[12]T.-Y. LIN,P. DOLL?R,R. GIRSHICK,et al.?Hariharan and S. Belongie. Feature Pyramid Networks for Object Detection[C]. IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2017.
[13]LIU?Shu,QI?Lu,QIN?Haifang,et al.?Path Aggregation Network for Instance Segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2018.
[14]ZHANG?H,ZU?K,LU?J.?EPSANet:An Efficient Pyramid Squeeze Attention Block on Convolutional Neural Network[C]. Asian Conf. Comput. Vis. (ACCV),2022:1161-1177.
[15]JIE H,LI S,SAMUEL A,et al.?Squeeze-and-Excitation Networks[C]. Computer Vision and Pattern Recognition?(CVPR),2018.
[16]ANDREW H,MARK S,GRACE C,et al. Searching for MobileNetV3[C]. IEEE International Conference on Computer Vision (ICCV),2019.