亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于并聯(lián)堆疊模型的織物疵點(diǎn)檢測(cè)算法

        2024-10-08 00:00:00周星亞孫紅蕊宋榮夏克爾·賽塔爾
        現(xiàn)代紡織技術(shù) 2024年9期

        摘 要:針對(duì)企業(yè)目前應(yīng)用的織物疵點(diǎn)檢測(cè)算法精度低、漏檢率高、訓(xùn)練速度慢及模型難以收斂的問(wèn)題,提出了一種基于并聯(lián)堆疊的織物疵點(diǎn)檢測(cè)算法?;赮OLOv7深度學(xué)習(xí)目標(biāo)檢測(cè)算法,采用不同參數(shù)值的空洞卷積設(shè)計(jì)DCCSPC并聯(lián)堆疊模塊,改進(jìn)SPPCSPC空間金字塔池化層,深度融合織物瑕疵局部及整體的特征信息;添加輸出160×160的小目標(biāo)檢測(cè)層,實(shí)現(xiàn)寬高僅占4個(gè)像素的小目標(biāo)疵點(diǎn)檢測(cè);使用WIoU損失函數(shù)替換CIoU損失函數(shù),解決了特殊樣本(長(zhǎng)寬比與多數(shù)樣本不一致的樣本)漏檢率高問(wèn)題,并提高了模型的收斂速度。另外,為消除數(shù)據(jù)集類(lèi)別不均衡問(wèn)題,采用生成對(duì)抗網(wǎng)絡(luò)對(duì)數(shù)量較少類(lèi)別進(jìn)行了樣本擴(kuò)充。將改進(jìn)后算法在織物疵點(diǎn)數(shù)據(jù)集上進(jìn)行測(cè)試,結(jié)果表明:與以往方法相比,改進(jìn)后的模型具有更高的識(shí)別精度和魯棒性,能夠檢出寬高比例懸殊、紋理對(duì)比度低圖像中的疵點(diǎn)及小目標(biāo)疵點(diǎn),對(duì)比原YOLOv7模型,平均精度值提升3.4%,且收斂速度更快、誤差更小,能夠更好地滿足當(dāng)下織物智能疵點(diǎn)檢測(cè)的需求。

        關(guān)鍵詞::YOLOv7;織物疵點(diǎn);深度學(xué)習(xí);目標(biāo)檢測(cè);空洞卷積

        中圖分類(lèi)號(hào):TS101.9

        文獻(xiàn)標(biāo)志碼:A

        文章編號(hào):1009-265X(2024)09-0099-09

        收稿日期:2023-10-09

        網(wǎng)絡(luò)出版日期:2024-03-20

        基金項(xiàng)目:新疆大學(xué)2022年自治區(qū)級(jí)大學(xué)生創(chuàng)新訓(xùn)練計(jì)劃項(xiàng)目(S202210755023)

        作者簡(jiǎn)介:周星亞(1998—),男,安徽淮南人,碩士研究生,主要從事信息技術(shù)在紡織工業(yè)中的應(yīng)用方面的研究。

        通信作者:夏克爾·賽塔爾,E-mail:xaker2@163.com

        作為紡織強(qiáng)國(guó),中國(guó)目前紡織品服裝出口額比重超過(guò)了世界三分之一,位居世界第一,對(duì)紡織品的質(zhì)量要求也越來(lái)越高[1。但在生產(chǎn)過(guò)程中,紡織物易受到環(huán)境因素諸如設(shè)備缺陷、人為失誤、技術(shù)不良、原料(缺陷)等問(wèn)題的影響,從而產(chǎn)生跳花、破洞、水漬等多種影響產(chǎn)品質(zhì)量的疵點(diǎn),然而傳統(tǒng)織物疵點(diǎn)檢測(cè)算法檢測(cè)效率慢、檢測(cè)精度不高,難以適用于當(dāng)代織物企業(yè)檢測(cè)需求,所以提升織物疵點(diǎn)檢測(cè)技術(shù),可有效提高紡織企業(yè)生產(chǎn)效率,提高檢測(cè)精度,降低生產(chǎn)成本[2。

        近幾年來(lái),基于深度學(xué)習(xí)的檢測(cè)方法相比于傳統(tǒng)算法,具有更好的自適應(yīng)性及學(xué)習(xí)性,所以被廣泛應(yīng)用在織物疵點(diǎn)檢測(cè)中[3,其中基于自動(dòng)編碼器4的檢測(cè)方法可以學(xué)習(xí)數(shù)據(jù)的隱含特征,在紋理復(fù)雜的織物上進(jìn)行檢測(cè),但其局限在于只能檢測(cè)與訓(xùn)練樣本相似的疵點(diǎn),容易將復(fù)雜的紋理判斷為織物疵點(diǎn),造成誤檢的現(xiàn)象。深度學(xué)習(xí)中基于候選區(qū)域的目標(biāo)檢測(cè)算法,如Li等[5在R-CNN引入了FPN的多尺度檢測(cè)方法,在織物疵點(diǎn)檢測(cè)中具有更好的穩(wěn)定性和準(zhǔn)確率,但檢測(cè)速度過(guò)慢,不適用于企業(yè)生產(chǎn)檢測(cè)?;谏疃葘W(xué)習(xí)的回歸算法,如高敏等[6使用YOLO模型框架,并引入CBAM模塊,在維持精度不變的同時(shí)進(jìn)一步提高了檢測(cè)速度,且較其他檢測(cè)算法更加輕量,研發(fā)成本更加經(jīng)濟(jì)實(shí)惠。Zheng等[7將SE模塊添加到Y(jié)OLOv5骨干中,并引入ACON激活函數(shù)以取代YOLOv5 CSP的Leaky ReLU激活功能,提升原模型的檢測(cè)精度與魯棒性,滿足了織物疵點(diǎn)檢測(cè)需求。Yue等[8基于YOLOv4,利用聚類(lèi)算法構(gòu)建新的yolo_anchors,為yolo_head添加特征輸出層以預(yù)測(cè)微小目標(biāo),微小目標(biāo)檢測(cè)的AP值提高了約9%,大大提高了模型檢測(cè)織物缺陷中微小物體的能力。毋濤等[9在YOLOv7中引入FasterNet模塊減少模型數(shù)據(jù)量,并在網(wǎng)絡(luò)特征提取部分加入CA注意力機(jī)制,采用Focal-EIoU損失,在模型輕量化的同時(shí)提升疵點(diǎn)分類(lèi)定位精度。針對(duì)織物疵點(diǎn)的不規(guī)則性,郭殿鵬等[10在YOLOv7中通過(guò)設(shè)計(jì)添加新的聚合網(wǎng)絡(luò)DR-SPD,引入GAM注意力模塊并在特征融合網(wǎng)絡(luò)加入3條橫向跳躍路徑,提升了其特征提取能力和抗干擾能力,達(dá)到了更高的檢測(cè)精度。

        雖然這些算法在疵點(diǎn)檢測(cè)上取得了良好的效果,但在工業(yè)實(shí)際生產(chǎn)需求中,現(xiàn)有算法難以同時(shí)保持高檢測(cè)速度和高精度,并容易漏檢、誤檢小尺寸織物疵點(diǎn)和特殊形狀疵點(diǎn)。針對(duì)上述問(wèn)題,本文基于YOLOv7算法模型,采用不同參數(shù)值的空洞卷積設(shè)計(jì)DCCSPC并聯(lián)堆疊模塊,改進(jìn)SPPCSPC空間金字塔池化層,深度融合疵點(diǎn)局部和整體的特征信息,以解決顏色對(duì)比度低、細(xì)條狀疵點(diǎn)定位識(shí)別精度差的問(wèn)題,并通過(guò)設(shè)計(jì)添加160×160的小目標(biāo)檢測(cè)層,來(lái)實(shí)現(xiàn)寬高僅有4個(gè)像素以上的微小織物疵點(diǎn)目標(biāo)檢測(cè),同時(shí)引入WIou損失函數(shù),提供梯度分配策略,以此降低特殊樣本的漏檢率。本文算法針對(duì)不同類(lèi)型織物疵點(diǎn)來(lái)檢測(cè),以期提高織物生產(chǎn)檢測(cè)過(guò)程中的自動(dòng)化程度和生產(chǎn)效率,為企業(yè)智能化織物疵點(diǎn)檢測(cè)提供更有效的方法,滿足當(dāng)下智能化織物疵點(diǎn)檢測(cè)的需求。

        1 材料與方法

        1.1 數(shù)據(jù)集

        為了更有效地訓(xùn)練模型并驗(yàn)證算法的有效性,本文選取了工業(yè)智造創(chuàng)新大賽中提供的賽用數(shù)據(jù)集。大賽由2019年廣東省人民政府與阿里巴巴集團(tuán)聯(lián)合主辦。賽組深入佛山南海紡織車(chē)間現(xiàn)場(chǎng),實(shí)地采集布匹圖像,圖像涵蓋了紡織行業(yè)中布匹各類(lèi)關(guān)鍵瑕疵特征,數(shù)量龐大,每張圖像包含一個(gè)或多個(gè)瑕疵,構(gòu)建了高質(zhì)量布匹疵點(diǎn)數(shù)據(jù)集。

        根據(jù)近年來(lái)企業(yè)生產(chǎn)與市場(chǎng)常見(jiàn)的疵點(diǎn)類(lèi)型,本文從中挑選了毛粒、死皺、三絲、緯紗不良、破洞、水漬、跳花7種疵點(diǎn),共計(jì)2438張織物圖像作為數(shù)據(jù)集。其中,疵點(diǎn)圖像2117張,正??椢飯D像321張。表1展示了7種疵點(diǎn)類(lèi)型中涵蓋的標(biāo)注框數(shù)量。

        由表1可以看出,數(shù)據(jù)集中破洞和三絲疵點(diǎn)兩種類(lèi)型的疵點(diǎn)標(biāo)注框數(shù)量明顯低于平均值,存在嚴(yán)重的數(shù)據(jù)不均衡現(xiàn)象。在訓(xùn)練過(guò)程中,數(shù)據(jù)不均衡會(huì)使模型參數(shù)權(quán)重更傾向其他5種類(lèi)別,導(dǎo)致模型偏向于學(xué)習(xí)樣本更多的類(lèi)別,使模型精度較低,性能變差。

        1.2 生成對(duì)抗網(wǎng)絡(luò)擴(kuò)充數(shù)據(jù)集

        為平衡模型訓(xùn)練權(quán)重,本文采用生成對(duì)抗網(wǎng)絡(luò)對(duì)不均衡數(shù)據(jù)集進(jìn)行擴(kuò)充。生成對(duì)抗網(wǎng)絡(luò)是目前較為流行的一種深度學(xué)習(xí)算法,其中的

        DCGAN網(wǎng)絡(luò)可以用來(lái)生成逼真的圖像。生成圖像流程如圖1所示,通過(guò)DCGAN網(wǎng)絡(luò)中的生成器生成一幅由像素值隨機(jī)組合的假圖像,然后將假圖像輸入判別器和真實(shí)圖像進(jìn)行對(duì)比,判別該假圖像是否接近真實(shí)圖像;依據(jù)判別結(jié)果調(diào)整生成器網(wǎng)絡(luò)參數(shù),使之生成更加真實(shí)的圖像。此外,判別器也需要不斷優(yōu)化自身神經(jīng)元的網(wǎng)絡(luò)參數(shù),提高判別能力。經(jīng)過(guò)生成器和判別器不斷地博弈進(jìn)化,使生成器最終可以生成逼真的圖像。

        采用數(shù)據(jù)集中的三絲和破洞疵點(diǎn)圖像作為DCGAN判別網(wǎng)絡(luò)的真實(shí)圖像對(duì)模型進(jìn)行訓(xùn)練,利用生成器網(wǎng)絡(luò)生成的圖像對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)充,使三絲和破洞圖像疵點(diǎn)標(biāo)注框數(shù)量擴(kuò)充到其他類(lèi)別的平均水平。其中三絲類(lèi)別擴(kuò)充后共400張,破洞400張,生成器生成的部分假圖像如圖2所示。

        1.3 添加小目標(biāo)檢測(cè)層改進(jìn)YOLOv7模型

        在紡織企業(yè)流水線采集中,存在著大量形狀各異的小目標(biāo)疵點(diǎn)。在訓(xùn)練過(guò)程中,YOLOv7首先將輸入的圖像調(diào)整為640×640大小,輸入到backbone網(wǎng)絡(luò)中,YOLOv7深度學(xué)習(xí)目標(biāo)檢測(cè)模型的3個(gè)預(yù)測(cè)特征矩陣的尺寸大小分別為80×80×255、40×40×255、20×20×255,特征矩陣的每個(gè)網(wǎng)格中又分別會(huì)生成3種不同尺寸的Anchor框,作為預(yù)測(cè)9種不同尺寸目標(biāo)的先驗(yàn)框。其中80×80×255尺寸的特征矩陣感受野最小,細(xì)節(jié)特征最為豐富,用來(lái)負(fù)責(zé)預(yù)測(cè)小目標(biāo)。由于該特征矩陣由原

        始圖像8倍下采樣得到,所以每個(gè)網(wǎng)格僅能預(yù)測(cè)寬度和高度方向均有8個(gè)以上像素的目標(biāo),對(duì)低于這個(gè)尺寸的目標(biāo)不敏感,導(dǎo)致了對(duì)小尺寸織物瑕疵的漏檢現(xiàn)象。為提高模型對(duì)小尺寸織物瑕疵的檢測(cè)精度,本文將YOLOv7模型中第一個(gè)ELAN模塊生成的特征矩陣與自頂向下的特征提取網(wǎng)絡(luò)中最底端的特征矩陣2倍上采樣后進(jìn)行通道拼接,并輸出一個(gè)尺寸為160×160×255大小的預(yù)測(cè)特征圖,用來(lái)檢測(cè)寬度和高度方向4個(gè)像素大小以上的微小疵點(diǎn),改進(jìn)后的模型結(jié)構(gòu)如圖3所示。

        1.4 基于并聯(lián)堆疊空洞卷積改進(jìn)SPPCSPC模塊

        許多織物疵點(diǎn)與織物背景顏色對(duì)比度低且與織物周邊背景紋理接近,造成了較低的檢出率;另外,織物中緯紗不良疵點(diǎn)呈細(xì)條狀,毛粒疵點(diǎn)過(guò)小,這類(lèi)特異性疵點(diǎn)圖像在橫向或縱向像素占比較少,極大地影響了目標(biāo)檢測(cè)任務(wù)中算法模型對(duì)該類(lèi)別疵點(diǎn)的定位精度。針對(duì)上述問(wèn)題,為深度融合織物瑕疵局部及整體的特征信息,使模型具備根據(jù)待檢測(cè)目標(biāo)部分區(qū)域理解整體信息的能力,采用基于并聯(lián)堆疊空洞卷積的方法改進(jìn)空間金字塔池化,設(shè)計(jì)DCCSPC模塊對(duì)SPPCSPC模塊進(jìn)行替換。

        為增大特征圖的感受野,深度融合織物圖像局部與整體的特征信息,以提高模型的定位精度,適應(yīng)不同分辨率的圖像,SPPCSPC模塊分別采用大小為5×5、9×9、13×13的3種池化核進(jìn)行最大值池化,并與原特征矩陣在通道維度上進(jìn)行拼接。由于大尺寸池化核的存在,SPPCSPC模塊會(huì)丟失大量信息。本文采用卷積核為3×3,空洞率(Dilation rate)分別為2、4、6的空洞卷積替換池化核,計(jì)算公式如式(1)所示:

        d=k+(k-1)×(r-1)(1)

        式中:d為空洞卷積的等效卷積核(感受野)大小,k為原始卷積核尺寸,r為空洞率參數(shù)。

        如圖4所示,空洞卷積在空洞率分別2、4、6時(shí),感受野分別達(dá)到5×5、9×9、13×13,將SPPCSPC中池化層進(jìn)行替換,可以在不丟失分辨率的同時(shí)xORoqh1un0phBLQHZ5V/CvgpVT0YRo6O02aAvswV3PQ=擴(kuò)大感受野,增強(qiáng)疵點(diǎn)的檢出率,改進(jìn)后的結(jié)構(gòu)稱為DCCSPC模塊。

        為深度融合不同特征層信息以及同一特征層中織物圖像的整體和局部特征信息,在YOLOv7模型自頂向下特征提取網(wǎng)絡(luò)中每一個(gè)通道拼接層后面添加DCCSPC模塊,以提高模型對(duì)顏色及紋理與周邊背景相近疵點(diǎn)的檢出精度和形狀特殊目標(biāo)的定位精度。

        1.5 采用WIoU損失函數(shù)替換CIoU損失函數(shù)

        目前常見(jiàn)的目標(biāo)檢測(cè)模型(如Faster R-CNN、SSD和YOLO等)均采用IoU函數(shù)來(lái)衡量預(yù)測(cè)框與真實(shí)框之間的重合程度,IoU函數(shù)相較于傳統(tǒng)的L2邊界框回歸損失函數(shù),能夠很好地均衡大目標(biāo)和小目標(biāo)的學(xué)習(xí)精度,函數(shù)公式如式(2)所示:

        IoUGround=boundingbox∩groundtruthboundingbox∪groundtruth(2)

        式中:IoUGround為交并比;bounding box為預(yù)測(cè)框;ground truth為標(biāo)注框。

        在YOLOv5、YOLOv7等較為前沿的目標(biāo)檢測(cè)模型中采用基于IoU變體的GIoU或CIoU函數(shù)作為邊界框的損失函數(shù)。GIoU損失函數(shù)公式如式(3):

        L=1-IoUGround-|C-P∪PGround||C|(3)

        式中:L代表GIoU損失函數(shù);P表示預(yù)測(cè)框;PGround表示標(biāo)注框;C表示包含預(yù)測(cè)框與標(biāo)注框的最小矩形。

        當(dāng)預(yù)測(cè)框完全落在標(biāo)注框內(nèi)時(shí),無(wú)論模型怎樣改變參數(shù)使預(yù)測(cè)框變動(dòng),模型的邊界框損失值都不變。GIoU示意如圖5所示,(a)的預(yù)測(cè)效果最好(c)的預(yù)測(cè)效果最差,但3種情況對(duì)應(yīng)GIoU損失函數(shù)的值相等。

        圖5 GIoU示意圖(黃色大框?yàn)闃?biāo)注框,藍(lán)色小框?yàn)轭A(yù)測(cè)框)

        Fig.5 Schematic diagram of GIoU (the yellow box is the

        label box, and the blue box is the prediction box)

        針對(duì)GIoU損失函數(shù)不適用于預(yù)測(cè)框、標(biāo)注框完全包含的情況,CIoU損失函數(shù)在GIoU的基礎(chǔ)上添加標(biāo)注框與預(yù)測(cè)框中心點(diǎn)的歐氏距離,使預(yù)測(cè)框更貼合標(biāo)注框。CIoU損失函數(shù)公式如式(4)—(6):

        式中:L代表CIoU損失函數(shù);?2(P,PGround)代表標(biāo)注框中心點(diǎn)到預(yù)測(cè)框中心點(diǎn)歐氏距離的平方和;標(biāo)注框與預(yù)測(cè)框最小外接矩形對(duì)角線距離及中心點(diǎn)距離示意如圖6所示,C2代表真實(shí)框與預(yù)測(cè)框最小外接矩形框?qū)蔷€距離的平方;wGround為標(biāo)注框?qū)挾确较蛏系南袼貍€(gè)數(shù),w代表預(yù)測(cè)框?qū)挾确较蛏系南袼貍€(gè)數(shù),hGround代表標(biāo)注框高度方向上的像素個(gè)數(shù),h代表預(yù)測(cè)框高度方向上的像素個(gè)數(shù)。

        圖6 標(biāo)注框與預(yù)測(cè)框最小外接矩形對(duì)角線

        距離及中心點(diǎn)距離示意圖

        Fig.6 Schematic diagram of the minimum outer rectangle

        diagonal distance and center point distance between

        the label box and the prediction box

        由于CIoU損失函數(shù)在解決GIoU無(wú)法糾正預(yù)測(cè)框與標(biāo)注框相互包含的情況時(shí)引入了傳統(tǒng)L2損失函數(shù)的長(zhǎng)寬比,這將使得長(zhǎng)寬比較為特殊的樣本會(huì)對(duì)回歸loss產(chǎn)生較大的波動(dòng),而長(zhǎng)寬比正常的樣本則難以進(jìn)一步得到優(yōu)化。針對(duì)以上CIoU損失函數(shù)的弊端,EIoU函數(shù)使用長(zhǎng)和寬一致性,替換CIoU函數(shù)中的長(zhǎng)寬比一致性。其損失函數(shù)公式如式(7):

        式中:L代表EIoU損失函數(shù);wc代表標(biāo)注框和預(yù)測(cè)框最小外接矩形寬度方向上的像素個(gè)數(shù);hc代表標(biāo)注框和預(yù)測(cè)框最小外接矩形高度方向上的像素個(gè)數(shù)。

        EIoU很好地解決了訓(xùn)練集中含有低質(zhì)量樣本(寬高比與大多數(shù)樣本嚴(yán)重不一致的樣本)邊界框損失的擬合能力,但由于聚焦機(jī)制(使預(yù)測(cè)框逐漸貼合標(biāo)注框的機(jī)制)是靜態(tài)的,未包含動(dòng)態(tài)非單調(diào)聚焦機(jī)制,致使EIoU函數(shù)仍然存在缺陷。

        WIoU損失函數(shù)的動(dòng)態(tài)非單調(diào)聚焦機(jī)制使用“離群度”替換IoU函數(shù)來(lái)評(píng)估預(yù)測(cè)框與標(biāo)注框的貼合程度,并提供了梯度增益分配策略,該策略不僅具備對(duì)低質(zhì)量樣本的擬合能力,還能夠有效抑制低質(zhì)量樣本所產(chǎn)生的負(fù)面梯度。這使得WIoU函數(shù)不僅能夠高精度聚焦高質(zhì)量的普通樣本,還能夠提高低質(zhì)量樣本的貼合程度。其公式如式(8)—(9):

        L=RL(8)

        R=exp(x-x)2+(y-y)2(W2+H2)(9)

        式中:R代表WIoU損失函數(shù);x、y、W、H分別代表預(yù)測(cè)框的中心點(diǎn)坐標(biāo)及寬、高;x、y、W、H分別代表標(biāo)注框的中心點(diǎn)坐標(biāo)及寬、高。

        2 實(shí)驗(yàn)與分析

        2.1 實(shí)驗(yàn)環(huán)境

        本文所采取的實(shí)驗(yàn)環(huán)境配置見(jiàn)表2。

        超參數(shù)設(shè)置:采用批量梯度下降算法,將一個(gè)batch設(shè)置為8;epoch設(shè)置為300,其中前200個(gè)epoch凍結(jié)檢測(cè)頭部分,最后100個(gè)epoch訓(xùn)練所有參數(shù);優(yōu)化器采用“sgd”;初始學(xué)習(xí)率設(shè)置為0.01,動(dòng)量momentum設(shè)置為0.937,衰減系數(shù)設(shè)置為0.0005。采用擴(kuò)充處理后的3100張數(shù)據(jù)集以8∶1∶1比例劃分訓(xùn)練集、測(cè)試集、驗(yàn)證集進(jìn)行試驗(yàn)。

        2.2 評(píng)價(jià)指標(biāo)

        采用目標(biāo)檢測(cè)算法度量標(biāo)準(zhǔn)Mean average precision(mAP)對(duì)模型性能進(jìn)行檢驗(yàn),查準(zhǔn)率(Precision)與查全率(Recall)構(gòu)成PR曲線,用于計(jì)算AP值,衡量單個(gè)分類(lèi)的預(yù)測(cè)精度,mAP是各類(lèi)別AP的平均值。算法度量標(biāo)準(zhǔn)如式(10)—(13)所示:

        p=TT+AP(10)

        R=TT+F(11)

        AP=∫p(R)dR(12)

        mAP=1N∑Ni=1AP(13)

        式中:T為預(yù)測(cè)正確的疵點(diǎn)數(shù),F(xiàn)為預(yù)測(cè)錯(cuò)誤的疵點(diǎn)數(shù),F(xiàn)為漏檢疵點(diǎn)個(gè)數(shù),N為織物疵點(diǎn)種類(lèi)數(shù)。

        2.3 實(shí)驗(yàn)分析

        2.3.1 消融實(shí)驗(yàn)

        如表3所示,本文通過(guò)對(duì)添加小目標(biāo)檢測(cè)層、設(shè)計(jì)DCCSPC模塊,采用WIoU損失函數(shù)3個(gè)改進(jìn)點(diǎn)進(jìn)行消融實(shí)驗(yàn),通過(guò)逐一引入模塊,觀察它們對(duì)模型檢測(cè)的精度值變化,并對(duì)各類(lèi)疵點(diǎn)類(lèi)型的精度變化進(jìn)行探討,可以更好地了解他們對(duì)于模型性能提升的貢獻(xiàn),為模型的進(jìn)一步優(yōu)化提供了有益的啟示。

        圖,可以明顯提升小目標(biāo)織物疵點(diǎn)的檢出率,同時(shí)也會(huì)增加模型的計(jì)算量,導(dǎo)致檢測(cè)速度的降低。YOLOv7-b基于DCCSPC改進(jìn)YOLOv7模型,相較于原始模型mAP提升了1.5%,檢測(cè)速度達(dá)到每秒87.7幀,提高了1.5幀每秒,條狀疵點(diǎn)“死皺”和顏色模糊疵點(diǎn)“水漬”兩類(lèi)AP分別提升4%和3%。這證明空洞卷積在與SPPCSPC模塊中原有池化層保持相同感受野的條件下,空洞卷積可以有效避免池化縮小再放大特征圖過(guò)程中丟失信息的問(wèn)題,并提升了檢測(cè)速度,DCCSPC模塊的添加提升了寬高比例懸殊、與背景顏色及紋理對(duì)比度低目標(biāo)的檢出率。YOLOv7-c使用WIoU函數(shù)改進(jìn)CIoU損失函數(shù),相較于原始模型mAP提升較小,僅有1.1%,推理速度沒(méi)有變化。

        圖7展示了模型在不同改進(jìn)方案下的檢測(cè)精度值變化。由圖7可以看出,原始YOLOv7模型、添加小目標(biāo)檢測(cè)層及DCCSPC層改進(jìn)后的YOLOv7模型大約在第250個(gè)epoch后開(kāi)始收斂,而更換了損失函數(shù)后的YOLOv7模型在第200個(gè)epoch開(kāi)始已經(jīng)收斂,由此可知,改進(jìn)損失函數(shù)可顯著提高模型的訓(xùn)練速度。消融實(shí)驗(yàn)結(jié)果表明,在檢測(cè)速度相近的結(jié)果下,相比于原模型,綜合改進(jìn)后的模型YOLOv7-d對(duì)各類(lèi)疵點(diǎn)檢測(cè)精度均有部分提升,具有更高的mAP值,對(duì)小尺寸疵點(diǎn)及特異性疵點(diǎn)檢出效果更好,更適用于應(yīng)用在工業(yè)織物疵點(diǎn)檢測(cè)中。

        2.3.2 對(duì)比實(shí)驗(yàn)

        為綜合評(píng)估本文算法模型性能,本文選取了當(dāng)下熱門(mén)的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法,包括二階段區(qū)域目標(biāo)檢測(cè)代表算法Faster R-CNN及單階段目標(biāo)檢測(cè)代表算法YOLO系列,在相同實(shí)驗(yàn)條件下,采用本文介紹的織物疵點(diǎn)數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試,其mAP值、參數(shù)量及推理速度性能指標(biāo)對(duì)比如表4所示。

        由表4可以看出,二階段目標(biāo)檢測(cè)模型Faster R-CNN使用神經(jīng)網(wǎng)絡(luò)自動(dòng)進(jìn)行候選區(qū)域劃分,對(duì)原始圖像整體進(jìn)行優(yōu)化訓(xùn)練,在檢測(cè)精度和推理速度上大于傳統(tǒng)的YOLO網(wǎng)絡(luò)模型,但均低于單階段目標(biāo)檢測(cè)模型中的YOLOX和YOLOv7,且模型參數(shù)量較大,不利于工業(yè)級(jí)部署;SSD模型直接使用回歸預(yù)測(cè),參數(shù)量更低,但底層的特征語(yǔ)義信息比較少,在檢測(cè)精度、參數(shù)量以及推理速度等性能指標(biāo)方面,均處于中位數(shù);YOLOv5s模型最為輕量化、推理速度最快,具有極高的靈活性,但是精度上確有欠缺;相較于其他模型,YOLOv7模型參數(shù)量中等,符合工業(yè)級(jí)部署條件,推理速度較快能滿足實(shí)時(shí)性需求,同時(shí)本文8Nq/MQRN0OgeuMYtgTnkPQ==算法在保持YOLOv7同時(shí)平衡推理速度和精度的優(yōu)點(diǎn)基礎(chǔ)上,提升了平均精度,解決了原模型對(duì)小尺寸疵點(diǎn)和特異性疵點(diǎn)漏檢、誤檢、定位不準(zhǔn)的問(wèn)題,滿足工業(yè)檢測(cè)需求。綜上所述,在能夠滿足工業(yè)級(jí)部署、實(shí)時(shí)性檢測(cè)條件下,本文算法模型更適用于織物疵點(diǎn)檢測(cè)任務(wù)。

        2.3.3 可視化結(jié)果

        為進(jìn)一步檢驗(yàn)改進(jìn)算法的有效性,本文選取展示了消融實(shí)驗(yàn)過(guò)程中,部分織物疵點(diǎn)數(shù)據(jù)集前后檢測(cè)效果。改進(jìn)前后的模型檢測(cè)效果如圖8所示,改進(jìn)后的模型可以有效檢出像素占比更低的毛粒疵點(diǎn),提升了對(duì)呈細(xì)條狀的跳花,緯紗不良疵點(diǎn)的檢出率,深度融合了織物瑕疵局部及整體的特征信息后,能夠識(shí)別提升水漬,死皺等顏色與背景較近疵點(diǎn)的識(shí)別率。以上證明本文設(shè)計(jì)的改進(jìn)算法有效改善了工業(yè)疵點(diǎn)檢測(cè)中漏檢誤檢的問(wèn)題,提升了檢測(cè)質(zhì)量。

        3 結(jié)論

        在紡織企業(yè)實(shí)際生產(chǎn)需求中,現(xiàn)有的檢測(cè)算法難以同時(shí)保持高檢測(cè)速度和高精度,并容易漏檢、誤檢小尺寸織物疵點(diǎn)和特殊形狀疵點(diǎn),針對(duì)以上問(wèn)題,為研究一種更滿足于紡織企業(yè)智能生產(chǎn)檢測(cè)的算法模型,進(jìn)一步提升檢測(cè)精度來(lái)達(dá)到更高效益,本文提出了一種基于并聯(lián)堆疊模型的織物疵點(diǎn)檢測(cè)方法。通過(guò)在YOLOv7模型框架上設(shè)計(jì)添加小目標(biāo)檢測(cè)層,輸出尺寸為160×160×255大小的預(yù)測(cè)特征圖,實(shí)現(xiàn)了預(yù)測(cè)寬高大于4個(gè)像素的微小織物疵點(diǎn);提出DCCSPC并聯(lián)堆疊模塊,采用基于空洞卷積改進(jìn)空間金字塔池化,避免了算法學(xué)習(xí)過(guò)程中的信息丟失,提升了對(duì)細(xì)條狀疵點(diǎn)的檢測(cè)精度,改善了模型收斂速度;同時(shí)為解決算法在學(xué)習(xí)特征不明顯的疵點(diǎn)特征時(shí),對(duì)邊界框定位和響應(yīng)速度的影響,本文在訓(xùn)練過(guò)程中使用WIoU函數(shù)替換CIoU損失函數(shù),提高了模型的收斂速度和對(duì)特征不明顯目標(biāo)的響應(yīng)速度;此外,針對(duì)數(shù)據(jù)集類(lèi)別不均衡問(wèn)題,采用DCGAN生成對(duì)抗網(wǎng)絡(luò)對(duì)數(shù)據(jù)集中數(shù)量較少的三絲、破洞類(lèi)別進(jìn)行了擴(kuò)充,并應(yīng)用于不同算法中進(jìn)行試驗(yàn)。

        試驗(yàn)結(jié)果表明,本文提出的改進(jìn)算法模型相比于原算法,小疵點(diǎn)及細(xì)長(zhǎng)類(lèi)型疵點(diǎn)識(shí)別精度都有明顯提升,疵點(diǎn)檢測(cè)平均精度值(mAP)提升了3.4%,檢測(cè)速度達(dá)到了86.0幀/秒,可以更有效地應(yīng)用于工業(yè)生產(chǎn)智能疵點(diǎn)檢測(cè)中。

        參考文獻(xiàn):

        [1]中國(guó)紡織工業(yè)聯(lián)合會(huì). 紡織行業(yè)“十四五”發(fā)展綱要[J]. 紡織科學(xué)研究, 2021, 32(7): 40-49.

        China National Textile and Apparel Council. The development outline of the textile industry in the 14th Five-Year Plan[J]. Textile Science Research, 2021, 32(7): 40-49.

        [2]馮英杰, 蔣高明, 彭佳佳. 人工智能引領(lǐng)紡織行業(yè)創(chuàng)新發(fā)展[J]. 現(xiàn)代紡織技術(shù), 2021, 29(3): 71-77.

        FENG Yingjie, JIANG Gaoming, PENG Jiajia. Innovation and development of textile industry under guidance of artificial intelligence [J]. Advanced Textile Technology, 2021,29(3): 71-77.

        [3]李宇,劉孔玲,黃湳菥.基于深度學(xué)習(xí)的布匹疵點(diǎn)檢測(cè)方法[J]. 毛紡科技, 2021, 49(4): 98-103.

        LI Yu, LIU Kongling, HUANG Nanxi. Fabric defect detection method based on deep learning[J].Wool Textile Journal, 2021, 49(4): 98-103.

        [4]王斌, 李敏, 雷承霖, 等. 基于深度學(xué)習(xí)的織物疵點(diǎn)檢測(cè)研究進(jìn)展[J]. 紡織學(xué)報(bào), 2023, 44(1): 219-227.

        WANG Bin, LI Min, LEI Chenglin, et al. Research progress in fabric defect detection based on deep learning [J].Journal of Textile Research, 2023, 44(1): 219-227.

        [5]LI Y, WANG Z W. Research on textile defect detection based on improved cascade R-CNN[C]//2021 International Conference on Artificial Intelligence and Electromechanical Automation (AIEA).Guangzhou, China.IEEE, 2021: 43-46.

        [6]高敏, 鄒陽(yáng)林, 曹新旺. 基于改進(jìn)YOLOv5模型的織物疵點(diǎn)檢測(cè)[J]. 現(xiàn)代紡織技術(shù), 2023, 31(4): 155-163.

        GAO Min, ZOU Yanglin, CAO Xinwang. Fabric defect detection based on an improved YOLOv5 model[J]. Advanced Textile Technology, 2023, 31(4): 155-163.

        [7]ZHENG L, WANG X, WANG Q, et al. A fabric defect detection method based on improved yolov5[C]//7th International Conference on Computer and Communications (ICCC).Chengdu, China. IEEE, 2021: 620-624.

        [8]YUE X, WANG Q, HE L, et al. Research on tiny target detection technology of fabric defects based on improved YOLO[J]. Applied Sciences, 2022, 12(13): 6823.

        [9]毋濤, 崔青, 殷強(qiáng), 等. 基于改進(jìn)YOLOv7的織物疵點(diǎn)檢測(cè)算法[J]. 紡織高?;A(chǔ)科學(xué)學(xué)報(bào), 2023,36(4): 29-36.

        WU Tao, CUI Qing, YIN Qiang, et al. Weaving fabric defect detection algorithm based on improved YOLOv7 [J]. Basic Science Journal of Textile Universities, 2023,36(4):29-36.

        [10]郭殿鵬, 柯海森, 李孝祿, 等. 基于改進(jìn)YOLOv7的織物疵點(diǎn)檢測(cè)算法[J]. 棉紡織技術(shù), 2023, 51(12): 5-11.

        GUO Dianpeng, KE Haisen, LI Xiaolu, et al. Fabric defect detection algorithm based on improved YOLOv7 [J]. Cotton textile technology, 2023, 51(12): 5-11.

        Fabric fault detecting algorithm based on a parallel stacking model

        ZHOU Xingya, SUN Hongrui, SONG Rong, XIAKEER Saitaer

        (School of Textiles and Clothing, Xinjiang University, Urumqi 830047, China)

        Abstract: China's current textile and clothing exports exceed one-third of the world's proportion, ranking first in the world, so the development of textile enterprises is particularly important. But in the process of production, textiles are easily affected by environmental factors, equipment defects, human errors, poor technology, shortage of raw materials and other problems, resulting in skips, holes, water stains and other defects that affect product quality, and at present, as for the fabric defect detection link of most enterprises, manual visual inspection method with high cost and low efficiency is adopted, which causes worker fatigue and is easy to produce missed detection and false detection. Therefore, the research on intelligent fabric defect detection technology can effectively improve the production efficiency of textile enterprises, improve detection accuracy, and reduce production costs.

        Compared with the traditional defect detection algorithm applied to fabrics, the detection method based on deep learning has better adaptability and learning. To solve the problems of low accuracy, high missed detection rate, slow training speed and difficult convergence of the model in traditional enterprise applications, based on the YOLOv7 algorithm with the latest Extended-ELAN architecture, the DCCSPC parallel stacking module was designed by using the cavity convolution with different parameter values, the SPPCSC spatial pyramid pooling layer was improved, and the local and overall characteristic information of fabric defects was deeply integrated. The top-down feature extraction network of the model was selected from the bottom of the feature extraction network, the feature matrix generated by the first ELAN module was spliced after 2-fold upsampling, a higher predicted feature map of 160×160×255 size was output, and the small defects of fabrics with a width and height of only more than four pixels were predicted. To solve the problem of slow convergence caused by increasing the number of model parameters, the CIoU loss function was replaced with the WIoU loss function, solving the problem of high missed detection rate of special samples (samples with aspect ratios inconsistent with most samples), and improving the convergence speed of the model. On this basis, 2,438 fabric defect image production datasets from the platform of Alibaba Tianchi were selected, and through ablation tests and comparative experiments with other detection algorithms, it was shown that the improved model could effectively detect hair defects with a lower proportion of pixels, predict defects such as dead wrinkles in thin strips, improve the recognition rate of water stains and other color and background defects, and increase the average accuracy value by 3.4%, which can meet the conditions of industrial-grade deployment and real-time detection, and be more effectively applied to intelligent defect detection in industrial production.

        Through the specific characteristics of fabric defect types, the YOLOv7 algorithm based on deep learning is used to improve the detection accuracy of specific defects and small defects, which provides an effective method for the detection of defects in intelligent production of textile enterprises, improves the detection quality, and provides an effective idea for further research on the defect detection algorithm.

        Keywords: YOLOv7; fabric defects; deep learning; object detection; dilated convolution

        久久精品国产亚洲AV高清y w| 亚洲精品色午夜无码专区日韩| 成人大片免费在线观看视频| 国产高清精品一区二区| 国产偷国产偷亚洲综合av| 懂色av一区二区三区尤物| 日本丰满老妇bbw| 国产人妻人伦精品1国产盗摄 | 国产AV无码一区精品天堂 | 国产男女猛烈无遮挡免费视频网址 | 可免费观看的av毛片中日美韩| 国产人与zoxxxx另类| 久久久窝窝午夜精品| 亚洲丁香五月激情综合| 男的和女的打扑克的视频| 国产性感午夜天堂av| 中国精品18videosex性中国| av无码久久久久久不卡网站| 久久综合成人网| 久久精品亚洲国产成人av| 一区二区高清视频免费在线观看| 国产成人亚洲综合| 国语对白做受xxxxx在线| 精品国产乱码久久久软件下载 | aa日韩免费精品视频一| 亚洲夜夜性无码| 国产精品视频一区二区三区四 | 欧美国产亚洲日韩在线二区| 中文字幕人妻丝袜美腿乱| 亚洲中文字幕无码二区在线| 日韩av一区二区三区在线观看| 在线观看在线观看一区二区三区| 99久久精品国产一区二区| 97精品伊人久久大香线蕉app| 精品少妇爆乳无码aⅴ区| 久草精品手机视频在线观看| 日本一区二区在线高清观看| 先锋中文字幕在线资源| 久久精品无码免费不卡| 囯产精品无码va一区二区| 日韩av在线免费观看不卡|