摘" 要: 針對工業(yè)軸承表面缺陷檢測算法精度低、模型參數(shù)量大的問題,提出一種改進(jìn)YOLOv8的輕量化目標(biāo)檢測算法(MFA?YOLOv8)。首先,設(shè)計(jì)了一種輕量化多尺度特征卷積模塊EMFC,基于此重構(gòu)了主干和頸部部分C2f中的Bottleneck結(jié)構(gòu),保持輕量化的同時(shí)還有效地捕獲不同尺度信息的細(xì)節(jié)特征;其次,引入焦點(diǎn)調(diào)制模塊FM,提升模型對缺陷目標(biāo)的表征能力和感受野;最后,引入注意力尺度序列融合模塊ASF,進(jìn)一步提升網(wǎng)絡(luò)對軸承缺陷的檢測精度,減小參數(shù)規(guī)模。實(shí)驗(yàn)結(jié)果表明,在GGS數(shù)據(jù)集上,MFA?YOLOv8的檢測精度mAP@0.5高達(dá)91.5%,較YOLOv8檢測精度提升了2.4%,參數(shù)量下降了21.9%,可滿足工業(yè)現(xiàn)場軸承外觀缺陷檢測要求。
關(guān)鍵詞: 軸承表面缺陷檢測; YOLOv8; 多尺度特征卷積; 焦點(diǎn)調(diào)制網(wǎng)絡(luò); 注意力尺度序列融合; 輕量化
中圖分類號: TN911?34; TH133.3; TP391.41" " " " " " 文獻(xiàn)標(biāo)識碼: A" " " " " " "文章編號: 1004?373X(2024)19?0115?08
Lightweight bearing defect detection algorithm combined with improved YOLOv8
LANG Debao, ZHOU Kaihong
(Key Laboratory of Advanced Manufacturing and Automation Technology, Education Department of Guangxi Zhuang Autonomous Region, Guilin 541006, China)
Abstract: In view of the low accuracy and the large number of model parameters of the surface defect detection algorithms for industrial bearings, a lightweight object detection algorithm (MFA?YOLOv8) combined with improved YOLOv8 is proposed. A lightweight multi?scale feature convolution module EMFC (efficient multi?scale feature convolution) is designed, based on which the Bottleneck structure in the partial C2f of the trunk and neck is reconstructed to maintain lightweight while also capturing the detailed features of the information with different scales effectively. The focal modulation (FM) module is introduced to enhance the model′s ability to characterize the defective objects and the receptive field of the model. The attentional scale sequence fusion (ASF) module is introduced to further improve the model′s detection accuracy of bearing defects and reduce the quantity of the parameters. The experimental results show that the mean average precision mAP@0.5 of MFA?YOLOv8 is as high as 91.5% on the GGS dataset, which is 2.4% higher than that of the YOLOv8, and its number of parameters decreases by 21.9%, so the MFA?YOLOv8 can satisfy the requirements of bearing appearance defect detection in industrial sites.
Keywords: bearing surface defect detection; YOLOv8; multi?scale feature convolution; focal modulation network; ASF; lightweight
0" 引" 言
軸承作為世界上應(yīng)用最廣泛的機(jī)械基礎(chǔ)部件之一,被認(rèn)為是實(shí)現(xiàn)機(jī)械設(shè)備高效運(yùn)行的“現(xiàn)代機(jī)械工業(yè)的關(guān)節(jié)”。它們能將相對旋轉(zhuǎn)部件的直接摩擦轉(zhuǎn)化為軸承的滾動(dòng)摩擦或滑動(dòng)摩擦,從而降低摩擦系數(shù),確保機(jī)器長期穩(wěn)定運(yùn)行[1]。在軸承的生產(chǎn)和裝配過程中,軸承外表面出現(xiàn)凹槽、擦傷和劃痕等缺陷,這些缺陷會(huì)降低產(chǎn)品的性能,破壞產(chǎn)品的外觀,甚至導(dǎo)致機(jī)器損壞和人員傷亡[2?3]。因此,如何對軸承表面進(jìn)行精準(zhǔn)檢查,防止不良產(chǎn)品流入市場成為亟待解決的重要問題。
目前,基于深度學(xué)習(xí)的目標(biāo)檢測算法可分為單階段和兩階段算法。其中:單階段代表性算法包括YOLO[4?6]系列和SSD[7];兩階段算法主要包括Fast R?CNN[8]和Faster R?CNN[9]等。因YOLO家族具有簡單高效、捕獲全局上下文信息和泛化能力強(qiáng)等特點(diǎn),所以研究人員提出了一系列基于YOLO算法的改進(jìn)。文獻(xiàn)[10]提出一種軸承缺陷檢測算法(GRP?YOLOv5),在特征提取階段引入類殘差結(jié)構(gòu)的ResC2Net,在特征融合部分引入PConv,在軸承缺陷檢測精度方面表現(xiàn)優(yōu)異;文獻(xiàn)[11]基于YOLOv5提出了YOLOFS網(wǎng)絡(luò),使用基于Transformer改進(jìn)的FPT結(jié)構(gòu)替換原有的FPN+PAN,同時(shí)借鑒ResNet中的跳躍連接結(jié)構(gòu),將多尺度特征與輸入FPT結(jié)構(gòu)的特征相結(jié)合,有效提高了模型的精確率;文獻(xiàn)[12]基于YOLOv5s,采用k?means++聚類獲取錨幀,結(jié)合CARAFE上采樣算子,在檢測頭部加入小目標(biāo)檢測層,提高了檢測精度,同時(shí)保持了一定的計(jì)算效率;文獻(xiàn)[13]提出了一種加權(quán)雙向特征網(wǎng)絡(luò),將原始YOLOv5結(jié)構(gòu)中的Backbone模塊替換為Swin Transformer,并利用廣義焦點(diǎn)損失來降低漏檢率;文獻(xiàn)[14]提出YOLOv8?GEW算法,該算法集成了EMA注意力機(jī)制,增強(qiáng)了IoU損失函數(shù),提高了目標(biāo)識別和定位精度。
雖然以上研究對YOLO模型的改進(jìn)以及模型檢測的準(zhǔn)確性做出了顯著的貢獻(xiàn),但大都在原始模型中添加了更多參數(shù)作為代價(jià)。此外,基于YOLOv8算法檢測軸承表面缺陷的研究還較為罕見。因此,本文提出一種輕量級算法MFA?YOLOv8,實(shí)現(xiàn)參數(shù)規(guī)模與模型性能的平衡,該算法主要貢獻(xiàn)如下。
1) 設(shè)計(jì)了一種輕量化多尺度特征卷積模塊(Efficient Multi?Scale Feature Convolution, EMFC),使網(wǎng)絡(luò)更加關(guān)注重疊和遮擋的小目標(biāo)。
2) 引入焦點(diǎn)調(diào)制模塊(Focal Modulation, FM),提取小目標(biāo)上下文特征信息,能夠更好地聚焦軸承關(guān)鍵區(qū)域,改善了小目標(biāo)誤檢、漏檢問題。
3) 在頸部網(wǎng)絡(luò)引入注意力尺度序列融合模塊(Attentional Scale Sequence Fusion, ASF),在進(jìn)一步減少參數(shù)量的前提下提高了缺陷邊緣檢測的精度。
1" 算法介紹
1.1" MFA?YOLOv8算法
YOLOv8是Ultralytics公司在2023年發(fā)布的一個(gè)前沿SOTA模型,但YOLOv8對于復(fù)雜背景下的軸承檢測能力較弱,易造成誤檢、漏檢。此外,YOLOv8難以滿足檢測精度與模型輕量化的平衡。為了解決以上問題,本文在YOLOv8算法上進(jìn)行了如下改進(jìn)。
1) 設(shè)計(jì)了一種輕量化卷積網(wǎng)絡(luò)(EMFC);
2) 在主干網(wǎng)絡(luò)引入了焦點(diǎn)調(diào)制模塊(FM);
3) 在頸部引入注意力尺度序列融合模塊(ASF)。
MFA?YOLOv8保證了模型性能與模型量級的相互平衡,該算法整體結(jié)構(gòu)如圖1所示。
1.2" EMFC模塊
傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)在特征提取過程中依靠產(chǎn)生冗余的特征映射或在特征融合過程中使用額外的操作來獲得更好的性能。此外,傳統(tǒng)神經(jīng)卷積網(wǎng)絡(luò)對于重疊和遮擋的小目標(biāo)缺陷辨識度較差,難以有效檢測。為解決上述問題,本文設(shè)計(jì)了EMFC卷積模塊,在保持輕量化的同時(shí)也更好地避免了特征圖中信息冗余的情況,提高了模型性能。
EMFC結(jié)構(gòu)如圖2所示。
EMFC模塊具體工作步驟如下。
1) 輸入尺寸為[H×W×C]的特征圖,將[X]進(jìn)行線性變換,重新排列維度順序;
2) 利用1×1、3×3、5×5和7×7不同尺寸卷積核的標(biāo)準(zhǔn)卷積對輸入特征圖進(jìn)行提取,獲得4幅具有不同粒度語義信息的特征圖;
3) 將卷積后的特征圖重新排列成原始形狀,然后經(jīng)過ReLU激活函數(shù)進(jìn)一步提高模塊的表達(dá)能力和訓(xùn)練效率;
4) 最后使用逐點(diǎn)卷積點(diǎn)[15]建立4幅特征圖通道間的聯(lián)系。
EMFC模塊表達(dá)式如下:
[Y=Fp(λ[F1(i),F(xiàn)3(i),F(xiàn)5(i),F(xiàn)7(i)])] (1)
式中:[Y]為輸出特征圖;[i]為輸入特征圖;[λ]為ReLU激活函數(shù);[Fp]為點(diǎn)卷積;[Fk]([k]=1,3,5,7)為標(biāo)準(zhǔn)卷積。
假設(shè)輸入特征圖尺寸為[H×W×C],卷積核尺寸為[K×K],則標(biāo)準(zhǔn)卷積所需參數(shù)量如下:
[P=k×k×C2] (2)
逐點(diǎn)卷積所需參數(shù)量如下:
[PW=C2] (3)
由式(2)、式(3)可知,標(biāo)準(zhǔn)卷積所需參數(shù)量是逐點(diǎn)卷積的[k2]倍,可以降低模型的計(jì)算需求,使其在邊緣設(shè)備、移動(dòng)設(shè)備或其他計(jì)算資源有限的環(huán)境中更具可行性。
1.3" E_Bottleneck結(jié)構(gòu)
因EMFC具有降低參數(shù)計(jì)算量的優(yōu)勢,從而重構(gòu)了部分C2f中的Bottleneck,記為E_Bottleneck,以此來增強(qiáng)網(wǎng)絡(luò)性能,其結(jié)構(gòu)如圖3所示。
E_Bottleneck在進(jìn)行前向傳播時(shí),首先利用Conv 3×3降維,剔除全局通道的冗余信息,然后經(jīng)過EMFC對輸入特征圖進(jìn)行卷積。由式(2)和式(3)可知,E_Bottleneck的參數(shù)量是Bottleneck的[1k2],實(shí)現(xiàn)了模型輕量化。
1.4" 焦點(diǎn)調(diào)制模塊
在進(jìn)行空間金字塔池化時(shí),通常會(huì)將輸入特征圖劃分為固定數(shù)量的子區(qū)域,并對每個(gè)子區(qū)域應(yīng)用池化操作,這會(huì)導(dǎo)致部分信息損失。為解決部分特征信息丟失問題,緩解軸承表面缺陷差異較大導(dǎo)致的誤檢、漏檢現(xiàn)象。
現(xiàn)將焦點(diǎn)調(diào)制FM模塊[16]替換YOLOv8中的SPPF模塊,結(jié)構(gòu)如圖4所示。
FM模塊具體工作步驟為:輸入特征首先通過輕量級線性層進(jìn)行處理,然后通過上下文聚合模塊專注于關(guān)鍵信息,該模塊聚合過程分為以下兩個(gè)步驟。
1) 層次化語境:給定特征映射[X∈RH×W×C]作為輸入,將其投影到具有線性層[Z0=fz(X)]的新特征空間中。然后,使用[L]個(gè)深度卷積堆棧獲得上下文的分層呈現(xiàn)。
焦點(diǎn)層[β∈1,2,…,L],輸出[Zβ]的表達(dá)式為:
[Zβ=fβα(Zβ-1)?GeLU(DW-Conv(Zβ-1))] (4)
式中[fβα]是第[β]層的情境化函數(shù),其通過核大小為[kβ]的深度卷積DW?Conv和GeLU激活函數(shù)實(shí)現(xiàn)。與池化相比[17],深度卷積是可學(xué)習(xí)的和可結(jié)構(gòu)感知的。與常規(guī)卷積相比,其通道之間是有關(guān)聯(lián)性的,因此計(jì)算成本顯著降低。
2) 門控聚合:通過層次化語境獲得的特征映射([L]+1)被壓縮成一個(gè)調(diào)制器。在圖像中,視覺標(biāo)記(查詢)與其周圍上下文之間的關(guān)系通常取決于內(nèi)容本身。具體來說,利用線性層來獲得具有空間和水平感知的門控權(quán)重。然后,通過元素乘法執(zhí)行加權(quán)求和,以獲得與輸入[X]大小相同的單個(gè)特征映射[Zout],其表達(dá)式如下:
[G=fg(X)," " " "X∈RH×W×(L+1)Zout=β=1L+1Gβ⊙Zβ," " " "Gβ∈RH×W×1] (5)
式中:[G]為門控權(quán)重;[Gβ]是[G]在[β]層上的一個(gè)切片。
1.5" 注意力尺度序列融合模塊
Kang等提出的基于注意力尺度序列融合(Attentional Scale Sequence Fusion, ASF)[18]框架包含尺度序列特征融合(Scale Sequence Feature Fusion, SSFF)、三重特征編碼器(Triple Feature Encoder, TPE)、通道和位置注意力機(jī)制(Channel and Position Attention Mechanism, CPAM)三部分。該框架結(jié)合了空間和尺度特征,可以對小目標(biāo)實(shí)現(xiàn)精準(zhǔn)的檢測與分割。為了進(jìn)一步提高模型多尺度檢測軸承表面缺陷的性能,模型在頸部引入ASF,利用TPE替換部分Concat層,將SSFF和COAM依次添加在末部EMF_C2f后面,以此提高對小目標(biāo)的精準(zhǔn)檢測。
1.5.1" 尺度序列特征融合
SSFF模塊結(jié)合了來自多個(gè)尺度特征的全局或高級語義信息,可以更好地將深度特征圖的高維信息與淺層特征圖的詳細(xì)信息結(jié)合起來,其結(jié)構(gòu)如圖5所示。SSFF主要工作步驟如下。
1) 利用unsqueeze方法將P4、P6和P8從一個(gè)三維張量(高度,寬度,通道)變?yōu)橐粋€(gè)四維張量(深度,高度,寬度,通道)。
2) 將四維特征圖沿深度維度進(jìn)行拼接,形成三維特征圖,用于后續(xù)的卷積。
3) 利用三維卷積、三維批處理歸一化和SiLU[19]激活函數(shù)完成尺度序列特征提取。
1.5.2" 三重特征編碼器
TFE將大、中、小特征拆分,增加大尺寸特征圖,并進(jìn)行特征放大,以提高詳細(xì)的特征信息。圖6展示了TFE模塊的結(jié)構(gòu),其具體步驟如下。
在特征編碼之前,首先對特征通道的數(shù)量進(jìn)行調(diào)整,使其與主要尺度特征相一致,卷積模塊對大尺寸特征圖(Large)進(jìn)行處理后,將其通道數(shù)調(diào)整為[1C];然后采用最大池化和平均池化的混合結(jié)構(gòu)進(jìn)行下采樣,對于小尺寸的特征映射(Small),也使用卷積模塊來調(diào)整通道數(shù)并采用最近鄰插值法進(jìn)行上采樣,以此防止小目標(biāo)特征信息的丟失;最后,將尺寸相同的大、中、小三個(gè)尺寸的特征圖進(jìn)行卷積,然后在通道尺寸上進(jìn)行拼接。[FTFE]的表達(dá)式如下:
[FTFE=Concat(Fl,F(xiàn)m,F(xiàn)s)] (6)
式中:[Fl]、[Fm]和[Fs]分別表示大、中、小尺寸特征圖;[FTFE]為TFE模塊輸出的特征映射,是由[Fl]、[Fm]和[Fs]串聯(lián)而成,[FTFE]的分辨率與[Fm]相同并且是[Fm]的3倍信道數(shù)。
1.5.3" 通道和位置注意力機(jī)制
為了提取不同通道中包含的代表性特征信息,利用CPAM將詳細(xì)特征信息和多尺度特征信息相結(jié)合。CPAM由一個(gè)接收TFE輸入的通道注意力網(wǎng)絡(luò)(Input1)和一個(gè)接收通道注意網(wǎng)絡(luò)與SSFF輸出疊加輸入的位置注意力網(wǎng)絡(luò)(Input2)組成,其結(jié)構(gòu)如圖7所示,其具體步驟如下。
1) 在通道注意力機(jī)制中,首先對Input1采用全局平均池化,然后利用一維卷積捕捉跨通道的相互作用,同時(shí)使用兩個(gè)完全連接的層與非線性Sigmoid函數(shù)一起生成信道權(quán)值。
2) 在位置注意力機(jī)制中,首先將通道注意力機(jī)制的輸出與Input2作為位置注意力網(wǎng)絡(luò)的輸入相結(jié)合,可以提供互補(bǔ)的信息,然后將輸入的特征圖在水平([pw])和垂直([ph])兩個(gè)軸上進(jìn)行池化,以保留特征圖的空間結(jié)構(gòu)信息,其計(jì)算方法如下:
[pw=E(w, j)H," " "j∈[0,H]ph=E(i,h)W," " i∈[0,W]] (7)
式中:[W]和[H]分別為輸入特征映射的寬度和高度;[E(w, j)]和[E(i, h)]是輸入特征映射中位置[(i, j)]的值。
3) 當(dāng)生成位置注意力坐標(biāo)時(shí),對水平軸和垂直軸進(jìn)行連接和卷積操作:
[p(aw,ah)=Conv[Concat(pw, ph)]] (8)
式中:[p(aw,ah)]表示位置注意力坐標(biāo)的輸出;Conv表示1×1的卷積;Concat表示連接。
4) 在分割注意力特征時(shí),生成的位置相關(guān)特征圖對如下:
[sw=Split(aw)sh=Split(ah)] (9)
式中:[sw]和[sh]分別為分割輸出的寬度和高度。
5) CPAM的最終輸出定義為:
[FCPAM=E×sw×sh] (10)
式中[E]表示通道和位置注意力的權(quán)重。
2" 實(shí)驗(yàn)數(shù)據(jù)與設(shè)置
2.1" 數(shù)據(jù)集預(yù)處理
本次實(shí)驗(yàn)數(shù)據(jù)集為自制的軸承表面缺陷數(shù)據(jù)集,記為GGS。GGS主要分為三類缺陷:凹槽(Groove)、擦傷(Graze)、劃痕(Scratch),共有5 824張圖像,使用LabelImg軟件對圖片進(jìn)行標(biāo)注,標(biāo)簽標(biāo)注:凹槽、擦傷、劃痕。然后將GGS按照8∶1∶1的比例分為訓(xùn)練集、驗(yàn)證集和測試集,部分?jǐn)?shù)據(jù)集如圖8所示。
2.2" 實(shí)驗(yàn)環(huán)境與模型參數(shù)
本實(shí)驗(yàn)操作平臺為Windows 11系統(tǒng),CPU為Intel Core i5?13500H@2.50 GHz,顯卡為(GPU)NVIDIA RTXA 4000,16 GB運(yùn)行內(nèi)存,PyTorch深度學(xué)習(xí)框架,CUDA 11.8 GPU加速庫。
訓(xùn)練過程中將epoch設(shè)置為200輪,優(yōu)化器使用隨機(jī)梯度下降法(SGD),初始學(xué)習(xí)率為0.01,動(dòng)量為0.937,并采用余弦退火學(xué)習(xí)策略,動(dòng)態(tài)調(diào)整學(xué)習(xí)率。
2.3" 評價(jià)指標(biāo)
本次實(shí)驗(yàn)在檢測模型性能方面使用召回率([R])、精確率([P])、mAP@0.5、mAP@0.5:0.95作為評估指標(biāo)。mAP@0.5是IoU閾值等于0.5時(shí)所有類別的平均準(zhǔn)確度,mAP@0.5:0.95表示IoU閾值從0.5~0.95變化,步長為0.05時(shí)所有類別下的平均準(zhǔn)確度。在模型輕量化方面使用參數(shù)量(parameters)、計(jì)算量(GFLOPs)進(jìn)行評估,這些指標(biāo)有助于理解模型復(fù)雜性和計(jì)算負(fù)載。[R]、[P]、mAP@0.5、mAP@0.5:0.95計(jì)算公式分別如下:
[R=TPTP+FNP=TPTP+FPAP=01PRdRmAP=1Ni=1nAPi] (11)
式中:[TP]是正確分類的陽性樣本數(shù)量;FP是錯(cuò)誤分類的陰性樣本數(shù)量;FN是錯(cuò)誤分類的陽性樣本數(shù)量;[N]為檢測分類總數(shù)。
3" 實(shí)驗(yàn)結(jié)果與分析
3.1" 可視化結(jié)果分析
通過觀察可視化熱力圖突出顯示的區(qū)域,可以直觀地評價(jià)模型的檢測能力和目標(biāo)定位的精度。由圖9可明顯看出,MFA?YOLOv8模型能準(zhǔn)確地定位和識別缺陷目標(biāo),這表明MFA?YOLOv8模型有效地捕獲了軸承缺陷檢測任務(wù)的關(guān)鍵特征,從而實(shí)現(xiàn)了精確的邊界框預(yù)測。
3.2" 消融實(shí)驗(yàn)
為了研究改進(jìn)模塊對算法的貢獻(xiàn),本研究進(jìn)行了消融實(shí)驗(yàn)。在保持實(shí)驗(yàn)條件(包括使用的設(shè)備、訓(xùn)練超參數(shù)和迭代計(jì)數(shù))一致的情況下,在數(shù)據(jù)集上進(jìn)行獨(dú)立實(shí)驗(yàn),以評估提出的三種改進(jìn)。這些實(shí)驗(yàn)旨在揭示不同模塊在目標(biāo)檢測任務(wù)中的作用,并為目標(biāo)檢測算法的性能增強(qiáng)和改進(jìn)提供有價(jià)值的見解,實(shí)驗(yàn)結(jié)果如表1所示。
由表1可知:與YOLOv8模型相比,單獨(dú)引入EMFC模塊,mAP@0.5提升了0.9%,mAP@0.5:0.95提升了2%,參數(shù)量減小了12.5%,GFLOPs降低了4.8%,實(shí)現(xiàn)了輕量化結(jié)構(gòu);單獨(dú)引入FM模塊,mAP@0.5提升了1.3%,mAP@0.5:0.95提升了1.6%,參數(shù)量減小了3.1%,GFLOPs降低1.2%;單獨(dú)引入ASF模塊,mAP@0.5提升了1.1%,mAP@0.5:0.95提升了2%,參數(shù)量不變。實(shí)驗(yàn)5與實(shí)驗(yàn)1對比,mAP@0.5提升了2.1%,mAP@0.5:0.95提升了2.2%,參數(shù)量減小了9.4%,GFLOPs降低3.6%;實(shí)驗(yàn)6與實(shí)驗(yàn)5比較,mAP@0.5提升了0.3%,mAP@0.5:0.95提升了0.5%,參數(shù)量降低了13.8%,GFLOPs不變,在提升精度的同時(shí)彌補(bǔ)了FM模塊帶來的參數(shù)量的增加。以上實(shí)驗(yàn)結(jié)果強(qiáng)調(diào)了這三種模塊的有效性,值得注意的是,單獨(dú)引入ASF模塊導(dǎo)致GFLOPs增加2.4%。因此,在后續(xù)的科研中,有必要進(jìn)一步研究ASF算法的影響因素,并嘗試對其進(jìn)行優(yōu)化,以提高其在各種場景下的穩(wěn)定性。
綜上可知,MFA?YOLOv8模型在軸承表面缺陷檢測方面的效果遠(yuǎn)遠(yuǎn)優(yōu)于YOLOv8模型,本次消融實(shí)驗(yàn)證明了該算法對于軸承目標(biāo)表面缺陷檢測的有效性。
3.3" 不同類型缺陷的性能檢測
在本研究中,MFA?YOLOv8模型對軸承不同類型缺陷進(jìn)行了性能評估,將mAP@0.5和mAP@0.5:0.95作為評價(jià)指標(biāo),并與YOLOv8模型進(jìn)行比較,結(jié)果如表2所示。
由表2可知,檢測軸承凹槽、擦傷、劃痕缺陷精度時(shí),MFA?YOLOv8模型mAP@0.5和mAP@0.5:0.95均優(yōu)于YOLOv8模型,這表明GRP?YOLOv8模型在缺陷定位和分類方面具有更高的精度和整體性能。
3.4" 對比實(shí)驗(yàn)
為了進(jìn)一步驗(yàn)證MFA?YOLOv8模型的性能,設(shè)計(jì)了不同檢測算法對比實(shí)驗(yàn),如表3所示。
實(shí)驗(yàn)結(jié)果表明,MFA?YOLOv8模型取得了優(yōu)異的性能,mAP@0.5和mAP@0.5:0.95分別為91.5%和52.5%,優(yōu)于絕大部分主流算法,表明即使在更嚴(yán)格的置信閾值下,MFA?YOLOv8的準(zhǔn)確率也很高。雖然YOLOv3[19]的mAP@0.5:0.95、YOLOv6s[20]的mAP@0.5和mAP@0.5:0.95等指標(biāo)優(yōu)于MFA?YOLOv8,但MFA?YOLOv8參數(shù)量和GFLOPs卻遠(yuǎn)小于YOLOv3和YOLOv6s,實(shí)現(xiàn)了輕量化與精度的平衡。
3.5" 檢測結(jié)果對比
本實(shí)驗(yàn)旨在全面評估MFA?YOLOv8模型在不同缺陷類別測試集上的性能,包括凹槽(Groove)、擦傷(Graze)、劃痕(Scratch)缺陷,測試結(jié)果如圖10所示。
圖10顯示了YOLOv8模型和MFA?YOLOv8模型針對三類缺陷類別的檢測邊界框輸出。在圖10a)中,YOLOv8模型在灰度和細(xì)節(jié)感知方面存在缺陷,導(dǎo)致漏檢和誤檢。相比之下,MFA?YOLOv8模型通過引入EFMC和FM模塊,增強(qiáng)了對小目標(biāo)的捕獲能力,從而改善了凹槽缺陷的檢測結(jié)果;在圖10b)中,由于Scratch和Graze有相似之處,YOLOv8模型呈現(xiàn)假陽性,而MFA?YOLOv8模型具有更好的細(xì)節(jié)捕獲和特征融合,提高了Graze缺陷檢測的準(zhǔn)確性,避免了誤檢;在圖10c)中,YOLOv8模型對形狀和紋理特征提取不準(zhǔn)確,導(dǎo)致漏檢,而MFA?YOLOv8模型通過結(jié)合非線性轉(zhuǎn)換和多尺度通道相互作用提高了捕獲Scratch缺陷細(xì)節(jié)的能力。
檢測結(jié)果表明,MFA?YOLOv8算法在軸承漏檢與錯(cuò)檢率低的情況下,依舊保持較高的檢測精度,能更好地應(yīng)對實(shí)際檢測的需求。
4" 結(jié)" 語
本研究旨在通過提出一種輕量化的MFA?YOLOv8缺陷檢測算法來解決軸承缺陷檢測領(lǐng)域的挑戰(zhàn)。該算法通過引入EMFC、FM、ASF模塊增強(qiáng)了模型對目標(biāo)物體細(xì)節(jié)感知能力,縮小了參數(shù)規(guī)模,降低了軸承表面缺陷的小目標(biāo)漏檢、誤檢等問題,同時(shí)提升了軸承缺陷檢測精度。在GGS數(shù)據(jù)集實(shí)驗(yàn)結(jié)果中,MFA?YOLOv8算法取得了顯著的性能,mAP@0.5為91.5%,[R]為84.4%,能夠精準(zhǔn)地檢測出對比度低、幾何形態(tài)多變的軸承表面缺陷。此外,MFA?YOLOv8模型在參數(shù)規(guī)模和GFLOPs方面表現(xiàn)優(yōu)異,分別為2.5 MB和8.0 GB??傮w研究結(jié)果表明,MFA?YOLOv8算法在目標(biāo)檢測任務(wù)中比其他主流檢測算法具有顯著的性能優(yōu)勢。在未來的工作中,將研究如何保持模型精度的同時(shí)加快推理速度,使其能夠滿足軸承缺陷檢測在工業(yè)應(yīng)用中的更高需求。
參考文獻(xiàn)
[1] FU X, YANG X, ZHANG N N, et al. Bearing surface defect detection based on improved convolutional neural network [J]. Mathematical biosciences and engineering, 2023, 20(7): 12341?12359.
[2] MA J J, LIU M L, HU S Y, et al. A novel CNN ensemble framework for bearing surface defects classification based on transfer learning [J]. Measurement science amp; technology, 2022, 34(2): 025902.
[3] KUMAR P, KUMAR P, HATI A S, et al. Deep transfer learning framework for bearing fault detection in motors [J]. Mathematics, 2022, 10(24): 4683.
[4] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag?of?freebies sets new state?of?the?art for real?time object detectors [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 7464?7475.
[5] 齊向明,柴蕊,高一萌.重構(gòu)SPPCSPC與優(yōu)化下采樣的小目標(biāo)檢測算法[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(20):158?166.
[6] 王紫玉,張果,楊奇,等.基于YOLOv4的銅帶表面缺陷識別研究[J].光電子激光,2022,33(2):163?170.
[7] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot MultiBox detector [C]// Proceedings of 14th European Conference on the Computer Vision. Heidelberg: Springer, 2016: 21?37.
[8] GIRSHICK R. Fast R?CNN [C]// Proceedings of the IEEE International Conference on Computer Vision. New York: IEEE, 2015: 1440?1448.
[9] REN S Q, HE K M, GIRSHICK R B, et al. Faster R?CNN: Towards real?time object detection with region proposal networks [J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(6): 1137?1149.
[10] ZHAO Y, CHEN B L, LIU B S, et al. GRP?YOLOv5: An improved bearing defect detection algorithm based on YOLOv5 [J]. Sensors, 2023, 23(17): 7437.
[11] 劉建騏,閆河,王瀟棠,等.改進(jìn)金字塔和跳躍連接的YOLOv5目標(biāo)檢測網(wǎng)絡(luò)[J].控制與決策,2023,38(6):1730?1736.
[12] ZHOU S, ZHAO J, SHI Y, et al. Research on improving YOLOv5s algorithm for fabric defect detection [J]. International journal of clothing science and technology, 2023, 35: 88?106.
[13] LIN G J, LIU K Y, XIA X K, et al. An efficient and intelligent detection method for fabric defects based on improved YOLOv5 [J]. Sensors, 2023, 23(1): 97.
[14] REN R, SUN H X, ZHANG S J, et al. Intelligent detection of lightweight ″Yuluxiang″ pear in non?structural environment based on YOLO?GEW [J]. Agronomy, 2023, 13(9): 2418.
[15] ZHU Z R, WANG J F, WU M M. Pattern recognition of quartz sand particles with PointConv network [J]. Computers and geotechnics, 2023, 153: 105061.
[16] YANG J W, LI C Y, DAI X Y, et al. Focal modulation networks [EB/OL]. [2022?11?05]. https://arxiv.org/abs/2203.11926v3.
[17] YU W H, LUO M, ZHOU P, et al. Metaformer is actually what you need for vision [EB/OL]. [2024?06?20]. https://arxiv.org/abs/2111.11418.
[18] KANG M, TING C M, TING F F, et al. ASF?YOLO: A novel YOLO model with attentional scale sequence fusion for cell instance segmentation [EB/OL]. [2024?01?04]. https://arxiv.org/abs/2111.11418.
[19] 程婧怡,段先華,朱偉.改進(jìn)YOLOv3的金屬表面缺陷檢測研究[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(19):252?258.
[20] LI C Y, LI L L, JIANG H L, et al. YOLOv6: A single?stage object detection framework for industrial applications [EB/OL]. [2024?02?18]. https://doi.org/10.48550/arXiv.2209.02976.
作者簡介:郎德寶(1998—),男,遼寧鳳城人,碩士研究生,研究方向?yàn)榫軠y量與精密儀器、深度學(xué)習(xí)。
周凱紅(1968—),男,湖南岳陽人,博士研究生,教授,研究方向?yàn)閺?fù)雜齒輪的數(shù)字化設(shè)計(jì)和制造、復(fù)雜曲面的多軸聯(lián)動(dòng)數(shù)控制造技術(shù)。
收稿日期:2024?03?23" " " " " "修回日期:2024?04?16
基金項(xiàng)目:國家自然科學(xué)基金面上項(xiàng)目(52075110);廣西自然科學(xué)基金重點(diǎn)項(xiàng)目(2023GXNSFDA026045)