亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOX的鋼材表面缺陷檢測研究

        2024-09-14 00:00:00劉毅蔣三新
        現(xiàn)代電子技術(shù) 2024年9期

        摘" 要: 針對(duì)目前單階段目標(biāo)檢測網(wǎng)絡(luò)YOLOX的特征提取能力不足、特征融合不充分以及鋼材表面缺陷檢測精度不高等問題,提出一種改進(jìn)YOLOX的鋼材表面缺陷檢測算法。首先,在Backbone部分引入改進(jìn)的SE注意力機(jī)制,增添一條最大池化層分支,進(jìn)行權(quán)重融合,強(qiáng)化重要的特征通道;其次,在Neck部分引入ASFF模塊,充分利用不同尺度的特征,更好地進(jìn)行特征融合;最后,針對(duì)數(shù)據(jù)集所呈現(xiàn)的特點(diǎn),將IOU損失函數(shù)替換為EIOU損失函數(shù),改善模型定位不準(zhǔn)確的問題,提高缺陷檢測精度。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的YOLOX算法具有良好的檢測效果,在NEU?DET數(shù)據(jù)集上的mAP達(dá)到了75.66%,相比原始YOLOX算法提高了3.74%,較YOLOv6提升了2.76%,檢測精度優(yōu)于其他主流算法。

        關(guān)鍵詞: YOLOX; 單階段目標(biāo)檢測網(wǎng)絡(luò); SE注意力機(jī)制; ASFF模塊; 表面缺陷檢測; EIOU損失函數(shù)

        中圖分類號(hào): TN911.73?34; TP34""""""""""""""""" 文獻(xiàn)標(biāo)識(shí)碼: A"""""""""""""""""""" 文章編號(hào): 1004?373X(2024)09?0131?08

        0" 引" 言

        鋼材作為一種重要的工業(yè)產(chǎn)品正隨著經(jīng)濟(jì)的發(fā)展擴(kuò)張規(guī)模、提升產(chǎn)量,盡管目前生產(chǎn)制造水平有了巨大的進(jìn)步,但在鋼材的生產(chǎn)和加工過程中,很容易受到各種不良因素的影響,從而使鋼材表面產(chǎn)生多種類型的缺陷[1]。比較常見的缺陷有劃痕、孔洞、裂紋,這些不同類型的缺陷會(huì)使得鋼材的耐久性、使用強(qiáng)度急劇下降,缺陷會(huì)隨著時(shí)間影響正常使用,甚至?xí)斐刹豢深A(yù)料的后果,所以,迅速而精確地識(shí)別鋼材表面的缺陷變得至關(guān)重要。

        在AI技術(shù)日益成熟的今天,計(jì)算機(jī)視覺逐步取代了傳統(tǒng)的檢測手段。計(jì)算機(jī)視覺可以較好地解決傳統(tǒng)檢測方法漏檢率高、成本高等缺點(diǎn),它在圖像分類、人臉識(shí)別和目標(biāo)檢測等領(lǐng)域得到了廣泛應(yīng)用[2]。近年來,在金屬表面缺陷檢測領(lǐng)域,文獻(xiàn)[3]提出了一種基于自適應(yīng)空間特征融合結(jié)構(gòu)與EIOU損失函數(shù)的改進(jìn)YOLOv4算法,提高了檢測精度。文獻(xiàn)[4]在YOLOv4的基礎(chǔ)上設(shè)計(jì)了一個(gè)并行的雙通道注意力模塊,提出了YOLO?DCSAM算法對(duì)鋁帶缺陷進(jìn)行檢測。文獻(xiàn)[5]基于YOLOX模型,結(jié)合新型特征提取網(wǎng)絡(luò)ECMNet與數(shù)據(jù)增強(qiáng)方法,提出了E?YOLOX算法。文獻(xiàn)[6]在YOLOv7的基礎(chǔ)上融合了加權(quán)雙向特征金字塔,并采納了多頭注意力機(jī)制MHSA和SPD卷積結(jié)構(gòu),從而增強(qiáng)了缺陷檢測的準(zhǔn)確性。面對(duì)帶鋼表面缺陷檢測中的低速率和實(shí)時(shí)性問題,文獻(xiàn)[7]采用了多尺度檢測策略并融入空間注意力策略,進(jìn)而設(shè)計(jì)了一種對(duì)YOLOv4的實(shí)時(shí)檢測優(yōu)化方案。

        本文基于YOLOX目標(biāo)檢測算法,采用YOLOX_S作為預(yù)訓(xùn)練模型,目標(biāo)是在維持檢測速度的基礎(chǔ)上,進(jìn)一步優(yōu)化鋼材表面缺陷的檢測準(zhǔn)確性。對(duì)于引入的SE注意力機(jī)制進(jìn)行改進(jìn),添加一條全局最大池化層,增強(qiáng)特征提取能力;添加ASFF模塊,使得不同尺度的特征之間更好地融合;將損失函數(shù)替換為EIOU損失函數(shù),計(jì)算回歸框?qū)捀叩牟町愔等〈丝v橫比,加速了網(wǎng)絡(luò)收斂的同時(shí)提高了回歸精度。改進(jìn)后的檢測網(wǎng)絡(luò)在NEU?DET鋼材表面缺陷數(shù)據(jù)集上有了較明顯的提升。

        1" 相關(guān)工作

        1.1" YOLOX算法

        YOLO系列算法[8]是一種基于深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測方法,具有檢測精度高、速度快的特點(diǎn)。YOLOX算法[9]在YOLOX系列算法中處于較先進(jìn)的版本,YOLOX?s網(wǎng)絡(luò)于2021年提出,其主要由主干網(wǎng)絡(luò)(Backbone)部分、特征提取網(wǎng)絡(luò)(Neck)和用于結(jié)果預(yù)測的檢測頭(YOLO Head)等三部分構(gòu)成。首先,圖像被送入主干網(wǎng)絡(luò)以抽取特征,得到三種不同尺度的特征圖,隨后這些特征圖被送入PAFPN網(wǎng)絡(luò)進(jìn)行進(jìn)一步的特征強(qiáng)化與融合;接著,PAFPN對(duì)深層特征進(jìn)行上采樣,同時(shí)對(duì)淺層特征執(zhí)行下采樣,通過這兩種方式結(jié)合形成了一個(gè)更為豐富的特征表示;最終,這一強(qiáng)化后的特征圖被送入YOLOX?Head的解耦部分,輸出預(yù)測結(jié)果。YOLOX最大的改進(jìn)就是采用Anchor?free檢測算法,取消了在預(yù)測端使用多個(gè)錨框預(yù)測目標(biāo)的類別以及位置,解決了數(shù)據(jù)冗余問題,這樣使得檢測頭的參數(shù)量大大降低。YOLOX的核心創(chuàng)新在于實(shí)施了Anchor?free的檢測策略,摒棄了傳統(tǒng)的多錨框預(yù)測方式,從而減少了數(shù)據(jù)的冗余性并顯著減少了檢測頭的參數(shù)。此外,YOLOX引入了SimOTA動(dòng)態(tài)匹配技術(shù)。這種技術(shù)通過評(píng)估預(yù)測框與實(shí)際框的重合度來確定每個(gè)實(shí)際框的特征點(diǎn)數(shù),它根據(jù)特征點(diǎn)的預(yù)測精度和實(shí)際框的覆蓋度構(gòu)建成本矩陣,并選擇成本最低的特征點(diǎn)作為實(shí)際框的正樣本。

        1.2" SENet注意力機(jī)制

        SENet[10]代表了一種經(jīng)典的通道注意力策略,它主要側(cè)重于挖掘特征通道間的相互作用,從而使模型能夠識(shí)別各通道特征的關(guān)鍵性。簡單概括就是增強(qiáng)重要特征,抑制不重要的特征。SE單元結(jié)構(gòu)如圖1所示。

        SE單元的操作流程可以概括為三個(gè)核心階段:

        1) “壓縮”階段。其中輸入特征圖被轉(zhuǎn)化為一個(gè)通道級(jí)的描述,對(duì)每個(gè)通道進(jìn)行全局平均池化。這不僅壓縮了特征的空間維度,還為每個(gè)通道提供了一個(gè)全局響應(yīng)的描述,從而捕獲了全局上下文信息。

        2) “激勵(lì)”階段。它的目的是學(xué)習(xí)通道間的依賴關(guān)系,這是通過兩個(gè)全連接層實(shí)現(xiàn)的,其中第一層降低了權(quán)重因子的維度,以減少計(jì)算復(fù)雜性,然后通過ReLU激活函數(shù)增強(qiáng)非線性;第二層則將權(quán)重因子的維度恢復(fù)到原始大小,為每個(gè)通道生成一個(gè)權(quán)重。

        3) 進(jìn)入“重新加權(quán)”階段。這里的目標(biāo)是利用上一步得到的通道權(quán)重來調(diào)整原始特征圖。每個(gè)通道的特征值都乘以其相應(yīng)的權(quán)重,從而強(qiáng)化或弱化某些特征通道。整體而言,SENet的這種注意力機(jī)制強(qiáng)調(diào)了通道間的依賴性,使模型能夠更加聚焦于重要的特征,從而提高了特征的區(qū)分能力。

        2" 改進(jìn)的YOLOX算法

        本研究為鋼材表面缺陷特征提出了一種基于YOLOX的優(yōu)化檢測模型,其整體架構(gòu)如圖2所示。

        2.1" 改進(jìn)的SENet注意力機(jī)制

        為了融合不同類型的全局信息,進(jìn)一步提高目標(biāo)檢測模型的特征提取能力和魯棒性,本文提出了一種改進(jìn)方法,通過在Squeeze部分添加全局最大池化分支,結(jié)合全局平均池化和全局最大池化的優(yōu)點(diǎn),使模型能夠捕獲更豐富、更具表現(xiàn)力的描述符。這種組合使得網(wǎng)絡(luò)能夠更好地適應(yīng)目標(biāo)的尺寸、形狀和紋理變化。改進(jìn)方法實(shí)際上引入了一種更豐富的特征選擇策略,該策略關(guān)注整體特征的平均信息和局部最顯著信息,從而提高模型的判別能力。除此以外,輸出的池化層還會(huì)分別經(jīng)過1×1卷積,映射成相應(yīng)的權(quán)重,這使得模型可以在訓(xùn)練過程中學(xué)習(xí)如何根據(jù)不同任務(wù)和場景調(diào)整全局平均池化和全局最大池化的權(quán)重。這種自適應(yīng)學(xué)習(xí)策略有助于提高模型的泛化能力,使模型在處理多樣性較大的目標(biāo)檢測任務(wù)時(shí)具有更好的性能。在最終步驟中,將SE單元中的標(biāo)準(zhǔn)全連接層替換為1×1的卷積操作,不僅有效地降低了模型的參數(shù)數(shù)量,還有助于避免過擬合現(xiàn)象,從而提升了模型的適應(yīng)性。改進(jìn)后的SE單元結(jié)構(gòu)如圖3所示。

        2.2" 引入ASFF算法

        傳統(tǒng)的目標(biāo)檢測算法通常采用簡單的特征融合策略,然而這些方法對(duì)于不同尺寸的目標(biāo)難以有較好的檢測結(jié)果。為了解決這一問題,本文提出了ASFF(Adaptive Spatial Feature Fusion,自適應(yīng)空間特征融合)算法[11],ASFF是一種用于目標(biāo)檢測任務(wù)中的特征融合方法,可以幫助模型捕捉不同尺度的缺陷目標(biāo),讓模型有更好的檢測精度。ASFF算法的關(guān)鍵思想是在多尺度特征之間進(jìn)行自適應(yīng)權(quán)重分配,以實(shí)現(xiàn)更好的融合效果,ASFF結(jié)構(gòu)如圖4所示。

        圖4中,輸入通過PAFPN輸出三個(gè)特征圖。本文從上到下對(duì)它們進(jìn)行編號(hào):特征圖[X1]、[X2]、[X3]。不同顏色的箭頭表示不同特征圖中的特征傳遞。[X1]具有最大的感受野,stride為32,適合檢測圖片中比較大的缺陷;[X3]具有最小的感受野,stride為8,適合檢測比較小的缺陷;[X2]的感受野介于兩者之間,stride為16,檢測中等尺寸的缺陷。

        ASFF將PAFPN網(wǎng)絡(luò)的輸出([X1]、[X2]、[X3])作為三個(gè)特征圖融合的輸入。ASFF的計(jì)算過程包括兩部分:特征調(diào)整和自適應(yīng)融合。特征調(diào)整包括將特征圖縮放到待融合特征圖的大小,以確保在融合過程中特征圖的大小保持一致。[X1→3]表示將[X1]縮放到[X3]大小后的圖像。自適應(yīng)融合是通過網(wǎng)絡(luò)訓(xùn)練三個(gè)權(quán)重圖[α]、[β]和[γ],并將它們與輸入特征圖相乘。

        以圖4中ASFF?3的輸入為例:首先,對(duì)[X1]、[X2]和[X3]進(jìn)行特征縮放,分別得到[X1→3]、[X2→3]和[X3→3];然后,使用網(wǎng)絡(luò)訓(xùn)練與[X1→3]、[X2→3]和[X1→3]大小相同的三個(gè)權(quán)重圖([α]、[β]和[γ]),并逐點(diǎn)將每個(gè)權(quán)重圖與每個(gè)輸入相乘,以確定輸入特征圖[X]中每個(gè)像素的激活和抑制,從而實(shí)現(xiàn)特征融合;最后,逐點(diǎn)相乘后將獲得的三個(gè)矩陣相加,得到ASFF中小目標(biāo)的特征融合結(jié)果輸出。上述計(jì)算的公式如式(1)所示:

        [ASFF?3=X1→3?α3+X2→3?β3+X3→3?γ3]" (1)

        通過這樣的計(jì)算,來檢測小目標(biāo)的特征圖[X3]中豐富的小目標(biāo)特征。同時(shí),在特征圖[X3]中過濾出大目標(biāo)和中等目標(biāo)特征的激活值,使模型更加關(guān)注小目標(biāo)的檢測。鋼材表面缺陷數(shù)據(jù)集包含大量的小目標(biāo),引入ASFF可以盡可能地融合這些小目標(biāo)的特征,提高小目標(biāo)的檢測效果。

        2.3" 引入EIOU損失函數(shù)

        YOLOX的損失函數(shù)由三個(gè)關(guān)鍵部分組成:類別損失[Lossclg]、置信度損失[Lossobj]、邊界框的位置回歸損失[Lossreg]。在這三者中,類別損失和置信度損失都采用二值交叉熵?fù)p失函數(shù)作為其計(jì)算基礎(chǔ),而對(duì)于位置損失,選擇[IOU_Loss]作為核心計(jì)算方法,如式(2)所示:

        [Loss=wiouLossreg+Lossobj+Lossclg]" (2)

        然而,[IOU_Loss]存在一些明顯的缺陷:例如,當(dāng)預(yù)測的邊界框與實(shí)際的目標(biāo)框沒有交集時(shí),IOU就不能準(zhǔn)確地描述兩者之間的距離關(guān)系,這會(huì)導(dǎo)致?lián)p失函數(shù)在某些情況下變得不可導(dǎo)。此外,即使是固定的IOU值,也不能真實(shí)地反映兩個(gè)框的實(shí)際交叉情況。

        為了克服這些問題,研究者提出了[GIOU_LOSS]損失函數(shù)[12]。這個(gè)新的損失函數(shù)旨在改進(jìn)[IOU_LOSS]中的相交問題,使其更加準(zhǔn)確。但是,[GIOU_LOSS]也并非沒有缺點(diǎn)。當(dāng)預(yù)測框完全嵌套在目標(biāo)框內(nèi),或者與目標(biāo)框的寬和高完全對(duì)齊時(shí),GIOU函數(shù)會(huì)自動(dòng)退化為IOU。如圖5所示,灰色框?yàn)槟繕?biāo)框,白色為背景。

        [GIOU_Loss=1-IOU+C-(A∪B)C] (3)

        式中[C]是預(yù)測框與目標(biāo)框的最小外接矩形區(qū)域。

        為了解決GIOU存在的問題,研究者提出了[DIOU_Loss] [13]。與[GIOU]不同,[DIOU_Loss]并不是簡單地考慮兩個(gè)邊界框的重疊面積,而是采用了一種新的方法,即通過最小化兩個(gè)邊界框中心點(diǎn)之間的標(biāo)準(zhǔn)化距離來加速損失的收斂,如圖6所示。進(jìn)一步地,CIOU損失函數(shù)在DIOU的基礎(chǔ)上引入了一個(gè)新的概念,即邊界框的縱橫比。這一改進(jìn)使得CIOU能夠更準(zhǔn)確地回歸目標(biāo)框。具體來說,CIOU的計(jì)算包括了一個(gè)額外的懲罰項(xiàng)[αν],該懲罰項(xiàng)考慮了預(yù)測框與真實(shí)框之間的縱橫比差異,從而更好地衡量兩者之間的長寬比。計(jì)算公式如下:

        [CIOU_Loss=1-IOU+ρ2b,bgtc2+αν] (4)

        式中:[αν]是衡量長寬比的影響因子;[ρ2(b,bgt)]表示預(yù)測框與目標(biāo)框中心點(diǎn)的歐氏距離;[c]是兩框最小外接矩形的對(duì)角線長度。

        盡管[CIOU_Loss]在多個(gè)方面都進(jìn)行了改進(jìn),但在處理縱橫比時(shí)仍有一些不足。它主要是通過一個(gè)參數(shù)[ν]來描述兩個(gè)框的縱橫比差異,但這種方法并不能準(zhǔn)確地捕捉到框的實(shí)際寬高差異。為了更精確地描述這種差異,研究者們進(jìn)一步改進(jìn)了CIOU,提出了[EIOU_Loss][14]。此外,為了更好地關(guān)注優(yōu)質(zhì)的錨框,[EIOU_Loss]還結(jié)合了Focal機(jī)制。

        EIOU在CIOU的基礎(chǔ)上進(jìn)一步細(xì)化,它將縱橫比的參考量分解,單獨(dú)對(duì)目標(biāo)框和錨框的長度與寬度進(jìn)行計(jì)算和優(yōu)化,該損失函數(shù)包含三個(gè)部分:重疊損失、中心距離損失、寬高損失,前兩部分延續(xù)CIOU中的方法,但是寬高損失直接使目標(biāo)盒與錨盒的寬度和高度之差最小,使得收斂速度更快,計(jì)算公式如下:

        [EIOU_Loss=1-IOU+ρ2b,bgtc2+ρ2w,wgtC2w+ρ2(h,hgt)C2h] (5)

        式中:[Cw]和[Ch]是覆蓋兩個(gè)Box的最小外接框的寬度和高度。

        3" 實(shí)驗(yàn)與結(jié)果分析

        實(shí)驗(yàn)使用的環(huán)境配置如表1所示。

        3.1" 數(shù)據(jù)集

        數(shù)據(jù)集采用NET?DET數(shù)據(jù)集。NEU?DET是東北大學(xué)發(fā)布的專門針對(duì)帶鋼表面缺陷的數(shù)據(jù)集,它涵蓋了6種主要的缺陷類別:裂紋(crazing)、夾雜(in?clusion)、斑塊(patches)、劃痕(scratches)、麻點(diǎn)(pitted_surface)和氧化鐵皮壓入(rolled?in_scale)。整體數(shù)據(jù)集包括1 800張200×200的灰度圖像,每種缺陷各有300張。為了研究,將數(shù)據(jù)按8∶2的比例分為訓(xùn)練集(1 440張)和測試集(360張)。缺陷樣例如圖7所示。

        為了全面評(píng)估模型的性能,本文選用了兩個(gè)核心指標(biāo):平均精度(AP)和均值平均精度(mAP)。此外,還參考了每秒檢測幀數(shù)(單位:f/s)、精確率([P])和召回率([R])。通過將[P]和[R]作為坐標(biāo)軸,可以繪制[P?R]曲線,其中AP代表該曲線下的面積。一個(gè)較大的面積意味著更高的AP值,反映出模型的準(zhǔn)確性。mAP則是各類別AP的平均,而FPS衡量了模型的檢測速度。

        3.2" 實(shí)驗(yàn)結(jié)果分析

        3.2.1" 消融實(shí)驗(yàn)分析

        為了深入了解這三種改進(jìn)策略對(duì)模型的貢獻(xiàn),實(shí)驗(yàn)以YOLOX_S作為基準(zhǔn),在NEU?DET數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn)。所有的環(huán)境和參數(shù)配置都保持一致,具體的檢測結(jié)果如表2和表3所示。

        由表2、表3可知,裂紋類別、麻點(diǎn)類別、氧化鐵皮類別有明顯的精度提升,mAP提高了1.58%。實(shí)驗(yàn)3采用的是改進(jìn)的SE注意力機(jī)制,與初始SE注意力機(jī)制相比,裂紋類別和麻點(diǎn)類型的檢測精度略有提升,總體的檢測精度也有了一定提升,實(shí)驗(yàn)3證明了在參數(shù)量沒有較大變化的條件下,改進(jìn)的SE注意力機(jī)制是有效的。實(shí)驗(yàn)4所采取的改進(jìn)點(diǎn)可以有效提高模型特征融合的能力,在原有特征的基礎(chǔ)上進(jìn)行特征的二次融合,能夠獲取更加豐富的特征,從而更好地進(jìn)行預(yù)測。由表3可知,檢測精度也有略微提升。實(shí)驗(yàn)5使用EIOU損失函數(shù)作為模型的位置回歸損失,可以一定程度上改善缺陷的識(shí)別能力。實(shí)驗(yàn)6~實(shí)驗(yàn)8采用不同策略兩兩結(jié)合進(jìn)行檢測,結(jié)果發(fā)現(xiàn)兩兩組合進(jìn)行檢測,在FPS差距不大的情況下,最終檢測精度都優(yōu)于采用單一策略。實(shí)驗(yàn)9將三種改進(jìn)策略都融入進(jìn)YOLOX網(wǎng)絡(luò)中,取得了最好的結(jié)果。圖8是訓(xùn)練過程中mAP變化圖。圖9是各個(gè)缺陷類別mAP變化圖。

        3.2.2" 不同注意力機(jī)制結(jié)果對(duì)比

        為了更有力地說明選擇SENet作為改進(jìn)點(diǎn)的理由,在Backbone部分輸出之后、Neck輸入之前,本文引入了多種常見的注意力機(jī)制(ECANet[15]、CBAM[16]、CA[17]、FCANet[18])進(jìn)行比較,從中選擇檢測精度最高的注意力機(jī)制作為模型的改進(jìn)點(diǎn),評(píng)價(jià)指標(biāo)為mAP值。實(shí)驗(yàn)結(jié)果如圖10所示。

        通過圖10可以得知,針對(duì)本文中的檢測任務(wù),SE注意力機(jī)制的檢測精度在測試中的注意力機(jī)制精度最高,可以有效提高模型對(duì)缺陷的關(guān)注程度,加強(qiáng)重要的特征,所以引入SE注意力機(jī)制優(yōu)化YOLOX檢測模型。

        3.2.3" 不同算法模型對(duì)比

        為了比較本文改進(jìn)算法和其他算法的檢測效果,在同一個(gè)NEU?DET數(shù)據(jù)集劃分基準(zhǔn)的前提下,采用SSD[19]、Mask?RCNN[20]、YOLOv5以及比較新的YOLOv6[21]進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果見表4。

        3.2.4" 檢測相關(guān)對(duì)比

        為了進(jìn)一步證明算法改進(jìn)的有效性,更加直觀比較改進(jìn)后的YOLOX模型與原模型的實(shí)際檢測效果,隨機(jī)選取了部分?jǐn)?shù)據(jù)集,對(duì)部分缺陷圖片進(jìn)行檢測,檢測效果如圖11所示。

        對(duì)比改進(jìn)前后可以看出,原始的YOLOX模型存在置信度比較低這一不足,改進(jìn)后的YOLOX模型缺陷檢測的置信度相比原YOLOX模型有了一定的提高,除此以外,缺陷的定位也比原始模型更加精確。

        為了驗(yàn)證改進(jìn)算法的通用性,額外選取北京大學(xué)公開的印刷電路板缺陷數(shù)據(jù)集進(jìn)行驗(yàn)證,數(shù)據(jù)集有6個(gè)類別,分別為漏焊(Missing_hole)、缺口(Mousebite)、開路(Opencircuit)、短路(Short)、毛刺(Spur)、余銅(Spuriouscopper)。

        改進(jìn)方案取得的數(shù)據(jù)如表5所示。檢測效果如圖12所示。

        4" 結(jié)" 語

        本文對(duì)YOLOX算法進(jìn)行改進(jìn),優(yōu)化鋼材表面缺陷檢測問題,提出了一種改進(jìn)的SE注意力機(jī)制,進(jìn)一步增強(qiáng)模型對(duì)特征的提取能力;添加了最大池化層分支,與平均池化層進(jìn)行權(quán)重融合,充分利用Backbone提取的特征,取得更好的檢測效果;引入ASFF算法模型捕捉不同尺度的缺陷目標(biāo),能夠更有效地進(jìn)行特征融合,使得小目標(biāo)的檢測精度有所提升;將IOU損失函數(shù)替換為EIOU損失函數(shù),改善模型定位不準(zhǔn)確的問題,加強(qiáng)了模型對(duì)缺陷目標(biāo)的識(shí)別能力。實(shí)驗(yàn)結(jié)果驗(yàn)證了所做的改進(jìn)是有效的。后續(xù)將會(huì)對(duì)裂紋類別的缺陷進(jìn)行更深層次的研究,進(jìn)一步改善此類別檢測精度不高的問題,提升模型總體的檢測精度以及檢測速度。

        注:本文通訊作者為蔣三新。

        參考文獻(xiàn)

        [1] 王浩然.基于YOLOv5的鋼材表面缺陷檢測研究[D].桂林:廣西師范大學(xué),2022.

        [2] 李鑫,汪誠,李彬,等.改進(jìn)YOLOv5的鋼材表面缺陷檢測算法[J].空軍工程大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,23(2):26?33.

        [3] 葉欣.基于深度學(xué)習(xí)的熱軋帶鋼表面缺陷檢測算法研究[D].武漢:武漢科技大學(xué),2021.

        [4] MA Z X, LI Y B, HUANG M H, et al. A lightweight detector based on attention mechanism for aluminum strip surface defect detection [J]. Computers in industry, 2022, 136: 103585.

        [5] 曹義親,周一緯,徐露.基于E?YOLOX的實(shí)時(shí)金屬表面缺陷檢測算法[J].圖學(xué)學(xué)報(bào),2023,44(4):677?690.

        [6] 齊向明,董旭.改進(jìn)Yolov7?tiny的鋼材表面缺陷檢測算法[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(12):176?183.

        [7] 鄒旺,吉暢.一種改進(jìn)YOLOv4?tiny的帶鋼表面缺陷實(shí)時(shí)檢測方法[J].機(jī)械科學(xué)與技術(shù),2023,42(6):883?889.

        [8] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real?time object detection [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2016: 779?788.

        [9] GE Z, LIU S T, WANG F, et al. YOLOX: Exceeding YOLO series in 2021 [EB/OL]. (2021?08?06) [2022?01?15]. https://arxiv.org/abs/2107.08430.

        [10] HU J, SHEN L, ALBANIE S, et al. Squeeze?and?excitation networks [EB/OL]. [2023?10?30]. http://arxiv.org/abs/1709.01507.

        [11] LIU S T, HUANG D, WANG Y H. Learning spatial fusion for single?shot object detection [EB/OL]. [2019?12?03]. http://arxiv.org/abs/1911.09516.

        [12] REZATOFIGHI H, TSOI N, GWAK J Y, et al. Generalized intersection over union: A metric and a loss for bounding box regression [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2019: 658?666.

        [13] ZHENG Z, WANG P, LIU W, et al. Distance?IoU loss: Faster and better learning for bounding box regression [C]// The Thirty?fourth AAAI Conference on Artificial Intelligence. New York: IEEE, 2020: 12993?13000.

        [14] ZHANG Y F, REN W Q, ZHANG Z, et al. Focal and efficient IOU loss for accurate bounding box regression [J]. Neurocomputing, 2022, 506: 146?157.

        [15] LIU T, LUO R, XU L, et al. Spatial channel attention for deep convolutional neural networks [J]. Mathematics, 2022, 10(10): 1750?1759.

        [16] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module [C]// 2018 European Conference on Computer Vision (ECCV). Heidelberg, Germany: Springer, 2018: 3?19.

        [17] HOU Q, ZHOU D, FENG J. Coordinate attention for efficient mobile network design [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 13713?13722.

        [18] QIN Z, ZHANG P, WU F, et al. FcaNet: Frequency channel attention networks [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 763?772.

        [19] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector [C]// Proceedings of 14th European Con?ference on Computer Vision. Heidelberg: Springer, 2016: 21?37.

        [20] HE K, GKIOXARI G, DOLLáR P, et al. Mask R?CNN [C]// Proceedings of the IEEE International Conference on Computer Vision. New York: IEEE, 2017: 2961?2969.

        [21] LI C Y, LI L L, JIANG H L, et al. YOLOv6: A single?stage object detection framework for industrial applications [EB/OL]. [2024?03?19]. https://doi.org/10.48550/arXiv.2209.02976.

        Steel surface defect detection algorithm based on improved YOLOX

        LIU Yi, JIANG Sanxin

        (School of Electronics and Information Engineering, Shanghai University of Electric Power, Shanghai 201306, China)

        Abstract: In view of the unsatisfied feature extraction capability, inadequate feature fusion, and low accuracy in steel surface defect detection in the current single?stage object detection network YOLOX, a steel surface defect detection algorithm based on improved YOLOX is proposed. An improved SE attention mechanism is introduced into the Backbone, adding a pooling layer branch to fuse the weight and strengthen important feature channels. An ASFF (adaptively spatial feature fusion) module is incorporated in the Neck to fully utilize features of different scales and achieve better feature fusion. On the basis of the characteristics of this dataset, the IOU loss function is replaced by EIOU loss function, so as to eliminate inaccurate model positioning and improve the accuracy of defect detection. Experimental results demonstrate that the improved algorithm has good detection performance, which achieves mAP (mean average precision) of 75.66% on the NEU?DET dataset, increasing 3.74% in comparison with that of the original YOLOX algorithm, and 2.76% over that of the YOLOv6 algorithm. Therefore, the detection accuracy of the proposed algorithm outperforms that of the other mainstream algorithms.

        Keywords: YOLOX; single?stage object detection network; SE attention mechanism; ASFF module; surface defect detection; EIOU loss function

        DOI:10.16652/j.issn.1004?373x.2024.09.024

        引用格式:劉毅,蔣三新.基于改進(jìn)YOLOX的鋼材表面缺陷檢測研究[J].現(xiàn)代電子技術(shù),2024,47(9):131?138.

        收稿日期:2023?12?18"""""""""" 修回日期:2024?01?10

        劉" 毅,等:基于改進(jìn)YOLOX的鋼材表面缺陷檢測研究

        劉" 毅,等:基于改進(jìn)YOLOX的鋼材表面缺陷檢測研究

        劉" 毅,等:基于改進(jìn)YOLOX的鋼材表面缺陷檢測研究

        作者簡介:劉" 毅(1999—),碩士研究生,主要研究方向?yàn)樯疃葘W(xué)習(xí)與圖像處理、缺陷檢測。

        蔣三新(1975—),博士研究生,講師,主要研究方向?yàn)闄C(jī)器視覺、深度增強(qiáng)學(xué)習(xí)等。

        日本一区二区三区人妻| 亚洲av日韩片在线观看| 男女在线免费视频网站| av免费在线国语对白| 国产免码va在线观看免费| 伊伊人成亚洲综合人网香| 国产爆乳无码一区二区在线| 亚洲性码不卡视频在线| 青青草视频在线观看色| 99热爱久久99热爱九九热爱| 精品少妇一区二区三区视频| 亚洲乱精品中文字字幕| 高潮精品熟妇一区二区三区| 精品久久久久久久久午夜福利| 一本一本久久a久久精品综合麻豆| 久热爱精品视频在线观看久爱| 青青草在线公开免费视频| 天天做天天爱夜夜爽毛片毛片| 自拍偷自拍亚洲精品情侣| 天天干夜夜躁| 亚洲天堂av在线观看免费| 高潮毛片无遮挡高清视频播放| 在线va免费看成| 尤物蜜芽福利国产污在线观看| 你懂的视频在线看播放| 人人人妻人人澡人人爽欧美一区| 亚洲一区二区三区国产精华液| 中文人妻av大区中文不卡| 日韩免费精品在线观看| 成年女人免费视频播放体验区| 国产精品18禁久久久久久久久| 日本人妻伦理片在线观看| 一区二区三区高清在线观看视频| 小荡货奶真大水真多紧视频| 久久青青草原亚洲AV无码麻豆| 综合中文字幕亚洲一区二区三区| 欧美男生射精高潮视频网站| 亚州少妇无套内射激情视频| 亚洲中文字幕无码不卡电影| 国产影片一区二区三区| 啦啦啦www播放日本观看|