亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv5-CBAM 模型的劃痕智能檢測

        2024-12-25 00:00:00朱哲維李珂匡璐曹國棟劉紫權(quán)史旭陽
        無線電工程 2024年12期

        摘 要:帶鋼作為現(xiàn)代鋼鐵產(chǎn)業(yè)的核心產(chǎn)品,劃痕檢測對于確保產(chǎn)品質(zhì)量、提升生產(chǎn)效率和降低成本至關(guān)重要,廣泛應用于汽車制造、金屬加工、電子產(chǎn)品生產(chǎn)等領(lǐng)域。然而,劃痕形態(tài)各異且易受光照、背景和噪聲等因素影響,使得檢測任務極具挑戰(zhàn)性。近年來,隨著空間數(shù)據(jù)智能技術(shù)的不斷進步,基于深度學習的目標檢測算法(如Faster RCNN、SSD、YOLO 等) 在檢測任務中表現(xiàn)出色,通過自動學習、特征檢測和精準目標定位,在復雜背景下也能準確檢測?;冢伲希蹋希觯的P瓦M行了算法結(jié)構(gòu)的改進,將空間金字塔池化(Spatial Pyramid Pooling,SPP) 模塊替換為快速空間金字塔池化(SpatialPyramid PoolingFast,SPPF) 模塊,引入注意力機制,改進現(xiàn)有的目標檢測算法,提升劃痕檢測的準確性和魯棒性。結(jié)合卷積塊注意力機制模塊(Convolutional Block Attention Module,CBAM) 構(gòu)建了YOLOv5CBAM 模型。CBAM 通過關(guān)注通道和空間維度上的信息,使模型更精準地聚焦于劃痕區(qū)域,提升了檢測效果。實驗結(jié)果顯示,YOLOv5CBAM 模型在各類交并比(Intersection over Union,IoU) 閾值下相較于YOLOv5,精確率、召回率和mAP @ 0. 5 有著較好的表現(xiàn),分別提升了5. 6% 、9. 1% 和5. 9% 。隨著空間數(shù)據(jù)智能技術(shù)的不斷進步,未來有望為劃痕檢測提供更多創(chuàng)新思路和解決方案。

        關(guān)鍵詞:劃痕檢測;YOLOv5;卷積塊注意力機制模塊;模型構(gòu)建與訓練

        中圖分類號:TP315 文獻標志碼:A

        文章編號:1003-3106(2024)12-2789-11

        0 引言

        鋼鐵工業(yè)作為國家經(jīng)濟的基礎(chǔ)支撐產(chǎn)業(yè),不僅是構(gòu)建現(xiàn)代化強國的重要基石,還扮演著推動綠色低碳發(fā)展的角色。帶鋼作為當代鋼鐵工業(yè)的核心產(chǎn)出品,伴隨著工業(yè)智能制造技術(shù)的持續(xù)進步,其市場需求正不斷攀升。然而,隨著生產(chǎn)能力的增強,市場對于帶鋼品質(zhì)的期望也越來越高。熱軋工序在帶鋼制造中扮演著核心角色,被眾多工廠采用。在熱軋帶鋼的生產(chǎn)過程中,表面劃痕的存在與否成為了衡量產(chǎn)品質(zhì)量的關(guān)鍵指標。劃痕等缺陷會顯著降低產(chǎn)品的品質(zhì),從而影響熱軋帶鋼質(zhì)量的整體水平。

        從20 世紀70 年代以來,渦流[1]、紅外線[2]等多種檢測方法開始興起。紅外檢測方法是一種以工件瞬態(tài)導熱原理為基礎(chǔ)的非破壞性測試手段[3]。從20 世紀90 年代起,人們開始對帶鋼的表面缺陷進行研究,有了一些較成熟的檢測方法。張濤等[4]提出了一種改進的層次分析法,機器視覺技術(shù)借助電荷耦合器件(Charge Coupled Device,CCD)相機的廣泛應用,正在逐步取代傳統(tǒng)的帶鋼表面缺陷檢測方法,發(fā)展成為識別帶鋼表面缺陷的主要技術(shù)手段[4]。在國外,許多企業(yè)較早地采用機器視覺技術(shù)來檢測帶鋼的表面瑕疵。德國的Parsytec 公司成功研發(fā)了一種使用面陣CCD 攝像頭的HTS2 帶鋼表面缺陷檢測系統(tǒng)[5]。Hang 等[6]提出一種基于領(lǐng)域像素灰度閾值的缺陷檢測方法,通過缺陷及其相鄰像素的灰度情況來判斷缺陷類型,獲得了良好的效果。然而,某些缺陷可能會被誤歸為背景,進而造成分類錯誤。為了解決這一問題,提出一種基于背景差分與改進遺傳算法最大熵的軌道表面缺陷分割方法[7]。該方法首先采用改進的列灰度均值背景圖像建模技術(shù)對軌道表面圖像進行背景建模,隨后通過計算軌道表面圖像與背景圖像的差分來獲取差分圖像。其次,利用改進遺傳算法的最大熵原理來確定差分圖像的最佳分割閾值,并對其進行二值化處理。最后,對軌道表面的二值圖像進行形態(tài)學處理和濾波,從而得到軌道表面缺陷的分割圖像。這一解決方案在帶鋼表面缺陷檢測領(lǐng)域表現(xiàn)出色且相對成熟,至今仍在廣泛應用。在國內(nèi),北京科技大學徐科等[8]采用多個面陣CCD 攝像機同步捕獲鋼板表面圖像,并通過構(gòu)建一個由多臺客戶機與一臺服務器組成的并行計算機系統(tǒng),成功實現(xiàn)了對鋼板表面部分缺陷的高效檢測。Li 等[9]采用智能漩渦、漏磁記憶檢測儀等技術(shù)對曲軸外表面進行無損檢測,但是檢測成本過高且誤差過大,對小目標的檢測效果不佳。上海寶鋼集團攜手東北大學共同研發(fā)了一款熱軋鋼板表面缺陷檢測系統(tǒng),已在寶鋼集團的生產(chǎn)車間中付諸實踐應用[10]。

        近期,計算機技術(shù)的快速進步使得利用深度學習技術(shù)識別帶鋼表面缺陷的圖像成為了研究的熱點。當前,許多關(guān)于帶鋼表面缺陷檢測的研究都集中在運用卷積神經(jīng)網(wǎng)絡(Convolutional NeuralNetwork,CNN)自動進行特征提取和缺陷識別,這種方法省去了手動特征提取的環(huán)節(jié),并且通常能夠達到比傳統(tǒng)機器學習技術(shù)更優(yōu)的檢測性能。He 等[11]提出了一套創(chuàng)新的缺陷檢測框架,該框架首先對缺陷圖像進行分類,然后根據(jù)不同類別的缺陷使用特定的卷積核來提取特征,最終確定缺陷的位置。雖然這種方法在提高缺陷檢測率方面表現(xiàn)出色,但也帶來了模型復雜性增加的問題。主要分為以SSD[12]、CenterNet[13]、YOLO 系列[14]為代表的單階段網(wǎng)絡,以及以RCNN[15]、Fast RCNN[16]、Faster RCNN[17]和Mask RCNN[18]為代表的兩階段網(wǎng)絡。二者之間的主要區(qū)別在于是否存在生成區(qū)域候選框的階段。一階段目標檢測算法無需預先生成區(qū)域候選框。檢測結(jié)果可以通過網(wǎng)絡直接計算,速度很快,但檢測精度可能相對較低。兩階段目標檢測算法過程分為2 個階段。首先,生成候選框,然后根據(jù)這些候選框優(yōu)化檢測點以獲得更高的準確性,但代價是檢測速度較慢。這種方法檢測精度較高,但是檢測速度較慢。其中,在2015 年Joseph Redmon 和AliFarhadi 首次提出YOLO 系列[19]算法,其檢測速度和精度非常平衡,更適合檢測工業(yè)缺陷。東北大學的宋克臣教授團隊創(chuàng)新性地引入了生成對抗網(wǎng)絡(Generative Adversarial Network,GAN)應用于帶鋼表面缺陷檢測,采用GAN 技術(shù),有效緩解了帶鋼表面缺陷分類任務中樣本稀缺的問題,通過創(chuàng)建大量的未標記缺陷圖像數(shù)據(jù)來增強缺陷識別能力[20]。這種方法顯著擴充了缺陷圖像的庫容,盡管如此,GAN 在訓練階段相對繁瑣,且在模擬復雜場景下的缺陷時遇到了一些難題。此外,該團隊還提出了一種名為缺陷檢測網(wǎng)絡(Defect Detection Network,DDN)的網(wǎng)絡架構(gòu),該架構(gòu)是對Faster RCNN 的改進,顯著提高了模型的檢測精度,成功實現(xiàn)了端到端的帶鋼表面缺陷檢測[21]。雖然該模型在檢測精度方面表現(xiàn)優(yōu)異,但其檢測速度較慢,尚無法滿足實時檢測的需求。季娟娟等[22]提出了一種將注意力機制與YOLOv4 相結(jié)合的網(wǎng)絡,該網(wǎng)絡分割模型凸顯出鋼表面缺陷,識別微小的缺陷,但由于只用了空間注意力機制,特征提取能力較差。

        針對現(xiàn)有的目標檢測算法仍存在一定的局限性,且對劃痕檢測任務的檢測準確性不高、對復雜背景的魯棒性不強,本文引入了基于YOLOv5 模型,將空間金字塔池化(Spatial Pyramid Pooling,SPP)模塊替換成快速空間金字塔池化(Spatial PyramidPoolingFast,SPPF)模塊,并結(jié)合卷積塊注意力機制模塊(Convolutional Block Attention Module,CBAM)構(gòu)建了YOLOv5CBAM 模型,通過同時關(guān)注通道和空間2 個維度的信息,使得模型能夠更加關(guān)注劃痕區(qū)域,從而提高檢測的準確性。

        1 相關(guān)理論與技術(shù)

        1. 1 YOLOv5

        在目標檢測領(lǐng)域,基于候選區(qū)域的算法曾經(jīng)是關(guān)鍵技術(shù)。這種方法主要經(jīng)歷2 個階段:從大量的候選位置中篩選出最合適的幾個;在這些選定的區(qū)域進行對象的識別和位置的精確調(diào)整。YOLO 算法則采用不同的策略,通過一個CNN 直接在整幅圖像上識別和定位對象,將目標檢測的任務轉(zhuǎn)換為一次性的回歸問題,實現(xiàn)了目標類別和位置的同時預測。

        YOLO 的亮點在于其快速、實時和高效的性能表現(xiàn),能夠在速度與精確度之間找到一個優(yōu)秀的平衡點。YOLO 算法將圖像分割成S×S 的格子,每個格子負責預測對象的類別和位置。這種方法摒棄了傳統(tǒng)的候選區(qū)域提取步驟,通過簡化的流程加速了檢測速度。YOLO 檢測系統(tǒng)主要由一個基礎(chǔ)的網(wǎng)絡結(jié)構(gòu)和若干后續(xù)的卷積層組成。它常用的基礎(chǔ)網(wǎng)絡,如DarkNet53,是一個事先訓練好的深卷積網(wǎng)絡。后續(xù)卷積層的任務是產(chǎn)生目標的邊框和分類標簽。在訓練階段,YOLO 利用交叉熵和均方誤差等多種損失函數(shù)來優(yōu)化模型,在推斷階段,則通過結(jié)合框的類別概率和置信度得分來過濾和校正最終的檢測結(jié)果。

        圖像劃分網(wǎng)格如圖1 所示[23]。展示了眾多的三維網(wǎng)格,每個網(wǎng)格都能夠檢測和識別圖中的物體。當物體中心位于某個特定網(wǎng)格內(nèi),該網(wǎng)格便啟動檢測程序。通過邊緣條紋技術(shù),圖像中物體的微小細節(jié)得以更準確地捕獲。邊界框以其特有的形態(tài)和功能而顯著,其寬度(bw )、高度(bh )、類型(如人、車輛、紅綠燈等)以及中心點位置都能被明確地確定。邊界框如圖2 所示,清楚展示了邊界框的示例,使用紅色輪廓來突出顯示邊界框。

        YOLO 是一種創(chuàng)新的目標檢測方法,通過將傳統(tǒng)的目標檢測任務簡化為單一的回歸問題,并結(jié)合CNN 來進行高效識別,顯著提升了檢測的速度和精度。YOLO 的架構(gòu)由多個關(guān)鍵模塊組成,這些模塊相互配合,共同提升模型性能。首先,YOLO 采用了殘差塊設計,不僅優(yōu)化了訓練速度,還提高了模型的準確性。其次,在目標檢測過程中,YOLO 通過邊框回歸為每個檢測到的目標預測獨特的邊框,提供包括目標位置和尺寸的關(guān)鍵信息。此外,YOLO 使用交并比(Intersection over Union,IoU)來評估預測邊框與真實邊框之間的重合程度,從而驗證預測的準確性。通過這些模塊的整合,YOLO 實現(xiàn)了在復雜場景下高效、準確的目標檢測能力。最終結(jié)果如圖3 所示。

        圖3 中的圖片被分割成多個網(wǎng)格,每個網(wǎng)格能夠準確地預測出B 個邊框,并為每個邊框分配置信度得分。使用單元模型來識別每個物體的類別,特別關(guān)注汽車、狗和自行車等對象。采用多CNN 并行處理不同的預測任務,通過綜合分析來確保預測與實際相符。此方法排除了與目標屬性不相關(guān)的邊緣條件,利用精心設計的邊框精確識別物體。圍繞汽車和自行車的是鮮明的色彩邊緣,營造出城堡般的輪廓;而狗則被深藍色的邊框明確標出,這種處理技術(shù)有效強調(diào)了目標的特征,提升了檢測的精確度和可靠性。

        YOLOv5s 模型的整體網(wǎng)絡結(jié)構(gòu)如圖4 所示。

        YOLOv5 的架構(gòu)被劃分為Input、Backbone、Neck 及Prediction 四個關(guān)鍵部分。在Input 階段,采用Mosaic數(shù)據(jù)增強技術(shù)對輸入的圖像進行隨機裁剪和合并,旨在提升模型對新場景的適應性。Backbone 階段為特征提取的核心,決定了模型的整體性能。YOLOv5 運用跨階段局部網(wǎng)絡(Cross Stage Partial Network,CSPNet)架構(gòu)對特征圖進行切割和處理,一部分經(jīng)過卷積層,另一部分進行下采樣,之后合并這兩部分,增加了對非線性特征的識別能力,改善了模型對復雜環(huán)境和多樣目標的檢測效率。在Neck 階段,采用C3 卷積塊進一步融合特征圖。在Prediction 階段,處理后的特征圖被用來精準預測目標的位置和尺寸。

        1. 2 CBAM

        注意力機制(Attention Mechanism)是機器學習領(lǐng)域內(nèi)一種廣泛應用的數(shù)據(jù)處理技術(shù),它覆蓋了自然語言處理、圖像識別、語音識別等多種機器學習任務。這一機制通過賦予不同信息以不同的權(quán)重(代表其重要程度),實現(xiàn)對信息的差異化關(guān)注。具體而言,注意力機制可被視為由查詢矩陣(Query)、鍵(Key)以及通過計算這些元素得到的加權(quán)平均值所構(gòu)成的多層感知器(Multilayer Perceptron,MLP )結(jié)構(gòu)。

        CBAM 是一種旨在提升CNN 性能的注意力機制模塊[24],通過引入通道注意力和空間注意力來提高模型的感知能力,從而在不增加網(wǎng)絡復雜性的情況下改善性能。CBAM 的主要目標是克服傳統(tǒng)CNN 在處理不同尺度、形狀和方向信息時的局限性[25]。為此,CBAM 引入了2 種注意力機制:通道注意力和空間注意力機制。

        CBAM 是一種簡單有效的前饋CNN 的注意力模塊,給出一個中間的特征圖,然后CBAM 會按照2 個獨立的維度(通道和空間)依次推導出注意圖示,然后用自適應特征優(yōu)化乘以輸入特征圖推導出注意圖示,將其與輸入特征圖相乘來推導出注意圖示。經(jīng)過這2 個注意力模塊的共同作用后,得到最終的注意力增強特征圖,傳遞給網(wǎng)絡的下一層進行進一步處理。這種注意力機制有助于提高網(wǎng)絡在視覺任務上的表現(xiàn)。

        CBAM 的應用范圍廣泛,已被應用于各種領(lǐng)域,如目標檢測、圖像分割、圖像分類等。通過引入CBAM,很多模型在各種任務中都取得了顯著的性能提升。

        亚洲精品一二区| 91色区在线免费观看国产| 男女上床免费视频网站| 国产免费二区三区视频| 少妇人妻综合久久中文字幕| 久久aⅴ人妻少妇嫩草影院| 国产高潮国产高潮久久久| 欧美自拍区| 亚洲区一区二区中文字幕| 男女动态视频99精品| 中美日韩在线一区黄色大片| 人妻无码一区二区三区免费| 色一情一乱一伦一区二区三欧美| 91华人在线| 亚洲av粉色一区二区三区| 精品亚洲国产亚洲国产| 97久久婷婷五月综合色d啪蜜芽| 久久精品国产亚洲av无码娇色| 肉体裸交丰满丰满少妇在线观看| 久久狠色噜噜狠狠狠狠97| 国产一区二区在线观看视频免费 | 狠狠亚洲超碰狼人久久老人| 日本高清在线一区二区三区| 国产18禁黄网站免费观看| 成人无码网www在线观看| 人人妻人人澡人人爽人人精品电影| 亚洲av激情久久精品人| 亚洲无人区乱码中文字幕动画| 久久综合精品人妻一区二区三区| 成年性生交大片免费看| 久久精品视频在线看99| 精品久久久久久99人妻| 日韩午夜三级在线视频| 亚洲av一二三区成人影片| 久久久g0g0午夜无码精品| 精品久久久久久无码国产| 国产亚洲av人片在线播放| 亚洲高清国产一区二区| 精品乱码一区内射人妻无码| 久久老子午夜精品无码怎么打| 久久久亚洲精品午夜福利|