亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv7 的工業(yè)指示燈狀態(tài)檢測(cè)方法

        2024-01-11 10:43:48王國(guó)武張振國(guó)張?zhí)K威
        設(shè)備管理與維修 2023年21期
        關(guān)鍵詞:指示燈注意力精度

        王國(guó)武,張振國(guó),胡 辰,康 宏,張?zhí)K威

        (國(guó)電電力內(nèi)蒙古新能源開(kāi)發(fā)有限公司,內(nèi)蒙古呼和浩特 010040)

        0 引言

        隨著人工智能和物聯(lián)網(wǎng)技術(shù)的發(fā)展,越來(lái)越多的工業(yè)設(shè)備和系統(tǒng)(如開(kāi)關(guān)柜等)需要進(jìn)行監(jiān)控和管理。其中,設(shè)備狀態(tài)指示燈作為重要信息來(lái)源,常使用包括紅、藍(lán)、綠等顏色來(lái)展示設(shè)備運(yùn)行狀態(tài)。然而,一些設(shè)備上需要監(jiān)測(cè)的狀態(tài)燈種類(lèi)繁多、布局密集,人工檢測(cè)效率低,檢測(cè)準(zhǔn)確性、實(shí)時(shí)性難以保證[1]。所以發(fā)展更加智能的自動(dòng)化設(shè)備狀態(tài)燈檢測(cè)技術(shù)對(duì)于提高設(shè)備監(jiān)控效率和準(zhǔn)確性具有重要意義,能有效避免設(shè)備故障或安全事故的發(fā)生。

        圍繞設(shè)備狀態(tài)遠(yuǎn)程監(jiān)控和狀態(tài)自動(dòng)識(shí)別問(wèn)題,工業(yè)上通常采用安裝輔助攝像頭[2-3]或設(shè)計(jì)巡檢機(jī)器人[4-5]采集儀器儀表的圖像視頻,并在此基礎(chǔ)上做進(jìn)一步識(shí)別工作。早期的研究者多通過(guò)灰度圖、色域轉(zhuǎn)換等方法來(lái)構(gòu)造指示燈特征,進(jìn)行其位置、顏色及亮滅狀態(tài)識(shí)別。徐波[6]等采用基于灰度處理的圖像閾值分割方法,通過(guò)多分割閾值和連通區(qū)域搜索實(shí)現(xiàn)指示燈識(shí)別。胡燦林[7]等基于潛在語(yǔ)義模型(Probabilistic Latent Semantic Analysis,PLSA),將圖像由RGB 空間映射到11 維顏色屬性空間,通過(guò)顏色的特征圖像識(shí)別指示燈狀態(tài)。楊強(qiáng)、朱紅岷[8-9]等通過(guò)變換圖像的顏色空間提取顏色特征,采用霍夫圓檢測(cè)或迭代法改變閾值進(jìn)行位置和狀態(tài)識(shí)別。

        隨著深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域的快速發(fā)展,越來(lái)越多的研究者將深度學(xué)習(xí)技術(shù)應(yīng)用到工業(yè)目標(biāo)的檢測(cè)任務(wù)領(lǐng)域。目前,目標(biāo)檢測(cè)使用較為廣泛的深度學(xué)習(xí)網(wǎng)絡(luò)是YOLO(You Only Look Once)系列算法。自YOLOv5 系列始就可以將目標(biāo)定位和識(shí)別兩大任務(wù)一次性完成。在指示燈狀態(tài)識(shí)別方面,YOLO 系列算法也已有應(yīng)用。完顏幸幸[10]等利用SSD(Single Shot Multibox Detector)和YOLOv2 模型實(shí)現(xiàn)指示燈自動(dòng)識(shí)別。楊韻融[11]使用輕量級(jí)網(wǎng)絡(luò)MobileNetv3_large 改進(jìn)YOLOv3 模型的主干網(wǎng)絡(luò),并在預(yù)測(cè)網(wǎng)絡(luò)中使用Inverted-bneck-shortcut 結(jié)構(gòu)替換預(yù)測(cè)網(wǎng)絡(luò)原1×1 卷積層,盡可能保存指示燈圖像原有的信息。舒朗[12]等融合了DenseNet 和YOLOv5,使用自定義的密集連接型Denseblock模塊替換YOLOv5s 中的Resunit 模塊,提高了識(shí)別特征不明顯的小目標(biāo)方面的性能表現(xiàn)。崔昊楊[13]等針對(duì)電力設(shè)備狀態(tài)識(shí)別提出一種GBYOLOv5m 算法,該方法采用加權(quán)雙向特征金字塔(BiFPN)結(jié)構(gòu),增加檢測(cè)層尺度,利用Ghost Bottleneck 結(jié)構(gòu)替換原主干網(wǎng)絡(luò)的Bottleneck 復(fù)雜結(jié)構(gòu),實(shí)現(xiàn)模型的輕量化。

        基于上述研究,提出一種改進(jìn)的YOLOv7-tiny-CBAM-WIoU算法,旨在保證檢測(cè)精度的前提下,提高其在邊緣設(shè)備或云端的快速部署能力。在算法的檢測(cè)頭網(wǎng)絡(luò)中融入CBAM(Convolutional Block Attention Module,卷積注意力模塊),融合通道注意力和空間注意力以增強(qiáng)網(wǎng)絡(luò)的特征提取能力。此外,為降低模型受低質(zhì)量數(shù)據(jù)的影響,引入了基于動(dòng)態(tài)非單調(diào)聚焦機(jī)制的Wise-iou作為BBR(Bounding Box Regression,邊界框回歸)損失函數(shù)。改進(jìn)的算法在指示燈實(shí)驗(yàn)數(shù)據(jù)集上具有更高的檢測(cè)精度和速度,可以滿(mǎn)足實(shí)際應(yīng)用的要求。

        1 網(wǎng)絡(luò)模型

        1.1 YOLOv7 算法原理

        YOLOv7 屬于單階段(One-Stage)目標(biāo)檢測(cè)算法,在YOLO算法系列中以更高效的推理速度、更精確的檢測(cè)準(zhǔn)度,在工業(yè)界得到廣泛的應(yīng)用。相較于之前的版本,YOLOv7 在不增加推理成本的情況下,極大提高了實(shí)時(shí)目標(biāo)檢測(cè)精度,可有效減少約40%的參數(shù)和50%的計(jì)算量,從而實(shí)現(xiàn)更快的推理速度和更高的檢測(cè)精度[14]。

        基于YOLOv7-tiny 網(wǎng)絡(luò)進(jìn)行算法改進(jìn),該網(wǎng)絡(luò)相較于YOLOv7原網(wǎng)絡(luò),是一種經(jīng)剪裁和模型壓縮的輕量化版本,主要通過(guò)減少卷積層的堆疊、改變激活函數(shù)為L(zhǎng)eakyRelu 函數(shù)縮減模型參數(shù)來(lái)減少模型大小,以適配邊緣設(shè)備的部署。YOLOv7-tiny 還采用了一些優(yōu)化策略,如IoU 感受野、SPP 結(jié)構(gòu)和PANet 結(jié)構(gòu)等,模型擁有較高的檢測(cè)性能。

        1.2 YOLOv7-tiny 模型的結(jié)構(gòu)及原理

        YOLOv7-tiny 模型的結(jié)構(gòu)主要分為Input 輸入端、Backbone主干網(wǎng)絡(luò)和Head 輸出端3 個(gè)部分,與以往YOLO 系列算法不同,YOLOv7 算法將Neck 網(wǎng)絡(luò)和Head 輸出端組合成一個(gè)Head 網(wǎng)絡(luò)結(jié)構(gòu),使得模型結(jié)構(gòu)更為精簡(jiǎn)、高效。

        YOLOv7-tiny 的整體結(jié)構(gòu)如圖1 所示,其中Backbone 網(wǎng)絡(luò)結(jié)構(gòu)采用了輕量化的卷積架構(gòu),該架構(gòu)僅由若干CBL(Convolutions with Batch Normalization and Leaky ReLU)模塊、ELAN-T層以及MPConv 層組成,用于初步的特征提取。Head 網(wǎng)絡(luò)由以往的Neck 和Head 輸出端組合而成,以SPPCSP 層為基準(zhǔn),加入了若干BConv 層、MPConv 層、Catconv 層以及上采樣層,用于特征的進(jìn)一步提取與最終檢測(cè)結(jié)果的輸出。

        圖1 YOLOv7-tiny 網(wǎng)絡(luò)結(jié)構(gòu)

        1.2.1 Input

        (1)Mosaic 數(shù)據(jù)增強(qiáng):YOLOv7 模型采用的仍是YOLOv5 中使用的Mosaic 數(shù)據(jù)增強(qiáng)方式[15]。Mosaic 數(shù)據(jù)增強(qiáng)能夠有效地豐富數(shù)據(jù)集,增加小目標(biāo)數(shù)量,提高網(wǎng)絡(luò)的魯棒性。通過(guò)隨機(jī)縮放、裁剪和排布4 張圖片來(lái)生成Mosaic 圖像,可以間接地增大Batch-Size,降低顯存需求,從而提高訓(xùn)練速度。

        (2)自適應(yīng)錨定框計(jì)算:YOLOv7-tiny 模型訓(xùn)練時(shí),自適應(yīng)計(jì)算出最佳錨定框值,可適應(yīng)不同的數(shù)據(jù)集。自適應(yīng)錨定框計(jì)算能夠使模型更好地適應(yīng)不同尺度和長(zhǎng)寬比的物體,提高檢測(cè)精度。在訓(xùn)練階段,模型輸出預(yù)測(cè)框并計(jì)算預(yù)測(cè)框與真實(shí)標(biāo)簽之間的差距,通過(guò)反向梯度傳播來(lái)更新整個(gè)網(wǎng)絡(luò)參數(shù)。

        (3)自適應(yīng)圖片縮放:為了適應(yīng)不同尺度的物體,YOLOv7 常用的輸入圖片尺寸為640×640。在實(shí)際使用中,由于輸入圖片的長(zhǎng)寬比和面積不同,需要對(duì)其進(jìn)行縮放填充。YOLOv7 算法采用與YOLOv5 相同的自適應(yīng)方法來(lái)添加最少的黑邊到縮放的圖片中,以減少信息冗余,提高推理速度。

        1.2.2 Backbone

        YOLOv7-tiny 的主干網(wǎng)絡(luò)主要采用輕量級(jí)的網(wǎng)絡(luò)結(jié)構(gòu),它直接由7 層CBL 層,以及若干MP 層、多層級(jí)特征融合模塊(ELAN-T)組成,結(jié)合空間金字塔池化模塊,能夠更好地處理不同尺度的目標(biāo),并提高模型的檢測(cè)精度。

        1.2.3 Head

        YOLOv7 將Neck 部分和Head 部分進(jìn)行了合并,以SPPCSP為基準(zhǔn),可以分為5 個(gè)階段,其中前4 個(gè)階段包括了卷積層、SPP 層、CSP 層和上采樣層,用于提取特征并進(jìn)行特征融。對(duì)引入的SPPCSP 結(jié)構(gòu),其通過(guò)空間金字塔池化和卷積操作,實(shí)現(xiàn)了對(duì)不同尺度特征的提取和融合,進(jìn)一步提高了模型的檢測(cè)性能。最終通過(guò)3 個(gè)卷積層,用于預(yù)測(cè)輸出每個(gè)網(wǎng)格單元格的邊界框坐標(biāo)、物體得分和類(lèi)別概率。

        2 算法改進(jìn)

        為提高輕量化模型部署在邊緣設(shè)備時(shí)的識(shí)別精度,對(duì)YOLOv7-tiny 模型進(jìn)行改進(jìn),得到Y(jié)OLOv7-tiny-CBAM-WIoU模型。具體框架為:將CBAM 注意力機(jī)制集成入YOLO 檢測(cè)頭部分,分別嵌入在FPN 網(wǎng)絡(luò)中的兩個(gè)上采樣層后,以提高模型對(duì)指示燈特征表達(dá)能力;并替換回歸框損失函數(shù)WIoU(Complete Intersection over Union(CIoU)為Wise Intersection over Union),強(qiáng)化模型對(duì)更普通質(zhì)量的錨定框的學(xué)習(xí),減少低質(zhì)量回歸框?qū)δP偷挠绊?。最后?duì)融合特征進(jìn)行目標(biāo)的定位及分類(lèi),輸出全部指示燈的具體位置和類(lèi)別。

        2.1 CBAM 注意力機(jī)制

        注意力機(jī)制是指通過(guò)學(xué)習(xí)任務(wù)相關(guān)的特征,將注意力集中于關(guān)鍵信息上,從而提高模型的性能。常用的注意力機(jī)制包括CBAM(Squeeze-and-Excitation(SE),Spatial attention,Channel attention,Self-attention,Convolutional Block Attention Module)等。

        其中SE 注意力機(jī)制[16]是最常用的注意力機(jī)制之一,通過(guò)自適應(yīng)調(diào)整通道的權(quán)重來(lái)增強(qiáng)有益特征和抑制無(wú)益特征,從而提高檢測(cè)的精度和速度;Spatial Attention[17]則通過(guò)在空間維度上進(jìn)行特征加權(quán)來(lái)強(qiáng)調(diào)重要的空間位置,而Channel Attention 則通過(guò)在通道維度上進(jìn)行特征加權(quán)來(lái)強(qiáng)調(diào)重要的通道維度;Selfattention[18]在輸入序列中的信息上,自適應(yīng)計(jì)算每個(gè)位置的權(quán)重,從而提取具有代表性的特征。

        為使YOLOv7-tiny 能夠有更高精度的預(yù)測(cè)效果,選取能夠結(jié)合SE 注意力機(jī)制優(yōu)勢(shì)和空間注意力的CBAM 引入模型的FPN 中,分別嵌入其兩個(gè)上采樣層之后,以提升模型的性能。

        CBAM 是由Sangyun 等人[19]提出的一種創(chuàng)新地將通道和空間注意力相融合的注意力機(jī)制。該機(jī)制主要由SAM(Channel Attention Module(CAM)和Spatial Attentional Model)兩個(gè)模塊以串聯(lián)或者并聯(lián)鏈接而成,且模塊前后順序并無(wú)限制,但是一般情況下以CAM-SAM 模塊的串聯(lián)形式(圖2)效果更優(yōu),作為一種端到端的通用模塊,可以高效集成入卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練。

        圖2 CBAM 模塊結(jié)構(gòu)

        其中CAM 模塊(圖3)利用特征間的通道關(guān)系生成通道注意圖,采用壓縮特征映射空間維度的方法來(lái)提高計(jì)算通道注意力的速率,并結(jié)合最大池化或平均池化的方法提高特征表征力。

        圖3 CAM 模塊結(jié)構(gòu)

        而SAM(圖4)模塊作為通道注意力的補(bǔ)充,利用特征間的空間關(guān)系生成空間注意圖,沿著通道軸進(jìn)行池化操作并將之連接在一起,然后通過(guò)一個(gè)卷積層得到空間維度上的注意力權(quán)重。

        圖4 SAM 模塊結(jié)構(gòu)

        與SE 注意力模塊相比,CBAM 模塊在平均池化的同時(shí)進(jìn)行最大池化,并添加了SAM 模塊,進(jìn)一步提高網(wǎng)絡(luò)對(duì)目標(biāo)的識(shí)別能力。通過(guò)這些改進(jìn)和優(yōu)化,CBAM 模塊可以更加全面地提取特征信息,從而提高模型的性能和效率。

        2.2 基于動(dòng)態(tài)的非單調(diào)焦點(diǎn)機(jī)制Wise-IoU

        在目標(biāo)檢測(cè)中,通常也使用BBR 損失函數(shù)對(duì)邊界框進(jìn)行優(yōu)化,在此過(guò)程中常用的損失函數(shù)有GIoU、DIoU 和CIoU 等。發(fā)展到CIoU[20]時(shí),引入了長(zhǎng)寬比的概念,可以更精確的評(píng)估預(yù)測(cè)框的位置和長(zhǎng)寬比準(zhǔn)確度。

        其中,IoU表示目標(biāo)框的IoU 值,ρ2(b,bgt)表示目標(biāo)框和預(yù)測(cè)框中心的歐式距離,d 表示目標(biāo)框和預(yù)測(cè)框的對(duì)角距離,c表示兩個(gè)框的最小外接矩形對(duì)角線(xiàn)的長(zhǎng)度,α 是一個(gè)可調(diào)參數(shù),用于平衡位置回歸損失和長(zhǎng)寬比損失。公式(1)將目標(biāo)框的位置和長(zhǎng)寬比并入IoU 計(jì)算中,以更準(zhǔn)確地評(píng)估預(yù)測(cè)框的質(zhì)量。在較新的目標(biāo)檢測(cè)算法中(如YOLOv7),CIoU 是一種常用的回歸損失函數(shù),它可以顯著提高目標(biāo)檢測(cè)的性能和效果。

        然而,對(duì)于原YOLOv7 模型使用的CIoU 損失函數(shù),考慮到指示燈形態(tài)主要呈現(xiàn)為圓形,在重疊目標(biāo)和長(zhǎng)寬比變化部分并不十分明顯,但是模型部署到移動(dòng)或者云端等邊緣設(shè)備后如果需要重新訓(xùn)練,此時(shí)無(wú)法保證在該設(shè)備采集的數(shù)據(jù)集質(zhì)量,因此使用WIoU 損失函數(shù)能更有效地提高模型性能。

        Wise-IoU(WIoU)是一種基于交并比的損失函數(shù),采用了動(dòng)態(tài)的非單調(diào)焦點(diǎn)機(jī)制,使用離群度來(lái)評(píng)估錨定框的質(zhì)量[21]。該損失函數(shù)結(jié)合包括動(dòng)態(tài)的非單調(diào)焦點(diǎn)機(jī)制和智能的梯度增益分配策略,可以大幅度提高模型的魯棒性,避免過(guò)擬合,并提高檢測(cè)器的整體性能??紤]到良好的回歸框損失函數(shù)不會(huì)對(duì)模型訓(xùn)練做過(guò)多的干預(yù),于是,基于LIoU 函數(shù)構(gòu)建距離注意力,得到具有兩層注意機(jī)制的WIoUv1。

        其中,Wg、Hg為最小封閉盒的尺寸,WIoU 基于離群度來(lái)分配梯度增益,它通過(guò)為具有較小離群度的高質(zhì)量錨定框與低質(zhì)量錨定框分配較小的梯度增益,將焦點(diǎn)放在普通質(zhì)量的錨定框上,由此減少低質(zhì)量樣本所產(chǎn)生的有害梯度,提高模型的魯棒性。

        在WIoUv1 的基礎(chǔ)上,構(gòu)造非單調(diào)聚焦系數(shù)r,得到WIoUv3損失函數(shù):

        其中,由于LIoU 是動(dòng)態(tài)的,因此錨定框的質(zhì)量劃分標(biāo)準(zhǔn)也是動(dòng)態(tài)的,這使得WIoUv3 能夠隨時(shí)制定出最符合當(dāng)前情況的梯度增益分配策略,保持高效率、高精度。本文所使用的損失函數(shù)為WIoUv3 版本,其在目標(biāo)檢測(cè)中已經(jīng)有著廣泛的應(yīng)用,并在多種場(chǎng)景下驗(yàn)證有效。

        3 實(shí)驗(yàn)流程

        3.1 數(shù)據(jù)集處理

        3.1.1 設(shè)備搭建與數(shù)據(jù)采集

        通過(guò)自主搭建狀態(tài)燈電路,模擬不同箱式變電壓器環(huán)境下指示燈狀態(tài)來(lái)采集高質(zhì)量的圖像數(shù)據(jù)。自主搭建設(shè)備可以根據(jù)具體需求進(jìn)行靈活調(diào)整和優(yōu)化,以獲取更好的數(shù)據(jù)采樣效果。指示燈自鎖電路圖的搭建實(shí)物電路如圖5 所示。

        圖5 指示燈電路示意

        其中AC 代表交流電源,SB 代表按鈕開(kāi)關(guān),KM 代表交流接觸器,L1、L2 分別是紅、綠指示燈。

        考慮到實(shí)際應(yīng)用中需要對(duì)箱式變電壓器狀態(tài)進(jìn)行實(shí)時(shí)監(jiān)測(cè),基于工業(yè)200 萬(wàn)像素級(jí)攝像頭采集指示燈的視頻,并對(duì)視頻按一定幀率進(jìn)行抽樣分割處理,得到用于模型訓(xùn)練的圖像數(shù)據(jù)。同時(shí),從指示燈各側(cè)面多個(gè)角度拍攝紅綠燈亮滅4 種組合狀態(tài)的圖像數(shù)據(jù)(圖6),以建立數(shù)據(jù)集用于模型的后續(xù)訓(xùn)練。

        圖6 指示燈數(shù)據(jù)示例

        3.1.2 數(shù)據(jù)標(biāo)注

        采用AnyLabeling 標(biāo)注工具對(duì)數(shù)據(jù)進(jìn)行標(biāo)簽標(biāo)注。其基于LabelImg 和Labelme 等標(biāo)注工具,繼續(xù)融合了Segment Anything Model 和YOLO 系列模型等智能標(biāo)簽技術(shù),具備快速、準(zhǔn)確的標(biāo)注能力。使用AnyLabeling 標(biāo)注工具對(duì)圖像進(jìn)行標(biāo)注,快速生成標(biāo)簽信息,從而用于后續(xù)的數(shù)據(jù)分析和模型訓(xùn)練。最終生成標(biāo)簽見(jiàn)表1。

        表1 數(shù)據(jù)類(lèi)型標(biāo)簽

        3.2 實(shí)驗(yàn)環(huán)境與評(píng)估指標(biāo)

        3.2.1 實(shí)驗(yàn)環(huán)境

        研究在Windows11 操作系統(tǒng)上進(jìn)行了訓(xùn)練和測(cè)試,使用AMD Ryzen 5 5600H處理器和NVIDIA GeForce RTX3050 GPU 進(jìn)行計(jì)算。編程開(kāi)發(fā)環(huán)境為Python 3.9.0,開(kāi)發(fā)工具為PyCharm?;赑yTorch深度學(xué)習(xí)框架進(jìn)行模型訓(xùn)練,并利用CUDA 11.3 進(jìn)行深度學(xué)習(xí)環(huán)境加速以提高訓(xùn)練效率。

        3.2.2 參數(shù)設(shè)置

        在目標(biāo)檢測(cè)模型的訓(xùn)練過(guò)程中,為了提高模型的性能和效果,進(jìn)行多次模型參數(shù)調(diào)優(yōu),最終確定最優(yōu)模型參數(shù),參數(shù)配置見(jiàn)表2。

        表2 參數(shù)配置

        3.2.3 評(píng)估指標(biāo)

        為了更加準(zhǔn)確地評(píng)估模型的性能,本文在評(píng)估指標(biāo)方面選用了P(Precision,準(zhǔn)確率)、R(Recall,召回率)、AP(Average Precision,平均精度)和mAP(mean Average Precision,平均精度均值)等。具體公式如下:

        其中,True Positive(TP)表示實(shí)際為正類(lèi)并且被預(yù)測(cè)為正類(lèi)的數(shù)量,F(xiàn)alse Positive(FP)表示實(shí)際為負(fù)類(lèi)但被預(yù)測(cè)為正類(lèi)的數(shù)量,F(xiàn)alse Negatives(FN)表示實(shí)際為正類(lèi)但被預(yù)測(cè)為負(fù)類(lèi)的數(shù)量,n 為數(shù)據(jù)集中的類(lèi)別數(shù)。

        3.3 模型訓(xùn)練

        研究使用自建數(shù)據(jù)集進(jìn)行模型的訓(xùn)練。首先對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理,去除了部分異常、分辨率低的圖片。為保證訓(xùn)練集、驗(yàn)證集和測(cè)試集的合理性,將數(shù)據(jù)集按照7∶3∶1 的比例進(jìn)行隨機(jī)劃分。按照YOLOv7 模型的訓(xùn)練要求,針對(duì)配置文件進(jìn)行了優(yōu)化,包括權(quán)重衰減、epoch 值、學(xué)習(xí)率、批尺寸等實(shí)驗(yàn)參數(shù)值的調(diào)整。模型訓(xùn)練結(jié)果顯示,在約300 次訓(xùn)練后,模型的訓(xùn)練指標(biāo)趨于平穩(wěn),此時(shí)終止訓(xùn)練。

        根據(jù)訓(xùn)練日志中的統(tǒng)計(jì)數(shù)據(jù),當(dāng)參數(shù)按照表2 所示的設(shè)置進(jìn)行訓(xùn)練時(shí),得到的訓(xùn)練指標(biāo)隨訓(xùn)練次數(shù)變化如圖7 所示。

        圖7 模型性能指標(biāo)

        3.4 消融實(shí)驗(yàn)

        為了更好的展示YOLOv7-tiny 改進(jìn)后的檢測(cè)性能的提升,項(xiàng)目對(duì)模型逐步實(shí)驗(yàn),在相同數(shù)據(jù)集上進(jìn)行測(cè)試,對(duì)比了5 組模型在增加不同模塊后的檢測(cè)效果。并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行了統(tǒng)計(jì)和分析,實(shí)驗(yàn)結(jié)果對(duì)比見(jiàn)表3。

        表3 模型訓(xùn)練效果對(duì)比

        由表3 數(shù)據(jù)可知,在檢測(cè)性能提升方面,CBAM 和WIoU 的引入均對(duì)模型的檢測(cè)精度提升有積極的作用。改進(jìn)前的YOLOv7-tiny在自建數(shù)據(jù)集上的訓(xùn)練檢測(cè)平均精度均值(mAP)達(dá)到0.904,在引入CBAM 模塊之后,模型預(yù)測(cè)精度提高到0.906,說(shuō)明模型在添加注意力機(jī)制后,對(duì)指示燈特征的提取能力得到進(jìn)一步增強(qiáng),從而使模型對(duì)狀態(tài)識(shí)別更為準(zhǔn)確;在改進(jìn)回歸框損失函數(shù)為WIoU 后,模型的檢測(cè)mAP 達(dá)到0.908,這是由于WIoU 增加了模型對(duì)更關(guān)鍵區(qū)域的敏感度,以提高了模型的檢測(cè)精度。在同時(shí)引進(jìn)兩個(gè)模塊之后,檢測(cè)模型得到最優(yōu)結(jié)果,mAP 達(dá)到0.912,較原YOLOv7-tiny 模型提高了0.8%。

        而在檢測(cè)速率方面,由于WIoU 其結(jié)構(gòu)較原來(lái)的CIoU 函數(shù)更為簡(jiǎn)單,參數(shù)數(shù)量更少,所以減少了模型參數(shù)的大小。但對(duì)CBAM 模塊,其同時(shí)考慮了空間注意力模塊(SAM)和通道注意力模塊(CAM),兩者進(jìn)行串聯(lián)鏈接,這使得CBAM 嵌入模型后略微增加了參數(shù)量,也較輕微地影響了圖片的檢測(cè)速度。盡管如此,引入這兩個(gè)模塊后,模型對(duì)單張圖片的檢測(cè)速度達(dá)到了15.1 ms/張,速度提升了近44.3%。此外,改進(jìn)模型的參數(shù)量與原始的YOLOv7-tiny 模型幾乎沒(méi)有變化,驗(yàn)證了改進(jìn)對(duì)檢測(cè)效果具有顯著提升。

        除此之外,將改進(jìn)后的模型與YOLOv7 模型進(jìn)行對(duì)比,可以較明顯地觀察到,改進(jìn)模型在參數(shù)量減少83.5%的情況下,mAP仍能維持到0.912,并且單張圖片檢測(cè)速度提高63.8%。這表明改進(jìn)的模型在更加輕量化情況下,檢測(cè)速率得到顯著提升,且仍具有較為穩(wěn)定和優(yōu)良的檢測(cè)性能,適合在算力有限的邊緣設(shè)備上進(jìn)行部署。

        4 結(jié)束語(yǔ)

        針對(duì)目前開(kāi)關(guān)柜等電力設(shè)備狀態(tài)人工檢測(cè)效率低下的問(wèn)題,提出了一種改進(jìn)YOLOv7 算法的設(shè)備狀態(tài)燈檢測(cè)方法,通過(guò)引入CBAM 注意力機(jī)制,以及改進(jìn)IoU 損失函數(shù)為基于動(dòng)態(tài)非單調(diào)聚焦的Wise-IoU 函數(shù),提高了模型的目標(biāo)識(shí)別能力和邊界框損失的擬合效果。實(shí)驗(yàn)結(jié)果表明,所提出的算法在自制數(shù)據(jù)集上展現(xiàn)出了更優(yōu)的性能,測(cè)試集上的準(zhǔn)確率、召回率和均值平均精度均有所提升,并且在檢測(cè)速度方面提升了44.2%。這些結(jié)果驗(yàn)證了所提出的算法在檢測(cè)精度和速度方面的優(yōu)越性。此外,算法的思路和方法也可以應(yīng)用到其他領(lǐng)域的圖像識(shí)別和目標(biāo)檢測(cè)任務(wù)中,例如自動(dòng)駕駛、智能安防、醫(yī)療影像等領(lǐng)域。通過(guò)不斷優(yōu)化和改進(jìn),這種方法可以成為一種通用的、高效準(zhǔn)確的目標(biāo)識(shí)別和檢測(cè)方法,為實(shí)際場(chǎng)景中的多種應(yīng)用提供強(qiáng)有力的支持,推動(dòng)人工智能技術(shù)的發(fā)展。

        猜你喜歡
        指示燈注意力精度
        讓注意力“飛”回來(lái)
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        A Beautiful Way Of Looking At Things
        GPS/GLONASS/BDS組合PPP精度分析
        榮威750車(chē)ABS指示燈和防側(cè)滑指示燈異常點(diǎn)亮
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        上海大眾POLO充電指示燈點(diǎn)亮
        2013年波羅車(chē)充電指示燈異常點(diǎn)亮
        巧用磨耗提高機(jī)械加工精度
        河南科技(2014年14期)2014-02-27 14:11:53
        免费看草逼操爽视频网站| 久久久男人天堂| 91精品欧美综合在线观看| 国产女人av一级一区二区三区| 亚洲丁香婷婷久久一区二区| 久久精品噜噜噜成人| 国产在线精品一区二区在线看| 玩弄极品少妇被弄到高潮| 国产成人精品人人做人人爽97| 夜夜添夜夜添夜夜摸夜夜摸| 91九色免费视频网站| 亚洲av无码一区二区乱孑伦as| 亚洲丁香婷婷综合久久小说| 亚洲av有码精品天堂| 爆操丝袜美女在线观看| 免费观看又色又爽又湿的视频| 国产精品一区高清在线观看| 三级全黄的视频在线观看| 日本黄网色三级三级三级| 人人做人人爽人人爱| 色先锋资源久久综合5566| 中文字幕在线观看乱码一区| 日本一区二区三区亚洲| 久久久精品国产sm调教网站| 狠狠躁夜夜躁人人爽天天| 麻豆成人久久精品二区三区91| 国产成人无码专区| 一本大道久久香蕉成人网| 亚洲红杏AV无码专区首页| 黄射视频在线观看免费| 国产午夜无码片在线观看影院| 无夜精品久久久久久| 久久一区二区视频在线观看| 无码一区二区三区免费视频| 国产精品久久国产精麻豆99网站| 日韩在线精品视频观看 | 久久久精品人妻一区二区三区四 | 美腿丝袜一区二区三区| 最好看的亚洲中文字幕| 久久夜色精品国产噜噜麻豆| 精品国产91久久久久久久a|