亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLOv5s的架空輸電線路鳥類入侵檢測方法

        2023-07-17 07:20:34裴少通張善馳
        智慧電力 2023年6期
        關鍵詞:鳥類卷積精度

        裴少通,張善馳

        (華北電力大學電氣與電子工程學院,河北保定 071003)

        0 引言

        隨著生態(tài)環(huán)境的發(fā)展,鳥類繁衍速度與種群數量增多,架空輸電線路周圍的鳥類活動威脅著供電系統的穩(wěn)定運行。目前,110 kV 以上電壓等級的架空輸電線路因鳥類活動造成的跳閘故障愈發(fā)頻繁[1],鳥類活動已經成為造成電網故障的第三大因素[2-3],因此必須觀測并掌握線路周圍鳥類的規(guī)律和特點,針對性地架設防鳥裝置。然而,巡檢人員對鳥類并不了解,所以亟需一種準確、快速識別線路及桿塔上鳥類的方法,輔助巡檢人員開展鳥害防治工作,提高架空輸電線路運維效率。

        近年來,隨著機器視覺與圖像處理在電網巡檢工作中的廣泛應用,輸電線路鳥害防治朝向智能化發(fā)展。文獻[4]提出一種基于YOLOv4(You Only Look Once Version 4)目標檢測算法的涉鳥故障相關鳥種智能識別方法,對20 種鳥類的檢測精度能夠達到92.2%。文獻[5]采用Mel 頻率倒譜系數與高斯混合模型對16 種鳥類的鳴聲信號進行識別,其識別準確率為80.0%~96.7%。文獻[6]結合YOLOv3(You Only Look Once Version 3)與殘差網絡對輸電線路上的鳥類進行檢測,其檢測準確率為86.75%,檢測單張圖片的時間為21.18ms。文獻[7]基于YOLOv4-tiny(You Only Look Once Version 4-tiny)提出一種輕量級卷積神經網絡、圖像處理和目標檢測相結合的輸電線路故障典型鳥類檢測方法,平均檢測精度(Mean Average Precision,MAP)可達92.04%。文獻[8]設計了一種用于鳥類檢測的DC-YOLO(Dilated Convolution You Only Look Once)模型,在YOLOv3基礎上引入擴張卷積,并對非極大抑制(Non-Maximum Suppression,NMS)算法進行優(yōu)化,其結果表明DC-YOLO 模型檢測精度可達86.31%??紤]到架空輸電線路鳥類敏感且活動頻繁,巡檢人員必須當場迅速辨別并做出反饋,所以對檢測算法模型的實時性具有較高要求。

        為降低模型參數量并滿足實時檢測需求,本文提出一種基于改進YOLOv5s 的架空輸電線路鳥類入侵檢測方法,設計嵌入CBAM(Convolutional Block Attention Module)的卷積模塊以提高特征表達能力;以SPPF(Spatial Pyramid Pooling-Fast)模塊替換原SPP(Spatial Pyramid Pooling)模塊,實現特征的深度融合;嵌入Mish 激活函數的三次卷積(C3)模塊,提高整體模型的非線性擬合能力。結合構建的輸電線路鳥類入侵圖像數據集進行改進YOLOv5s 模型的訓練與測試,結果表明本文方法能夠為架空輸電線路巡檢工作人員快速檢測鳥類,開展鳥害防治工作提供方法參考。

        1 改進YOLOv5s模型

        YOLOv5[9-10](You Only Look Once Version 5)是2020 年Ultralytics 公司推出的一種輕量級目標檢測模型,通過深度乘數(Depth_Multiple,DM)與寬度乘數(Width_Multiple,WM)控制模型的復雜度,從而形成了YOLOv5s,YOLOv5m,YOLOv5l,YOLOv5x 4 種不同結構的檢測模型。YOLOv5 憑借良好的檢測精度與速度,廣泛應用于電力設備狀態(tài)[11-12]、外力破壞[13]、作業(yè)安全[14]等檢測,也能滿足實時檢測的要求。

        本文采用的YOLOv5s 基礎檢測模型的結構主要包括特征提取網絡、特征融合網絡與檢測網絡3個部分。在特征提取網絡中利用嵌入了CBAM[15]注意力機制的卷積模塊(Conv_CBAM)替換普通卷積模塊,利用SPPF[16]代替原有的SPP 空間金字塔池化,結合Mish[17]激活函數改進原始C3 模塊,建立改進YOLOv5s 模型如圖1 所示。其中,Focus 模塊為YOLOv5s 特有的特征切片堆疊(Concat)操作。

        圖1 改進YOLOv5s模型結構圖Fig.1 Improved YOLOv5s model structure diagram

        1.1 C3_M模塊

        Mish 激活函數作為一種無上限有下限的非線性擬合函數,其無上限特點能夠解決梯度消失問題,有下限特點能夠加強正則化效果,對YOLOv5s 模型的訓練具有良好的作用。所以,本文針對YOLOv5s 的特征融合網絡中的三次卷積(C3)模塊,其中每一次卷積采用的都是CBS 卷積模塊,即卷積層(Conv)、正則化層(BN)、與SiLU 激活函數層。本文利用CBM模塊替代CBS 模塊,即利用Mish 激活函數替代原有SiLU 激活函數,構建C3_M 模塊,如圖2 所示。

        圖2 C3_M模塊結構圖Fig.2 C3_M module structure diagram

        Mish 激活函數表達式為:

        1.2 Conv_CBAM模塊

        由于鳥類圖像背景環(huán)境復雜,在特征提取過程中必然出現大量無關冗余的特征,因此本文引入CBAM 注意力機制,實現特征篩選與優(yōu)化,從而提高改進YOLOv5s 的鳥類檢測精度。其中,CBAM 是一種結合通道與空間兩個維度的簡單高效注意力機制,能夠將輸入特征圖與注意力圖進行像素級累積,自適應實現特征的優(yōu)化提取。本文將其嵌入至特征提取網絡中的普通卷積模塊中,加強特征提取的有效性。嵌入CBAM 注意力機制的卷積模塊(Conv_CBAM)結構如圖3 所示。

        圖3 Conv_CBAM結構圖Fig.3 Conv_CBAM structure diagram

        假設YOLOv5s 訓練過程中提取獲得特征圖輸入至Conv_CBAM 模塊中,首先經過CBH 模塊(Conv 卷積層、BN 層、Hardswish 激活函數),然后通過通道注意力模塊提取輸入特征F的通道權重系數Mc,再與輸入特征進行像素級累積后便能從通道上過濾冗余特征,如式(2)所示。

        隨后將特征進一步傳輸至空間注意力模塊中,提取空間權重系數Ms,通過像素級累積后獲得Conv_CBAM 模塊最終輸出特征圖F′,空間注意力模塊計算公式為:

        1.3 SPPF模塊

        為有效避免輸入圖像歸一化大小帶來的失真問題,并進一步提高模型的檢測精度。本文引入SPPF 空間金字塔池化來替換SPP[18]模塊,相較于原始SPP 網絡具有更快的處理速度,其結構如圖4 所示。其中,輸入特整圖通過CBS 模塊,再分別通過池化核為5×5,9×9 和13×13 的最大值池化,然后將3 種最大值池化處理后的結果與CBS 模塊的輸出結果進行堆疊,最后再經過一次CBS 模塊處理,從而獲得SPPF 最終輸出特征。

        圖4 SPPF網絡結構圖Fig.4 SPPF network structure diagram

        2 算例仿真與結果分析

        2.1 數據準備與參數設置

        本文算例仿真試驗所需的輸電線路鳥類入侵圖像數據集共收集2 000 張圖像,皆通過互聯網收集,經過數據篩選后總體圖像存在不同角度、不同光照、不同環(huán)境背景等情況。隨后使用LabelImg 按照Pascal VOC[19]格式對數據集進行標注,鳥類目標的標簽名稱為“bird”。算例仿真試驗所用的硬件環(huán)境包括:Windows 10,NVIDIA GeForce RTX 3060 Laptop GPU,顯存6G,運行內存16G,處理器CPU為Intel i5-11400H;軟件環(huán)境包括:Visual Studio Code 1.71.2,Pytorch 1.7.1,OpenCV 4.5.3.56。

        訓練改進YOLOv5s 模型過程中,將輸入鳥類入侵圖像大小設置為640×640 像素,訓練過程分為凍住與解凍2 個階段,凍住階段批大?。˙atchsize)設置為8,訓練輪次(epoch)為100,解凍階段Batchsize設置為4,訓練輪次為100,全程訓練200 輪;優(yōu)化器定義為SGD,動量設置為0.934,最大學習率為1×10-2,最小學習率為1×10-4,總體學習率按照余弦退火方法實現動態(tài)調整。訓練過程中的精度(PA)值隨輪次的變化趨勢如圖5 所示。

        圖5 訓練精度變化曲線Fig.5 Variation curve of training accuracy

        2.2 鳥類入侵檢測結果及分析

        2.2.1 消融實驗

        本文將輸電線路鳥類入侵圖像數據集按照9:1的比例劃分為訓練集與測試集,對改進YOLOv5s 模型進行訓練與測試,引入查準率P值、查全率R值、檢測精度PA值與F1 分數來評判模型的性能,F1 分數為P值與R值的調和平均數。不同改進方法下的模型檢測結果如表1 所示,其中,①表示添加C3_M 模塊,②表示添加Conv_CBAM 模塊,③表示添加SPPF 模塊。

        表1 不同改進方法下的檢測結果Table 1 Detection results with different improved methods

        由表1 可知,當添加C3_M 模塊時,檢測精度PA值提升了0.2%,雖然提升幅度不大,但Mish 激活函數不會導致模型計算量增大,而且精度的提升說明Mish 激活函數的引入對特征處理有一定程度地優(yōu)化。當進一步采用嵌入CBAM 注意力機制的Conv_CBAM 卷積模塊時,改進YOLOv5s 模型的精度提升幅度明顯,PA值提升了0.94%,說明CBAM注意力機制能夠有效抑制鳥類圖像背景中的無關冗余特征,加強特征提取能力。當再引入SPPF 模塊后,PA值提升了0.21%,說明改進YOLOv5s 模型能夠有效避免圖像失真與特征信息重復問題。同時采用以上3 種改進方法后,改進YOLOv5s 模型的最終檢測精度為98.08%,驗證了本文所提方法對模型具有正向提升。

        2.2.2 樣本比例的影響

        為了進一步驗證本文輸電線路鳥類入侵圖像數據集訓練過程中訓練集與測試集的分配比例對模型性能的影響,設置9:1,8:2,7:3,6:4,5:5 共5 種樣本分配比例,而在訓練過程中模型驗證所需的驗證集為訓練集的10%,利用訓練后獲得的改進YOLOv5s 模型,對測試集圖像進行批量檢測與性能參數計算,分析樣本比例的影響,結果如表2 所示。

        表2 不同樣本比例下的檢測結果Table 2 Detection results with different sample proportions

        由表2 可知,改進YOLOv5s 模型在5 種樣本分配比例情況下的檢測精度依然能夠達到95%以上,且隨著樣本比例的增大,檢測精度與F1 分數不斷提升。但從提升幅度情況來看,樣本比例的提升帶來的檢測精度提升幅度較小,考慮到改進YOLOv5s模型需具有充足的訓練樣本數,才能獲得良好的檢測精度與泛化能力,所以,本文最終選取9:1 作為樣本分配比例。

        2.2.3 對比實驗

        為了進一步驗證本文所提出改進YOLOv5s 模型的優(yōu)越性,構建了YOLOv4-tiny[20],YOLOv4[21],YOLOv3[22],SSD[23](Single Shot Multibox Detector),Faster RCNN[24-25](Faster Region-based Convolutional Neural Networks)5 種算法進行比較,結合PA值、F1 分數、模型占用內存與檢測速度vFPS,實現模型性能的綜合評價。不同檢測算法模型在同一訓練集與驗證集上進行仿真實驗,其檢測結果如表3 所示。

        表3 不同算法的檢測結果Table 3 Detection results with different algorithms

        由表3 可知,Faster RCNN,SSD,YOLOv3 與YOLOv4 憑借復雜且深層的卷積神經網絡結構,其PA值可以達到96%以上,但其檢測速度較慢,較難滿足巡檢過程中快速反饋鳥類信息的要求;YOLOv4-tiny 大幅簡化了原始YOLOv4 模型的網絡結構,其PA值只能達到90.11%,但檢測速度卻能夠達到最高65.95 張/s。本文所提出的改進YOLOv5s模型PA值高于其他5 種模型,具有最高的檢測精度98.08%,同時憑借低參數量的改進方法,模型檢測速度能夠達到56.18 張/s,僅次于YOLOv4-tiny。改進YOLOv5s 模型較SSD 與YOLOv4 模型F1 分數分別降低了0.03 和0.02,但能夠達到0.93,表明改進YOLOv5s 具有良好的查準率與查全率,即存在較少的誤檢與漏檢。改進YOLOv5s 模型占用內存為27.3M,表明在模型的部署與嵌入式應用中將更容易適應現場需求。所以,綜合所有性能指標可知,本文所提改進YOLOv5s 模型具有良好的檢測性能,且總體優(yōu)于其他5 種檢測算法。

        2.2.4 魯棒性驗證

        為了進一步驗證本文所提改進YOLOv5s 模型的實際應用效果,選取了6 張實際拍攝圖像。其中包含不同自然光照、遠距離、多目標、遮擋等多種真實巡檢過程中存在的情況,通過調用改進YOLOv5s模型對其進行檢測,結果如圖6 所示。其中包含目標類別“bird”及置信度分數。

        圖6 多種復雜情況下的檢測結果Fig.6 Detection results under various complex situations

        由圖6 多種真實復雜情況下的檢測結果可知,本文所提出的改進YOLOv5s 模型在黃昏特殊光照和遠距離拍攝情況下,依然能夠檢測出入侵輸電線路的鳥類,且置信度分數大于80%。針對遠距離、仰視、俯視與多目標等情況,置信度分數基本在60%以上,能夠較為良好的檢測出鳥類。但在遮擋情況下,如圖6(c)所示,改進YOLOv5s 的檢測置信度下降至53%,隨著遮擋程度的加劇將導致模型檢測不出鳥類,說明遮擋情況是目前檢測算法性能的挑戰(zhàn)之一。總體而言,本文提出的改進YOLOv5s 模型能夠在多種復雜情況下較為準確地檢測出入侵輸電線路的鳥類,有助于提高輸電線路鳥類防治效率與智能化。

        3 結論

        針對鳥類在輸電線路周圍頻繁活動并導致輸電線路跳閘與停電等事故的現象,本文基于嵌入CBAM 注意力機制的卷積模塊、SPPF 模塊與C3_M模塊提出一種改進YOLOv5s 的架空輸電線路鳥類入侵檢測方法,并通過算例仿真與結果分析,得出以下結論:

        1)本文方法能夠實現高精度、高實時性地鳥類入侵檢測,檢測精度(PA值)能夠達到98.08%,檢測速度可以達到56.18 張/s,且性能總體優(yōu)于其他5 種目標檢測方法。

        2)本文方法能夠成功實現對輸電線路周圍及桿塔上的鳥類進行檢測,可為輸電線路鳥類入侵及鳥害防治提高參考。

        猜你喜歡
        鳥類卷積精度
        善于學習的鳥類
        學與玩(2022年9期)2022-10-31 02:54:08
        基于3D-Winograd的快速卷積算法設計及FPGA實現
        我的濕地鳥類朋友
        文苑(2020年12期)2020-04-13 00:54:14
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        鳥類
        小太陽畫報(2019年1期)2019-06-11 10:29:48
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        基于傅里葉域卷積表示的目標跟蹤算法
        鳥類的叫聲
        GPS/GLONASS/BDS組合PPP精度分析
        改進的Goldschmidt雙精度浮點除法器
        国产亚洲欧美精品一区| 国产在线 | 中文| 最近中文字幕在线mv视频在线 | 一边吃奶一边摸做爽视频| 免费AV一区二区三区无码| 日本不卡一区二区三区在线| 亚洲色图三级在线观看| 国产精品伦一区二区三级视频| 日本视频中文字幕一区在线| 国内人妖一区二区在线播放 | 亚洲人成无码区在线观看| 人人妻人人澡人人爽人人精品电影 | 日韩国产成人无码av毛片蜜柚| 黄色网址国产| 青青草视频在线观看视频免费| 无套内谢孕妇毛片免费看| 亚洲精品久久久久久久久av无码| 99精品欧美一区二区三区美图| 亚洲一区久久蜜臀av| 内射口爆少妇麻豆| 国产成人无码区免费网站| 久久国产高潮流白浆免费观看| 国产区女主播一区在线| 欧洲freexxxx性少妇播放| 日韩亚洲制服丝袜中文字幕 | 一区二区三区最新中文字幕| 东京无码熟妇人妻av在线网址| 欧美日韩中文亚洲另类春色| 男人的精品天堂一区二区在线观看 | 久久亚洲道色综合久久| 国产成人综合色在线观看网站| 国产av无码专区亚洲草草| 性生大片免费观看性少妇| 无码国产伦一区二区三区视频| 亚洲专区路线一路线二天美 | 天堂av在线美女免费| 国内老熟妇对白xxxxhd| 手机AV片在线| 夜夜骚久久激情亚洲精品| 成熟丰满熟妇高潮xxxxx视频| 国产品精品久久久久中文|