丁楠楠 胡旭曉 吳躍成 汪威 王佳
摘? 要:針對輸電線路附近可能出現(xiàn)的大型違章車輛施工造成外力破壞的情況,為保證輸電線路運行的安全和穩(wěn)定,提出了改進(jìn)的YOLOv5目標(biāo)檢測算法。在原有YOLOv5算法的基礎(chǔ)上,將其使用的Bounding box損失函數(shù)GIOU_Loss改為CIOU_Loss,使其具有更快更好的收斂效果;同時將其使用的經(jīng)典NMS改為DIOU_NMS,使其對一些遮擋重疊的目標(biāo)有更好的識別效果。實驗結(jié)果顯示,改進(jìn)后的YOLOv5算法模型可以有效地監(jiān)控輸電線路附近的外力破壞情況。
關(guān)鍵詞:輸電線路;目標(biāo)檢測;改進(jìn)YOLOv5
中圖分類號:TP249? ? ?文獻(xiàn)標(biāo)識碼:A
文章編號:2096-1472(2022)-01-14-04
Abstract: Operation of large illegal vehicles are likely to cause external damage on nearby transmission line. In order to ensure the safe and stable operation of transmission line, this paper proposes an improved YOLOv5 target detection algorithm. Based on the original YOLOv5 algorithm, the Bounding box loss function GIOU_Loss used by it is changed to CIOU_Loss, so that it has a faster and better convergence effect. At the same time, the classic NMS used by the original one is changed to DIOU_NMS, so that it has a better detection effect for some occluded and overlapped targets. Experimental results show that the improved YOLOv5 algorithm model can effectively monitor the damage caused by external forces near transmission line.
Keywords: transmission line; target detection; improved YOLOv5
1? ?引言(Introduction)
近年來,隨著我國各類產(chǎn)業(yè)尤其是互聯(lián)網(wǎng)的飛速發(fā)展,電力的需求量也直線上升。輸電線路是電力系統(tǒng)的生命線,關(guān)系到整個電力系統(tǒng)的安全和效益,因此保證輸電線路的穩(wěn)定運行至關(guān)重要。
由于輸電線路長期處于復(fù)雜的地理位置,且與人類活動緊密聯(lián)系,因此輸電線路有較高的可能性會出現(xiàn)故障,嚴(yán)重影響電網(wǎng)安全運行的同時,也對人民的生命財產(chǎn)安全構(gòu)成了極大的威脅。
據(jù)統(tǒng)計,隨著城市化進(jìn)程的加速發(fā)展,大型車輛違章施工已經(jīng)成為輸電線路外力破壞的主要因素[1]。目前對于輸電線路的外力破壞檢測,主要是通過安裝在高空塔架的攝像頭拍攝照片,再交給后端中心去進(jìn)行人工分析[2]。監(jiān)控人員通過監(jiān)看攝像頭拍攝現(xiàn)場傳回的靜態(tài)圖像查看其中可能出現(xiàn)的外力入侵目標(biāo),如吊車、油罐車、挖掘機(jī)等大型施工車輛,在發(fā)現(xiàn)外力入侵行為時則發(fā)出警告,派出電網(wǎng)維護(hù)人員至現(xiàn)場進(jìn)行處理[3]。這種依靠人工檢查的方法工作量大,工作人員容易疲勞,實時性差且效率較低。
近年來,隨著深度學(xué)習(xí)的快速發(fā)展,許多研究學(xué)者發(fā)布了大量基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法。目前,目標(biāo)檢測領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類:一類是基于區(qū)域候選網(wǎng)絡(luò)(RPN)來提取目標(biāo)候選區(qū)域的兩階段算法,如R-CNN[4]、Fast R-CNN[5]、Faster R-CNN[6]等。這種類別的目標(biāo)檢測算法主要是在特征提取的基礎(chǔ)上,使用一個神經(jīng)網(wǎng)絡(luò)來生成候選區(qū)域,然后再對候選區(qū)域回歸來確定目標(biāo)的類別和位置。另一類是端到端的一階段目標(biāo)檢測算法,如YOLO系列[7-9]算法。此類方法直接對圖片內(nèi)容進(jìn)行分類和回歸,不需要提取候選區(qū)域,將目標(biāo)檢測視為回歸問題處理。
本文使用輸電線路現(xiàn)場監(jiān)控圖像數(shù)據(jù),以及網(wǎng)絡(luò)收集的工程車輛數(shù)據(jù),制作了輸電線路外力破壞的檢測數(shù)據(jù)集,以YOLOv5模型為主體,研究改進(jìn)模型的效果,進(jìn)一步提高模型的識別精度和魯棒性。
2? YOLOv5算法簡介(Introduction to YOLOv5 algorithm)
YOLO(You Only Look Once)網(wǎng)絡(luò)是一種基于回歸的目標(biāo)識別算法,具有較快的檢測速度,在很多任務(wù)中取得了很好的效果。YOLO網(wǎng)絡(luò)將輸入的圖像劃分成大小為S×S的網(wǎng)格,目標(biāo)物的中心位置落到哪個網(wǎng)格上,就由該網(wǎng)格對應(yīng)錨框負(fù)責(zé)檢測目標(biāo)[10]。相比于其他目標(biāo)檢測算法,YOLO的多尺度算法能夠更為有效地檢測目標(biāo),且在實時性方面表現(xiàn)得較為突出,適合輸電線路異常情況檢測的需求。
YOLOv5根據(jù)網(wǎng)絡(luò)深度的不同分為YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,其中YOLOv5x檢測精度最高,但是網(wǎng)絡(luò)模型較大,對設(shè)備的要求較高;YOLOv5s的模型尺寸較小,檢測速度快,且部署方便。考慮到保證檢測精度的同時,能夠提高檢測速度,減小模型尺寸,本文選用YOLOv5l作為實驗使用的模型。YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)可以分為Input、Backbone、Neck和Prediction四部分。
YOLOv5在輸入端采用了和YOLOv4一樣的Mosaic數(shù)據(jù)增強方式。Mosaic數(shù)據(jù)增強方式參考了CutMix數(shù)據(jù)增強方式,隨機(jī)讀取四張圖片,然后再對這四張圖片采取隨機(jī)縮放、隨機(jī)裁剪、隨機(jī)排布的方式拼接到一張圖上作為訓(xùn)練數(shù)據(jù),既豐富了檢測物體的背景,提高了數(shù)據(jù)樣本的多樣性,又增加了很多小目標(biāo),提高了小目標(biāo)物的識別能力。并且,四張圖片拼接在一起,在進(jìn)行Batch Normalization的時候會同時計算四張圖片,相當(dāng)于增加了Batch Size的大小,減少了GPU內(nèi)存的消耗。YOLOv5還在YOLOv4的基礎(chǔ)上增加了自適應(yīng)錨框計算和自適應(yīng)圖片縮放功能。在YOLO算法中,針對不同的數(shù)據(jù)集,都會使用K-means聚類出初始設(shè)定的錨框。在以往的YOLO算法中,計算初始錨框的值都是通過單獨的程序運行的,但在YOLOv5中將此功能嵌入代碼中,每次訓(xùn)練時,自適應(yīng)地計算出不同訓(xùn)練集中的最佳錨框值。YOLOv5的自適應(yīng)圖片縮放在對原始圖片進(jìn)行縮放時,能夠自適應(yīng)地添加最少的黑邊,減少信息冗余,提高推理速度。
在Backbone上主要使用了Focus結(jié)構(gòu)、CSP結(jié)構(gòu)。Focus模塊是對圖片進(jìn)行切片操作,從而得到二倍下采樣特征圖,相比于一般的下采樣,F(xiàn)ocus模塊可以在一定程度上減少模型的計算量,并且不會使信息丟失,為后續(xù)的特征提取保留了更完整的圖片下采樣信息。不同于YOLOv4只在主干網(wǎng)絡(luò)Backbone中使用CSP結(jié)構(gòu),YOLOv5中設(shè)計了兩種CSP結(jié)構(gòu),其中CSP1_X結(jié)構(gòu)應(yīng)用于Backbone,CSP2_X結(jié)構(gòu)則應(yīng)用于Neck中。在Neck上采用了PAN結(jié)構(gòu)和FPN結(jié)構(gòu),用于特征增強。在損失函數(shù)上,YOLOv5采用GIOU_Loss作為Bounding Box的損失函數(shù)。
3 改進(jìn)的YOLOv5算法(Improved YOLOv5 algorithm)
(1)用CIOU_Loss取代GIOU_Loss
IOU是指目標(biāo)預(yù)測框與真實框的交集與并集的比例,通常稱為交并比,它可以反映預(yù)測檢測框與真實檢測框的檢測效果。IOU_Loss即為1-IOU,其表達(dá)式如式(1)所示。
IOU_Loss作為Bounding Box的損失函數(shù)存在一個問題,即如果預(yù)測框與真實框沒有相交,根據(jù)定義IOU=0,不能反映兩者的距離大小。同時因為損失函數(shù)失去了可導(dǎo)的性質(zhì),沒有梯度回傳,無法進(jìn)行學(xué)習(xí)訓(xùn)練?;诖?,相關(guān)研究者提出了GIOU_Loss,對于兩個框A、B,先計算它們的最小凸集(包圍A、B的最小包圍框),然后結(jié)合最小凸集計算GIOU_Loss,其表達(dá)式如式(2)所示。
YOLOv5就是采用GIOU_Loss作為Bounding Box的損失函數(shù),解決了兩個框沒有交集時無法訓(xùn)練的問題,同時考慮到了IOU沒有關(guān)注的非重疊區(qū)域,能夠更好地反映出兩個框的重合度。但是,仍無法解決預(yù)測框在真實框內(nèi)部且預(yù)測框面積不變的情況,因為這個時候預(yù)測框和真實框的差集是相同的,不管預(yù)測框在真實框內(nèi)部的哪個位置,GIOU_Loss都是相同的。針對GIOU_Loss存在的問題,相關(guān)學(xué)者提出了DIOU_Loss,相比于GIOU_Loss限制最小外接矩形和預(yù)測框與真實框并集的差值,DIOU_Loss直接限制了最小外接矩形的面積和預(yù)測框與真實框中心點的位置,其表達(dá)式如式(3)所示。
其中,為預(yù)測框與真實框中心點之間的歐幾里得距離,c為預(yù)測框與真實框最小外接矩形的對角線長度。一個好的回歸損失應(yīng)該考慮三點,分別為覆蓋面積、中心點距離和長寬比。而DIOU_Loss只考慮了覆蓋面積和中心點距離,所以研究人員在DIOU_Loss的基礎(chǔ)上加入了長寬比的因素,提出了CIOU_Loss,其表達(dá)式如式(4)所示。
其中,是預(yù)測框與真實框長寬比的距離:
是一個權(quán)重系數(shù):
因此,本文選用將覆蓋面積、中心點距離和長寬比等信息都考慮在內(nèi)的CIOU_Loss作為Bounding Box的損失函數(shù),提高回歸精確度,使得預(yù)測框更加符合真實框。
(2)用DIOU_NMS取代經(jīng)典的NMS
NMS(非極大值抑制)是目標(biāo)檢測算法后處理中常用的技術(shù),用于將冗余的檢測框過濾掉。在經(jīng)典的NMS中,得分最高的檢測框和其他檢測框逐一計算出一個對應(yīng)的IOU值,并將該值超過NMS Threshold的框全部過濾掉??梢钥闯觯诮?jīng)典的NMS算法中,IOU是唯一考慮的因素。但是在實際的應(yīng)用場景中,當(dāng)兩個不同物體距離很近時,由于IOU值比較大,往往經(jīng)過NMS處理后只剩下一個檢測框,可能導(dǎo)致漏檢的情況發(fā)生。為了避免發(fā)生漏檢,本文用DIOU_NMS取代經(jīng)典的NMS。DIOU_NMS不僅僅考慮IOU,還關(guān)注兩個框中心點之間的距離。如果兩個框之間的IOU比較大,且這兩個框之間的距離也比較大時,可能會認(rèn)為這是兩個物體的框而不會被過濾掉。
4? ?評價指標(biāo)(Evaluating indicator)
基于神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測常用的評價指標(biāo)通常為精確率(Precision)和召回率(Recall)[11]。
以識別吊車為例,上式中,TP指的是正確檢測出吊車目標(biāo);FP指的是將其他目標(biāo)物識別為吊車;FN指的是吊車未被正確識別出。
5? ?實驗分析(Experimental analysis)
5.1? ?實驗數(shù)據(jù)集的制作與訓(xùn)練細(xì)節(jié)
針對檢測輸電線路附近可能出現(xiàn)大型施工車輛這一情況,本文制作了一個輸電線路附近大型施工車輛的數(shù)據(jù)集。本數(shù)據(jù)集的數(shù)據(jù)來源于安裝在多個輸電線路上的攝像頭拍攝到的圖像數(shù)據(jù)。并非所有采集到的圖像都適用于制作訓(xùn)練目標(biāo)檢測模型的數(shù)據(jù)集,因此,我們首先要對采集到的圖像數(shù)據(jù)進(jìn)行篩選,然后使用labelImg圖像標(biāo)注軟件對圖像進(jìn)行標(biāo)注。標(biāo)注的類別為大型卡車、挖掘機(jī)、吊車和油罐車,如圖1(a)所示為輸電線路附近挖掘機(jī)的圖像標(biāo)注。使用labelImg標(biāo)注完圖像后會生成一個xml格式的文件,如圖1(b)所示,其中size一欄記錄原圖的寬度、高度和通道數(shù)目,object一欄記錄目標(biāo)的類別及標(biāo)注矩形框的左上角和右下角坐標(biāo)[12]。整個數(shù)據(jù)集包含2,000 張圖片,將數(shù)據(jù)集隨機(jī)分為訓(xùn)練集和測試集,其中訓(xùn)練集1,400 張圖片,測試集600 張圖片。
此次實驗在Ubuntu 16.04操作系統(tǒng)、Intel i5-9300H處理器、NVIDIA GTX1660Ti顯卡下搭建實驗環(huán)境,包括CUDA 10.1、OpenCV 4.4.0,使用PyTorch 1.7.0搭建YOLOv5的網(wǎng)絡(luò)框架。epochs設(shè)置為300,batch_size設(shè)置為16。
5.2 實驗結(jié)果
為了驗證YOLOv5網(wǎng)絡(luò)模型對輸電線路外力破壞檢測的準(zhǔn)確性,從輸電線路數(shù)據(jù)集的測試集中隨機(jī)選出包含大型卡車、挖掘機(jī)、吊車和油罐車的圖片各125 張,用于實驗測試。
將測試樣本放在YOLOv5的測試文件夾下,分別用原始YOLOv5算法訓(xùn)練出的網(wǎng)絡(luò)模型和改進(jìn)YOLOv5算法訓(xùn)練出的網(wǎng)絡(luò)模型對樣本進(jìn)行檢測,然后再統(tǒng)計出兩種網(wǎng)絡(luò)模型的精確率和召回率。
由表1和表2對比可得,YOLOv5改進(jìn)算法相較于原始YOLOv5算法在精確率和召回率上都有所提高,圖2為改進(jìn)YOLOv5的檢測效果示意圖。
6? ?結(jié)論(Conclusion)
本文使用輸電線路現(xiàn)場采集到的圖像數(shù)據(jù)制作數(shù)據(jù)集,并用其訓(xùn)練網(wǎng)絡(luò)模型,對網(wǎng)絡(luò)模型的性能進(jìn)行實驗測試。實驗結(jié)果表明,基于改進(jìn)YOLOv5的目標(biāo)檢測算法對輸電線路外力破壞的檢測效果較好,能夠滿足其要求。
參考文獻(xiàn)(References)
[1] 錢宇.基于深度學(xué)習(xí)的輸電塔架異常識別與預(yù)警系統(tǒng)的設(shè)計與實現(xiàn)[D].濟(jì)南:山東大學(xué),2019.
[2] 沈方晴,許金明,王勁松.架空輸電線路防外力破壞工作的分析與對策[J].科技信息,2013(05):393,430.
[3] 閆春江,王闖,方華林,等.基于深度學(xué)習(xí)的輸電線路工程車輛入侵檢測[J].信息技術(shù),2018,42(07):28-33.
[4] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]// SUN J, KIM J, PANTIC M, et al. 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014:580-587.
[5] GIRSHICK R. Fast R-CNN[C]// SUN J, LIU W, PRICE B, et al. 2015 IEEE International Conference on Computer Cision. Santiago, Chile: IEEE, 2015:1440-1448.
[6] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. 2017 IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6):1137-1149.
[7] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]// PRICE B, LIN L, CUPTA A, et al. 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016:779-788.
[8] REDMON J, FARHADI A. YOLO9000: Better, faster, stronger[C]// SCHIELE B, LIN L, DARRELL T, et al. 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA: IEEE, 2017:6517-6525.
[9] REDMON J, FARHADI A. YOLOv3: An incremental improvement[Z/OL]. [2021-08-19]. https://arxiv.org/abs/1804.02767.
[10] 李同,阮士峰,陳卓,等.基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測綜述[J].科技經(jīng)濟(jì)導(dǎo)刊,2020,28(27):18-20.
[11] 萬晨霞.基于卷積神經(jīng)網(wǎng)絡(luò)的道路多目標(biāo)檢測算法研究[D].鄭州:河南工業(yè)大學(xué),2019.
[12] 呂寧.基于深度學(xué)習(xí)的輸電線路防外力破壞監(jiān)測系統(tǒng)研究[D].哈爾濱:哈爾濱工程大學(xué),2018.
作者簡介:
丁楠楠(1996-),男,碩士生.研究領(lǐng)域:圖像處理.
胡旭曉(1965-),男,博士,教授.研究領(lǐng)域:圖像處理,機(jī)器視覺.本文通訊作者.
吳躍成(1966-),男,博士,副教授.研究領(lǐng)域:人機(jī)交互.
汪? ?威(1997-),男,碩士生.研究領(lǐng)域:圖像處理.
王? ?佳(1998-),女,碩士生.研究領(lǐng)域:故障診斷算法研究.