亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv5的電力巡檢圖像缺陷識別研究

        2022-11-02 13:53:28博1鮑志遠2楊明坤3張凌浩1孫小毛
        四川電力技術 2022年5期
        關鍵詞:檢測模型

        龐 博1,鮑志遠2,楊明坤3,張凌浩1,孫小毛,胡 強

        (1. 國網(wǎng)四川省電力公司電力科學研究院,四川 成都 610041;2. 清華大學,北京 100084;3. 國網(wǎng)四川省電力公司樂山供電公司,四川 樂山 614099;4. 清華四川能源互聯(lián)網(wǎng)研究院氫能系統(tǒng)與轉化研究所,四川 成都 610299)

        0 引 言

        隨著人工智能技術的飛速發(fā)展,越來越多的行業(yè)引進人工智能技術,電力行業(yè)也不例外[1]。國家電網(wǎng)積極響應國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》的號召,緊跟科技發(fā)展的步伐,逐步擴大人工智能在電網(wǎng)中的應用范圍。

        輸電系統(tǒng)中有大量電力設備長期在戶外運行,受外界自然環(huán)境影響較大,易出現(xiàn)裂化、老化、腐蝕、破損等諸多缺陷,傳統(tǒng)的電力巡檢采用直升機或無人機航拍的方式,將采集的電力圖像數(shù)據(jù)傳回處理中心由相關工作人員進行人工識別處理。這些缺陷大部分為表面缺陷,通過采集可見光圖像和對圖像的處理和識別,能夠有效地發(fā)現(xiàn)電力設備的表面缺陷。

        傳統(tǒng)的巡檢圖片處理方法是基于圖像學的方法,可在一定程度上減輕人工壓力,但是由于傳統(tǒng)的圖像學方法速度較慢、精度較低,在故障巡檢領域難以實際應用。與傳統(tǒng)方法不同,基于深度學習的目標檢測方法利用卷積神經(jīng)網(wǎng)絡(convolutional neural network, CNN)來感知感受視野范圍內(nèi)的圖像。隨著網(wǎng)絡深度增加,不斷擴大的感受視野范圍在大型圖像的識別上有出色表現(xiàn)。

        基于深度學習的目標檢測模型主要分為一階段和兩階段模型,兩階段包括:1)選擇檢測框;2)對選框中的內(nèi)容進行分類。而一階段模型中,直接將檢測框選擇和內(nèi)容分類都當作回歸問題一起完成。

        區(qū)域卷積神經(jīng)網(wǎng)絡(regions with CNN features,R-CNN)[2]是最早的深度學習目標檢測模型,其中選框階段使用傳統(tǒng)圖形學方法,即 Selective Search[3],特征提取使用CNN網(wǎng)絡,分類使用支持向量機(support vector machine,SVM)分類。隨著深度學習目標檢測領域不斷的創(chuàng)新,F(xiàn)ast R-CNN[4]、Faster R-CNN[5]等二階段網(wǎng)絡的出現(xiàn),顯著改善了目標檢測效果;一階段模型包括SSD[6]、YOLO[7]等也紛紛出現(xiàn),極大提升了檢測速度;用于目標檢測的神經(jīng)網(wǎng)絡特征金字塔(feature pyramid network, FPN[8])結構等開始應用于最新網(wǎng)絡?;谏疃葘W習的目標檢測在檢測精度和檢測速度上已經(jīng)遠超傳統(tǒng)圖形學方法。

        在實際應用方面,國家電網(wǎng)公司于2018年開展了多旋翼無人機和直升機電力巡檢航拍圖像人工智能處理技術驗證。對電網(wǎng)常見的8~9種缺陷進行識別,取得了30%~89%的識別準確率,但在航拍圖像現(xiàn)場驗證工作中,因為圖像數(shù)據(jù)未經(jīng)遴選,且大部分是正樣本,導致識別準確率只有10%~30%。目前,實現(xiàn)電力缺陷目標檢測與分割方法,都存在著以下問題:

        1)單一的模型只能識別有限幾種典型的缺陷,對于電網(wǎng)接近500種不同類型的缺陷來說還遠遠不夠。目前公開的電力數(shù)據(jù)集規(guī)模都比較小,單個數(shù)據(jù)集包含的缺陷類型十分有限,從而導致檢測種類較少。

        2)模型的泛化能力差,難應用于工程實際。電力系統(tǒng)構建在野外地區(qū),圖像背景十分復雜是其泛化能力差的主要原因之一。

        下面使用輸電線路巡檢的圖像數(shù)據(jù),以YOLOv5模型為主體,研究“分別訓練、統(tǒng)一推斷”方法的效果,進一步提高模型的識別精度。

        1 YOLO算法

        YOLO與SSD是兩種最為典型的單階段目標檢測算法。YOLO[7]是第一種公開發(fā)表的單階段目標檢測算法,相比當時主流的R-CNN等模型。雖然在準確度上有一定的差距,但極大地提升了目標檢測的效率,推動了工業(yè)界對基于深度學習的目標檢測算法的應用。與YOLO同時間提出的單階段目標檢測模型SSD[6],則是利用卷積而不是全連接層來提取檢測結果。接下來,研究者在YOLO網(wǎng)絡的基礎上做了更多的改進,提出了YOLOv2、YOLOv3、YOLOv4、YOLOv5[9—11]。這些模型的主要改進點分別為:YOLOv2 嘗試了當時多種流行的技巧,如批標準化技術和錨框機制;YOLOv3將特征提取網(wǎng)絡替換為darknet-53,并使用不同大小的錨框;YOLOv4將激活函數(shù)替換為 Mish 激活函數(shù);YOLOv5在之前版本的基礎上,利用新的LOSS函數(shù)和瓶頸結構進一步提升了算法的識別精度。目前,YOLOv5 作為一個應用較為廣泛的算法模型,實現(xiàn)了識別精度和識別速度的平衡,相較于其他網(wǎng)絡更為適合電網(wǎng)巡檢場景下的缺陷圖像目標檢測。

        2 數(shù)據(jù)清洗與整理

        如圖1輸電分類別數(shù)量統(tǒng)計柱狀、目標區(qū)域大小統(tǒng)計所示,通過觀察原數(shù)據(jù),發(fā)現(xiàn)原始的輸電數(shù)據(jù)中類別數(shù)量、尺寸差距十分懸殊。

        圖1 輸電分類別數(shù)量統(tǒng)計柱狀、目標區(qū)域大小統(tǒng)計

        如果直接用一個模型進行訓練,可能會因為檢測目標尺度差異、樣本數(shù)量差異,使得檢測結果不佳。如圖2標注圖所示,標注存在部分標注的情況,也即是圖像總是分類別標注的,標注總是“部分”的,這也給直接訓練帶來難度。

        圖2 標注

        解決方法是,將訓練圖片分成多個類別用多個模型分別進行訓練,統(tǒng)一進行推斷。對包含的輸電線路數(shù)據(jù)進行整理和統(tǒng)計,可以得到如表1的輸電線路數(shù)據(jù),其中有顏色代表最終使用的類別,白色是因為數(shù)量、標注質量等問題而剔除的類別。

        表1 訓練數(shù)據(jù)集統(tǒng)計信息

        (續(xù))

        (續(xù))

        通過剔除數(shù)量較低、標注質量較差的類別,融合數(shù)量較少、難以區(qū)分的多個類別,得到以下大類:

        1)大尺寸: 包含防震錘、懸錘、線夾,3類正常6類缺陷,共9類。

        2)均壓環(huán):正常與異常共2類。

        3)絕緣子:自爆和污穢共2類。

        4)鳥窩: 存在鳥窩共1類。

        5)小金具:正常與異常共2類。

        具體的類別統(tǒng)計信息如表2—表6所示。

        表2 整理后新類別——大尺寸

        表3 整理后新類別——均壓環(huán)

        表4 整理后新類別——絕緣子

        表5 整理后新類別——鳥窩等桿塔異物

        表6 整理后新類別——小金具

        3 評價指標

        基于深度學習的目標檢測常用的評價指標為精確率P(Precision)和召回率R(Recall),如式(1)所示。

        (1)

        式中:TP為正樣本被判定為正樣本的個數(shù);FP為負樣本判定為正樣本的個數(shù);FN為正樣本被判定為負樣本的個數(shù)。不同的判定閾值可以得到不同的精確率和召回率,進而繪制P-R曲線。

        4 模型訓練與分析

        4.1 數(shù)據(jù)增強

        在訓練模型時,一般來說小目標的平均精度(average precision,AP)比中目標和大目標低很多。而數(shù)據(jù)集中也包含大量的小目標,但比較麻煩的是小目標的分布并不均勻。

        針對上述狀況,在YOLOv5中使用了 Mosaic 數(shù)據(jù)增強方法,Mosaic 數(shù)據(jù)增強的流程如圖3所示。利用隨機裁剪和縮放后的圖像進行隨機拼接,生成新的數(shù)據(jù),在豐富了數(shù)據(jù)集的同時也變相地增加了小樣本目標的數(shù)量。也因為會同時計算4張圖片的數(shù)據(jù),對計算內(nèi)存的需求也因此降低。Mosaic 數(shù)據(jù)增強后的樣本如圖4所示。

        圖3 Mosaic數(shù)據(jù)增強流程

        圖4 Mosaic 數(shù)據(jù)增強后樣本

        4.2 圖片處理

        在網(wǎng)絡訓練中,網(wǎng)絡在預設的錨框上進行預測,并將預測的結果與標簽進行差值計算,得到損失后反向更新網(wǎng)絡的整體參數(shù)。所以自適應錨框計算也是重要的一部分,需要在數(shù)據(jù)集上初始設定錨框。

        在模型中設置錨框,第一個YOLO層是最大的特征圖尺寸為40×40,對應最小的錨框。第二個YOLO層是中等的特征圖尺寸為20×20,對應中等的錨框。第三個YOLO層是最小的特征圖尺寸為10×10,對應最大的錨框。

        同時,YOLOv5采用了跨網(wǎng)格匹配規(guī)則,增加正樣本錨框數(shù)目的做法:對于任何一個輸出層,YOLOv5采用形狀(shape)匹配規(guī)則,計算標簽框和當前層的錨框的寬高比。如果寬高比大于設定的閾值說明該錨框沒有合適的標簽框,在該預測層之間將這些錨框當背景過濾掉。對于剩下的錨框,計算其落在哪個網(wǎng)格內(nèi),同時利用四舍五入規(guī)則,找出最近的2個網(wǎng)格,將這3個網(wǎng)格都認為是負責預測該錨框的。

        YOLOv5增加正樣本的方法,最多可增大到原來的3倍,大大增加了正樣本的數(shù)量,加速了模型的收斂。

        4.3 損失函數(shù)

        原始YOLOv5 損失函數(shù)Lobject如式(2) 所示,由 3 部分構成,其中置信度損失Lconf和類別損失Lclass采用二元交叉熵損失函數(shù)進行計算。

        Lobject=Lloc+Lconf+Lclass
        Lloc=1-CIoU

        (2)

        式中:CIoU為目標框回歸的損失函數(shù)。CIoU綜合考慮了真實框與預測框之間的重疊率、中心點距離、長寬比等各項參數(shù)的綜合損失,顯著提高了網(wǎng)絡學習的能力。其計算式如式(3)所示。

        (3)

        式中:Do2為框A和框B的中心點距離;Dc2為框A和框B的最小包圍矩形的對角線長;v為衡量長寬比一致性的參數(shù),可以定義為式(4)。

        (4)

        式中:wgt、wp、hgt、hp分別為真實框和預測框的寬度和高度。

        4.4 NMS處理

        在目標檢測的后處理過程中,針對很多目標框的篩選,通常需要非極大值抑制(non maximum suppression,NMS)操作。

        選擇DIOU_NMS作為目標框篩選。因為在測試過程中,并沒有標簽框的信息,不用考慮影響因子,因此直接用DIOU_NMS即可。圖5和圖6分別為網(wǎng)絡輸出的所有候選框和篩選后的候選框。

        圖5 所有選框與置信度信息

        圖6 NMS后刪除多余框輸出

        4.5 實驗環(huán)境

        實驗環(huán)境使用 CentOS7 x64 操作系統(tǒng),使用Tesla T4 顯卡進行運算,顯存大小為16 GB,采用Pytorch深度學習開發(fā)框架進行模型的開發(fā)和訓練。

        4.6 結果分析

        在數(shù)據(jù)清洗與整理環(huán)節(jié)中,整理出輸電數(shù)據(jù)集包含20 000張圖片,用于YOLOv5模型的訓練與測試。將數(shù)據(jù)集隨機分為訓練集和測試集,其中訓練集14 000張圖片,測試集6000張圖片。使用YOLOv5模型分別對所有的類別同時進行訓練和對5個類別分別進行訓練,對兩種訓練方式進行對比。

        由于存在“部分標注”“尺度區(qū)別過大”等問題,未處理數(shù)據(jù)前的訓練結果并不好。同時,因為目標檢測模型里,主干特征提取部分所提取到的特征是通用的,把backbone凍結起來訓練可以加快訓練效率,也可以防止權值被破壞。因此,數(shù)據(jù)分類處理后,凍結backbone層,采用“分別訓練、統(tǒng)一推斷”的方法,可以提升準確度。AP均值、準確率、召回率對比結果見表7所示。表7中,mAP_0.5表示IoU為0.5時,所有類別的AP均值;mAP_0.5∶0.95表示IoU從0.5到0.95,步長力0.05時所有類別的AP均值。

        表7 AP均值、準確率、召回率對比

        從表7中可以看出,對數(shù)據(jù)進行分類處理后,除小金具類別的mAP_0.5∶0.95有所下降外,絕大部分目標檢測效果提升明顯,大尺寸、鳥窩、絕緣子、均壓環(huán)4個類別的mAP_0.5、mAP_0.5∶0.95、準確率、召回率較數(shù)據(jù)處理前均較大提升。

        5 結 論

        上面使用輸電線路現(xiàn)場采集到的圖像數(shù)據(jù),經(jīng)數(shù)據(jù)分類處理后,凍結backbone層,采用“分別訓練、統(tǒng)一推斷”的方法訓練網(wǎng)絡模型。實驗結果表明,利用“分別訓練、統(tǒng)一推斷”的方法在大尺寸、鳥窩、絕緣子的缺陷類別中,基于YOLOv5的目標檢測算法對輸電線路巡檢圖像的缺陷識別效果較好,可以解決實際應用中的問題,在一些小尺寸缺陷識別任務中,識別的精度有待提高。

        猜你喜歡
        檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測中的應用
        国产ww久久久久久久久久| 日本一区二区三区在线观看视频| 极品美女调教喷水网站| 日韩av无码久久一区二区| 国产欧美亚洲精品a| 国产精品黑色丝袜在线播放| 欧美成人在线A免费观看| 免费的黄网站精品久久| 一区二区三区人妻av| 久久久久无码精品国产app| 国产精品自在线免费| 人妻在线中文字幕视频| 户外精品一区二区三区| 特级a欧美做爰片第一次| 亚洲人成网站在线播放观看| 久久精品人妻嫩草av蜜桃| 亚洲精品视频在线一区二区| 亚洲av无码乱码在线观看富二代| 亚洲熟伦熟女新五十路熟妇| 国产精品日本天堂| 亚洲禁区一区二区三区天美| 中字乱码视频| 热re99久久精品国产99热| 精品国产品欧美日产在线| 国产一区二区三区尤物| 亚洲日韩精品无码专区网址| 成在人线av无码免费| 伊人不卡中文字幕在线一区二区| 青青草视频在线观看网| 国产国语亲子伦亲子| 国产精品.xx视频.xxtv| 国产精品人成在线观看| 精品国产自在现线看久久| 欧美成人精品三级网站| 老色鬼永久精品网站| 中文字幕日本一区二区在线观看| 亚洲男人av天堂久久资源| 国产精品制服| 真实国产网爆门事件在线观看| 成人久久精品人妻一区二区三区| 亚洲国产天堂久久综合网|