亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學習的輸電線路絕緣子缺陷識別研究?

        2023-11-21 06:17:32喬鈺彬曲金帥肖云波
        計算機與數字工程 2023年8期
        關鍵詞:檢測

        喬鈺彬 曲金帥 范 菁 肖云波 張 宜

        (云南民族大學電氣信息工程學院 昆明 650000)

        1 引言

        隨著我國綜合國力的快速增長,電力系統(tǒng)的安全穩(wěn)定性尤為重要。由于國家各地區(qū)的能源需求的不同,國家提出了“西電東送、南北互供、全國聯(lián)網”的三大策略。其中,輸電線路在策略中占據著及其重要的地位。由于輸電線路所處環(huán)境復雜,長期裸露在戶外,受天氣的影響,暴曬、風霜、冰凍等對輸電線路造成的危害極大。輸電線路上設備的損壞和缺陷會造成電網停電,因此定期的電力巡檢對電網的安全穩(wěn)定性十分重要。目前的巡檢方式有人工巡檢[1]、直升機或者無人機巡檢[2]。由于無人機體積小、操作簡單、飛行距離遠等特點,目前無人機巡檢在電力巡檢中成為主流。無人機巡檢收集到的圖像數量多,需要進一步地篩選圖像中有故障的設備。近年來隨著計算機視覺的不斷發(fā)展,通過智能檢測的方法對圖像進行識別成為目前的主流。

        絕緣子作為輸電線路中關鍵的電力設備,巡檢過程中對絕緣子的檢測十分重要。對于輸電線路上絕緣子檢測由于其種類和樣式不一、所處環(huán)境較為復雜且絕緣子的掉串缺陷在整個圖像上占比很小,導致絕緣子掉串缺陷識別的難度較大。隨著深度學習的發(fā)展,運用深度學習的方法對絕緣子圖像進行識別和檢測成為目前的趨勢。

        目前運用深度學習對絕緣子進行檢測主要有兩種方法,一種是通過目標檢測算法直接定位缺陷,如文獻[3]中,直接利用Faster RCNN 算法對絕緣子進行定位和缺陷檢測。文獻[4]中通過SRCNN對模糊圖像進行重構,然后利用YOLOv3算法對絕緣子缺陷進行檢測。文獻[5]中通過改進的Faster RCNN 算法對輸電線掛接地線狀態(tài)目標直接進行檢測。另一種是通過定位提取整個圖像中的絕緣子,然后再進行缺陷檢測。如文獻[6]通過對SSD 算法和深度殘差網絡(DenseNet)的結合對輸電線路上設備的缺陷進行檢測。文獻[7]在背景變換等數據集擴充的基礎上通過兩級CNN 網絡級聯(lián)對絕緣子進行定位和缺陷檢測。文獻[8]中首先通過SSD算法識別出銷釘的連接部位,識別定位后通過切割算法獲得連接部位圖像,切割后的圖像送入YOLOv3網絡中對銷釘進行缺陷檢測。

        直接定位絕緣子缺陷雖然檢測時間較兩級級聯(lián)網絡短,但是對于有些目標較小的絕緣子來說一級檢測的準確率相較于兩級檢測網絡低[5~6]。文章運用兩級檢測網絡對絕緣子進行定位和掉串缺陷識別檢測。首先利用YOLOv3算法[9]對整個圖片進行定位,定位的絕緣子進行裁剪后送入第二級語義分割網絡(U-Net)對裁剪后的絕緣子和掉串缺陷進行像素分離,從而能更直觀地得到絕緣子的掉串缺陷部分。

        2 輸電線路絕緣子缺陷識別網絡

        文章對輸電線路中絕緣子進行掉串缺陷識別運用兩級檢測網絡。對于整個網絡而言,首先要定位整個圖像上的絕緣子,選擇YOLOv3 目標檢測算法對絕緣子進行識別定位以及對缺陷進行初步檢測,通過YOLOv3 得到的絕緣子預測框對絕緣子進行裁剪,裁剪后的絕緣子圖像送入U-Net[10]網絡中進一步對絕緣子和缺陷進行像素級的檢測。本文的網絡架構如圖1所示。

        圖1 絕緣子缺陷識別網絡框架

        2.1 基于YOLOv3算法的絕緣子定位網絡

        YOLOv3 的主要結構采用的是Darknet-53 結構,Darknet-53 結構主要由YOLOv2、Darknet-19 和殘差網絡(Resnet)組成。YOLOv3 主要采用3×3 和1×1 的卷積核[8]以及一些快捷的連接結構。通過YOLOv3 進行絕緣子定位及檢測的大致流程如下:1)輸入的圖像大小被調整為416×416 以加快網絡的訓練。2)初始化YOLOv3 模型的網絡參數,對YOLOv3 模型進行訓練,得到檢測絕緣子的訓練參數。3)由YOLOv3模型的輸出的13×13、26×26、52×52 三個尺度對絕緣子進行檢測,最終網絡的預測結果是一個10×10×(3×(4+1+2))的張量,其中4 表示4 個預測框的位置參數,1 表示1 個預測框的置信度,2 表示兩類預測信息。4)通過logistic 回歸對網絡給出的預測框進行過濾,通過設定的閾值得到最終的預測框實現對絕緣子的定位和掉串缺陷的初步檢測。

        YOLOv3 模型在參數訓練中運用的損失函數為

        其中sn∈[0.1]表示預測概率,gn表示實際值概率。網絡訓練通過最小化所有類的損失來實現。

        2.2 基于U-Net的絕緣子缺陷識別

        由醫(yī)學影像分割常采用的U-Net網絡的啟發(fā),針對絕緣子缺陷這樣的小目標樣本的檢測,同樣采用U-Net 網絡來對絕緣子串進行正常絕緣子和掉串缺陷部分的像素分割。通過YOLOv3 算法檢測后得到的預測框的信息對絕緣子進行切割。分割保留了原圖像中絕緣子和缺陷的完整信息,切割后的絕緣子塊送U-Net網絡中進行像素分割。

        U-Net 的網絡結構如圖2 所示。U-Net 網絡有自上而下的編碼器部分和自下而上解碼器部分組成。文章中局部檢測過程中運用U-Net 網絡首先下采樣采用3×3 的卷積層和2×2 的最大池化層的形式進行切割后絕緣子圖像的特征提取從而擴大特征圖像的高度和寬度,獲得較深的語義信息,特征提取后通過上采樣采用3×3 的卷積和2×2 的反卷積的形式增大特征圖的大小。上采樣完成后通過1×1的卷積層進行像素拼接。U-Net的下采樣和上采樣部分通過跳躍連接將較淺層次提取的更多位置信息與較深層次提取的語義信息進行合并[11],從而得到更為準確的語義信息。

        圖2 U-Net 網絡框架

        U-Net的損失函數為

        文章中U-Net損失函數采用dice loss,其中,pi表示預測結果的概率,取值范圍為[0.1],yi表示標簽值,取值為0或1。

        通過U-Net對絕緣子進行分割,背景部分表示為黑色,絕緣子表示為綠色像素,掉串缺陷部分則表示為紅色像素。通過U-Net 網絡對絕緣子進行分割,掉串缺陷部分能夠直觀地顯示出來。

        2.3 模型網絡評價指標

        2.3.1 絕緣子定位網絡評價指標

        檢測中檢測結果:TP(True Positive)表示預測正確的個數,FP(False Positive)表示未檢測出樣本的個數,TN(True Negative)。

        1)準確率(Precision,P):

        2)召回率(Recall,R):

        3)平均精度(mean Average Precision,mAP):

        其中,AP表示各個類別的平均精度,mAP表示所有類別的平均精度。

        2.3.2 絕緣子缺陷識別網絡評價指標

        1)平均精度準確度(mean Pixel Accuracy,mPA):

        其中,PA各個類的像素準確度,mPA表示所有類別的像素準確度,pii表示分類正確的像素點數,pij表示屬于i類被誤判為j類的像素點。

        2)平均交并比(mean IOU):

        3)準確率(Precision,P):

        其中,TP 表示檢測正確的像素數,FP 表示檢測錯誤的像素數。

        3 實驗仿真測試和結果

        3.1 實驗環(huán)境及數據概況

        本實驗環(huán)境配置情況:計算機Intel(R)Core(TM)i7-5820K CPU,深度學習采用Pytorch 搭建,python環(huán)境下實現。

        實驗所需數據集通過結合一部分Github 上公開的數據集[7]以及通過河南、云南某市電網公司提供的有關絕緣子的圖像,通過鏡像、旋轉、隨機亮度變換、隨機顏色通道變換對數據集進行擴充。實驗數據集共1588張圖像,其中完好絕緣子圖像數950張,掉串缺陷絕緣子數量638 張,采用VOC2007 格式進行標注,圖像標注工具采用labelimg,其中絕緣子標注為insulator,缺陷標注為defect。第一級全局檢測數據集按照9∶1 的比例將數據分成訓練集和測試集。第二級局部分割的數據集來源與全局檢測通過標簽裁剪后得到,選取其中490 張絕緣子圖像,劃分為訓練集340張(200張有缺陷的絕緣子圖像)和測試集150 張。同樣按照鏡像、旋轉、隨機亮度變換把訓練集擴充到1000 張。兩級網路參數設置如表1和表2所示。

        表1 全局檢測模型參數設置

        表2 局部分割模型參數設置

        3.2 實驗結果評價方法

        通過YOLOv3 算法對絕緣子進行定位和掉串缺陷的初步檢測結果圖如圖3 所示,其檢測結果如表3 所示。通過表3 的檢測結果可知YOLOv3 算法對絕緣子的識別和掉串缺陷部分的初步檢測效果較好,對絕緣子的識別準確率和召回率均在90%以上,對掉串缺陷的初步檢測準確率為89.6%,整個網絡檢測的精度達到92.8%。由表3 可知,通過對比SSD[12]和Faster RCNN[13~14]算法的檢測結果,YOLOv3 無論從識別絕緣子還是初步檢測缺陷來看,其結果同其他兩種算法相比,都較高于其他兩種算法,選用YOLOv3 模型作為絕緣子掉串缺陷檢測的第一級網絡有較好的泛化能力,因此更適合于絕緣子的識別定位。

        表3 不同網絡的檢測結果對比

        圖3 YOLOv3絕緣子識別和掉串缺陷檢測結果

        U-Net 網絡對絕緣子和掉串缺陷進行像素分割結果如表4 所示,分割結果圖如圖4 所示。像素級檢測的評價指標有像素精度、平均像素精度、交并比、平均交并比等,本文選取平均像素精度和平均交并比作為U-Net 網絡檢測的評價指標。為了更好比較U-Net網絡的性能,我們同語義分割模型pix2pix[15~16]進行比較,無論從平均像素精度還是平均交并比,U-Net 都優(yōu)于pix2pix,因此通過U-Net對絕緣子掉串缺陷進行像素分割結果更準確,也能更直觀地識別絕緣子掉串缺陷。

        表4 U-Net網絡語義分割結果

        圖4 U-Net 網絡部分檢測結果(綠色像素表示絕緣子,紅色像素表示缺陷)

        YOLOv3 算法對絕緣子的缺陷進行初步識別的準確率為89.6%,文章中提出的兩級網絡對絕緣子和掉串缺陷進行像素分割,對于缺陷像素分割的準確率為92.4%,準確率提高了2.8%。實驗表明文章中提出的兩級網絡檢測結果同只通過YOLOv3一級網絡檢測結果對絕緣子掉串缺陷識別比準確率有所提升。

        4 結語

        由于無人機對輸電線路巡檢時得到的絕緣子圖像中掉串缺陷部分所占圖像像素較小,針對這個問題,文章提出基于全局檢測和局部分割的級聯(lián)網絡進行絕緣子掉串缺陷識別。全局檢測采用YOLOv3 算法對絕緣子進行定位和初步的掉串缺陷識別,局部分割利用U-Net網絡對裁剪后的絕緣子圖像進行語義分割,實現對絕緣子和掉串缺陷的像素分離。在全局檢測定位絕緣子的算例驗證中,文章通過比較YOLOv3 以 及Faster RCNN 算 法、SSD 算法的定位準確率和召回率,結果表明YOLOv3 算法的準確率和召回率更高,模型泛化能力較強,適用于輸電線路絕緣子的定位。采用U-Net 網絡對絕緣子和掉串缺陷進一步分割,對于絕緣子掉串缺陷識別的準確度同YOLOv3 相比提高了2.8%。實驗驗證表明文章提出的方法有一定的可行性。

        猜你喜歡
        檢測
        QC 檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        “有理數的乘除法”檢測題
        “有理數”檢測題
        “角”檢測題
        “幾何圖形”檢測題
        精品免费国产一区二区三区四区| 国产精品成年片在线观看| 久久精品波多野结衣中文字幕| 国产一区二区三区小说| av在线网站手机播放| 日本一二三区在线不卡| 国产欧美日韩一区二区加勒比| 国产色xx群视频射精| 国产女合集小岁9三部| 无码AⅤ最新av无码专区| 日本视频一区二区三区在线| 精品无人码麻豆乱码1区2区 | 免费99精品国产自在在线| 少妇熟女视频一区二区三区| 国产欧美亚洲精品第二区首页| 日本黄色高清视频久久| 午夜视频在线观看一区二区小| 精品免费看国产一区二区| 国产精品一区二区久久乐下载| 国产高清丝袜美腿视频在线观看| 国产另类人妖在线观看| 亚洲黄色天堂网站在线观看禁18 | 中文字幕人妻激情在线视频 | 国产盗摄xxxx视频xxxx| 在线精品国内视频秒播| 亚洲综合色视频在线免费观看| 久久久熟女一区二区三区| 日本熟日本熟妇中文在线观看| 射死你天天日| 国产欧美精品一区二区三区,| 亚洲一区二区三区一区| 国产精品国产三级国产专播下| 欧美大成色www永久网站婷| 精品人妻伦九区久久AAA片69| 扒开美女内裤舔出白水| 门卫又粗又大又长好爽| 久久精品国产亚洲av电影| 人妻系列无码专区久久五月天 | 91色综合久久熟女系列| 亚洲国产日韩a在线乱码| 国产精自产拍久久久久久蜜|