亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于輕量級卷積網(wǎng)絡(luò)的電力絕緣子視覺檢測

        2023-01-08 02:52:30張宏偉
        電力科學(xué)與工程 2022年12期
        關(guān)鍵詞:特征檢測模型

        嚴(yán) 宇,張宏偉,肖 奕,江 維

        (1.國網(wǎng)湖南省電力有限公司 超高壓變電公司,湖南 長沙 420100;2.武漢紡織大學(xué) 機(jī)械工程與自動化學(xué)院,湖北 武漢 430073)

        0 引言

        輸電線絕緣子串[1,2]是懸掛于柔性導(dǎo)線上的重要電力組件。絕緣子長期服役于復(fù)雜、惡劣自然環(huán)境中,其電氣性能和機(jī)械性能會受到嚴(yán)重影響。

        輸電線路絕緣子的視覺檢測[3,4]是輸電線路巡檢作業(yè)的重要內(nèi)容。目前輸電線路金具質(zhì)量檢測方法以人工攜帶檢測設(shè)備和遙控巡線機(jī)器人高空巡檢為主[5-7],以無人機(jī)視覺巡檢[8,9]為輔。

        目前,關(guān)于電力金具視覺檢測算法的研究主要分為傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)2大類。

        文獻(xiàn)[10]用改進(jìn)的密度空間聚類算法進(jìn)行圖像預(yù)分割,在實現(xiàn)了目標(biāo)和背景分離的同時,降低計算復(fù)雜度。文獻(xiàn)[11]采用顏色特征與梯度特征融合的顯著性區(qū)域檢測算法,實現(xiàn)了絕緣子定位檢測。文獻(xiàn)[12]為實現(xiàn)快速檢測,提出用深度學(xué)習(xí)單階圖像框架識別絕緣子。文獻(xiàn)[13]采用傳統(tǒng)圖像處理方法處理輸電線路絕緣子的識別問題。該研究雖然實現(xiàn)了簡單背景下的絕緣子聚類識別,但算法的泛化性不強(qiáng)。文獻(xiàn)[14]利用 YOLOv3算法識別出輸電線路上的螺栓和破損導(dǎo)線。文獻(xiàn)[15]基于YOLOv3網(wǎng)絡(luò)遷移學(xué)習(xí)實現(xiàn)了輸電線路防震錘的識別和定位。文獻(xiàn)[16]在 YOLOv4中添加注意力機(jī)制和空洞卷積優(yōu)化,實現(xiàn)了變電站缺陷檢測。文獻(xiàn)[17]改進(jìn)了 YOLOv4算法損失函數(shù)并添加旋轉(zhuǎn)矯正算法,并將算法用于絕緣子定位。

        傳統(tǒng)機(jī)器學(xué)習(xí)[18,19]算法的缺點是:只能針對特定對象的特定形狀進(jìn)行檢測;一種算法只能檢測一種對象;對于背景復(fù)雜的圖像檢測效果較差,難以適應(yīng)復(fù)雜的野外作業(yè)環(huán)境。

        與傳統(tǒng)機(jī)器學(xué)習(xí)算法相比,深度學(xué)習(xí)算法[20]的特點是:可以使用GPU通過大量的矩陣乘法運算有效優(yōu)化這些操作,提升圖像檢測效率與精準(zhǔn)度,從而達(dá)到彌補(bǔ)常規(guī)算法上述缺陷的目標(biāo)。但是,常規(guī)的深度網(wǎng)絡(luò)算法網(wǎng)絡(luò)存在參數(shù)多、模型大、較難在邊緣節(jié)點實現(xiàn)部署的問題。

        鑒于此,本文提出基于輕量級卷積網(wǎng)絡(luò)的輸電線絕緣子視覺檢測方法:利用 Ghostnet替換YOLOv4模型主干網(wǎng)絡(luò),形成改進(jìn)的 Ghostnet-YOLOv4輕量化算法模型;在保持檢測精度情況下,使得模型更小、便于部署。

        1 Ghost Bottleneck結(jié)構(gòu)設(shè)計

        1.1 YOLOv4網(wǎng)絡(luò)的基本結(jié)構(gòu)

        YOLO 算法模型采用了端到端的網(wǎng)絡(luò)結(jié)構(gòu),其核心思想是把目標(biāo)檢測當(dāng)成一個單一的回歸任務(wù),直接利用神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行候選框提取和類別回歸。該模型具有很高的檢測速度,能夠很好地滿足對實時性要求較高(檢測速度大于25幀/s)的檢測任務(wù)需求。

        Yolov4算法將輸入圖像分為S×S個網(wǎng)格(grid),用各個格子分別預(yù)測物體的屬性。物體中心所在的格子負(fù)責(zé)預(yù)測該物體類別。

        每個格子要預(yù)測B個候選框(bounding box)的5個值,包括候選框坐標(biāo)(x,y,w,h)和C種分類標(biāo)簽的置信度。預(yù)測總張量(tensor)為S×S×(5B+C)。如圖1所示,通過主干網(wǎng)絡(luò)輸出預(yù)測張量,預(yù)測得到的張量經(jīng)過非極大值抑制(NMS)處理,最后回歸得到檢測框的位置和物體類別。

        圖1 YOLO預(yù)測張量圖Fig.1 YOLO prediction tensor graph

        YOLOv4算法網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。由圖2可知,該算法網(wǎng)絡(luò)結(jié)構(gòu)主要由主體網(wǎng)絡(luò)層、池化層、加強(qiáng)特征提取層和檢測層構(gòu)成。

        圖2 Yolov4網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.2 YOLOv4 network structure diagram

        主體網(wǎng)絡(luò)層使用 CSP-Darknet53框架對固定輸入尺寸(416×416)的圖像進(jìn)行特征提取,生成3個有效特征層。該框架可以從高層到底層提取物理特征(如角點、邊緣)并形成圖像特征。該框架特點是:使用了殘差網(wǎng)絡(luò)結(jié)構(gòu),能夠有效減少計算量并提高精確率;采用Mosaic數(shù)據(jù)增強(qiáng),隨機(jī)將4張圖像整合為一張圖片輸入,豐富了檢測物體的背景;采用 Dropblock模型解決過擬合問題,有利于提高超參數(shù)的魯棒性;采用Mish激活函數(shù)進(jìn)行非線性回歸,在梯度下降時更加平滑,且允許有一定的負(fù)梯度信息。Mish函數(shù)公式如式(1)所示。

        在使用主體網(wǎng)絡(luò)層得到3個有效特征層之后,小尺度特征層通過最大池化處理來減少參數(shù)量。該池化層采用k={1×1,5×5,9×9,13×13}方式來保留主要特征,之后與高尺度特征協(xié)同輸入到PANet特征融合模塊中進(jìn)行特征融合,以增強(qiáng)多尺度識別能力。

        該模塊在 FPN的基礎(chǔ)上加了 PAN:先利用FPN“上采樣”融合強(qiáng)語義特征,再通過特征金字塔“下采樣”融合強(qiáng)定位特征。模塊通過上下反復(fù)提取特征的方法,有效增強(qiáng)了所提取到的圖像特征。

        在特征融合之后,將得到的包含復(fù)雜特征信息的3個尺度的特征圖傳送到檢測層進(jìn)行分類和回歸,得到3個尺度:檢測類別、置信度和檢測框位置。

        預(yù)測框位置回歸的損失函數(shù)采用 CIOU_Loss函數(shù)。該函數(shù)形式如式(2)所示。

        式中:ρ2(b,bgt)為中心點歐氏距離;c為合并框的對角線距離;α和v為懲罰因子,如式(3)所示。

        將預(yù)測框長寬比考慮在內(nèi),使得模型回歸速度和精度都有所提高。

        最后,采用非極大值抑制法在由回歸得到的候選框中篩選出最合適的候選框位置和大小。為減少計算量,非極大值抑制函數(shù)使用DIOU_NMS。

        1.2 Ghostnet輕量化模型

        Ghostnet是一種優(yōu)秀的輕量化模型。與Mobilenet系列輕量化模型相比,Ghostnet參數(shù)量更小,準(zhǔn)確率幾乎不會損失。

        Ghostnet架構(gòu)由Ghost模塊組成。

        Ghost模塊在設(shè)計時考慮到了神經(jīng)網(wǎng)絡(luò)提取特征圖過程中會產(chǎn)生冗余的信息(極度相似的特征圖)的問題。

        本文認(rèn)為冗余信息也可能是深度神經(jīng)網(wǎng)絡(luò)所以優(yōu)良的一個重要特征,因此:以極小成本融合這些冗余信息,就可能在減少參數(shù)量的同時提高精度。

        本文采用了計算量較小的運算方式:類似深度可分離中的逐層卷積,對原特征圖的每個通道進(jìn)行多次線性變換,生成 Ghost特征圖。為了保留內(nèi)在特征映射,將生成的 Ghost特征圖與恒等映射后的原特征圖并行堆疊,形成含內(nèi)在特征的復(fù)合特征圖,以實現(xiàn)利用冗余特征的目的。同時,為了減少堆疊操作增加的輸出特征圖通道數(shù),在線性變換前,使用標(biāo)準(zhǔn)1×1卷積降維。

        Ghost模塊結(jié)構(gòu)如圖3所示。圖3中,m為降維得到的特征圖通道數(shù)。每個通道均通過s次線性變換,于是得到輸出特征層通道數(shù)n=ms。由于映射的線性變換為無效變換,因此生成 Ghost特征圖的線性變換次數(shù)為s–1。于是,輸出特征圖包含一個恒等映射特征圖和m(s–1)個Ghost特征圖。Ghost特征圖數(shù)量可等效為(n/s)(s–1),其中n/s表示1×1降維卷積后得到特征圖通道數(shù)。

        圖3 Ghost模塊結(jié)構(gòu)圖Fig.3 Ghost module structure diagram

        為有效利用 Ghost模塊,本文設(shè)計了如圖 4所示的Ghost Bottleneck結(jié)構(gòu)。由圖4知:在步長為1時,通過連續(xù)2次Ghost模塊操作可得到復(fù)合特征,復(fù)合特征通過殘差模塊與輸入特征融合。在步長為2時,需要對圖像進(jìn)行尺寸壓縮。為充分利用冗余特征,在第1次Ghost模塊操作之后,使用深度可分離卷積中的逐層卷積壓縮圖像尺寸;將第2次Ghost模塊操作和與殘差邊融合結(jié)果作為Ghost Bottleneck的輸出特征。

        圖4 Ghost Bottleneck結(jié)構(gòu)圖Fig.4 Ghost Bottleneck structure diagram

        為了確保輸入與 Ghost操作殘差融合時的通道數(shù)和步長一致,使用1×1標(biāo)準(zhǔn)卷積調(diào)整通道數(shù);卷積操作使用逐層卷積。

        2 YOLOv4網(wǎng)絡(luò)的輕量化改進(jìn)

        2.1 Ghostnet替換主干網(wǎng)絡(luò)

        利用Ghostnet得到的3個有效特征層(52,26,13)替換原YOLOv4中的backbone。如圖5所示,在改進(jìn)后的主干網(wǎng)絡(luò)結(jié)構(gòu)中,可實現(xiàn)多次使用Ghost Bottleneck結(jié)構(gòu)調(diào)整輸出圖像尺寸。

        圖5 改進(jìn)的主干網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.5 Improved backbone network structure diagram

        如表 1所示,調(diào)整特征層參數(shù)。表 1中,Operator代表使用的卷積模塊類型,G-neck表示Ghost Bottleneck結(jié)模塊,#Exp表示 Ghost Bottleneck中第一個 Ghost模塊的通道數(shù),#Out表示使用卷積操作后輸出通道數(shù),Se表示該卷積是否使用SE注意力機(jī)制,Stride為卷積操作的步長。

        表1 調(diào)整特征層輸出尺寸參數(shù)Tab.1 Adjustment of feature layer output size parameters

        SE注意力機(jī)制是一種通用的提高網(wǎng)絡(luò)通道特征的模塊,可以實現(xiàn)通過自動學(xué)習(xí)獲得通道特征權(quán)重,進(jìn)而使神經(jīng)網(wǎng)絡(luò)能關(guān)注重點特征,最終達(dá)到提升網(wǎng)絡(luò)精度的目的。

        用經(jīng)過調(diào)整輸出得到的 3個有效特征層522×40、262×112、132×160 代替原 YOLOv4 中的主干網(wǎng)絡(luò)結(jié)構(gòu)。同時,將模型中普通3×3卷積替換為深度可分離卷積,以進(jìn)一步降低模型復(fù)雜度。

        將改進(jìn)后算法稱為G-YOLOv4算法。

        2.2 Ghostnet模型的復(fù)雜度分析

        用計算量和參數(shù)量評估網(wǎng)絡(luò)模型復(fù)雜度。計算量和參數(shù)量越小,表示模型復(fù)雜度越低,越容易在邊緣節(jié)點上部署。

        Ghost模塊復(fù)雜度由普通1×1卷積和Ghost模塊深度可分離卷積2部分組成。假設(shè)輸入為h1×w1×c1,輸出為h2×w2×c2,常規(guī)卷積核大小為k×k,線性變換卷積核為d×d,則Ghost模塊計算量如式(4)所示。

        式中:(s–1)c2/s表示深度可分離卷積中逐層卷積所有的卷積核數(shù)量,且線性變換卷積核大小d×d一般與常規(guī)卷積核大小k×k相等。

        Ghost模塊計算量同傳統(tǒng)卷積的比值如式(5)所示。

        由于c1為輸入通道數(shù),一般較大,而線性變換次數(shù)s遠(yuǎn)小于輸入通道數(shù)c1,所以結(jié)果可等效為1/s。因此,Ghost模塊計算量僅為傳統(tǒng)卷積的1/s。

        同理,Ghost模塊參數(shù)量也僅為傳統(tǒng)卷積參數(shù)量的1/s。

        3 仿真實驗

        3.1 實驗環(huán)境的配置

        本文使用的600張絕緣子圖像源自網(wǎng)上公開數(shù)據(jù)集。通過數(shù)據(jù)增強(qiáng),將圖像擴(kuò)充到3 000張。以9∶1的比例將圖像數(shù)據(jù)集劃分訓(xùn)練驗證集與測試數(shù)據(jù)集;訓(xùn)練驗證集中,訓(xùn)練與驗證的數(shù)據(jù)比例也為9∶1。

        絕緣子數(shù)據(jù)集中,圖像分辨率為1 152×864。標(biāo)簽格式為VOC格式(xml),標(biāo)簽名稱為insulator。

        實驗平臺:Intel(R) Core(TM) i5-10400 CPU @2.90GHz;GPU,NVIDIA GeForce RTX 3060;Pytorch環(huán)境1.7.1;加速單元Cuda,8.0.5;編程語言,Python 3.8。

        初始學(xué)習(xí)率為0.001。

        使用Adam優(yōu)化器優(yōu)化參數(shù):總訓(xùn)練100輪次,前50輪使用凍結(jié)訓(xùn)練。

        3.2 模型性能對比實驗

        3.2.1 算法性能評價

        分別將原 YOLOv4的主干網(wǎng)絡(luò)替換為Mobilenetv3和 Ghostnet輕量級網(wǎng)絡(luò),再與原YOLOv4網(wǎng)絡(luò)做電力絕緣子視覺檢測性能對比。為保證實驗可對比性,使用相同配置以及訓(xùn)練參數(shù)。

        對比結(jié)果如表2所示。表2中,Size為模型大小指標(biāo);Param為模型參數(shù)量;GFLOPS為模型計算量;Map為模型平均精度;P為精確率;R為召回率;F1表示每s可以檢測的圖片數(shù)量;指標(biāo)E為本文構(gòu)建的模型在邊緣設(shè)備上的部署效率,公式如式(6)所示。

        表2 絕緣子檢測各模型性能對比Tab.2 Performance comparison of each model for insulator detection

        式中:所有參數(shù)均已比例歸一化。

        從表2所示對比結(jié)果可以看出,在損失平均精度3.33%的前提下,本文G-YOLOv4絕緣子檢測模型相比原 YOLOv4的優(yōu)勢在于:(1)極大降低了模型復(fù)雜度;模型大小僅為 42.5 MB,減少了82.58%。(2)邊緣部署效率指標(biāo)E最高。(3)理論檢測速度達(dá)31.21幀/s。以上結(jié)果表明,G-YOLOv4絕緣子檢測模型實現(xiàn)了不顯著降低模型精度和大幅降低模型大小之間的最佳平衡,有利于滿足實時檢測任務(wù)的需求以及后續(xù)視覺伺服控制實時性的提升。

        與Mobilenetv3-YOLOv4模型相比,本文改進(jìn)的G-YOLOv4模型在精度僅降低1.28%和計算量僅增加0.545 G的前提下,模型的大小進(jìn)一步降低至42.5 MB,模型部署效率指標(biāo)E更高——這表明該模型更適合邊緣部署。

        將模型大小可視化為等比例歸一化后的圓面積。若模型圓面積小、位置偏右上,則表示其部署效率高。將模型檢測精度、檢測速度和模型大小可視化,結(jié)果如圖6所示。

        圖6 各絕緣子檢測模型性能可視化Fig.6 Visualization of the performance of each insulator detection model

        由圖6可見,G-YOLOv4模型在模型大小較小的情況下仍保持與其他模型精度差異不大的高精度。這說明,相比之下,該模型為最佳的絕緣子視覺檢測輕量化模型。

        3.2.2 算法參數(shù)訓(xùn)練仿真與分析

        使用Ghostnet網(wǎng)絡(luò)訓(xùn)練絕緣子檢測模型。訓(xùn)練過程中的Loss曲線和Map曲線如圖7所示。在迭代 100輪后:如圖 7(a)可見,驗證集 Loss誤差降低到0.02;如圖7(b)可見,訓(xùn)練集精確率提高到0.95。該結(jié)果表明,G-YOLOv4模型訓(xùn)練精度較高。

        圖7 訓(xùn)練過程曲線Fig.7 Training process curve

        G-YOLOv4通過訓(xùn)練得到的各性能指標(biāo)如圖 8所示。由圖 8(a)可見,該模型精確率為91.25%;由圖8(b)可見,該模型召回率為91.25%;由圖8(c)可見,該模型平均精度為96.51%,且PR曲線包圍面積較大;由圖8(d)可見,該模型F1值為0.91。各指標(biāo)均在 0.9以上,該結(jié)果表明訓(xùn)練模型性能優(yōu)良。

        圖8 絕緣子模型各性能指標(biāo)Fig.8 Performance index of insulator model

        3.2.3 算法實際檢測效果對比與分析

        模型的實際檢測效果對比結(jié)果如圖9所示。從圖9中可以看出,本文改進(jìn)的G-YOLOv4絕緣子檢測模型可以精確識別檢測并定位絕緣子,與其他模型相比實際檢測精度差異甚微。

        圖9 G-YOLOv4與其他模型的絕緣子檢測效果對比Fig.9 Comparison of insulator detection effect between G-YOLOv4 and other models

        4 結(jié)論

        為滿足電力視覺伺服檢測系統(tǒng)實時性檢測需求,本文提出了一種基于輕量級卷積神經(jīng)網(wǎng)絡(luò)的視覺檢測方法并將其應(yīng)用于輸電線絕緣子串檢測。

        仿真測試結(jié)果表明,本文提出的模型在具有輕量化和易于部署特點的同時,具有較高的檢測精度,能夠滿足系統(tǒng)檢測性能的要求。

        對于復(fù)雜背景圖像的檢測性能,特別是在算法檢測精度和模型輕量化之間如何均衡是后續(xù)研究要考慮的一個重要方面。

        猜你喜歡
        特征檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        肉丝高跟国产精品啪啪| 台湾佬综合网| 国产精品嫩草影院午夜| 久久麻豆精亚洲av品国产精品| 日本a级黄片免费观看| 国产亚洲精品久久久闺蜜| 亚洲爆乳少妇无码激情| 亚洲国产成a人v在线观看| 久久精品人妻中文av| 久久无码人妻丰满熟妇区毛片| 蜜臀av无码精品人妻色欲| 国内视频偷拍一区,二区,三区| 亚洲不卡高清av在线| 久久精品丝袜高跟鞋| 东方aⅴ免费观看久久av| 国产国拍亚洲精品福利| 国产精品国产三级国产专播| 亚洲中文字幕无码av永久| 成年午夜无码av片在线观看| 人妻少妇精品无码专区app| sm免费人成虐漫画网站| 伊甸园亚洲av久久精品| 99re久久精品国产| 在线视频一区二区亚洲| av日韩高清一区二区| 国产精品第一国产精品| 亚洲伊人久久成人综合网| 蜜桃视频成年人在线观看| 无码乱肉视频免费大全合集| 色狠狠一区二区三区香蕉| 人妻系列影片无码专区| 一区二区三区蜜桃av| 中文人妻熟妇乱又伦精品| 亚洲成年网站在线777| 久久青青草原亚洲av| 亚洲无av在线中文字幕| 一本色道av久久精品+网站| 日本激情视频一区在线观看| 亚洲午夜精品一区二区麻豆av| 中文字幕丰满乱子无码视频| 亚洲av日韩aⅴ无码电影|