亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv7 的實(shí)時(shí)輸電導(dǎo)線缺陷檢測(cè)方法

        2024-01-06 16:30:40王宇博尚軍利張燁劉建勇楊雷李博濤
        南方電網(wǎng)技術(shù) 2023年12期
        關(guān)鍵詞:精確度主干導(dǎo)線

        王宇博,尚軍利,張燁,劉建勇,楊雷,李博濤

        (1. 國(guó)網(wǎng)陜西省電力有限公司渭南供電公司,陜西 渭南 714000;2. 西安工程大學(xué)電子信息學(xué)院,西安 710048)

        0 引言

        高壓輸電導(dǎo)線是電力系統(tǒng)的重要組成部分,其工況對(duì)電力系統(tǒng)的安全穩(wěn)定運(yùn)行具有重要的影響[1-2]。由于輸電線路沿途氣象復(fù)雜、地理分布位置特殊,覆蓋范圍廣,易遭遇極端氣候的侵襲,造成跳線,導(dǎo)線斷股、散股等故障,給電網(wǎng)的安全可靠運(yùn)行帶來巨大的隱患[3-4]。如在2018 年至2019年,江西地區(qū)經(jīng)歷持續(xù)性凍雨天氣,造成輸電線路塔頭折損7 基,導(dǎo)線斷裂41 根、地線斷裂3 根,輸電線路發(fā)生跳閘36 次,給居民生活及電網(wǎng)運(yùn)行帶來巨大損失[5]。2018年1月23—28日,湖北省遭遇極端惡劣天氣,受損嚴(yán)重,其中導(dǎo)地線斷裂、斷股故障82 處,占總故障數(shù)量的9.14%;因?qū)Ь€故障受影響線路9條,占總受損線路的13.24%[6]。近年來,隨著我國(guó)多地遭受惡劣天氣影響,由輸電線路導(dǎo)線故障而引發(fā)的事故也呈增長(zhǎng)趨勢(shì),因此積極探索和研究輸電線路導(dǎo)線故障檢測(cè)技術(shù)與防范措施,對(duì)電網(wǎng)的安全可靠運(yùn)行以及人們的財(cái)產(chǎn)安全具有重要意義[7]。

        傳統(tǒng)針對(duì)線路的檢測(cè)主要依靠人工巡檢,但人工巡檢方式速度慢、效率低,并且輸電線路的基層運(yùn)檢人員數(shù)量增長(zhǎng)緩慢,使得傳統(tǒng)的人工巡檢方式無法滿足電網(wǎng)快速巡檢的需求。隨著我國(guó)“十四五”規(guī)劃電力行業(yè)呈現(xiàn)出技術(shù)創(chuàng)新驅(qū)動(dòng)力不斷增強(qiáng),綜合智慧能源形態(tài)逐步形成的發(fā)展趨勢(shì),“云大物移智”等先進(jìn)技術(shù)創(chuàng)新培育,成為電力產(chǎn)業(yè)升級(jí)的新增長(zhǎng)點(diǎn)。電力與現(xiàn)代信息通信技術(shù)和控制技術(shù)深度融合,實(shí)現(xiàn)多能互補(bǔ)、智能互動(dòng)。同時(shí),圖像識(shí)別、卷積神經(jīng)網(wǎng)絡(luò)技術(shù)的興起以及深度學(xué)習(xí)網(wǎng)絡(luò)性能的提升,基于無人機(jī)巡檢圖像的缺陷智能識(shí)別便成為主要的研究方向之一[8-11]。

        目前,國(guó)內(nèi)外諸多學(xué)者開始針對(duì)輸電導(dǎo)線缺陷智能檢測(cè)展開研究,并取得了顯著成效。文獻(xiàn)[12]提出一種基于邊緣檢測(cè)技術(shù)的導(dǎo)線缺陷識(shí)別方法,針對(duì)簡(jiǎn)單背景下缺陷可以達(dá)到較準(zhǔn)確的識(shí)別結(jié)果。文獻(xiàn)[13]提出了一種通過導(dǎo)線灰度分布曲線的方波變換檢測(cè)導(dǎo)線缺陷的方法,可有效測(cè)量導(dǎo)線斷股和表面缺陷故障。文獻(xiàn)[14]提出了一種基于徑向基概率神經(jīng)網(wǎng)絡(luò)的輸電導(dǎo)線缺陷狀態(tài)識(shí)別方法,可在復(fù)雜背景下具有較好的檢測(cè)結(jié)果。文獻(xiàn)[15]通過分析導(dǎo)線表面灰度圖像的光滑性與一致性來檢測(cè)斷股的方法,對(duì)復(fù)雜背景下的缺陷及異物進(jìn)行檢測(cè)。文獻(xiàn)[16]提出一種基于FCN 網(wǎng)絡(luò)及Canny 算法的導(dǎo)線缺陷識(shí)別方法,將深度學(xué)習(xí)與傳統(tǒng)算法相結(jié)合,對(duì)導(dǎo)線散股缺陷具有良好的識(shí)別效果。然而上述方法多使用傳統(tǒng)算法或?qū)⒕矸e神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)算法相結(jié)合,針對(duì)輸電導(dǎo)線缺陷精確、實(shí)時(shí)的檢測(cè)技術(shù)還不完善,同時(shí)算法適應(yīng)性有待進(jìn)一步加強(qiáng)。

        基于此本文針對(duì)輸電導(dǎo)線缺陷的智能檢測(cè)提出了一種基于改進(jìn)YOLOv7[17]算法的缺陷檢測(cè)方法:創(chuàng)新性地將輕量化網(wǎng)絡(luò)與自注意力機(jī)制相融合,替換YOLOv7 算法原有的主干網(wǎng)絡(luò);替換雙向融合PANet 結(jié)構(gòu),采用加權(quán)雙向特征金字塔網(wǎng)絡(luò)BiFPN進(jìn)行網(wǎng)絡(luò)特征融合。運(yùn)用本文方法可以顯著提升模型檢測(cè)速度和檢測(cè)精確度,重點(diǎn)解決輸電導(dǎo)線缺陷檢測(cè)任務(wù)中現(xiàn)有模型速度慢、效果不佳、容易誤檢等問題。

        1 改進(jìn)YOLOv7算法的缺陷檢測(cè)方法

        YOLOv7 算法主要由輸入端(input)、主干網(wǎng)絡(luò)(backbone)、頸部網(wǎng)絡(luò)(neck)、預(yù)測(cè)端(prediction)構(gòu)成,原始YOLOv7算法結(jié)構(gòu)如圖1所示。

        圖1 系統(tǒng)結(jié)構(gòu)框圖Fig. 1 System structure diagram

        圖1 中,輸入端主要實(shí)現(xiàn)數(shù)據(jù)的增強(qiáng)操作,包括Mosaic 數(shù)據(jù)增強(qiáng)[18]、自適應(yīng)錨框計(jì)算和自適應(yīng)圖片放縮;主干網(wǎng)絡(luò)由卷積(Conv)結(jié)構(gòu)、拼接(Concat)結(jié)構(gòu)和最大池化(MP)結(jié)構(gòu)組成,實(shí)現(xiàn)圖像目標(biāo)特征提取;頸部網(wǎng)絡(luò)包括跨階段局部網(wǎng)絡(luò)(CSPNet)和雙向融合(PANet)結(jié)構(gòu),完成特征融合操作,使網(wǎng)絡(luò)同時(shí)包含低層位置信息及深層語義信息;預(yù)測(cè)端使用CIOU_Loss 函數(shù),主要預(yù)測(cè)信息的損失。由于YOLOv7 算法使用多尺度訓(xùn)練及預(yù)測(cè),會(huì)產(chǎn)生多個(gè)預(yù)測(cè)框,因此在預(yù)測(cè)段使用非極大值抑制(NMS)只保留一個(gè)最優(yōu)的預(yù)測(cè)框。

        為了加快網(wǎng)絡(luò)訓(xùn)練速度,得到更高的精確度,本文將主干網(wǎng)絡(luò)替換為輕量化網(wǎng)絡(luò)EfficientnetV2[19]。同時(shí)將自注意力機(jī)制引入EfficientnetV2主干網(wǎng)絡(luò),并將PANet替換為加權(quán)雙向特征金字塔網(wǎng)絡(luò)(BiFPN[20])。

        1.1 基于EfficientnetV2 和CA 自注意力機(jī)制的主干網(wǎng)絡(luò)

        本文提出一種新的CNN+Self-Attention 結(jié)構(gòu)的輕量型主干網(wǎng)絡(luò),該主干網(wǎng)絡(luò)由輕量級(jí)網(wǎng)絡(luò)EfficientNetV2 和協(xié)調(diào)自注意力機(jī)制(coordinate attention,CA)模塊構(gòu)成。

        輕量級(jí)網(wǎng)絡(luò)EfficientNetV2 由谷歌在2021 年提出,網(wǎng)絡(luò)使用NAS 搜索功能探尋輸入圖片尺寸、網(wǎng)絡(luò)深度、卷積核大小之間的最優(yōu)匹配關(guān)系,使得模型精確度與推理速度達(dá)到最高。EfficientNetV2在淺層網(wǎng)絡(luò)使用Fused-MBConv 結(jié)構(gòu),在深層網(wǎng)絡(luò)使用MBConv 結(jié)構(gòu)。同時(shí)加深網(wǎng)絡(luò)層次,避免因增大卷積核大小帶來的感受野減小的問題。MBConv結(jié)構(gòu)和Fused-MBConv結(jié)構(gòu)如圖2所示。

        圖2 MBConv結(jié)構(gòu)和Fused-MBConv結(jié)構(gòu)Fig. 2 Structure of MBConv and Fused-MBConv

        CNN 網(wǎng)絡(luò)中的卷積操作固定了卷積核的大小,導(dǎo)致卷積核的感受野固定,無法關(guān)注圖像的全局信息。然而,在網(wǎng)絡(luò)特征提取階段,即主干網(wǎng)絡(luò)中添加自注意力機(jī)制,通過簡(jiǎn)單的查詢與賦值就能獲取到特征圖的全局空間信息,提升網(wǎng)絡(luò)的檢測(cè)性能。CA自注意力機(jī)制[21]將位置信息嵌入通道注意力中,在捕獲跨通道的信息的同時(shí)還能捕獲方向感知和位置感知的信息,增強(qiáng)了圖像特征的表達(dá)能力。CA自注意力機(jī)制結(jié)構(gòu)如圖3所示。

        圖3 CA自注意力機(jī)制結(jié)構(gòu)Fig. 3 CA self-attention mechanism structure

        CA 自注意力機(jī)制由兩部分組成:坐標(biāo)信息嵌入和坐標(biāo)注意力生成。首先,為了更好地保留目標(biāo)位置信息,在圖像輸入CA 結(jié)構(gòu)后使用一對(duì)一維特征編碼沿著水平方向和豎直方向?qū)γ總€(gè)通道進(jìn)行編碼。因此水平和豎直方向上的第c個(gè)通道輸出分別如式(1)—(2)所示。

        式中:zc為第c個(gè)通道輸出的編碼值;xc(·)為第c個(gè)通道的輸入特征函數(shù);W和H分別為圖像的寬和高;w和h為圖像中位于(w,h)點(diǎn)的像素點(diǎn)的坐標(biāo)值。

        然后,將兩個(gè)方向的特征圖進(jìn)行拼接,并提取中間特征。最后,將特征圖沿著水平和豎直方向分為兩個(gè)張量,經(jīng)過卷積及激活函數(shù)處理后再融合,生成坐標(biāo)注意力。本文將CA 自注意力機(jī)制引入EfficientnetV2主干網(wǎng)絡(luò),得到改進(jìn)后的YOLOv7算法的主干網(wǎng)絡(luò)如表1所示。

        表1 改進(jìn)后的YOLOv7算法主干網(wǎng)絡(luò)Tab. 1 Improved YOLOv7 algorithm backbone network

        1.2 加權(quán)雙向特征金字塔網(wǎng)絡(luò)BiFPN

        由于CNN 網(wǎng)絡(luò)通過逐層抽象的方式來提取目標(biāo)的特征,網(wǎng)絡(luò)淺層包含圖像的位置信息,網(wǎng)絡(luò)深層多為圖像的語義信息,而多尺度特征融合旨在對(duì)不同分辨率下的特征進(jìn)行聚合,結(jié)合網(wǎng)絡(luò)的淺層與深層信息。

        YOLOv7 算法所使用的特征融合結(jié)構(gòu)為PANet,通過一個(gè)自頂向下和自底向上的雙向融合網(wǎng)絡(luò)將不同層次的特征聚合。但是,由于PANet自身結(jié)構(gòu)的復(fù)雜性,在取得較好結(jié)果的同時(shí)也增加了計(jì)算代價(jià)。本文為了進(jìn)一步提升模型的推理速度采用更加高效快速的BiFPN 結(jié)構(gòu)進(jìn)行特征融合。與PANet 相比,BiFPN 刪除了中間層上下兩節(jié)點(diǎn),減小了計(jì)算量,又添加了跳躍連接,融合了更多的特征。PANet與BiFPN結(jié)構(gòu)如圖4所示。

        圖4 PANet與BiFPN結(jié)構(gòu)Fig. 4 Structures of PANet and BiFPN

        2 改進(jìn)YOLOv7算法訓(xùn)練過程

        2.1 自動(dòng)擴(kuò)充數(shù)據(jù)集方法

        為提高網(wǎng)絡(luò)的精確度、泛化性,在本文使用的輸電線路缺陷圖像數(shù)據(jù)集包括由無人機(jī)拍攝的真實(shí)環(huán)境圖像和模擬運(yùn)行環(huán)境圖像,兩類圖像各100張。對(duì)原始圖像采用Labelme 標(biāo)定地面真實(shí)框生成JSON 格式的文件,文件中包含缺陷位置與種類信息。

        針對(duì)現(xiàn)存輸電線路數(shù)據(jù)集樣本數(shù)量少、背景單一、人工標(biāo)注時(shí)間長(zhǎng)等不足,同時(shí)為了增強(qiáng)網(wǎng)絡(luò)的魯棒性,保證網(wǎng)絡(luò)在復(fù)雜背景下同樣達(dá)到可觀的精確度,本文提出了一種自動(dòng)擴(kuò)充數(shù)據(jù)集的方法。該方法對(duì)數(shù)據(jù)集進(jìn)行自動(dòng)數(shù)據(jù)增強(qiáng),即對(duì)每一張圖像做x方向翻轉(zhuǎn)、y方向翻轉(zhuǎn)、添加椒鹽噪聲、添加Gauss 噪聲、調(diào)整圖像對(duì)比度等操作,再自動(dòng)擴(kuò)充圖像對(duì)應(yīng)數(shù)據(jù)標(biāo)簽,無需對(duì)擴(kuò)充后的圖像進(jìn)行人工標(biāo)定。數(shù)據(jù)集經(jīng)過數(shù)據(jù)增強(qiáng)后圖像數(shù)量由原來的200張變?yōu)? 800張,最終生成符合YOLOv7算法訓(xùn)練要求的COCO 格式數(shù)據(jù)集,其中訓(xùn)練集與驗(yàn)證集按8:2的比例劃分。

        2.2 訓(xùn)練參數(shù)及結(jié)果

        本文使用深度學(xué)習(xí)框架PyTorch 對(duì)YOLOv7 算法進(jìn)行訓(xùn)練,最終生成模型權(quán)重文件。訓(xùn)練圖像統(tǒng)一尺寸為640×480 px。每輪訓(xùn)練所選取的樣本數(shù)batch_size 設(shè)置為16; 訓(xùn)練過程中首先使用Adamw[22]優(yōu)化器快速逼近最優(yōu)解,以減少網(wǎng)絡(luò)的訓(xùn)練時(shí)間,加快優(yōu)化速度,再使用SGD[23]優(yōu)化器對(duì)模型進(jìn)行微調(diào),以使得損失函數(shù)降到最低。同時(shí),為了進(jìn)一步加快訓(xùn)練速度、提高精確度,本文使用遷移學(xué)習(xí)[24]在預(yù)訓(xùn)練模型的基礎(chǔ)上進(jìn)行權(quán)重更新,生成針對(duì)輸電導(dǎo)線缺陷檢測(cè)的模型文件。針對(duì)學(xué)習(xí)率本文使用預(yù)熱加s余弦退火的方式進(jìn)行調(diào)整。訓(xùn)練輪次為1 000輪,訓(xùn)練時(shí)間大約為4.3 h。

        3 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證本文提出的基于改進(jìn)YOLOv7算法的有效性,選擇了不同背景下的輸電導(dǎo)線作為研究對(duì)象,圖像實(shí)驗(yàn)在Ubuntu16.04 系統(tǒng)下運(yùn)行,實(shí)驗(yàn)平臺(tái)CPU 為Inter i7-6850 k、內(nèi)存為64 GB,算法在兩塊顯存12 GB 的TITAN XP 顯卡上訓(xùn)練預(yù)測(cè),Python 版本為3.8,PyTorch 版本為1.7.0,并采用Pycharm 2021.1.3 軟件運(yùn)行程序。主要實(shí)驗(yàn)內(nèi)容包括不同卷積神經(jīng)網(wǎng)絡(luò)算法對(duì)缺陷目標(biāo)的識(shí)別精度和速度。同時(shí),為了驗(yàn)證改進(jìn)改進(jìn)方法的有效性,實(shí)驗(yàn)內(nèi)容中還包括對(duì)YOLOv7算法的消融實(shí)驗(yàn)。

        3.1 評(píng)估指標(biāo)

        為了準(zhǔn)確驗(yàn)證算法的優(yōu)越性,分別對(duì)各個(gè)模型進(jìn)行定量分析計(jì)算精確度P、幀率NFPS。

        精確度P是指預(yù)測(cè)正確的結(jié)果數(shù)量占總預(yù)測(cè)數(shù)量的比值,定義如式(3)所示。

        式中NTP、NFP分別為正確、錯(cuò)誤預(yù)測(cè)的樣本數(shù)量。

        NFPS幀率是指網(wǎng)絡(luò)每秒鐘可預(yù)測(cè)的圖片數(shù)量,NFPS值越大則網(wǎng)絡(luò)的推理速度越快。

        3.2 消融實(shí)驗(yàn)

        為了驗(yàn)證本文對(duì)YOLOv7算法的改進(jìn)效果,采用消融實(shí)驗(yàn)對(duì)各個(gè)改進(jìn)方面進(jìn)行驗(yàn)證。消融實(shí)驗(yàn)的訓(xùn)練過程及對(duì)比結(jié)果分別如圖5、表2 所示。驗(yàn)證的標(biāo)準(zhǔn)包括模型的參數(shù)量、權(quán)重模型的大小、精確度P、幀率NFPS值。其中模型參數(shù)量與權(quán)重模型大小可以表示網(wǎng)絡(luò)的輕量級(jí),值越小代表模型越輕量。

        表2 消融實(shí)驗(yàn)對(duì)比結(jié)果Tab. 2 Ablation experiment comparison results

        圖5 模型訓(xùn)練過程圖Fig. 5 Model training process diagram

        從圖5 中可知模型訓(xùn)練輪數(shù)和模型精確度的關(guān)系。從圖5 可以看出,本文使用的所有模型訓(xùn)練輪數(shù)均為1 000,并且精確度已經(jīng)平穩(wěn),即已經(jīng)達(dá)到或接近最小損失函數(shù)值;未改進(jìn)的模型1 相較于其他模型的精確度上升速度最快,最先趨于平穩(wěn);同時(shí),各模型訓(xùn)練結(jié)束后達(dá)到的精確度與表2一致。

        從表2 中模型1 與模型5 對(duì)比可以看出,替換輕量化主干后的YOLOv7 算法推理速度顯著提升,提升效率I計(jì)算如式(4)所示。

        式中:V模型A為改進(jìn)后模型的推理速度;V模型B為改進(jìn)前模型的推理速度。

        根據(jù)式(4)計(jì)算可得,模型5較模型1的推理速度提升效率I為59.15%,精確度上漲了2.3%;對(duì)比模型1 與模型2、模型5 與模型6 可得,兩組的后者均添加CA 模塊,在提升精確度P的同時(shí)加大了計(jì)算代價(jià),導(dǎo)致其幀率降低;而使用BiFPN 進(jìn)行特征融合的模型3 與模型7,雖然精確度的提升效果沒有模型2 與模型6 明顯,但是幀率可以達(dá)到同主干網(wǎng)絡(luò)下最高的55.55 和85.47 幀;由模型4 和模型8 可得,同時(shí)使用CA 與BiFPN 模塊的精確度P可達(dá)到同主干網(wǎng)絡(luò)下的最高,幀率相比初始模型有所提升;此外,通過模型1 與模型8 的對(duì)比,充分驗(yàn)證了本文改進(jìn)方法的有效性,模型精確度與幀率高達(dá)97.5%與84.03,較原模型有巨大的提升。綜上所述,本文算法具有更加準(zhǔn)確的檢測(cè)能力,整體質(zhì)量最高,可以實(shí)現(xiàn)對(duì)輸電導(dǎo)線缺陷的實(shí)時(shí)檢測(cè)。

        3.3 對(duì)比實(shí)驗(yàn)

        為了驗(yàn)證所提算法的優(yōu)越性,本文將所提算法和單階段檢測(cè)算法YOLOv5、SSD[25],雙階段檢測(cè)算法Faster R-CNN[26]、 Cascade R-CNN[27]及對(duì)YOLOv5 算法做同樣改進(jìn)算法做比較。對(duì)比試驗(yàn)結(jié)果如表3所示。

        表3 不同算法對(duì)比實(shí)驗(yàn)結(jié)果Tab. 3 The experimental results of different algorithms

        本文所提算法同樣為單階段檢測(cè)算法,從表3可以看出,用作對(duì)比的單階段檢測(cè)算法在精確度P上普遍比雙階段低,而幀率要高于雙階段算法;本文算法較上一代YOLOv5及YOLOv5改進(jìn)算法整體性能提升明顯,且改進(jìn)后的性能提升要高于YOLOv5;Faster R-CNN 和Cascade R-CNN 由于其雙階段檢測(cè)的特性導(dǎo)致其精確度高推理速度低,而本文算法在單階段網(wǎng)絡(luò)的基礎(chǔ)上進(jìn)行創(chuàng)新,使網(wǎng)絡(luò)能夠充分利用各層的特征信息,實(shí)現(xiàn)性能效果最優(yōu)化。

        3.4 現(xiàn)場(chǎng)應(yīng)用效果

        為了直觀顯示本文算法的先進(jìn)性,此次實(shí)驗(yàn)中分別使用YOLOv7算法和本文算法對(duì)現(xiàn)場(chǎng)運(yùn)行環(huán)境下拍攝的輸電導(dǎo)線圖像進(jìn)行測(cè)試,記錄算法正檢率、漏檢率及檢測(cè)精度的情況,實(shí)驗(yàn)結(jié)果如圖6 所示。圖6(a)、(b)分別為YOLOv7 算法與本文算法檢測(cè)結(jié)果。圖中使用紅色方框標(biāo)定缺陷位置,并放置算法推理結(jié)果,包括種類名稱及檢測(cè)精度。從實(shí)驗(yàn)結(jié)果可以看出,本文算法的平均檢測(cè)精度較YOLOv7 算法提升了約10%。第三組圖像在大霧天氣的復(fù)雜背景下拍攝得到,YOLOv7 算法出現(xiàn)了漏檢情況,而本文算法仍能將缺陷準(zhǔn)確識(shí)別出,檢測(cè)精度達(dá)到了96%,這得益于CA 模塊對(duì)特征進(jìn)行了編碼,很好地解決了漏檢的問題,說明本文算法在復(fù)雜背景下仍具有良好的識(shí)別精度,表現(xiàn)出了較強(qiáng)的魯棒性。第一組、第二組圖像中均含有多個(gè)缺陷,本文算法的識(shí)別精度可以達(dá)到96%。第4、5組圖像的拍攝角度、距離與其他圖像不同,導(dǎo)致YOLOv7 算法的檢測(cè)精度相比圖6(a)中其余圖像表現(xiàn)較差,而本文算法對(duì)多個(gè)感受野提取到的特征進(jìn)行高效融合,第4、5 組圖像在圖6(b)中的顯示的精度同樣處于高水準(zhǔn),說明本文算法具有優(yōu)異的泛化性,對(duì)不同情況下拍攝的圖像均有較高的檢測(cè)精度。

        圖6 算法實(shí)際檢測(cè)效果圖Fig. 6 The real test results of algorithm

        4 結(jié)論

        本文針對(duì)現(xiàn)有輸電導(dǎo)線缺陷檢測(cè)模型檢測(cè)精確度不高,速度慢的問題創(chuàng)新性地提出基于改進(jìn)YOLOv7 算法的輸電導(dǎo)線在線監(jiān)測(cè)與缺陷識(shí)別算法,可以在保證檢測(cè)精度的同時(shí)滿足輸電線路實(shí)時(shí)巡檢的要求。首先,針對(duì)現(xiàn)存輸電線路數(shù)據(jù)集樣本數(shù)量少、背景單一、人工標(biāo)注時(shí)間長(zhǎng)等不足,本文提出了一種自動(dòng)擴(kuò)充數(shù)據(jù)集的方法,可以使用少量樣本圖像進(jìn)行擴(kuò)充,節(jié)省了標(biāo)注時(shí)間、增大了訓(xùn)練樣本,避免了模型訓(xùn)練過程的過擬合現(xiàn)象;然后,提出新的CNN+Self-Attention 結(jié)構(gòu)的輕量型主干網(wǎng)絡(luò), 將EfficientnetV2 和CA 模塊結(jié)合, 替換YOLOv7 算法的主干網(wǎng)絡(luò),對(duì)目標(biāo)位置信息進(jìn)行編碼,實(shí)現(xiàn)更快更精確的特征提?。蛔詈?,為了更好地融合并利用網(wǎng)絡(luò)淺層和深層信息,同時(shí)又進(jìn)一步提升網(wǎng)絡(luò)的推理速度,本文使用BiFPN 結(jié)構(gòu)替換PANet 進(jìn)行特征融合,BiFPN 模塊可以將提取到的特征進(jìn)行快速高效的融合,使輸出特征同時(shí)含有位置及語義信息。通過對(duì)輸電導(dǎo)線現(xiàn)場(chǎng)運(yùn)行圖像的實(shí)驗(yàn)結(jié)果表明本文算法在檢測(cè)輸電導(dǎo)線缺陷任務(wù)中的精確度達(dá)到了97.5%,檢測(cè)速度達(dá)到了84.03 幀/s,充分展現(xiàn)了其優(yōu)越的性能,可以運(yùn)用于實(shí)際巡線工作中。

        猜你喜歡
        精確度主干導(dǎo)線
        全球首條1.2T超高速下一代互聯(lián)網(wǎng)主干通路
        軍事文摘(2024年2期)2024-01-10 01:58:34
        抓主干,簡(jiǎn)化簡(jiǎn)單句
        東華大學(xué)研發(fā)出可體內(nèi)吸收型蠶絲導(dǎo)線
        二代支架時(shí)代數(shù)據(jù)中糖尿病對(duì)無保護(hù)左主干患者不同血運(yùn)重建術(shù)預(yù)后的影響
        研究核心素養(yǎng)呈現(xiàn)特征提高復(fù)習(xí)教學(xué)精確度
        “硬核”定位系統(tǒng)入駐兗礦集團(tuán),精確度以厘米計(jì)算
        高齡無保護(hù)左主干病變患者血運(yùn)重建術(shù)的長(zhǎng)期預(yù)后
        220千伏輸電線路導(dǎo)線斷裂分析
        架空導(dǎo)線的幾種防腐措施
        電線電纜(2017年4期)2017-07-25 07:49:46
        GDX-2導(dǎo)線機(jī)過線輪改進(jìn)
        河南科技(2014年10期)2014-02-27 14:09:19
        亚洲av高清一区二区| 丰满少妇被猛男猛烈进入久久| 久久天天躁夜夜躁狠狠躁2022 | 中文字幕在线日亚洲9| 无套内谢孕妇毛片免费看看| 国产精品自在线免费| 国产高清a| 国产精品人成在线观看不卡| 日韩人妻不卡一区二区三区| 国产a国产片国产| 综合久久给合久久狠狠狠97色| 亚洲AV无码成人精品区日韩密殿| 偷拍一区二区三区在线观看| 乳乱中文字幕熟女熟妇| 日本一区二区三级在线观看| 99久久精品日本一区二区免费| 亚洲成a人v欧美综合天堂麻豆| 国产乱人伦AV在线麻豆A| 国产内射视频免费观看| 国产禁区一区二区三区| 国产精品对白刺激久久久| 国产精品女同一区二区久久| 日本免费三级一区二区| 免费一区二区高清不卡av| 美女扒开大腿让男人桶| 色欲aⅴ亚洲情无码av| 亚洲成aⅴ人在线观看| 国产麻豆精品久久一二三| 国产三级视频不卡在线观看| 少妇中文字幕乱码亚洲影视| 亚洲国产成人手机在线电影| 国产色婷亚洲99精品av网站| 久久婷婷国产综合精品| 亚洲国产精品sss在线观看av| 欧美成人a视频免费专区| 国产传媒精品成人自拍| 极品少妇一区二区三区四区| 色欲aⅴ亚洲情无码av蜜桃| 久久久高清免费视频| 色婷婷久久综合中文久久一本| 国产免码va在线观看免费|