亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的輸電線路關(guān)鍵部件視覺檢測方法的研究進(jìn)展

        2018-04-18 08:22:49趙振兵崔雅萍
        電力科學(xué)與工程 2018年3期
        關(guān)鍵詞:關(guān)鍵部件航拍卷積

        趙振兵,崔雅萍

        (華北電力大學(xué) 電氣與電子工程學(xué)院,河北 保定 071003)

        0 引言

        輸電線路作為電力工業(yè)的重要基礎(chǔ)設(shè)施,是電網(wǎng)的重要組成部分,其安全穩(wěn)定運(yùn)行關(guān)系到電力系統(tǒng)的可靠性和國民經(jīng)濟(jì)的持續(xù)發(fā)展。輸電線路關(guān)鍵部件主要包括絕緣子、金具及桿塔等,若部件出現(xiàn)問題會危及整個(gè)電網(wǎng)運(yùn)行的穩(wěn)定性,因此,對關(guān)鍵部件缺陷的智能檢測變得尤為重要。利用直升機(jī)、無人機(jī)巡線,可以減少運(yùn)檢人員登桿檢查操作的工作量,快速且準(zhǔn)確地判斷缺陷情況并提供幫助[1],已成為輸電線路常態(tài)化的巡檢方式,利用搭載的照相或攝像設(shè)備獲取輸電線路航拍多傳感器的圖像數(shù)量日益增多[2]。由于人員配置數(shù)量問題,目前,輸電線路智能巡檢技術(shù)實(shí)施的主要矛盾已轉(zhuǎn)化為日益增長的輸電線路航拍圖像缺陷檢測需求與人工檢測精度、效率不匹配、不平衡之間的矛盾?!笆濉逼陂g國家電網(wǎng)公司將新增110 kV及以上線路40.1萬km(較“十二五”末增長45%)[3],且外部環(huán)境更加復(fù)雜,面對輸電專業(yè)基層一線運(yùn)檢人員數(shù)量無法同步增長的情況下,影響電網(wǎng)安全的風(fēng)險(xiǎn)因素將長期存在。傳統(tǒng)運(yùn)檢模式難以適應(yīng)電網(wǎng)發(fā)展及體制變革要求,探求一種可提高其缺陷檢測的準(zhǔn)確性,并使直升機(jī)、無人機(jī)巡線系統(tǒng)更為高效和智能的輸電線路航拍圖像的處理方法是破解智能運(yùn)檢發(fā)展難題的必由之路。

        國務(wù)院于2017年7月20號印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中指出:“人工智能發(fā)展進(jìn)入新階段,成為國際競爭的新焦點(diǎn),是經(jīng)濟(jì)發(fā)展的新引擎,帶來社會建設(shè)的新機(jī)遇”。十九大報(bào)告也提出“推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實(shí)體經(jīng)濟(jì)深度融合”。國家電網(wǎng)公司積極響應(yīng),支持傳統(tǒng)產(chǎn)業(yè)優(yōu)化升級,不斷推進(jìn)人工智能與電網(wǎng)巡檢工作的融合開展。深度學(xué)習(xí)[4]是人工智能的一項(xiàng)關(guān)鍵技術(shù)且在近幾年公共數(shù)據(jù)集的目標(biāo)檢測任務(wù)中都有出色的表現(xiàn)。基于直升機(jī)、無人機(jī)和深度學(xué)習(xí)的航拍輸電線路關(guān)鍵部件的視覺檢測方法研究是非常有必要的。

        因此,面向智能電網(wǎng)和能源互聯(lián)網(wǎng)建設(shè)需求,將深度學(xué)習(xí)技術(shù)引入到輸電線路航拍圖像處理中,并充分挖掘大數(shù)據(jù)中輸電線路關(guān)鍵部件的先驗(yàn)專業(yè)知識,具有重要的實(shí)用價(jià)值,從技術(shù)層面上保障了電網(wǎng)的安全穩(wěn)定運(yùn)行,提高了輸電線路巡檢的效率。

        1 研究現(xiàn)狀

        1.1 深度模型檢測方法研究現(xiàn)狀

        目前常用、效果較好的目標(biāo)視覺檢測方法,均依賴深度模型對目標(biāo)進(jìn)行檢測[5]。在基于PASCAL VOC[6]、ImageNet[7]等世界公共數(shù)據(jù)集的挑戰(zhàn)賽中,表現(xiàn)突出、效果優(yōu)異的目標(biāo)檢測算法也都紛紛采用深度模型的方法來完成。

        在PASCAL VOC挑戰(zhàn)賽上將檢測準(zhǔn)確率從35.1%提升到53.7%的R-CNN(Regions with CNN Features)架構(gòu)[8],就是將選擇性搜索[9]與卷積神經(jīng)網(wǎng)絡(luò)CNN (Convolutional Neural Network)[10]進(jìn)行結(jié)合。首先,在圖像中生成多個(gè)候選目標(biāo)區(qū)域,進(jìn)而將這些區(qū)域設(shè)置為固定尺寸送入CNN中進(jìn)行特征的提取和分類,最終實(shí)現(xiàn)目標(biāo)檢測的目的。文獻(xiàn)[10]提出了基于AlexNet的圖像分類與識別方法,它是對LeNet[11]的一種擴(kuò)展方法,并且已取得了ImageNet競賽的冠軍。AlexNet能夠?qū)W習(xí)更大、更復(fù)雜的目標(biāo)層次的神經(jīng)網(wǎng)絡(luò)。AlexNet網(wǎng)絡(luò)提出后,許多工作開始關(guān)注改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),相比于理論研究工作,深度學(xué)習(xí)模型的結(jié)構(gòu)優(yōu)化涌現(xiàn)出了更多更有代表性的工作。如在最初的若干個(gè)卷積層的模型基礎(chǔ)上采用更小尺寸的卷積核與卷積步長[12],采用多尺度的訓(xùn)練與測試數(shù)據(jù)[13]。在淺層卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,文獻(xiàn)[14]通過可視化神經(jīng)網(wǎng)絡(luò)的中層特征,分析分類器參數(shù)對結(jié)果的影響,提出了ZF-net,該模型提取到的特征含有的語義信息更豐富,并在ImageNet上的分類精度超越了AlexNet。牛津大學(xué)提出的視覺幾何組VGG (Visual Geometry Group)模型是對深度卷積神經(jīng)網(wǎng)絡(luò)DCNN (Deep Convolutional Neural Network)的一次系統(tǒng)嘗試,在2014年ILSVRC競賽中取得了優(yōu)異成績。與傳統(tǒng)的5~7層的淺層網(wǎng)絡(luò)相比,其網(wǎng)絡(luò)層數(shù)加深,模型復(fù)雜度增加,計(jì)算量加大,VGG模型將淺層網(wǎng)絡(luò)中一個(gè)卷積核尺寸為7的卷積層拆分為3個(gè)卷積核尺寸為3的卷積層,使得模型的參數(shù)減少,增加了特征的區(qū)分度,提高了模型的判別準(zhǔn)確性。文獻(xiàn)[15]進(jìn)一步縮小卷積核尺寸,在對卷積層感受野不產(chǎn)生任何影響的情況下改善了決策函數(shù)的非線性。如圖1所示為近年來目標(biāo)檢測深度基礎(chǔ)模型發(fā)展過程圖,2013年發(fā)表在國際計(jì)算機(jī)視覺與模式識別會議CVPR (IEEE Conference on Computer Vision and Pattern Recognition)的R-CNN取得了準(zhǔn)確率為58%的成績之后,在此基礎(chǔ)上進(jìn)行的很多后續(xù)工作如Fast R-CNN[16]、Faster R-CNN[17]、SSD(Single Shot multibox Detector)[18]、YOLO(You Only Look Once)[19]、R-FCN(Region-based Fully Convolutional Networks)[20]等近幾年在公共數(shù)據(jù)集的目標(biāo)檢測任務(wù)中都有突出的表現(xiàn)。

        圖1 目標(biāo)檢測深度基礎(chǔ)模型發(fā)展過程圖

        1.2 輸電線路關(guān)鍵部件檢測方法研究現(xiàn)狀

        輸電線路部件的傳統(tǒng)圖像檢測研究從2000年開始陸續(xù)展開,最初是基于經(jīng)典圖像處理算法的思路,主要集中在針對目標(biāo)的形狀特征(如邊緣、輪廓)檢測方法上取得了一定的進(jìn)展。如對于防振錘,可利用圖像邊緣信息采用改進(jìn)的基于存在概率圖的圓/橢圓檢測方法和分層決策機(jī)制[21];可提取邊緣圖像中某些圖形基元并施加結(jié)構(gòu)約束[22];也可利用隨機(jī)Hough變換檢測防振錘的圓形部分[23],實(shí)現(xiàn)對防振錘的檢測。文獻(xiàn)[24]采用小波與中值濾波相結(jié)合對桿塔圖像進(jìn)行降噪處理,再通過特征提取及匹配的方法對輸電線路桿塔類型及狀態(tài)進(jìn)行識別;文獻(xiàn)[25]提出了基于顯著圖的圖像拼接方法,通過顯著性檢測算法得到桿塔圖像中的感興趣區(qū)域,減少圖像匹配過程特征點(diǎn)提取的數(shù)量,提高了桿塔的拼接精度;文獻(xiàn)[26]使用結(jié)合直方圖均衡化、形態(tài)學(xué)處理和RGB的彩色模型,通過防震錘正常與銹蝕情況的對比來判斷防震錘是否存在銹蝕缺陷;文獻(xiàn)[27]利用灰度平均梯度與拉普拉斯算子建立形變模型,通過輪廓特征對分割后的間隔棒進(jìn)行檢測,但由于背景復(fù)雜,難以把間隔棒的邊緣清晰地分割出來,同時(shí)二值圖像使得信息丟失過多,導(dǎo)致漏檢漏判。

        近年來,利用深度學(xué)習(xí)方法檢測線路部件的主要進(jìn)展有:將類Haar特征與級聯(lián)AdaBoost算法應(yīng)用于輸電線路防振錘的識別,可解決單一防振錘的識別問題[28]。文獻(xiàn)[29]提出基于過完備字典稀疏表示來進(jìn)行巡檢圖像缺陷檢測的方法,把巡檢圖像是否有缺陷的問題轉(zhuǎn)化為巡檢圖像能否能用過完備字典稀疏表示的問題。文獻(xiàn)[30]于2017年提出了利用層次模型“與或圖”對目標(biāo)進(jìn)行分解表達(dá),建立部件之問的約束關(guān)系,構(gòu)建多向的判別路徑的方法。文獻(xiàn)[31]研究了深度學(xué)習(xí)在電力部件識別中的應(yīng)用,以及采用優(yōu)化算法對參數(shù)進(jìn)行調(diào)優(yōu),針對電力小部件識別問題分析了不同算法的效果和性能,驗(yàn)證了利用RCNN等深度學(xué)習(xí)算法對電力小部件識別的準(zhǔn)確性和效率。

        在輸電線路的巡檢中結(jié)合深度學(xué)習(xí)的方法,不僅可以大幅度減少運(yùn)檢人員數(shù)量,提高工作效率,而且還可以實(shí)現(xiàn)對電網(wǎng)更加準(zhǔn)確有效的狀態(tài)評估。但是,由于電力系統(tǒng)的特殊性以及航拍圖像復(fù)雜的特點(diǎn),直接將深度模型應(yīng)用在輸電線路關(guān)鍵部件的檢測中仍存在較大的問題。挖掘適合輸電線路關(guān)鍵部件的特征表達(dá),構(gòu)建專業(yè)的關(guān)鍵部件知識圖譜對實(shí)現(xiàn)輸電線路關(guān)鍵部件自動檢測具有重要的指導(dǎo)意義。

        2 發(fā)展方向

        基于航拍圖像的輸電線路部件檢測方法,目前很多是在實(shí)驗(yàn)室環(huán)境下進(jìn)行的,具有很大的局限性。來源于輸電線路的航拍圖像具有如下特點(diǎn):①輸電線路中絕緣子、桿塔、金具等關(guān)鍵部件之間相連或相互遮擋;②來自視頻中的圖像或紅外圖像分辨率相對較低;③圖像背景十分復(fù)雜,經(jīng)常包含森林、山川、田地、房屋、河流、道路等不同自然景物,且隨著四季的更迭背景外觀會隨時(shí)改變。輸電線路航拍圖像如圖2所示:圖(a)展示了航拍輸電線路關(guān)鍵部件之間相互遮擋的實(shí)例;圖(b)展示了紅外圖像分辨率較低,主要部件特征不明顯的實(shí)例;圖(c)展示了航拍輸電線路關(guān)鍵部件圖像背景復(fù)雜的實(shí)例。

        圖2 不同傳感器所獲得的航拍圖像

        這些特點(diǎn)會導(dǎo)致輸電線路關(guān)鍵部件目標(biāo)在圖像中不夠突出,且增加了對關(guān)鍵部件檢測處理的難度,很難獲得具有普適性的自動檢測方法。所以直接用現(xiàn)有算法檢測航拍輸電線路關(guān)鍵部件,不能獲得滿意的效果,必須結(jié)合輸電線路關(guān)鍵部件圖像的特性,從理論體系和技術(shù)方法等方面對其自動檢測方法進(jìn)行更深入的探索和研究。

        文獻(xiàn)[32-34]研究表明,使用DCNN對目標(biāo)進(jìn)行特征提取,然后利用提出的基于方位角檢測和二值形狀先驗(yàn)知識對目標(biāo)進(jìn)行定位。僅利用深度卷積神經(jīng)網(wǎng)絡(luò)作為特征提取器,測試結(jié)果遠(yuǎn)遠(yuǎn)超過特征袋[35]等手工特征,將絕緣子的固有特征與Edge Boxes進(jìn)行有效結(jié)合,使得輸出結(jié)果呈現(xiàn)出了更多的高質(zhì)量絕緣子候選目標(biāo)區(qū)域,有效地減少了干擾區(qū)域,提高了航拍巡線絕緣子圖像檢測的準(zhǔn)確率??梢娚疃葘W(xué)習(xí)在輸電線路關(guān)鍵部件的檢測中發(fā)揮了巨大的潛力。

        深度學(xué)習(xí)對模型的訓(xùn)練和測試都依賴于一定數(shù)量級的樣本圖片,要想實(shí)現(xiàn)對輸電線路航拍圖像關(guān)鍵部件的精準(zhǔn)檢測,必須需要大量的輸電線路關(guān)鍵部件圖片作為訓(xùn)練集才能在深度神經(jīng)網(wǎng)絡(luò)中學(xué)習(xí)到更加準(zhǔn)確的參數(shù)。目前深度模型的設(shè)計(jì)與應(yīng)用都針對于公共數(shù)據(jù)集,其中,包含的類別并不專注于電力系統(tǒng)中的輸電線路關(guān)鍵部件。為了能更好地學(xué)習(xí)到輸電線路關(guān)鍵部件中的深度特征,利用這些深度特征進(jìn)行巡檢圖像中關(guān)鍵部件的自動檢測,必須構(gòu)建一個(gè)包含輸電線路關(guān)鍵部件的專業(yè)數(shù)據(jù)庫—輸電線路關(guān)鍵部件圖像檢測數(shù)據(jù)庫。這是進(jìn)行基于深度模型的航拍輸電線路關(guān)鍵部件圖像檢測研究的基礎(chǔ)。但是,由于輸電線路具有不同電壓等級,且外部環(huán)境復(fù)雜多樣;另外,部件的種類繁多,材質(zhì)、顏色多種多樣,部件間連接關(guān)系復(fù)雜多變。即使是同一種部件在實(shí)際應(yīng)用中也會因廠家及應(yīng)用場所的不同造成其在視覺形態(tài)中存在較大的差異。由于電力系統(tǒng)的特殊性,且標(biāo)注成本極其高昂,構(gòu)建百萬級航拍輸電線路關(guān)鍵部件圖像數(shù)據(jù)庫還需要時(shí)間,因此,仍需繼續(xù)探索更完備、更具有公信力的構(gòu)建方法。

        迄今為止,將深度學(xué)習(xí)應(yīng)用到航拍輸電線路關(guān)鍵部件檢測中已經(jīng)有初步研究,但是,由于電力系統(tǒng)的特殊性,沒有大規(guī)模專業(yè)圖像數(shù)據(jù)庫,且輸電線路關(guān)鍵部件的特征也會由于生產(chǎn)廠家和地域的不同而存在差異,故為了更智能地實(shí)現(xiàn)輸電線路關(guān)鍵部件檢測及其故障判定,需要利用專業(yè)的先驗(yàn)知識,建立具有一定普適性且專業(yè)性較強(qiáng)的知識圖譜,并將其與現(xiàn)有的深度模型相融合,是實(shí)現(xiàn)航拍輸電線路關(guān)鍵部件的自動檢測的基礎(chǔ)。航拍輸電線路關(guān)鍵部件視覺檢測可按照如圖3進(jìn)行,采用構(gòu)建的航拍輸電線路關(guān)鍵部件檢測數(shù)據(jù)庫微調(diào)已有的深度模型,對經(jīng)過微調(diào)后的深度模型從兩個(gè)方面進(jìn)行改進(jìn)。一方面增強(qiáng)特征表達(dá),另一方面建立輸電線路關(guān)鍵部件知識圖譜,并引入到微調(diào)后的深度模型中,得到改進(jìn)后的深度模型,輸入輸電線路巡檢測試圖像,最終輸出目標(biāo)檢測結(jié)果。

        圖3 航拍輸電線路關(guān)鍵部件的檢測框圖

        3 結(jié)論

        實(shí)現(xiàn)航拍輸電線路關(guān)鍵部件的自動檢測,是提高電網(wǎng)安全穩(wěn)定運(yùn)行的基礎(chǔ)。深度學(xué)習(xí)在航拍輸電線路關(guān)鍵部件的檢測任務(wù)中具有很好的應(yīng)有前景,但是,若使其具有較強(qiáng)的工程應(yīng)用性仍面臨巨大的挑戰(zhàn)。本文對深度檢測模型的研究現(xiàn)狀以及輸電線路關(guān)鍵部件檢測的研究進(jìn)展進(jìn)行了總結(jié),并從構(gòu)建航拍輸電線路關(guān)鍵部件圖像數(shù)據(jù)集、建立專業(yè)的輸電線路關(guān)鍵部件知識圖譜及知識圖譜與深度模型融合等方面分析了航拍輸電線路關(guān)鍵部件未來的發(fā)展方向。

        參考文獻(xiàn):

        [1]張祥全,蘇建軍.架空輸電線路無人機(jī)巡檢技術(shù)[M].北京: 中國電力出版社,2016.

        [3]國家電網(wǎng)公司運(yùn)維檢修部.智能運(yùn)檢白皮書[R].北京: 國家電網(wǎng)公司,2016,1-44.

        [4]YANN LECUN,YOSHUA BENGIO,GEOFFREY HINTON.Deep learning[J].Nature,2015,521 (7553): 436-444.

        [5]JAN HOSANG,RODRIGO BENENSON,PIOTR DOLLR,et al.What Makes for Effective Detection Proposals?[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2016,38(4): 814.

        [6]MARK EVERINGHAM,LUC VAN GOOL,WILLIAMS CHRISTOPHER K.,et al.The pascal visual object classes (VOC) challenge[J].International Journal of Computer Vision,2010,88(2): 303-338.

        [7]JIA DENG,WEI DONG,SOCHER R.,et al.Imagenet: a large-scale hierarchical image database[C].IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2009: 248-255.

        [8]ROSS GIRSHICK,JEFF DONAHUE,TREVOR DARRELL,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C].IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2013: 580-587.

        [9]SANDE KOEN E.,UIJLINGS JASPER R.,GEVERS T.,et al.Segmentation as selective search for object recognition[C].IEEE International Conference on Computer Vision (ICCV),2012: 1879-1886.

        [10]KRIZHEVSKY ALEX,ILYA SUTSKEVER,GEOFFREY HINTON.Imagenet classification with deep convolutional neural networks[J].Communications of the ACM,2012,60(2): 2012.

        [11]YANN LECUN,BOTTOU LEON,BENGIO YOSHUA,et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11): 2278-2324.

        [12]LIN M.,CHEN Q.,YAN S.Network in network[C].Proceedings of the 30th International Conference on Learning Representations (ICLR),2014: 1-10.

        [13]GONG YUNCHAO,WANG LIWEI,GUO RUIQI,et al.Multi-scale orderless pooling of deep convolutional activation features[C].European Conference on Computer Vision (ECCV),2014: 392-407.

        [14]MATTHEW D.ZEILER,ROB FERGUS.Visualizing and understanding convolutional networks[C].European Conference on Computer Vision (ECCV),2014: 818-833.

        [15]OQUAB MAXIME,LéON BOTTOU,LAPTEVI I.,et al.Learning and transferring mid-level image representations using convolutional neural networks[C].IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2014: 1717-1724.

        [16]GIRSHICK R.FAST R-CNN[C].IEEE International Conference on Computer Vision (ICCV),Santiago,Chile,2015: 1440-1448.

        [17] REN SHAOQING,HE KAIMING,GIRSHICK R.,et al.Faster R-CNN: towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,39(6): 1137-1149.

        [18]LIU WEI,ANGUELOV D.,ERHAN D,et al.SSD: single shot multibox detector[C].European Conference on Computer Vision (ECCV),2015: 21-37.

        [19]REDMON JOSEPH,SANTOSH KUMAR DIVVALA,GIRSHICK R.,et al.You only look once: unified,real-time object detection[C].IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2016: 779-788.

        [20]DAI JIFENG,LI YI,HE KAIMING.,et al.R-FCN: object detection via region-based fully convolutional networks[C].Conference and Workshop on Neural Information Processing Systems(NIPS),2016: 379-387.

        [21]張運(yùn)楚,梁自澤,傅思遙,等.基于結(jié)構(gòu)約束的架空輸電線路巡線機(jī)器人障礙識別[J].機(jī)器人,2007,29(1): 1-6.

        [22]胡彩石,吳功平,曹珩,等.高壓輸電線路巡線機(jī)器人障礙物視覺檢測識別研究[J].傳感技術(shù)學(xué)報(bào),2009,21(12): 2092-2096.

        [23]陳曉娟,吳英石,趙亮,等.基于隨機(jī)Hough變換的OPGW防震錘識別[J].黑龍江電力,2010,32(1): 1-2.

        [24]趙君.基于航拍圖像的桿塔類型判斷及狀態(tài)識別[D].保定:華北電力大學(xué),2010.

        [25]張旭,高佼,王萬國,等.基于顯著圖的輸電線路桿塔圖像拼接方法[J].計(jì)算機(jī)應(yīng)用,2015,35(4): 1133-1136.

        [26]宋偉,左丹,鄧邦飛,等.高壓輸電線防震錘銹蝕缺陷檢測[J].儀器儀表學(xué)報(bào),2016,37(s1): 113-117.

        [27]WU HAIBIN,XI YANPING,FANG WEIMIN,et al.Damper detection in helicopter inspection of power transmission line[C].IEEE Fourth International Conference on Instrumentation and Measurement,Computer,Communication and Control,2014:628-632.

        [28]金立軍,門書佳,劉源,等.基于類Haar特征與級聯(lián)AdaBoost算法的防震錘識別[J].系統(tǒng)仿真學(xué)報(bào),2012,24(9): 1806-1809.

        [29]盧君妥.飛行機(jī)器人巡檢圖像中關(guān)鍵部件缺陷[D].北京: 華北電力大學(xué),2016.

        [30]付晶,邵瑰瑋,吳亮,等.利用層次模型進(jìn)行訓(xùn)練學(xué)習(xí)的線路設(shè)備缺陷檢測方法[J].高電壓技術(shù),2017,43(1): 266-275.

        [31]王萬國,田兵,劉越,等.基于RCNN的無人機(jī)巡檢圖像電力小部件識別研究[J].地球信息科學(xué)學(xué)報(bào),2017,29(1): 256-263.

        [32]ZHAO ZHENBING,XU GUOZHI,QI YINCHENG,et al.Multi-patch deep features for power line insulator status classification from aerial images[C].International Joint Conference on Neural Networks(IJCNN),IEEE,2016: 3187-3194.

        [33]ZHAO ZHENBING,LIU NING,WANG LE.Localization of multiple insulators by orientation angle detection and binary shape prior knowledge[J].IEEE Transactions on Dielectrics and Electrical Insulation,2015,22(6): 3421-3428.

        [34]ZHAO ZHENBING,ZHANG LEI,QI YINCHENG,et al.A generation method of insulator region proposals based on edge boxes[J].Optoelectronics Letters,2017,13(6):466-470.

        [35]LI FEIFEI,PERONA P.A bayesian hierarchical model for learning natural scene categories[C].IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2005: 524-531.

        猜你喜歡
        關(guān)鍵部件航拍卷積
        基于FMECA的注射泵關(guān)鍵部件風(fēng)險(xiǎn)優(yōu)先數(shù)評估
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        多載荷共同作用對大型風(fēng)力機(jī)關(guān)鍵部件受力影響分析
        航拍下的苗圃與農(nóng)場
        中外文摘(2021年10期)2021-05-31 12:10:40
        方坯連鑄熱送設(shè)備關(guān)鍵部件設(shè)計(jì)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        難忘的航拍
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        《航拍中國》美得讓人想哭
        陜西畫報(bào)航拍
        亚洲免费一区二区三区四区| 伊人久久大香线蕉av一区| 亚洲一区二区三区特色视频| 少妇人妻在线无码天堂视频网| 四川少妇大战4黑人| 久久精品国产一区二区蜜芽| 欧洲乱码伦视频免费| 日本三区在线观看视频| 国产精品自线一区二区三区| 亚洲av无码电影在线播放| 精品久久欧美熟妇www| 国产成人精品自在线无码| 淫妇日韩中文字幕在线| 久久精品国产亚洲av桥本有菜| 国内精品少妇久久精品| 人妻少妇精品专区性色anvn| 丝袜美腿福利一区二区| 男女做爰猛烈啪啪吃奶动| 免费一区二区三区在线视频| 一本大道综合久久丝袜精品| 国产综合开心激情五月| 久久久久国产综合av天堂| 999国产一区在线观看| 青青草视频在线你懂的| 蜜臀一区二区三区精品 | 九九久久国产精品大片| 国产影院一区二区在线| 亚洲久悠悠色悠在线播放| 米奇777四色精品人人爽| 免费看一级a女人自慰免费| 伊人狼人激情综合影院| 97久久国产亚洲精品超碰热| 女人下面毛多水多视频| 久青草国产在线观看| 久久精品女人天堂AV一个| 亚洲视频在线观看一区二区三区| 国产成人av乱码在线观看| 国产内射合集颜射| 久久精品国产视频在热| 精品一区二区三区婷婷| 国产精品无码v在线观看|