亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        遙感圖像飛機目標(biāo)高效搜檢深度學(xué)習(xí)優(yōu)化算法

        2019-01-30 01:34:32郭琳秦世引
        關(guān)鍵詞:停機坪飛機區(qū)域

        郭琳, 秦世引

        (北京航空航天大學(xué) 自動化科學(xué)與電氣工程學(xué)院, 北京 100083)

        在現(xiàn)代戰(zhàn)爭和防御偵察中,由于飛機目標(biāo)機動性強,威脅性大,附加值高,常被視為一類具有高戰(zhàn)略價值的時敏目標(biāo)。借助遙感圖像對地面??康娘w機目標(biāo)實施高效精準(zhǔn)的檢測與定位對情報獲取及戰(zhàn)略部署具有重要意義。隨著遙感技術(shù)的不斷發(fā)展,遙感圖像在空間分辨率、光譜分辨率、時間分辨率上呈現(xiàn)出快速增長的趨勢。如何利用海量的圖像數(shù)據(jù),實現(xiàn)大幅面遙感圖像飛機目標(biāo)的高效檢測與精準(zhǔn)定位,成為一項亟待解決的難點課題。其挑戰(zhàn)性主要體現(xiàn)在以下4點:①遙感圖像成像幅面大,覆蓋范圍廣。與之相比,飛機目標(biāo)所占像素比例小,信噪比(Signal to Noise Ratio, SNR)低,對整幅遙感圖像進(jìn)行人工判讀難以在短時間內(nèi)發(fā)現(xiàn)飛機目標(biāo)。②不同類型的飛機目標(biāo)的外型各異,大小不同,涂裝顏色也各有區(qū)別,經(jīng)典的淺層目標(biāo)特征在檢測過程中容易造成誤檢、漏檢情況的發(fā)生。③飛機目標(biāo)的檢測容易受到不同天時、天候條件下光照、陰影、云層遮擋等環(huán)境因素的影響,需要算法具備良好的穩(wěn)定性以應(yīng)對不同檢測場景的需要[1]。④由于戰(zhàn)場形勢瞬息萬變,大幅面遙感圖像的飛機目標(biāo)檢測算法除了需要具備很高的精確性,還必須滿足實時性的應(yīng)用需求。

        飛機目標(biāo)通常??吭谕C坪和跑道區(qū)域內(nèi),對停機坪和跑道區(qū)域?qū)嵤┖蜻x檢測區(qū)域的分割與提取可以顯著縮小飛機目標(biāo)的搜尋范圍,進(jìn)而在分割出的停機坪與跑道區(qū)域內(nèi)針對飛機目標(biāo)實施精確地檢測定位,這是實現(xiàn)大幅面遙感圖像飛機目標(biāo)高效檢測的有效途徑。在本文中,利用高性能的端到端深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNN)結(jié)構(gòu),對大幅面遙感圖像中的停機坪與跑道區(qū)域等飛機目標(biāo)候選檢測區(qū)域?qū)嵤└咝Ь珳?zhǔn)分割,顯著提高了飛機目標(biāo)的檢測效率。在分割出的跑道與停機坪區(qū)域內(nèi),借助手工采集的飛機目標(biāo)樣本集,對YOLO (You Only Look Once)網(wǎng)絡(luò)模型進(jìn)行遷移式強化訓(xùn)練,一方面彌補了手工數(shù)據(jù)集數(shù)據(jù)規(guī)模上的不足,另一方面借助YOLO網(wǎng)絡(luò)的強時效性的優(yōu)勢,實現(xiàn)了飛機目標(biāo)的高效檢測與定位。在候選檢測區(qū)域的分割提取與飛機目標(biāo)的高效檢測2個環(huán)節(jié)中,都充分考慮了大幅面遙感圖像飛機目標(biāo)檢測精確性與實時性的實際應(yīng)用需求,借助2種高性能DNN網(wǎng)絡(luò)的級聯(lián)組合,提出了新穎的搜尋與檢測相集成的飛機目標(biāo)高效檢測算法。

        為了驗證本文所提出的級聯(lián)式飛機目標(biāo)高效檢測算法的有效性,在實際獲取的大幅面遙感圖像上,將本文提出的檢測算法與 R-CNN (Regions with Convolutional Neural Networks)[2]、Faster R-CNN[3]進(jìn)行飛機目標(biāo)檢測實驗結(jié)果的對比分析和性能評估。結(jié)果表明,本文提出的搜尋與檢測相集成的級聯(lián)組合式飛機目標(biāo)高效檢測算法不僅在檢測速度上具有明顯優(yōu)勢,同時在檢測精度上也能達(dá)到滿意水平,可為大幅面遙感圖像中飛機目標(biāo)的高效檢測提供良好的技術(shù)支持。

        1 相關(guān)工作與技術(shù)動態(tài)

        遙感圖像幅面大,包含的地物類型多,為了提高檢測效率,降低虛警干擾,需要對停機坪與跑道區(qū)域?qū)嵤└咝Ь珳?zhǔn)分割。

        趙雪梅等[4]提出了基于隱馬爾可夫高斯隨機場模型的模糊聚類高分辨率遙感影像分割算法,分別利用隱馬爾可夫模型和高斯模型構(gòu)建標(biāo)號場和特征場的鄰域關(guān)系,同時強化空間和光譜信息對影像分割的影響,在特征域上,不但考慮了同一彩色的鄰域關(guān)系,也考慮了不同彩色間的鄰域關(guān)系, 完善了光譜的鄰域信息,實現(xiàn)了高分辨率遙感影像地物目標(biāo)的精準(zhǔn)分割。陳榮元等[5]提出了一種結(jié)合Gibbs隨機場的特征加權(quán)遙感影像分割方法,利用加權(quán)最小距離分類法對影像進(jìn)行初始分割,并利用Gibbs隨機場描述像素的空間相關(guān)性,綜合Gibbs隨機場描述的標(biāo)記場和加權(quán)最小距離分類法描述的特征場來獲取影像的最終分割結(jié)果。Budak等[6]提出了一種新穎的由粗檢到精篩的停機坪與跑道區(qū)域分割方案,先基于直線段檢測 (Line Segment Detector, LSD)算法提取長直線區(qū)域作為停機坪與跑道分割的候選區(qū)域,再對候選檢測區(qū)域進(jìn)行局部不變特征提取與分類,最終達(dá)到停機坪與跑道區(qū)域檢測與分割的目的。Wang和Pan[7]提出了一種基于顯著性區(qū)域搜索的停機坪與跑道分割算法,先通過顯著圖提取停機坪與跑道的候選區(qū)域,再提取候選區(qū)域的視覺詞包(Bag of Visual Words, BoVW)特征,通過支持向量機(SVM)對BoVW特征進(jìn)行分類,最終實現(xiàn)停機坪與跑道區(qū)域的定位和分割。

        然而,經(jīng)典的停機坪與跑道區(qū)域分割算法具有一定的局限性:①基于直線形狀特征的停機坪與跑道區(qū)域分割算法在非直線區(qū)域性能欠佳,而基于顯著性提取的分割算法無法準(zhǔn)確描述停機坪與跑道區(qū)域的輪廓信息,從而導(dǎo)致分割精度較低;②利用長直線特征進(jìn)行候選分割區(qū)域搜尋,其搜尋結(jié)果與直線長度的閾值設(shè)置密切相關(guān),在應(yīng)對不同檢測場景時泛化性能較弱,容易造成誤分割情況的發(fā)生。

        伴隨著深度學(xué)習(xí)理論的迅猛發(fā)展,特別是AlexNet獲得了ImageNet2012挑戰(zhàn)賽冠軍以后[8],DNN網(wǎng)絡(luò)在數(shù)字手寫體識別、人臉識別以及無人駕駛等諸多領(lǐng)域取得了巨大的成功。借助卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN),可以為圖像中的每個像素分配具有語義信息的類別標(biāo)簽,從而實現(xiàn)像素級的圖像分割。然而,經(jīng)典的CNN網(wǎng)絡(luò)對于輸入圖像的大小有嚴(yán)格限制,而原始圖像的裁剪和縮放會引起目標(biāo)信息的畸變與缺失,造成分割精度的下降。為了解決這一問題,Long等[9]提出了全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Neural Network, FCN)的概念。在FCN網(wǎng)絡(luò)中,全連接層被1×1大小的卷積層所替代,從而使得FCN網(wǎng)絡(luò)具備處理任意大小圖像的能力。FCN網(wǎng)絡(luò)對淺層特征與深層特征進(jìn)行融合,獲得了性能更優(yōu)的特征表達(dá),并借助融合特征圖的上采樣,獲得最終的分割結(jié)果。然而,簡單的上采樣操作會破壞原始圖像像素之間的空間位置關(guān)系,導(dǎo)致分割精度欠佳。為了解決這一問題,Badrinarayanan等[10]提出了新穎的SegNet網(wǎng)絡(luò)模型結(jié)構(gòu)。SegNet的創(chuàng)新之處在于其獨特的編碼-解碼結(jié)構(gòu)。在編碼階段,SegNet借助VGG-16網(wǎng)絡(luò)中的13個卷積層完成特征提取,而在解碼階段,則采用對稱的網(wǎng)絡(luò)模型進(jìn)行空間信息和語義信息的恢復(fù)。相比FCN網(wǎng)絡(luò)簡單的上采樣算法,SegNet多層轉(zhuǎn)置卷積操作更有利于精確恢復(fù)原始圖像像素點之間的空間位置關(guān)系,因而能夠?qū)崿F(xiàn)更加精確的圖像分割。Ronneberger等[11]提出了結(jié)構(gòu)更為復(fù)雜的U-Net網(wǎng)絡(luò)模型。U-Net結(jié)合了編碼-解碼的結(jié)構(gòu)設(shè)計以及多特征圖融合的優(yōu)勢,相比Dan等[12]提出的模型,在性能上有了大幅提高。此外,條件隨機場(Conditional Random Fields, CRF)可以顯著提高圖像分割精度,這在Chen等[13]的研究中也得到了充分的借鑒和應(yīng)用。Zhao等[14]在CVPR2017發(fā)表的PSPNet、Chen等[15]發(fā)表的DeepLab及He等[16]在ICCV2017上發(fā)表的Mask R-CNN使圖像語義分割的精度得到了進(jìn)一步提升。

        飛機目標(biāo)作為一種高價值的時敏目標(biāo),在不同天時、天候的復(fù)雜場景下對其實施高效精準(zhǔn)檢測一直都是國內(nèi)外學(xué)者研究的熱點。經(jīng)典的飛機目標(biāo)檢測算法在特征選擇上,主要包括外型特征、輪廓特征、顯著性特征和局部不變特征等。伴隨著深度學(xué)習(xí)的迅猛發(fā)展,傳統(tǒng)的手工特征被深度學(xué)習(xí)提取的機器特征快速超越和取代。Girshick等[2]在CVPR2014上首次將深度學(xué)習(xí)引入到目標(biāo)檢測中,提出了R-CNN算法。在R-CNN算法的實現(xiàn)過程中,首先借助選擇性搜索算法獲取大量的目標(biāo)線索,然后利用AlexNet網(wǎng)絡(luò)模型對目標(biāo)線索區(qū)域進(jìn)行特征提取,最后借助SVM分類器對特征進(jìn)行分類,從而實現(xiàn)目標(biāo)檢測的目的。相比經(jīng)典的可變性部件模型(Deformable Part Model, DPM)目標(biāo)檢測算法,R-CNN算法在平均精度均值(Mean Average Precision, MAP)上提高了30%以上。然而,由于選擇性搜索算法需要消耗大量的計算資源,并且每個目標(biāo)線索進(jìn)行特征提取時都要進(jìn)行重復(fù)的卷積操作,導(dǎo)致R-CNN算法的檢測速度較慢。Girshick[17]在ICCV2015上發(fā)表的Fast R-CNN算法及Ren等[3]發(fā)表的Faster R-CNN算法陸續(xù)解決了這些問題。在Fast R-CNN算法中, Ren等[18]借鑒了SPPNet空間金字塔池化的思路,通過在卷積層后加入感興趣池化層對不同大小的目標(biāo)線索的特征圖進(jìn)行歸一化處理,一方面克服了R-CNN算法輸入圖像必須為固定大小的局限,避免了圖像剪裁和變形造成的目標(biāo)畸變;另一方面所有的目標(biāo)線索可以共享卷積層的權(quán)重參數(shù),大幅降低了計算資源開銷。而在Faster R-CNN算法中,選擇性搜索算法被區(qū)域線索神經(jīng)網(wǎng)絡(luò)(Region Proposal Neural Networks, RPN)所替代,不僅目標(biāo)線索檢測的精確率和召回率得到了明顯改進(jìn),而且線索生成效率也獲得了顯著提高。為了進(jìn)一步加快目標(biāo)檢測的效率,Redmon等[19]在CVPR2016上提出了新穎的YOLO算法。YOLO算法的創(chuàng)新之處在于其采用了端到端的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計,利用回歸算法對目標(biāo)類別以及目標(biāo)邊界框位置進(jìn)行擬合,相比Faster R-CNN算法先產(chǎn)生目標(biāo)線索,再對目標(biāo)線索進(jìn)行分類篩選的檢測策略,在檢測速度上有了大幅提升。

        本文在分析前沿研究動態(tài)的基礎(chǔ)上,通過DNN網(wǎng)絡(luò)的深度學(xué)習(xí)與級聯(lián)組合將搜尋分割與檢測定位有機結(jié)合起來,設(shè)計構(gòu)建了高性能的飛機目標(biāo)檢測算法。

        2 快速搜尋與高效檢測的組合方案

        2.1 大幅面遙感圖像中飛機目標(biāo)的分布特點

        為了調(diào)查遙感圖像中飛機目標(biāo)的分布規(guī)律,從Google Earth上搜集了100幅遙感圖像,并對停機坪與跑道以及其他區(qū)域的飛機樣本數(shù)目進(jìn)行統(tǒng)計。不同區(qū)域停放的飛機目標(biāo)樣本在圖1中進(jìn)行了展示。在圖1中,上下兩行圖像展示了兩組不同區(qū)域??康娘w機目標(biāo)樣本示意圖。在每行圖像中,停機坪、跑道以及其他區(qū)域的飛機目標(biāo)樣本,均為該行首列展示的原始遙感圖像局部放大所得。

        圖1 不同區(qū)域??康娘w機目標(biāo)樣本示意圖Fig.1 Schematic of aircraft target sample docked in various areas

        對不同區(qū)域飛機目標(biāo)樣本的數(shù)量進(jìn)行統(tǒng)計,結(jié)果如表1所示。從結(jié)果中可以看出,停機坪與跑道區(qū)域內(nèi)??康娘w機目標(biāo)為1 046架,占總數(shù)的97.85%,而停靠在其他區(qū)域的飛機目標(biāo)為23架,占總數(shù)的2.15%。因此,對停機坪與跑道區(qū)域進(jìn)行高效精準(zhǔn)分割,可以在盡可能不遺漏飛機的條件下,大幅減少搜索范圍,同時避免無關(guān)檢測區(qū)域產(chǎn)生的干擾,顯著提高飛機目標(biāo)檢測的效率和精度。

        表1 不同區(qū)域??康娘w機目標(biāo)樣本數(shù)量統(tǒng)計Table 1 Quantity statistics of aircraft target sample docked in various areas

        2.2 基于DNN網(wǎng)絡(luò)的停機坪快速檢測與分割

        大幅面遙感圖像中的停機坪與跑道區(qū)域的分割和提取不僅需要滿足高精度的要求,精確判定候選檢測區(qū)域范圍,避免誤分割和漏分割情況的發(fā)生,還需要具有很高的分割效率,滿足飛機目標(biāo)檢測實時性的需求。借助深度學(xué)習(xí)理論,本文設(shè)計了新穎的端到端DNN網(wǎng)絡(luò)以實現(xiàn)大幅面遙感圖像停機坪與跑道區(qū)域的高性能分割,網(wǎng)絡(luò)的離線監(jiān)督訓(xùn)練如圖2所示。圖中:g(·)為DNN網(wǎng)絡(luò)模型的非線性激活函數(shù);Wi和bi分別為第i層神經(jīng)元的權(quán)重系數(shù)和偏移量。

        在DNN網(wǎng)絡(luò)的離線監(jiān)督訓(xùn)練過程中,借助開源標(biāo)注工具LableMe[20],對遙感圖像樣本集中的停機坪與跑道區(qū)域進(jìn)行人工標(biāo)注。當(dāng)離線監(jiān)督訓(xùn)練完成后,DNN網(wǎng)絡(luò)模型便固定下來。在實際使用過程中,將原始遙感圖像輸入到訓(xùn)練好的DNN網(wǎng)絡(luò)模型中,即可生成對應(yīng)大小的停機坪與跑道區(qū)域的分割結(jié)果。

        圖2 停機坪與跑道區(qū)域分割DNN網(wǎng)絡(luò)模型的離線監(jiān)督訓(xùn)練Fig.2 Off-line supervised training of DNN model for apron and runway area segmentation

        2.3 遙感圖像飛機目標(biāo)高效檢測方案

        為了滿足高效檢測的任務(wù)需要,基于YOLO算法,本文設(shè)計了面向大幅面遙感圖像飛機目標(biāo)的檢測方案。該方案借助分治法的思想,采用了先拆分后拼合的策略。首先,對停機坪與跑道區(qū)域分割圖像進(jìn)行大小調(diào)整,并按照448像素×448像素對其進(jìn)行標(biāo)準(zhǔn)塊切分;然后,利用手工采集的飛機目標(biāo)樣本集對預(yù)訓(xùn)練的YOLO網(wǎng)絡(luò)模型進(jìn)行遷移式強化訓(xùn)練;再次,借助遷移式強化訓(xùn)練YOLO網(wǎng)絡(luò)模型對標(biāo)準(zhǔn)塊遙感圖像進(jìn)行飛機目標(biāo)的檢測和定位;最后,將包含飛機目標(biāo)檢測結(jié)果的標(biāo)準(zhǔn)塊圖像按原始空間排布順序重新拼合,得到完整的大幅面遙感圖像飛機目標(biāo)檢測結(jié)果。

        2.4 搜尋與檢測相集成的級聯(lián)組合方案

        借助本文提出的停機坪與跑道區(qū)域分割DNN網(wǎng)絡(luò)以及YOLO網(wǎng)絡(luò)的性能優(yōu)勢,對區(qū)域搜尋與目標(biāo)檢測2個環(huán)節(jié)進(jìn)行級聯(lián)組合,給出搜尋與檢測的級聯(lián)組合方案,如圖3所示。

        從圖3中可以看出,本文提出的搜尋與檢測相集成的級聯(lián)組合方案在候選檢測區(qū)域搜尋與飛機目標(biāo)檢測中分別設(shè)計了不同的DNN網(wǎng)絡(luò)以實現(xiàn)各自部分的功能。其優(yōu)勢為:①具備良好的時效性;②由于采用了端到端的設(shè)計思路,在整個飛機目標(biāo)的檢測過程中無需人為干預(yù),只需提供原始的大幅面遙感圖像,即可獲得停機坪與跑道區(qū)域分割圖像及飛機目標(biāo)的檢測結(jié)果,為大幅面遙感圖像飛機目標(biāo)的高效檢測提供了便利。

        圖3 搜尋與檢測的級聯(lián)組合Fig.3 Cascade combination of searching and detection

        3 停機坪與跑道區(qū)域的分割和提取

        3.1 停機坪與跑道區(qū)域檢測和分割的DNN模型

        借助深度學(xué)習(xí)方法,本文設(shè)計了大幅面遙感圖像停機坪與跑道區(qū)域分割深度神經(jīng)網(wǎng)絡(luò)(Large-Scale Remote Sensing Image Apron and runway Segmentation Neural Networks, LS-RSIASNN),網(wǎng)絡(luò)模型結(jié)構(gòu)及參數(shù)設(shè)置如圖4(a)所示。

        圖4 停機坪與跑道區(qū)域分割DNN網(wǎng)絡(luò)模型示意圖Fig.4 Schematic of DNN models for apron and runway area segmentation

        從圖4中可以看出,LS-RSIASNN網(wǎng)絡(luò)的深度為76層,相比其他DNN網(wǎng)絡(luò)具有更深的網(wǎng)絡(luò)結(jié)構(gòu),因而有利于抽象特征的挖掘,提高圖像分割的精度。LS-RSIASNN網(wǎng)絡(luò)模型中一共包括20個卷積網(wǎng)絡(luò)單元(Convolutional Network, ConvNet),其中前19個用于特征提取與圖像恢復(fù),最后1個用于分割標(biāo)簽的生成。而在每個ConvNet中包含一個卷積層、一個最大整合層及一個激活層。所有卷積層的卷積核大小為3×3,卷積步長為1,最大整合層的步長為2。激活函數(shù)選用修正的線性單元(Rectified Linear Unit, ReLU),其解析表達(dá)式為

        (1)

        ReLU激活函數(shù)與Sigmoid和Tanh激活函數(shù)相比,由于對其局部定義域x≤0的取值限制,使之不易落入梯度死區(qū),而擴展了活化范圍。在每個激活層前設(shè)置的批歸一化層能夠進(jìn)一步避免梯度消失和梯度爆炸情況的發(fā)生,增強DNN網(wǎng)絡(luò)訓(xùn)練過程的穩(wěn)定性。

        LS-RSIASNN網(wǎng)絡(luò)采用了端到端的模型結(jié)構(gòu)設(shè)計,當(dāng)離線訓(xùn)練過程完成以后,輸入原始的遙感圖像即可生成對應(yīng)大小的分割結(jié)果,因而具備了很高的效率。與此同時,LS-RSIASNN網(wǎng)絡(luò)借鑒了U-Net與FCN網(wǎng)絡(luò)的設(shè)計思路,借助不同深度網(wǎng)絡(luò)特征圖的相互融合,產(chǎn)生性能更優(yōu)的特征表達(dá),進(jìn)而實現(xiàn)高精度的圖像分割,該方法在He[21]、Huang[22]及Su[23]等的工作中也得到了成功的應(yīng)用。與U-Net不同的是,一方面LS-RSIASNN網(wǎng)絡(luò)具有更深的網(wǎng)絡(luò)結(jié)構(gòu),以產(chǎn)生更加抽象的目標(biāo)特征;另一方面除了跨層的目標(biāo)特征融合,LS-RSIASNN網(wǎng)絡(luò)對相鄰ConvNet輸出的目標(biāo)特征也進(jìn)行了融合,以獲取更加精確的目標(biāo)分割結(jié)果。

        3.2 樣本數(shù)據(jù)標(biāo)注和DNN模型的離線監(jiān)督訓(xùn)練

        在LS-RSIASNN網(wǎng)絡(luò)的離線監(jiān)督訓(xùn)練中,借助開源工具LabelMe對200幅遙感圖像中的停機坪與跑道區(qū)域進(jìn)行人工標(biāo)注。圖5展示了停機坪與跑道區(qū)域的人工標(biāo)注過程及生成的停機坪與跑道區(qū)域正樣本。其中,圖5(a)展示了3個不同機場拍攝的原始遙感圖像;圖5(b)顯示的是利用LabelMe對停機坪與跑道區(qū)域進(jìn)行人工標(biāo)注;圖5(c)為人工標(biāo)注后對應(yīng)生成的停機坪與跑道區(qū)域正樣本,淺色部分代表停機坪與跑道正樣本區(qū)域,黑色部分代表背景區(qū)域。

        圖5 停機坪與跑道區(qū)域人工標(biāo)注及樣本Fig.5 Manual labelling samples of apron and runway areas

        由于手工樣本集數(shù)據(jù)量較為有限,將160幅圖像劃分為訓(xùn)練集對DNN網(wǎng)絡(luò)實施離線監(jiān)督訓(xùn)練,而其余40幅圖像則作為測試集對訓(xùn)練完成后的DNN網(wǎng)絡(luò)進(jìn)行測試與評估。在離線監(jiān)督訓(xùn)練過程中,借助交叉熵作為損失函數(shù),利用自適應(yīng)矩估計(Adaptive moment estimation, Adam)算法[24]對網(wǎng)絡(luò)模型進(jìn)行參數(shù)更新,交叉熵的解析表達(dá)式為

        (1-y(i))lb(1-h(x(i)))]

        (2)

        式中:m為像素點的個數(shù);y(i)為第i個像素的類別標(biāo)簽;h(·)為Sigmoid函數(shù)。

        經(jīng)過500輪迭代訓(xùn)練后DNN網(wǎng)絡(luò)趨于收斂,其離線監(jiān)督訓(xùn)練過程的性能進(jìn)化曲線如圖6所示。可以看出,在離線監(jiān)督訓(xùn)練過程中,LS-RSIASNN網(wǎng)絡(luò)的交叉熵?fù)p失低于對比的其他DNN網(wǎng)絡(luò)。進(jìn)一步,借助測試集中的遙感圖像對離線監(jiān)督訓(xùn)練后的DNN網(wǎng)絡(luò)進(jìn)行停機坪與跑道區(qū)域分割實驗,以對各種DNN網(wǎng)絡(luò)的圖像分割性能進(jìn)行評估。

        3.3 DNN網(wǎng)絡(luò)學(xué)習(xí)進(jìn)化的停機坪與跑道區(qū)域分割和提取

        為了對DNN網(wǎng)絡(luò)的圖像分割性能進(jìn)行評估,將測試集遙感圖像送入網(wǎng)絡(luò)中,獲得停機坪與跑道區(qū)域的分割結(jié)果如圖7所示。圖7(a)的4幅原始遙感圖像拍攝于4個不同的機場,圖7(b)淺色部分為人工標(biāo)注的停機坪與跑道正樣本,圖7(c)~(g)為不同DNN網(wǎng)絡(luò)生成的停機坪與跑道區(qū)域分割結(jié)果。

        從圖7可以看到,本文提出的LS-RSIASNN網(wǎng)絡(luò)在分割精度上明顯優(yōu)于對比的其他DNN網(wǎng)絡(luò)模型。借助式(3),對分割結(jié)果的交并比(Intersection-over-Union, IoU)進(jìn)行計算。

        圖6 停機坪與跑道區(qū)域分割DNN網(wǎng)絡(luò)模型性能進(jìn)化曲線Fig.6 Performance evolution curves of DNN models for apron and runway area segmentation

        圖7 不同DNN網(wǎng)絡(luò)模型停機坪與跑道區(qū)域分割結(jié)果對比Fig.7 Comparison of apron and runway area segmentation results among various DNN models

        (3)

        式中:area(·)為面積大??;RoIT為不同DNN網(wǎng)絡(luò)生成的停機坪與跑道區(qū)域分割結(jié)果;RoIG為手工標(biāo)注的正樣本區(qū)域。IoU得分的分布區(qū)間為[0,1],越接近1說明分割結(jié)果越好。

        不同DNN網(wǎng)絡(luò)停機坪與跑道區(qū)域分割I(lǐng)oU得分對比如表2所示。表2的結(jié)果在圖8中進(jìn)行了更為直觀的展示。

        FCN-8、FCN-16網(wǎng)絡(luò)借助上采樣操作進(jìn)行圖像恢復(fù),破壞了像素點之間的空間位置關(guān)系,導(dǎo)致分割結(jié)果欠佳。而LS-RSIASNN網(wǎng)絡(luò)則采用了更加精確的多層反卷積操作進(jìn)行圖像細(xì)節(jié)恢復(fù),借助不同深度圖像特征的相互融合,獲得了更為精確的分割結(jié)果。此外,還對LS-RSIASNN網(wǎng)絡(luò)的分割效率進(jìn)行了評估。在實驗中,將4 480像素×4 480像素大小的遙感圖像輸入到不同的DNN網(wǎng)絡(luò)中,統(tǒng)計從原始遙感圖像輸入到分割結(jié)果輸出之間的時間開銷,實驗結(jié)果如圖9所示。實驗中,借助一顆Nvidia Tesla M60 GPU進(jìn)行運算加速,從實驗結(jié)果中可以看到,單幀圖像分割的時間開銷具有一定的波動性,這與圖像場景的復(fù)雜程度有關(guān)。而從平均時間開銷來看,由于LS-RSIASNN網(wǎng)絡(luò)具有更加復(fù)雜的結(jié)構(gòu),因此相比結(jié)構(gòu)較為簡單的DNN網(wǎng)絡(luò)需要消耗更長的計算時間,但不同DNN網(wǎng)絡(luò)的時間開銷總體維持在較低水平,平均時間開銷不超過1 s。

        表2 不同DNN網(wǎng)絡(luò)模型停機坪與跑道區(qū)域分割I(lǐng)oU得分Table 2 IoU for apron and runway area segmentation with various DNN models

        圖8 不同DNN網(wǎng)絡(luò)模型停機坪與跑道區(qū)域分割I(lǐng)oU對比Fig.8 Comparison of IoU for apron and runway area segmentation with various DNN models

        圖9 停機坪與跑道區(qū)域分割時間開銷對比Fig.9 Comparison of time cost for apron and runway segmentation

        4 基于YOLO網(wǎng)絡(luò)的飛機目標(biāo)快速檢測

        借助高性能的DNN網(wǎng)絡(luò)模型,對飛機目標(biāo)可能出現(xiàn)的停機坪與跑道區(qū)域?qū)嵤┝司珳?zhǔn)的分割和提取,大幅縮小了目標(biāo)搜索的區(qū)域范圍。為了進(jìn)一步對停機坪與跑道區(qū)域內(nèi)的飛機目標(biāo)進(jìn)行高效檢測,本節(jié)借助YOLO網(wǎng)絡(luò)模型的遷移式強化訓(xùn)練,設(shè)計了飛機目標(biāo)的高效檢測算法。在分割的停機坪與跑道區(qū)域內(nèi),通過與R-CNN及Faster R-CNN算法的飛機目標(biāo)檢測結(jié)果進(jìn)行對比分析,驗證了本文算法的有效性。

        4.1 YOLO網(wǎng)絡(luò)原理及優(yōu)勢分析

        YOLO網(wǎng)絡(luò)將目標(biāo)檢測中的邊界定位與類型判別轉(zhuǎn)化為回歸問題進(jìn)行求解,在檢測速度與召回率上優(yōu)于經(jīng)典的目標(biāo)檢測算法。同時作為一種端到端的DNN網(wǎng)絡(luò),YOLO網(wǎng)絡(luò)不僅易于訓(xùn)練,也能大幅節(jié)省特征存儲、調(diào)用等中間環(huán)節(jié)帶來的計算資源消耗,有利于實現(xiàn)目標(biāo)的實時檢測。

        4.1.1 YOLO網(wǎng)絡(luò)檢測算法的原理

        YOLO網(wǎng)絡(luò)由24個卷積層、4個最大整合層及2個全連接層組合而成,網(wǎng)絡(luò)結(jié)構(gòu)模型如圖10所示。

        圖10 YOLO網(wǎng)絡(luò)模型及參數(shù)設(shè)置Fig.10 YOLO network model and parameter setting

        (4)

        對7×7×2=98個預(yù)報邊界框得分S進(jìn)行計算并排序,設(shè)置閾值排除得分較低的邊界框,進(jìn)而借助非極大值抑制(Non-Maximum Suppression, NMS)去除重合的預(yù)報邊界框從而獲得最終的目標(biāo)檢測結(jié)果。

        4.1.2 YOLO網(wǎng)絡(luò)實時檢測的性能優(yōu)勢

        YOLO算法將目標(biāo)檢測作為回歸問題進(jìn)行求解,與R-CNN、Fast R-CNN及Faster R-CNN相比在計算效率上具有明顯優(yōu)勢。R-CNN算法采用選擇性搜索獲得目標(biāo)線索區(qū)域,進(jìn)而借助DNN網(wǎng)絡(luò)提取目標(biāo)線索區(qū)域特征,利用SVM對特征進(jìn)行分類從而完成目標(biāo)檢測任務(wù)。DNN網(wǎng)絡(luò)及特征分類器的訓(xùn)練需要在多個模塊中分別進(jìn)行,因此檢測效率較低。而Faster R-CNN算法利用RPN網(wǎng)絡(luò)替代選擇性搜索算法,借助RPN與Fast R-CNN的集成實現(xiàn)高效的目標(biāo)檢測。盡管RPN與Fast R-CNN共享了部分卷積層權(quán)重參數(shù),但2個網(wǎng)絡(luò)需要分別進(jìn)行訓(xùn)練。Faster R-CNN算法雖然能夠保持較高的檢測精度,但在檢測速度上依然不能滿足實時性的需要。借助YOLO網(wǎng)絡(luò),原始圖像通過端到端的DNN網(wǎng)絡(luò)結(jié)構(gòu),便能直接輸出目標(biāo)的位置、類別及相應(yīng)的置信概率,顯著簡化了檢測流程,在檢測效率上實現(xiàn)了大幅提升。

        4.2 YOLO網(wǎng)絡(luò)的訓(xùn)練策略與實施方案

        YOLO網(wǎng)絡(luò)受到Ren等[3]工作的啟發(fā),將網(wǎng)絡(luò)分為特征提取器與目標(biāo)分類器2個部分分別進(jìn)行訓(xùn)練。在特征提取器訓(xùn)練階段,借助Image-Net2012數(shù)據(jù)集,對YOLO網(wǎng)絡(luò)中的前20個卷積層進(jìn)行預(yù)訓(xùn)練。YOLO網(wǎng)絡(luò)中的前20個卷積層主要用于圖像特征的提取,而ImageNet2012包含的1 000類目標(biāo)共126萬張圖片,可以為特征提取器提供豐富的訓(xùn)練數(shù)據(jù)。YOLO網(wǎng)絡(luò)中的后4個卷積層及2個全連接層組成的卷積特征圖網(wǎng)絡(luò)(Network on Convolution feature map, NoC)主要用于特征整合與特征分類。相比簡單的Softmax分類器,NoC網(wǎng)絡(luò)可以對高維的目標(biāo)特征進(jìn)行更好的區(qū)分,從而進(jìn)一步提高目標(biāo)檢測的精度。在ImageNet2012預(yù)訓(xùn)練的基礎(chǔ)上,在較小的樣本集Pascal VOC 2007(20類9 963張圖片)上進(jìn)行再次訓(xùn)練。最終YOLO網(wǎng)絡(luò)在Pascal VOC 2007數(shù)據(jù)集上目標(biāo)檢測的平均精度均值MAP達(dá)到65.5%,弱于Faster R-CNN的71.6%,在檢測速度上達(dá)到45幀/s,明顯快于Faster R-CNN的0.5幀/s,在實時檢測中表現(xiàn)出較強優(yōu)勢。

        4.3 面向高效檢測的遷移式擴充樣本強化訓(xùn)練

        借助新穎的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計及大規(guī)模數(shù)據(jù)集的離線監(jiān)督訓(xùn)練,YOLO網(wǎng)絡(luò)在目標(biāo)檢測的精度和時效性方面都達(dá)到了較高水平。為了充分利用YOLO網(wǎng)絡(luò)的性能優(yōu)勢,在有限的計算資源和數(shù)據(jù)集的條件下,利用自行采集的手工訓(xùn)練樣本集,對YOLO網(wǎng)絡(luò)進(jìn)行遷移式強化訓(xùn)練,從而實現(xiàn)飛機目標(biāo)實時檢測的任務(wù)需求。

        4.3.1 擴充樣本的采集與標(biāo)注

        借助開源標(biāo)注工具LabelImg,對遙感圖像數(shù)據(jù)集中的飛機目標(biāo)位置進(jìn)行人工標(biāo)注。與預(yù)訓(xùn)練的YOLO網(wǎng)絡(luò)模型保持一致,訓(xùn)練樣本集中的遙感圖像大小均設(shè)置為448像素×448像素。同時采用了數(shù)據(jù)增廣方法對有限的手工樣本集進(jìn)行擴充,如圖11所示。圖11每行4幅遙感圖像拍攝于4個不同機場,圖11(b)顯示的是利用LabelImg對飛機目標(biāo)位置進(jìn)行手工標(biāo)注的過程。在手工標(biāo)注過程中,LabelImg會記錄下標(biāo)注區(qū)域的坐標(biāo)及目標(biāo)的類別信息,并與Pascal VOC 2007的數(shù)據(jù)格式保持一致。

        進(jìn)一步,為了彌補手工樣本集數(shù)量規(guī)模的不足,對有限的樣本集進(jìn)行水平和垂直翻轉(zhuǎn),使樣本數(shù)量擴充至原來的3倍。通過對100幅遙感圖像中的353架飛機目標(biāo)進(jìn)行手工標(biāo)注,最終獲取了1 059個擴充樣本及其對應(yīng)的飛機目標(biāo)位置信息,用于對預(yù)訓(xùn)練的YOLO網(wǎng)絡(luò)進(jìn)行遷移式強化訓(xùn)練。

        4.3.2 性能遷移的合理性分析

        手工采集的數(shù)據(jù)集不論在數(shù)據(jù)規(guī)模還是目標(biāo)種類的多樣性上都無法與ImageNet2012及Pascal VOC 2007相比。然而,大規(guī)模數(shù)據(jù)集的離線監(jiān)督訓(xùn)練對于DNN網(wǎng)絡(luò)模型的性能提升至關(guān)重要。在深度學(xué)習(xí)中,如果預(yù)訓(xùn)練模型的數(shù)據(jù)集與任務(wù)數(shù)據(jù)集在樣本類型及目標(biāo)特征上具有較強的相關(guān)性,則可借助遷移學(xué)習(xí)方法將預(yù)訓(xùn)練好的模型應(yīng)用在新任務(wù)中,從而克服訓(xùn)練樣本不足的缺點。在Pascal VOC 2007數(shù)據(jù)集中共包含9 963幅20類共24 640個目標(biāo)的類型及位置信息,其中包括477幅共625個飛機目標(biāo)樣本。一方面,Pascal VOC 2007數(shù)據(jù)集中的飛機目標(biāo)特征與手工建立的數(shù)據(jù)集中的飛機目標(biāo)特征具有較強的相關(guān)性;另一方面,大規(guī)模數(shù)據(jù)集中不同類型目標(biāo)的淺層特征,如邊緣、紋理與手工數(shù)據(jù)集之間具有互通性。因此,本文中沒有從頭訓(xùn)練YOLO網(wǎng)絡(luò),而是在ImageNet2012及Pascal VOC 2007數(shù)據(jù)集預(yù)訓(xùn)練的YOLO網(wǎng)絡(luò)模型的基礎(chǔ)上,利用手工標(biāo)注的數(shù)據(jù)集進(jìn)行遷移式強化訓(xùn)練,從而充分利用大規(guī)模數(shù)據(jù)集的優(yōu)勢,實現(xiàn)飛機目標(biāo)的高效檢測。

        4.3.3 擴充樣本監(jiān)督下的強化訓(xùn)練

        為了對預(yù)訓(xùn)練的YOLO網(wǎng)絡(luò)進(jìn)行遷移訓(xùn)練,將手工標(biāo)注的飛機目標(biāo)樣本與Pascal VOC 2007原有的飛機目標(biāo)樣本的類別屬性設(shè)置為一致,將預(yù)訓(xùn)練的模型權(quán)重參數(shù)載入到圖10所示的YOLO網(wǎng)絡(luò)模型中,進(jìn)而借助手工標(biāo)注的飛機目標(biāo)樣本集對預(yù)訓(xùn)練的網(wǎng)絡(luò)模型進(jìn)行遷移訓(xùn)練與權(quán)重微調(diào),其離線監(jiān)督遷移強化訓(xùn)練過程的性能進(jìn)化曲線如圖12所示。

        圖12(a)中曲線代表預(yù)報邊界框的置信度誤差Econf,用于衡量預(yù)報邊界框內(nèi)是否存在目標(biāo)及預(yù)報邊界框與真實邊界框之間的重合度,其測算表達(dá)式為

        (5)

        圖12(b)中曲線代表識別誤差Eclass,用于衡量中心落在第i個單元格內(nèi)的目標(biāo)是否屬于正確的類別,識別誤差表達(dá)式為

        (6)

        圖12 YOLO網(wǎng)絡(luò)性能進(jìn)化曲線Fig.12 Performance evolution curves of YOLO networks

        圖12(c)中曲線代表定位誤差Ecoord,用于衡量預(yù)報邊界框的定位精度,定位誤差的測算表達(dá)式為

        (7)

        圖12(d)中的總體誤差為以上3類誤差的總和,表達(dá)式為

        Etotal=Econf+Eclass+Ecoord

        (8)

        在遷移式強化訓(xùn)練過程中利用Adam算法對網(wǎng)絡(luò)模型參數(shù)進(jìn)行更新。經(jīng)過10萬次訓(xùn)練,基于擴充樣本遷移式強化訓(xùn)練的YOLO網(wǎng)絡(luò)模型趨于收斂。

        4.4 YOLO網(wǎng)絡(luò)飛機目標(biāo)檢測時效性能評估

        在大幅面遙感圖像停機坪與跑道其余分割的基礎(chǔ)上,對候選檢測區(qū)域圖像進(jìn)行強化處理,只保留停機坪與跑道區(qū)域的像素值,而將背景區(qū)域的像素值置0。根據(jù)式(9)對強化圖像進(jìn)行尺度取整歸一化處理,并利用三線性插值對圖像進(jìn)行分辨率提升。

        (9)

        式中:符號「·?代表向上取整;wori、hori與wnew、hnew分別為遙感圖像原始及調(diào)整后的寬度與高度。

        整幅遙感圖像被切分為448像素×448像素的標(biāo)準(zhǔn)塊子區(qū)域,進(jìn)而借助遷移式強化訓(xùn)練YOLO網(wǎng)絡(luò)模型對每一個標(biāo)準(zhǔn)塊子區(qū)域進(jìn)行飛機目標(biāo)檢測。將包含飛機目標(biāo)檢測結(jié)果的標(biāo)準(zhǔn)塊圖像進(jìn)行重新拼合,最終得到遙感圖像飛機目標(biāo)的檢測與定位結(jié)果。

        通過與R-CNN、Faster R-CNN算法進(jìn)行檢測時間開銷對比,驗證遷移式強化訓(xùn)練YOLO網(wǎng)絡(luò)的時效性,實驗結(jié)果如圖13所示。對實驗結(jié)果進(jìn)行統(tǒng)計,得到3種對比算法的平均檢測時間開銷如表3所示。

        圖13 飛機目標(biāo)檢測的時間開銷對比Fig.13 Comparison of time cost for aircraft target detection

        從表3中可以看出,相比R-CNN以及FasterR-CNN算法,YOLO網(wǎng)絡(luò)在檢測速度上具有明顯優(yōu)勢,能夠為大幅面遙感圖像飛機目標(biāo)的實時檢測提供有力支持。圖14展示了基于不同算法的飛機目標(biāo)檢測結(jié)果,其中每行的4幅圖像均拍攝于4個不同的機場。

        表3 飛機目標(biāo)平均檢測時間開銷對比Table 3 Comparison of average time cost for aircraft target detection s

        圖14 飛機目標(biāo)檢測結(jié)果對比Fig.14 Comparison of aircraft target detection results

        5 基于搜檢級聯(lián)的飛機目標(biāo)高效檢測

        候選檢測區(qū)域的高效分割及目標(biāo)的快速定位是大幅面遙感圖像飛機目標(biāo)實時檢測的2個必要環(huán)節(jié)。本節(jié)對搜索與檢測的級聯(lián)組合式檢測方案的必要性與可行性進(jìn)行了分析,借助DNN網(wǎng)絡(luò)性能優(yōu)勢的互補與強化,最終形成級聯(lián)組合式飛機目標(biāo)高效檢測算法。

        5.1 搜索與檢測的綜合集成

        在大幅面遙感圖像中,飛機目標(biāo)所占像素比例小,信噪比低,為了實現(xiàn)飛機目標(biāo)的高效檢測,必須對停機坪與跑道等候選檢測區(qū)域進(jìn)行分割和提取,縮小飛機目標(biāo)的搜索范圍,從而提高檢測效率。同時,候選檢測區(qū)域的分割和提取也能夠避免背景目標(biāo)引發(fā)的虛警,提高飛機目標(biāo)檢測精度。因此,搜尋與檢測的級聯(lián)組合對于大幅面遙感圖像飛機目標(biāo)的實時檢測是必要的。

        借助深度學(xué)習(xí)及高性能的端到端DNN網(wǎng)絡(luò)模型,可以實現(xiàn)停機坪與跑道區(qū)域的精準(zhǔn)分割,相比經(jīng)典的圖像分割算法,DNN網(wǎng)絡(luò)在分割精度與速度上具有顯著優(yōu)勢。進(jìn)而,對停機坪和跑道區(qū)域分割圖像進(jìn)行取整歸一化處理與標(biāo)準(zhǔn)塊切分,借助遷移式強化訓(xùn)練YOLO網(wǎng)絡(luò)模型對每一個標(biāo)準(zhǔn)塊圖像進(jìn)行飛機目標(biāo)檢測,再將包含飛機目標(biāo)檢測結(jié)果的標(biāo)準(zhǔn)塊圖像按照原先的空間順序進(jìn)行拼合,最終得到遙感圖像飛機目標(biāo)的檢測結(jié)果。搜尋與檢測的級聯(lián)組合能夠滿足大幅面遙感圖像飛機目標(biāo)檢測實時性與精確性的應(yīng)用需求,因此該方案是可行的。

        5.2 級聯(lián)組合式飛機目標(biāo)高效檢測算法

        根據(jù)第3、4節(jié)所述內(nèi)容,給出級聯(lián)式飛機目標(biāo)高效檢測算法。

        輸入:原始遙感圖像Iori。

        輸出:飛機目標(biāo)檢測結(jié)果Iresult。

        初始化:原始遙感圖像的長寬w,h。

        步驟3將原始遙感圖像Iori輸入到Model1中得到機場分割圖像Iairport。

        在級聯(lián)式飛機目標(biāo)高效檢測算法中,候選檢測區(qū)域的高效搜尋與飛機目標(biāo)的精準(zhǔn)定位分別采用了不同的DNN網(wǎng)絡(luò)予以實現(xiàn)。在網(wǎng)絡(luò)模型的離線監(jiān)督訓(xùn)練上,停機坪與跑道區(qū)域分割DNN網(wǎng)絡(luò)選擇了完整訓(xùn)練的方式,而在飛機目標(biāo)檢測中,則借助YOLO網(wǎng)絡(luò)的遷移式強化訓(xùn)練彌補了手工數(shù)據(jù)集數(shù)據(jù)規(guī)模上的不足。由于YOLO網(wǎng)絡(luò)模型圖像處理尺寸的限制,在算法中采用了先切分再拼合的檢測策略,而小范圍的圖像調(diào)整對于大幅面遙感圖像中目標(biāo)的形變影響較為微弱,同時也可以借助大數(shù)據(jù)集數(shù)據(jù)規(guī)模與樣本類型多樣性的優(yōu)勢進(jìn)一步提高飛機目標(biāo)檢測的結(jié)果。

        6 綜合實驗與性能分析

        本節(jié)利用實際的大幅面遙感圖像對級聯(lián)式飛機目標(biāo)高效檢測算法進(jìn)行綜合實驗驗證。在實驗中,借助精確率、漏檢率及時效性,與R-CNN、Faster R-CNN的目標(biāo)檢測算法進(jìn)行對比分析,驗證本文算法的有效性。

        6.1 數(shù)據(jù)庫與實驗平臺

        實驗采集了40幅可見光遙感圖像作為測試集,圖像大小均為4 480像素×4 480像素。數(shù)據(jù)集涵蓋了轟炸機、預(yù)警機、運輸機、戰(zhàn)斗機等多種機型、多種尺寸大小的飛機目標(biāo)。實驗硬件平臺由一顆Nvidia Tesla M60 GPU提供運算加速。實驗軟件平臺為Python 2.7.13,深度學(xué)習(xí)框架為基于TensorFlow 1.02的Keras 2.0.9。

        6.2 實驗框架設(shè)計與參數(shù)設(shè)置

        為了對本文算法的精度和效率進(jìn)行綜合分析與性能評估,設(shè)計綜合實驗框架如下:首先,利用R-CNN、Faster R-CNN及YOLO算法在原始遙感圖像及停機坪與跑道區(qū)域分割圖像中分別進(jìn)行飛機目標(biāo)檢測實驗,對比相同算法在停機坪與跑道區(qū)域分割前、后飛機目標(biāo)檢測的精確率、漏檢率及時間開銷3個性能指標(biāo)的差異,驗證基于DNN網(wǎng)絡(luò)的停機坪和跑道飛機目標(biāo)候選檢測區(qū)域分割對于檢測性能提升的有效性。然后,對R-CNN、Faster R-CNN及YOLO算法的檢測結(jié)果進(jìn)行橫向?qū)Ρ?,驗證YOLO算法在檢測時效性方面的優(yōu)勢。在所有實驗中,輸入的原始遙感圖像大小為4 480像素×4 480像素。整幅圖像被切分為100個標(biāo)準(zhǔn)塊子區(qū)域分別進(jìn)行檢測,然后按照原先的順序進(jìn)行拼合,最終給出飛機目標(biāo)檢測的最終結(jié)果。

        6.3 實驗結(jié)果與性能評估

        在綜合實驗中,借助LS-RSIASNN網(wǎng)絡(luò)對停機坪和跑道區(qū)域進(jìn)行分割提取,不同算法進(jìn)行飛機目標(biāo)檢測的實驗結(jié)果如圖15所示。從飛機目標(biāo)檢測結(jié)果的對比中可以得知,停機坪與跑道區(qū)域的精確分割可以大幅減少背景區(qū)域帶來的虛警干擾。從圖15(c)、(e)、(g)三幅圖像可知,R-CNN、Faster R-CNN及YOLO算法在停機坪與跑道區(qū)域之外都檢測到了大量的虛警目標(biāo)。與之相比,圖15 (d)、(f)、(h)三幅圖像只對停機坪與跑道區(qū)域內(nèi)的飛機目標(biāo)進(jìn)行檢測,因而大幅減低了虛警發(fā)生的概率。

        為了對檢測結(jié)果進(jìn)行定量分析,對R-CNN、FasterR-CNN及YOLO算法的精確率、漏檢率及時間開銷進(jìn)行了對比,其中精確率P、漏檢率M表達(dá)式為

        (10)

        (11)

        式中:Nreal為預(yù)測正確的飛機目標(biāo)數(shù)量;Nfalse為虛警目標(biāo)數(shù)量;Nmiss為未檢測到的飛機目標(biāo)數(shù)量;Ntotal為飛機目標(biāo)的總數(shù)。精確率P反映了所有檢測目標(biāo)中真實飛機目標(biāo)正確檢測數(shù)所占的比例,而漏檢率M反映了真實飛機目標(biāo)的漏檢數(shù)量占真實飛機目標(biāo)總數(shù)的比例,實驗結(jié)果如表4所示。

        從表4中可以看到,停機坪和跑道區(qū)域的精確提取減少了無關(guān)區(qū)域虛警目標(biāo)的干擾,3種飛機目標(biāo)檢測算法的精確率均得到了明顯提升。在漏檢率上,F(xiàn)aster R-CNN相比YOLO和R-CNN算法具有一定優(yōu)勢,其主要原因在于:Faster R-CNN算法中,在特征圖的每個像素點上會生成9種不同大小和寬高比的預(yù)測框?qū)赡艹霈F(xiàn)的飛機目標(biāo)線索區(qū)域進(jìn)行判定。與之相比,YOLO算法在每個單元格區(qū)域內(nèi)只生成2個候選的預(yù)測框,而R-CNN算法利用選擇性搜索判斷目標(biāo)可能出現(xiàn)的潛在區(qū)域,因此Faster R-CNN算法的RPN網(wǎng)絡(luò)在飛機目標(biāo)線索的數(shù)量上具有一定優(yōu)勢,可以減少飛機目標(biāo)漏檢情況的發(fā)生。然而,過多的目標(biāo)線索也會增加檢測時間的開銷。通過3種算法的對比可以看到,YOLO算法的檢測效率相比Faster R-CNN及R-CNN算法有明顯優(yōu)勢,同時在精確率和漏檢率上也能保持在滿意的水平。搜尋與檢測相集成的級聯(lián)組合式飛機目標(biāo)檢測方案的有效性得到了充分驗證。

        為了增強YOLO算法在漏檢率上的性能表現(xiàn),一方面可以縮小單元格區(qū)域的面積,提高算法對小尺度飛機目標(biāo)的檢測效果,另一方面也可以增加每個單元格區(qū)域候選預(yù)測框的數(shù)量,從而減少飛機目標(biāo)漏檢情況的發(fā)生。

        6.4 述評與注解

        候選檢測區(qū)域的精準(zhǔn)分割及高效的目標(biāo)檢測算法是實現(xiàn)大幅面遙感圖像飛機目標(biāo)實時檢測的必要環(huán)節(jié)。借助DNN網(wǎng)絡(luò)對復(fù)雜外型的停機坪和跑道區(qū)域?qū)嵤┚珳?zhǔn)分割,GPU單元提供的運算加速,使得DNN網(wǎng)絡(luò)在分割速度上能夠保持明顯優(yōu)勢。YOLO算法將目標(biāo)定位和目標(biāo)類型判別合并為一個回歸問題進(jìn)行求解,相比R-CNN及Faster R-CNN算法具有更強的時效性,同時在檢測精度上也能保持在滿意的水平。因此,本文提出的搜尋與檢測相集成的級聯(lián)式飛機目標(biāo)高效檢測算法在大幅面遙感圖像的飛機目標(biāo)檢測中具有較強的綜合優(yōu)勢。

        7 結(jié) 論

        本文提出了一種新穎的搜尋與檢測相集成的級聯(lián)式飛機目標(biāo)高效檢測算法,以實現(xiàn)大幅面遙感圖像中飛機目標(biāo)的高效精準(zhǔn)檢測與定位。算法將候選檢測區(qū)域的高精度分割及面向候選區(qū)域的目標(biāo)高效檢測級聯(lián)為統(tǒng)一的整體,通過高性能的DNN網(wǎng)絡(luò)的相互協(xié)作,實現(xiàn)優(yōu)勢互補與增強。級聯(lián)組合式目標(biāo)檢測算法在檢測的時效性上具有較為明顯的優(yōu)勢,同時在檢測精度上也能達(dá)到較高水平,能夠為大幅面遙感圖像飛機目標(biāo)的高效檢測與定位提供有效幫助。在后續(xù)的工作中,計劃將基于深度學(xué)習(xí)的視覺注意力機制引入到算法中,從而實現(xiàn)更大幅面遙感圖像停機坪與跑道區(qū)域的快速定位與分割,使算法的實用性得到進(jìn)一步的提高。

        猜你喜歡
        停機坪飛機區(qū)域
        高高樓頂
        街心花園的雕像
        揚子江(2022年6期)2022-11-17 11:32:11
        街心花園的雕像
        揚子江詩刊(2022年6期)2022-11-09 14:07:33
        飛機失蹤
        “拼座飛機”迎風(fēng)飛揚
        夜色中的停機坪
        團結(jié)(2017年2期)2017-11-25 05:43:55
        乘坐飛機
        神奇飛機變變變
        關(guān)于四色猜想
        分區(qū)域
        91精品福利一区二区| 国产精品亚洲专区无码不卡| 日本熟妇色xxxxx日本妇| 亚洲永久无码7777kkk| 麻豆国产乱人伦精品一区二区| 日韩十八禁在线观看视频| 蜜桃视频网站在线观看一区| 国产成人久久精品一区二区三区 | 欧美日韩在线观看免费| av黄片免费在线观看| 国产成人自拍视频播放| 成在线人免费视频| 免费一级特黄欧美大片久久网| 蜜桃视频中文在线观看| 国产av一卡二卡日韩av| 蜜桃一区二区三区| 久久久国产精品ⅤA麻豆| 亚洲女同一区二区久久| 日本熟女精品一区二区三区| 久久精品无码一区二区三区免费| 国产精品刺激好大好爽视频| 播放灌醉水嫩大学生国内精品| 亚洲精品国产老熟女久久| 成人av一区二区亚洲精| 2018天天躁夜夜躁狠狠躁| 久久久久亚洲av无码专区体验| 精品的一区二区三区| 亚洲福利二区三区四区| 久久久久国产综合av天堂| 在线免费毛片| av男人的天堂手机免费网站| 中文字幕一区二区三区四区五区 | 国产91精品成人不卡在线观看| 精品国产麻豆一区二区三区| 性人久久久久| 精品无码人妻一区二区三区| 无码8090精品久久一区| 成人免费av色资源日日| 免费少妇a级毛片人成网| 国产免费久久精品99re丫y| 五月婷婷丁香视频在线观看|