亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度卷積神經(jīng)網(wǎng)絡(luò)支持下的遙感影像飛機(jī)檢測(cè)

        2019-07-05 06:27:40楊夢(mèng)圓
        測(cè)繪通報(bào) 2019年6期
        關(guān)鍵詞:卷積飛機(jī)深度

        謝 夢(mèng),劉 偉,2,楊夢(mèng)圓,柴 琪,吉 莉

        (1. 江蘇師范大學(xué)地理測(cè)繪與城鄉(xiāng)規(guī)劃院,江蘇 徐州 221116; 2. 資源與環(huán)境信息系統(tǒng)國(guó)家重點(diǎn)實(shí)驗(yàn)室,北京 100101)

        隨著遙感影像空間分辨率的提高,對(duì)高分遙感影像的處理和應(yīng)用正變得日益緊迫。飛機(jī)檢測(cè)在軍用和民用領(lǐng)域均具有相當(dāng)廣泛的應(yīng)用,近年來(lái)已經(jīng)成為高分遙感影像目標(biāo)檢測(cè)中一個(gè)極其重要的研究方向[1]。關(guān)于飛機(jī)檢測(cè)的研究方法,多數(shù)是利用飛機(jī)的基本特征來(lái)識(shí)別目標(biāo),通過(guò)獲取飛機(jī)的基本特征后送入分類(lèi)器分類(lèi)[2-4],這些方法對(duì)人工選擇目標(biāo)特征具有很強(qiáng)的依賴(lài)性。

        深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域一個(gè)新的研究方向,其目的在于建立模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),模仿人腦的神經(jīng)機(jī)制來(lái)解釋數(shù)據(jù),如圖像、聲音和文本。近年來(lái),深度學(xué)習(xí)算法在圖像分類(lèi)[5]、自然語(yǔ)言處理[6]、人工智能[7-8]等領(lǐng)域取得前所未有的成果。通過(guò)低層濾波器來(lái)獲取圖像局部特征,利用高層濾波器將這些局部特征組合成全局特征。整個(gè)過(guò)程都是通過(guò)網(wǎng)絡(luò)訓(xùn)練大量樣本來(lái)自動(dòng)提取影像特征,有效地提高了執(zhí)行效率和檢測(cè)精度。因此,深度學(xué)習(xí)在遙感應(yīng)用中引起了廣泛關(guān)注,并在場(chǎng)景分類(lèi)[9]、高光譜圖像分類(lèi)[10-11]、目標(biāo)檢測(cè)[12-13]等方面取得了顯著成效。

        基于深度學(xué)習(xí)的飛機(jī)檢測(cè)克服了傳統(tǒng)檢測(cè)方法中目標(biāo)特征難以選取、泛化能力差等問(wèn)題,但也面臨巨大挑戰(zhàn),主要為訓(xùn)練樣本不足、網(wǎng)絡(luò)難以訓(xùn)練[14]。同時(shí),為了得到較高的識(shí)別率,網(wǎng)絡(luò)設(shè)計(jì)越來(lái)越復(fù)雜,網(wǎng)絡(luò)參數(shù)增大,飛機(jī)所處的遙感影像背景復(fù)雜且飛機(jī)形態(tài)存在差異[13],因此準(zhǔn)確而快速地檢測(cè)出遙感影像中飛機(jī)仍然十分困難[1]。

        深度學(xué)習(xí)在目標(biāo)檢測(cè)方面主要分為兩類(lèi):一類(lèi)是基于候選區(qū)域的分步式目標(biāo)檢測(cè)方法,代表性的有R-CNN[15]、SPP[16]、Fast R-CNN[17]、Faster R-CNN[18];另一類(lèi)是基于回歸思想的直接目標(biāo)檢測(cè)方法,代表性的有YOLO[19]、SSD[20]。前者定位精度高,但檢測(cè)時(shí)間長(zhǎng),后者檢測(cè)速度快、正確率高。很多學(xué)者都青睞YOLO算法,通過(guò)對(duì)其網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn)來(lái)提高網(wǎng)絡(luò)性能。文獻(xiàn)[21]提出一種Dense-YOLO網(wǎng)絡(luò),通過(guò)特征復(fù)用提高對(duì)遙感影像中飛機(jī)的識(shí)別效果,但內(nèi)存占用較大,文獻(xiàn)[22]提出一種SENet結(jié)構(gòu)嵌入YOLOv3網(wǎng)絡(luò)中,融合YOLOv3(you look only once)與SENet的優(yōu)點(diǎn),增強(qiáng)了網(wǎng)絡(luò)感受野,但網(wǎng)絡(luò)訓(xùn)練參數(shù)較多。

        由于YOLOv3算法對(duì)原圖做縮放處理,造成網(wǎng)絡(luò)高層的感受野減小,導(dǎo)致“相對(duì)尺寸小”的目標(biāo)檢測(cè)困難,其中相對(duì)尺寸小的目標(biāo)是相對(duì)原圖的長(zhǎng)寬。本文為擴(kuò)大網(wǎng)絡(luò)高層的感受野,提高特征圖的分辨率,將擴(kuò)張卷積[23-24]引入YOLOv3網(wǎng)絡(luò),為減少需要計(jì)算的可訓(xùn)練權(quán)重參數(shù),實(shí)現(xiàn)通道和區(qū)域的分離,再將深度可分離卷積[25]引入網(wǎng)絡(luò)。試驗(yàn)結(jié)果表明:相比于YOLOv3算法,優(yōu)化的YOLOv3算法能夠降低漏檢率,提高小目標(biāo)的檢測(cè)精度。

        1 YOLOv3算法

        YOLO是一種多目標(biāo)檢測(cè)算法,在訓(xùn)練和預(yù)測(cè)時(shí)將整張圖像輸入網(wǎng)絡(luò)模型,直接回歸出目標(biāo)中心位置、目標(biāo)長(zhǎng)寬和類(lèi)別,以實(shí)現(xiàn)端到端的目標(biāo)檢測(cè)。

        (1)

        (2)

        2 YOLOv3算法的優(yōu)化

        本文首先使用K-means聚類(lèi)算法計(jì)算出適用于數(shù)據(jù)集的錨框,然后用擴(kuò)張率為2的擴(kuò)張卷積取代YOLOv3網(wǎng)絡(luò)第76、78、80層卷積核為3×3的普通卷積,并用深度可分離卷積取代原網(wǎng)絡(luò)殘差模塊中的普通卷積,算法的優(yōu)化主要體現(xiàn)在以下3個(gè)方面。

        2.1 錨框(anchorbox)

        由于YOLOv3算法中的anchorbox是由VOC20和COCO80數(shù)據(jù)集聚類(lèi)得到,而本文數(shù)據(jù)集中的飛機(jī)相對(duì)較小,不適合使用原定義的anchorbox[21],因此需要對(duì)本文數(shù)據(jù)集的目標(biāo)候選框進(jìn)行維度聚類(lèi)分析,使用K-means聚類(lèi)算法獲取適合本文數(shù)據(jù)集的anchorbox。

        2.2 擴(kuò)張卷積(dilated convolutions)

        擴(kuò)張卷積是向卷積層引入一個(gè)稱(chēng)為擴(kuò)張率(dilation rate)的新參數(shù),該參數(shù)定義卷積核處理數(shù)據(jù)時(shí)各值的間距。傳統(tǒng)的骨干網(wǎng)絡(luò)基于大的下采樣因子可以生成更高的感受野,有利于圖像分類(lèi),但犧牲了空間分辨率,從而使網(wǎng)絡(luò)難以準(zhǔn)確地定位大型目標(biāo)和識(shí)別小型目標(biāo)[26]。YOLOv3算法對(duì)原圖做了縮放,造成網(wǎng)絡(luò)高層感受野減小,本文引入擴(kuò)張卷積層增加網(wǎng)絡(luò)高層感受野,以改善小目標(biāo)檢測(cè)效果。擴(kuò)張卷積的原理如圖1所示。

        圖1中灰度點(diǎn)標(biāo)記位置同正常卷積核,其他位置為0,其中圖1(a)為3×3擴(kuò)張率為1的卷積,與普通卷積一樣,感受野為9;圖1(b)為擴(kuò)張率為2的卷積,感受野為49;圖1(c)為擴(kuò)張率為4的卷積,感受野為225,從圖中可以看出卷積核的參數(shù)個(gè)數(shù)保持不變,感受野的大小隨著擴(kuò)張率的增加呈指數(shù)增長(zhǎng)。

        2.3 深度可分離卷積(depthwise separable convolutions)

        深度可分卷積[25]是在輸入的每個(gè)通道獨(dú)立執(zhí)行空間卷積,然后進(jìn)行逐點(diǎn)卷積,即1×1卷積,將深度卷積的通道輸出映射到新的通道空間。深度可分離卷積比普通卷積減少訓(xùn)練參數(shù),而且它先只考慮區(qū)域,然后再考慮通道,以實(shí)現(xiàn)區(qū)域和通道的分離。深度可分離卷積的過(guò)程如圖2所示。

        從圖2可以看出,每一個(gè)通道用一個(gè)卷積核卷積之后得到對(duì)應(yīng)一個(gè)通道的輸出,然后再進(jìn)行信息融合。假設(shè)輸入通道數(shù)為3,輸出通道數(shù)為32,用一個(gè)3×3卷積核進(jìn)行卷積,則普通卷積需要計(jì)算的參數(shù)為3×3×3×32=864,深度可分離卷積要計(jì)算的參數(shù)為: 3×3×3+3×1×1×32=123, 深度可分離卷積明顯降低了參數(shù)量。本文優(yōu)化的YOLOv3算法模型結(jié)構(gòu)如圖3所示。

        3 試驗(yàn)與結(jié)果分析

        本文試驗(yàn)環(huán)境為在Ubuntu16.04操作系統(tǒng)下,安裝配置Cuda9.1.85和Python3.6.5,并搭建Keras和Tensorflow深度學(xué)習(xí)平臺(tái),算法的訓(xùn)練和測(cè)試均在GPU加速下完成。

        3.1 數(shù)據(jù)集制作

        在遙感影像飛機(jī)目標(biāo)檢測(cè)的應(yīng)用研究方面,目前幾乎沒(méi)有公開(kāi)的符合深度學(xué)習(xí)訓(xùn)練的數(shù)據(jù)集,這也是制約該方向應(yīng)用的主要問(wèn)題之一。本文研究的影像來(lái)自DOTA(http:∥captain.whu.edu.cn/DOTAweb/)、UCAS-AOD(http:∥www.ucassdl.cn/resource.asp)、RSOD-Dataset(https:∥github.com/RSIA-LIESMARS-WHU/RSOD-Dataset)3個(gè)遙感影像數(shù)集,影像的尺寸一般是1044×944。在制作數(shù)據(jù)集的過(guò)程中,依據(jù)VOC2007的數(shù)據(jù)集格式,對(duì)影像進(jìn)行統(tǒng)一格式的命名,再利用labelImg(https:∥github.com/tzutalin/labelImg)圖片標(biāo)注工具對(duì)影像進(jìn)行標(biāo)注,生成包含有目標(biāo)類(lèi)別位置信息的XML文件。試驗(yàn)共制作446張數(shù)據(jù)集,其中386張訓(xùn)練集,42張驗(yàn)證集,18張測(cè)試集,飛機(jī)樣本如圖4所示。

        3.2 網(wǎng)絡(luò)訓(xùn)練

        對(duì)YOLOv3算法和優(yōu)化的YOLOv3算法分別迭代200次進(jìn)行訓(xùn)練,飛機(jī)在影像中屬于小目標(biāo),經(jīng)過(guò)多次對(duì)比試驗(yàn),算法采用按步長(zhǎng)衰減學(xué)習(xí)率的策略,設(shè)置基礎(chǔ)學(xué)習(xí)率為0.001,在迭代120次、180次時(shí)學(xué)習(xí)率變成基礎(chǔ)學(xué)習(xí)率的0.1倍和0.01倍。選取Batch_size(每批數(shù)據(jù)量的大小)為10,沖量常數(shù)為0.9,權(quán)值衰減系數(shù)為0.000 5,從而避免出現(xiàn)過(guò)擬合現(xiàn)象。

        3.3 結(jié)果分析

        將YOLOv3算法和優(yōu)化的YOLOv3算法在本文測(cè)試集上進(jìn)行對(duì)比測(cè)試,分別計(jì)算準(zhǔn)確率、召回率和F1-score。精確率的公式為

        (3)

        召回率的公式為

        (4)

        F1-score的公式為

        (5)

        式中,TP為正確檢測(cè)出的飛機(jī)個(gè)數(shù);FP為誤檢的飛機(jī)個(gè)數(shù);FN為漏檢的飛機(jī)個(gè)數(shù)。

        F1-score是使用調(diào)和平均結(jié)合召回率和精度的指標(biāo)。從表1可以看出,本文優(yōu)化YOLOv3算法的召回率比YOLOv3算法高出11.86%,精確率下降7.27%。此時(shí)需要F1-score來(lái)進(jìn)行總體衡量。試驗(yàn)結(jié)果表明本文在使用K-means聚類(lèi)算法和擴(kuò)張卷積后,其F1-score比YOLOv3高出1.33%,網(wǎng)絡(luò)中再加入深度可分離卷積后,其F1-score比YOLOv3高出2.99%。由此可見(jiàn),本文算法明顯優(yōu)于YOLOv3算法。圖5是YOLOv3算法和優(yōu)化YOLOv3算法對(duì)2張相同圖像的檢測(cè)結(jié)果。從圖5中可以看出YOLOv3算法不能準(zhǔn)確檢測(cè)出影像中的小目標(biāo),出現(xiàn)較多漏檢情況,框上沒(méi)字是漏檢,框上有字是算法檢測(cè)出的飛機(jī)。優(yōu)化的YOLOv3算法增強(qiáng)了網(wǎng)絡(luò)高層的感受野,能夠準(zhǔn)確檢測(cè)出影像中的小目標(biāo),有效地降低漏檢率,提高小目標(biāo)檢測(cè)的精度。

        (%)

        4 結(jié) 語(yǔ)

        本文針對(duì)YOLOv3算法對(duì)小目標(biāo)檢測(cè)效果較差、出現(xiàn)較多漏檢的情況,使用K-means聚類(lèi)算法計(jì)算出適合本文數(shù)據(jù)集的錨框,在YOLOv3算法的網(wǎng)絡(luò)結(jié)構(gòu)中引入擴(kuò)張卷積,用來(lái)增強(qiáng)網(wǎng)絡(luò)高層的感受野,改善對(duì)小目標(biāo)的檢測(cè)效果,并在網(wǎng)絡(luò)結(jié)構(gòu)中引入深度可分離卷積來(lái)減少計(jì)算參數(shù)和分別學(xué)習(xí)空間特征和通道特征。試驗(yàn)結(jié)果表明,優(yōu)化的YOLOv3算法比YOLOv3算法的召回率提高了11.86%,而且F1-score提高了2.99%,能準(zhǔn)確檢測(cè)到更多目標(biāo),提高小目標(biāo)的檢測(cè)精度。由于遙感影像目標(biāo)檢測(cè)作為圖像解譯的一個(gè)重要研究方向,其對(duì)于資源調(diào)查、災(zāi)害監(jiān)測(cè)、資源勘探及軍事目標(biāo)的識(shí)別判讀等都具有重要的意義。在今后的研究工作中,會(huì)增加訓(xùn)練集以提高樣本多樣性,而且在繼續(xù)提升召回率的同時(shí),提高精確率。

        猜你喜歡
        卷積飛機(jī)深度
        飛機(jī)失蹤
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        深度理解一元一次方程
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        “拼座飛機(jī)”迎風(fēng)飛揚(yáng)
        深度觀察
        深度觀察
        深度觀察
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        乘坐飛機(jī)
        日韩精品网| 日本一极品久久99精品| 亚洲一区二区三区av无| 亚洲天堂成人av在线观看| 无码国内精品久久人妻| 色悠久久久久综合欧美99| 白白色免费视频一区二区| 亚洲av色香蕉一区二区三区软件| 国产人妖乱国产精品人妖| 日本老熟妇毛茸茸| 亚洲中文字幕久久精品蜜桃| 国产一级黄片久久免费看| 91丝袜美腿亚洲一区二区| 婷婷亚洲久悠悠色悠在线播放| 国产aⅴ夜夜欢一区二区三区| 一道本中文字幕在线播放| 亚洲夫妻性生活免费视频| 亚洲av日韩专区在线观看| 亚洲色欲大片AAA无码| 国产熟女自拍视频网站| 美女脱掉内裤扒开下面让人插| 无码中文亚洲av影音先锋| 无码丰满少妇2在线观看| 亚洲一区二区高清在线| 国产女同va一区二区三区| 国产精品51麻豆cm传媒| 精品一精品国产一级毛片| 在线亚洲妇色中文色综合| 久久99国产精品久久99| 久草热8精品视频在线观看| 麻豆人妻无码性色AV专区| 丝袜美腿国产一区二区| 国产精品久久777777| 无码人妻少妇色欲av一区二区| 一级片久久| 国产精品高清一区二区三区人妖| 边添小泬边狠狠躁视频| 最近中文字幕在线mv视频在线| 无码8090精品久久一区| 成人久久久精品乱码一区二区三区 | 91九色国产在线观看|