亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的遙感影像小目標(biāo)檢測

        2020-06-22 01:09:44張青華谷國太李彩林王佳文
        河南水利與南水北調(diào) 2020年5期
        關(guān)鍵詞:特征提取卷積目標(biāo)

        張青華 谷國太 李彩林 王佳文

        (1山東理工大學(xué)建筑工程學(xué)院;2河南省新聞出版學(xué)校)

        1 引 言

        隨著航天事業(yè)的不斷發(fā)展,高分辨率遙感衛(wèi)星的數(shù)量越來越多,中國獲取遙感影像的方式越來越便捷,并且遙感影像因其較高的視角,包含十分豐富的位置信息、特征信息等。面對如此豐富的影像源,如何產(chǎn)生有效的社會效益是科研工作者面臨的一個挑戰(zhàn),其中遙感影像目標(biāo)檢測領(lǐng)域的研究一直都是研究熱點,在軍事偵察、城市規(guī)劃、環(huán)境檢測、智能交通、資源勘測等領(lǐng)域均有涉及。

        傳統(tǒng)的遙感影像目標(biāo)檢測方法:通常使用人工設(shè)計的特征描述子提取特征,然后訓(xùn)練一個分類器來達到目標(biāo)識別的任務(wù)。經(jīng)典的人工設(shè)計的特征主要有Harr 特征、局部二值模式(Local Binary Pattern,LBP)、尺度不變特征變化(Scale-invariant feature transform,SIFT)、方向梯度直方圖(Histogram of Oriented Gardient,HOG)等。常見的分類器有支持向量機(Support Vector Machine,SVM)、提升模型(Boosting)和AdaBoost 算法等。

        傳統(tǒng)的目標(biāo)檢測算法存在兩個主要弊端:第一,檢測效果的性能主要依賴于人工設(shè)計的特征描述子,但是特征描述子的設(shè)計存在很大的瓶頸;第二,傳統(tǒng)方法的滑動窗口算法對待檢測區(qū)域沒有針對性,存在大量的對檢測任務(wù)無效的冗余窗口,時間復(fù)雜度高。這兩個缺點制約了目標(biāo)檢測的精度與檢測速度,隨著海量數(shù)據(jù)的獲取越來越便利和GPU(Graphics Processing Unit,GPU)算力的顯著提升,基于深度學(xué)習(xí)的目標(biāo)檢測方法應(yīng)運而生,并且在檢測性能方面超越傳統(tǒng)檢測算法,目前基于深度學(xué)習(xí)的目標(biāo)檢測算法主要分為基于候選區(qū)域和基于回歸思想的兩種檢測策略,基于候選區(qū)域思想的代表算法有R-CNN、SPP-Net、Fast R-CNN 和Faster R-CNN 等,基于回歸思想的代表算法有YOLO系列和SSD系列。

        隨著通用目標(biāo)檢測算法的發(fā)展,深度學(xué)習(xí)的目標(biāo)檢測方法在遙感影像的應(yīng)用也取得了較好的發(fā)展。文獻使用具有去噪能力的卷積神經(jīng)網(wǎng)絡(luò)對遙感影像中的車輛目標(biāo)進行檢測。文獻利用改進后的Faster R-CNN目標(biāo)檢測算法完成遙感影像中的車輛目標(biāo)檢測任務(wù)。文獻提出使用U-Net 卷積神經(jīng)網(wǎng)絡(luò)對遙感影像中的建筑物進行檢測。文獻提出將ResNet網(wǎng)絡(luò)結(jié)構(gòu)作為特征提取網(wǎng)絡(luò)提取不同層級范圍的特征完成目標(biāo)檢測任務(wù)。文獻利用全卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)對遙感影像中的飛機目標(biāo)進行檢測。文獻提出利用數(shù)據(jù)擴充和上下文信息完成對遙感影像中的飛機目標(biāo)檢測任務(wù)。雖然目前深度學(xué)習(xí)的目標(biāo)檢測方法在遙感影像中已有較多的研究,但是針對遙感影像中的小目標(biāo)問題,存在漏檢和誤檢問題難以解決。

        綜合以上研究方法,文章以SSD目標(biāo)檢測框架為基礎(chǔ)進行改進,完成高分辨率遙感影像的小目標(biāo)檢測任務(wù)。首先對特征提取網(wǎng)絡(luò)在公共數(shù)據(jù)集進行預(yù)訓(xùn)練,然后增加SSD目標(biāo)檢測多尺度特征圖的檢測層級,同時采用Adam 的訓(xùn)練方法,使模型具有更好的擬合能力。

        2 特征提取網(wǎng)絡(luò)與模型

        2.1 VGG-16特征提取網(wǎng)絡(luò)

        VGG-16 網(wǎng)絡(luò)結(jié)構(gòu)最早由牛津大學(xué)Visual Geometry Group團隊提出,并且在ImageNet2014奪得亞軍。該網(wǎng)絡(luò)結(jié)構(gòu)最大的特點就是使用了較小的卷積核和較為規(guī)整的網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)包含5個大的卷積結(jié)構(gòu)(Block)和3個大的全連接層,而且所有的卷積層均使用3×3的卷積核,這樣不僅減少了網(wǎng)絡(luò)訓(xùn)練的參數(shù)量,而且可以堆疊出更深的網(wǎng)絡(luò)模型,提高網(wǎng)絡(luò)的分類能力,同時結(jié)合Dropout層來防止過擬合。整體的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 VGG-16網(wǎng)絡(luò)結(jié)構(gòu)圖

        文章使用VGG-16網(wǎng)絡(luò)結(jié)構(gòu)作為特征提取網(wǎng)絡(luò),不僅可以獲得抽象能力更強的非線性特征,而且VGG-16網(wǎng)絡(luò)規(guī)整的網(wǎng)絡(luò)結(jié)構(gòu),更有利于進行改進,嵌入完整的目標(biāo)檢測架構(gòu)。

        2.2 模型預(yù)訓(xùn)練與遷移學(xué)習(xí)

        根據(jù)卷積神經(jīng)網(wǎng)絡(luò)分層提取特征的特性,使用遷移學(xué)習(xí)的方式對特征提取網(wǎng)絡(luò)進行預(yù)訓(xùn)練,可降低整體目標(biāo)檢測網(wǎng)絡(luò)的訓(xùn)練時間。文章的VGG-16 基礎(chǔ)網(wǎng)絡(luò)首先在ImageNet(A Large-Scale Hierarchical Image Database)數(shù)據(jù)集進行預(yù)訓(xùn)練,獲得的預(yù)訓(xùn)練基礎(chǔ)網(wǎng)絡(luò)具有很好的圖像特征提取能力,然后將預(yù)訓(xùn)練完成的特征提取網(wǎng)絡(luò)嵌入整體目標(biāo)檢測架構(gòu),并作為遷移訓(xùn)練的初始模型參數(shù),然后通過DOTA數(shù)據(jù)集迭代回歸四個參數(shù)變量(Δcx,Δcy,Δw,Δh),達到目標(biāo)檢測的目的。

        在遷移訓(xùn)練過程中包括兩個損失函數(shù):一個是位置損失函數(shù)Lloc,進行目標(biāo)的精確定位,;另一個是置信度損失Lconf,判斷預(yù)測框的分類概率。代價函就是上述兩類損失函數(shù)的加權(quán)平方和,具體計算公式如式(1):

        其中,N 是正樣本數(shù)量,λ為權(quán)重,如果N=0,則損失為0。x是所有默認(rèn)框的標(biāo)簽,如果第i個默認(rèn)框匹配到了第j個標(biāo)簽框,則xij=1,否則xij=0。定位損失Lloc為L1 平滑損失(Smooth L1):

        置信度損失Lconf是基于多個類別的置信度的softmax 損失。參數(shù)c代表某一類別的目標(biāo)與非目標(biāo)的置信度。

        式中字母含義同上。

        2.3 改進后的SSD目標(biāo)檢測模型

        SSD 目標(biāo)檢測網(wǎng)絡(luò)的整體策略是在特征提取網(wǎng)絡(luò)不同尺度的特征提取層進行分類回歸,完成對不同尺度大小的目標(biāo)進行識別定位的任務(wù)。原始的SSD 檢測架構(gòu)是將VGG-16 基礎(chǔ)網(wǎng)絡(luò)在最后的全連接層處截斷,并添加Conv6、Conv7、Conv8_2、Conv9_2、Conv10_2、Conv11_2 卷積層,根據(jù)卷積神經(jīng)網(wǎng)絡(luò)分層提取特征的特性,原始SSD 檢測框架使用Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2、Conv11_2 作為檢測層,由于小目標(biāo)在影像中的占比較小,隨著層層卷積的結(jié)構(gòu),容易出現(xiàn)小目標(biāo)特征信息的流失,因此原始SSD 目標(biāo)檢測網(wǎng)絡(luò)中僅僅使用Conv4_3作為特征檢測層是不夠的,改進后的SSD目標(biāo)檢測算法增加Conv3_2作為特征檢測層,提高整體算法對小目標(biāo)的檢測能力。改進后的整體網(wǎng)絡(luò)架構(gòu)如圖2所示。

        圖2 改進后SSD目標(biāo)檢測模型圖

        2.4 基于Adam算法的損失函數(shù)優(yōu)化

        算法訓(xùn)練的目的是為了使損失函數(shù)值不斷減小進而得到最佳訓(xùn)練模型。原始SSD算法使用SGD算法進行損失函數(shù)的優(yōu)化,SGD是一種常用的損失函數(shù)優(yōu)化算法,但該算法的缺點是下降速度較慢,并可能收斂于某一局部最優(yōu)而不是全局最優(yōu)點。Adam算法相較于SGD主要優(yōu)勢在于可利用梯度的一階矩估計和二階矩估計動態(tài)調(diào)整每個參數(shù)的學(xué)習(xí)率,在經(jīng)過偏置校正后可使每一次迭代學(xué)習(xí)率都有個確定范圍,因此參數(shù)比較平穩(wěn),有利于收斂于全局最優(yōu)點。因此文章引入Aadm算法用于優(yōu)化損失函數(shù)。主要公式如下:

        3 實驗與分析

        3.1 實驗數(shù)據(jù)

        3.1.1 數(shù)據(jù)描述

        文章實驗數(shù)據(jù)集主要包括兩個數(shù)據(jù)集:ImageNet 數(shù)據(jù)集、DOTA數(shù)據(jù)集。

        ImageNet 數(shù)據(jù)集具有140 萬張標(biāo)記圖片,1 000 種不同類別,是針對圖像識別的全球最大公開數(shù)據(jù)集之一,利用該數(shù)據(jù)集進行模型預(yù)訓(xùn)練可以使模型具有更好的泛化能力,并且加快遷移訓(xùn)練的速度。

        DOTA 數(shù)據(jù)集是包含2 806 張航空影像的公開數(shù)據(jù)集,由JL-1 衛(wèi)星、JL-2 衛(wèi)星和Google Earth 遙感拍攝所得,影像幅度很大,尺寸大約為800×800~4 000×4 000,主要包含兩大類目標(biāo):大型場地和各種可移動物體兩種類別;其中大型場地包含:游泳池、足球場、操場、環(huán)形交通樞紐、港口、棒球場、網(wǎng)球場、籃球場、橋等9 種場地;可移動物體包括:飛機、直升機、船舶、大型車輛、小型車輛和儲油罐等6個類別,共計15種類別,188 282個實例,由于拍攝高度較高,可移動物體多為中小目標(biāo)。

        3.1.2 數(shù)據(jù)預(yù)處理

        由于原始數(shù)據(jù)尺寸不一,首先將原始數(shù)據(jù)裁剪為512×512大小的圖像,數(shù)據(jù)增強采取隨機擾動、隨機裁剪、隨機擴張及縮放等操作方式,然后將數(shù)據(jù)集劃分為訓(xùn)練集和測試集,訓(xùn)練集和測試集數(shù)據(jù)量比例滿足9:1的比例。

        3.2 實驗描述

        3.2.1 實驗環(huán)境

        實驗硬件環(huán)境為Intel Xeon E3-1220 v5 處理器、GTX1070 8G 顯卡、16G 內(nèi)存;實驗軟件環(huán)境為Ubuntu18.04 系統(tǒng)、tensorflow深度學(xué)習(xí)框架。

        3.2.2 精度評估方法

        使用平均精度(average precision,AP)來評估訓(xùn)練所得目標(biāo)檢測模型,計算公式如式(5):AP 的幾何意義即P-R 曲線與坐標(biāo)軸所圍面積,其中P(precision)表示訓(xùn)練精準(zhǔn)率,R(recall)表示訓(xùn)練召回率,具體計算公式如式(6):

        式中:TP表示正確識別為標(biāo)簽?zāi)繕?biāo)數(shù)量,F(xiàn)P 表示錯誤識別為標(biāo)簽?zāi)繕?biāo)數(shù)量,F(xiàn)N表示錯誤識別為非標(biāo)簽?zāi)繕?biāo)數(shù)量。

        3.2.3 速度評估方法

        使用每秒幀速(Frame Per Second,F(xiàn)PS)進行評估,每秒幀速即每秒內(nèi)處理的影像數(shù)量,F(xiàn)PS 越大,速度越快。計算公式如式(7):

        式中:F為處理影像數(shù),S為處理時間,單位為s。

        3.2.4 超參數(shù)設(shè)定

        學(xué)習(xí)率策略采用Warm Up,初始學(xué)習(xí)率設(shè)置為0.01,batchsize為2,epoch設(shè)置為400。

        3.3 實驗對比分析

        3.3.1 改進SSD算法訓(xùn)練分析

        分別進行A、B兩組實驗:A組實驗為直接在DOTA數(shù)據(jù)集進行訓(xùn)練得到的模型;B 組為首先將VGG-16 網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集進行預(yù)訓(xùn)練,然后在DOTA數(shù)據(jù)集進行遷移訓(xùn)練得到的模型;最后將得到的模型分別在DOTA 測試集進行檢測,具體檢測結(jié)果:A 組模型AP 值為7.06×10-1;B 組模型AP 值為7.53×10-1。分析可知,經(jīng)過模型預(yù)訓(xùn)練的模型在DOTA 數(shù)據(jù)集中具有更好的訓(xùn)練效果,該實驗充分說明了卷積神經(jīng)網(wǎng)絡(luò)在圖像特征提取中逐層提取特征的特性,同時證明了遷移學(xué)習(xí)的有效性。

        模型訓(xùn)練策略采用Adam 算法取代原來的SGD 算法進行損失函數(shù)優(yōu)化。為分析Adam算法的有效性,文章分別用Adam和SGD兩種訓(xùn)練策略對SSD算法進行訓(xùn)練,并在DOTA數(shù)據(jù)測試集進行精度評定,結(jié)果如表1所示:

        表1 不同優(yōu)化算法性能對比

        由表1 中第一行數(shù)據(jù)和第二行數(shù)據(jù)的AP 值對比可知:在損失函數(shù)一致的情況下,使用Adam優(yōu)化算法的SSD512模型精度要高于使用SGD優(yōu)化算法的SSD512模型的精度,由此得出使用Adam 優(yōu)化算法得到的模型精度高于使用SGD 優(yōu)化算法得到的模型精度。

        3.3.2 改進SSD算法性能分析

        為更好分析改進后SSD算法的性能,同時利用訓(xùn)練集訓(xùn)練了原始SSD算法和YOLO算法作為對比,并在測試集進行精度評定,檢測結(jié)果見表2。

        表2 不同算法在DOTA測試集檢測結(jié)果表

        通過對表2 中AP 數(shù)據(jù)分析可知,文章改進后的檢測模型有效提高了模型的檢測精度,原因是將原始SSD檢測模型中的6 層特征檢測層增加了Conv3_2 特征提取層。對比表2 中FPS數(shù)據(jù)可知,改進后的SSD 模型對比原始SSD 模型,檢測速度略有下降,可能原因是由于添加了新的檢測層,增加了模型的計算量,但總體而言模型對遙感影像的小目標(biāo)檢測具有一定程度的提升。

        圖3為經(jīng)過改進后的SSD算法在DOTA測試集上的檢測效果。由圖3可知,針對飛機、船舶等小目標(biāo),該算法仍具有一定的檢測精度。對比圖3中的(a)和(d),容易發(fā)現(xiàn)船舶目標(biāo)的檢測精度沒有飛機目標(biāo)的檢測精度高,通過分析可知,船舶目標(biāo)與背景顏色十分相似,因此檢測難度更大。

        圖3 (a~c)檢測結(jié)果圖

        4 結(jié) 語

        文章通過對SSD算法進行改進,將改進后的SSD目標(biāo)檢測算法應(yīng)用于遙感影像小目標(biāo)檢測領(lǐng)域。針對遙感影像數(shù)據(jù)量不足的問題,采用遷移學(xué)習(xí)的方式,首先將特征提取網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集上進行模型預(yù)訓(xùn)練,得到具有較好特征提取能力的特征提取網(wǎng)絡(luò);然后將訓(xùn)練好的特征提取網(wǎng)絡(luò)嵌入改進后的SSD目標(biāo)檢測架構(gòu)進行遷移訓(xùn)練,同時在損失函數(shù)優(yōu)化過程中使用Adam算法取代SGD算法,最終使得檢測模型具有更好的檢測精度和檢測速度。實驗表明,改進后SSD算法在遙感影像目標(biāo)較小的情況下,仍可以有效識別,一定程度解決了遙感影像中的小目標(biāo)檢測問題。但是算法存在對于遮擋目標(biāo)會出現(xiàn)漏檢、檢測精度低的問題,而且特征提取網(wǎng)絡(luò)對整體模型的檢測精度影響較大,因此如何設(shè)計更加有效的特征提取網(wǎng)絡(luò)將是以后的研究方向之一。

        猜你喜歡
        特征提取卷積目標(biāo)
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        Bagging RCSP腦電特征提取算法
        我們的目標(biāo)
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        Walsh變換在滾動軸承早期故障特征提取中的應(yīng)用
        軸承(2010年2期)2010-07-28 02:26:12
        新目標(biāo)七年級(下)Unit?。尘毩?xí)(一)
        色狠狠av老熟女| 国产一区二区黄色网页| 亚洲精品一区久久久久一品av | 国产成人精品无码一区二区老年人| 婷婷四房播播| 五月激情狠狠开心五月| 久久综合另类激情人妖| 免费a级毛片无码a∨中文字幕下载| 免费无码av片在线观看| 中文字幕有码高清| 丝袜美腿丝袜美腿丝袜美腿丝袜| 永久免费人禽av在线观看| 一本色道久久综合狠狠躁| 国内精品九九久久精品小草 | 老熟妇高潮av一区二区三区啪啪 | 无码流畅无码福利午夜| 亚洲免费一区二区三区四区| 帮老师解开蕾丝奶罩吸乳网站| 91手机视频在线| 用力草我小逼视频在线播放| 人妻精品在线手机观看| 99re热视频这里只精品| 成人无码视频在线观看网站| 中文字幕成人精品久久不卡91| 无套内谢老熟女| 亚洲日本va午夜在线影院| 国产成人综合久久三区北岛玲| 日韩精品极品免费视频观看| 无人视频在线观看免费播放影院| 亚洲国产精品嫩草影院久久| 白白色发布视频在线播放| 日本一卡二卡3卡四卡免费观影2022| 精品人妻潮喷久久久又裸又黄| 免费无码AⅤ片在线观看| 那有一级内射黄片可以免费看 | 国产成人无码免费看片软件| 国产精品原创永久在线观看| 久久一区二区三区老熟女| 97久久草草超级碰碰碰| 亚洲动漫成人一区二区| 国产诱惑人的视频在线观看|