亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種改進的卷積神經(jīng)網(wǎng)絡(luò)SAR目標(biāo)識別算法

        2018-10-11 12:40:56占榮輝
        關(guān)鍵詞:特征

        許 強,李 偉,占榮輝,鄒 鯤

        (1. 空軍工程大學(xué) 信息與導(dǎo)航學(xué)院,陜西 西安 710077;2. 國防科技大學(xué) 自動目標(biāo)識別重點實驗室,湖南 長沙 410073)

        合成孔徑雷達(dá)(Synthetic-Aperture Radar, SAR)具有全天時、全天候、高分辨、大幅寬的特點,在軍事領(lǐng)域極具價值.合成孔徑雷達(dá)圖像目標(biāo)識別是合成孔徑雷達(dá)圖像解譯領(lǐng)域的研究熱點.隨著機器學(xué)習(xí)技術(shù)的發(fā)展,支持向量機(Support Vector Machine, SVM)[1]、AdaBoost (Adaptive Boosting)[2]等算法被應(yīng)用于合成孔徑雷達(dá)目標(biāo)識別中,但上述方法均基于人工進行特征提取,效率低,泛化能力較差.卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種特殊的前饋神經(jīng)網(wǎng)絡(luò),具有局部連接、權(quán)值共享的特點.在卷積神經(jīng)網(wǎng)絡(luò)中,不同卷積核作為不同特征的提取器,高層特征可由低層特征組合得到,這與許多自然信號具有相似的復(fù)合結(jié)構(gòu),使得卷積神經(jīng)網(wǎng)絡(luò)較傳統(tǒng)方法更具優(yōu)勢.目前,國內(nèi)外學(xué)者提出了許多基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)識別算法.多尺度卷積神經(jīng)網(wǎng)絡(luò)[3]可學(xué)習(xí)目標(biāo)多尺度特征,從而更好地表征目標(biāo),較單尺度卷積神經(jīng)網(wǎng)絡(luò)具有更優(yōu)的識別性能.全卷積網(wǎng)絡(luò)[4]中所有層均采用稀疏連接,可在減小訓(xùn)練集數(shù)據(jù)規(guī)模的同時達(dá)到較好的識別準(zhǔn)確率.對稱卷積耦合網(wǎng)絡(luò)[5]可同時學(xué)習(xí)目標(biāo)在合成孔徑雷達(dá)圖像與光學(xué)圖像上的特征,在變化檢測任務(wù)中表現(xiàn)較好.卷積神經(jīng)網(wǎng)絡(luò)是一種有監(jiān)督網(wǎng)絡(luò)模型,網(wǎng)絡(luò)訓(xùn)練需要大量正確標(biāo)記的數(shù)據(jù),而合成孔徑雷達(dá)圖像數(shù)據(jù)集規(guī)模較小,直接應(yīng)用于網(wǎng)絡(luò)訓(xùn)練易產(chǎn)生過擬合現(xiàn)象.針對此類問題,文獻[6]提出利用數(shù)據(jù)增強技術(shù)對訓(xùn)練集進行數(shù)據(jù)擴增,提高了網(wǎng)絡(luò)的泛化能力.文獻[7]利用獨立成分分析(Independent Component Analysis, ICA)非監(jiān)督預(yù)訓(xùn)練算法對網(wǎng)絡(luò)進行參數(shù)初始化,但對算法性能提升效果一般.文獻[8]在此基礎(chǔ)上,利用主成分分析(Principle Component Analysis, PCA)非監(jiān)督預(yù)訓(xùn)練初始化神經(jīng)網(wǎng)絡(luò),提高了識別的準(zhǔn)確率.但主成分分析法將原圖像轉(zhuǎn)換為一維向量,丟失了原有圖像的結(jié)構(gòu)信息,并未充分利用圖像信息對網(wǎng)絡(luò)進行預(yù)訓(xùn)練[9].

        合成孔徑雷達(dá)特殊的成像機制導(dǎo)致圖像中存在嚴(yán)重的相干斑噪聲.在合成孔徑雷達(dá)圖像中,像素位置由距離向特性決定,當(dāng)目標(biāo)存在起伏變化時,在圖像上會呈現(xiàn)出復(fù)雜的失真與幾何畸變.目前,對噪聲條件下的合成孔徑雷達(dá)目標(biāo)識別研究較少.針對合成孔徑雷達(dá)標(biāo)簽數(shù)據(jù)不足與噪聲標(biāo)記條件下的目標(biāo)識別問題,筆者提出了一種基于零相位成分分析(Zero-phase Component Analysis, ZCA)預(yù)訓(xùn)練與含噪數(shù)據(jù)增強的卷積神經(jīng)網(wǎng)絡(luò)模型.首先,利用含噪數(shù)據(jù)增強技術(shù)對原始訓(xùn)練集進行數(shù)據(jù)增強,以提高網(wǎng)絡(luò)對噪聲的魯棒性; 然后,利用零相位成分分析提取目標(biāo)特征并對網(wǎng)絡(luò)進行預(yù)訓(xùn)練; 最后,通過設(shè)計線性修正單元(Rectified Linear Units, ReLU)、Dropout、單位卷積核、正則化等網(wǎng)絡(luò)稀疏性方法,降低了網(wǎng)絡(luò)的計算復(fù)雜度并提高了網(wǎng)絡(luò)的識別性能與泛化能力.

        1 零相位成分分析預(yù)訓(xùn)練

        主成分分析法是一種基于原樣本點與投影重構(gòu)樣本點之間的最近重構(gòu)性與最大可分性,實現(xiàn)對數(shù)據(jù)樣本進行降維重構(gòu)的特征學(xué)習(xí)方法.零相位成分分析法在主成分分析法的基礎(chǔ)上,采用奇異值分解實現(xiàn)兩個維度空間上的成分特征提取與降維重構(gòu),并將重構(gòu)樣本集由特征空間變換回原樣本空間.零相位成分分析法可去除合成孔徑雷達(dá)圖像中相鄰像素點間的相關(guān)性,得到對原始圖像低冗余的表示,從而在最大程度上表示目標(biāo)的局部特征.

        Mn=USVH,

        (1)

        其中,w×w階酉矩陣U為Mn的左奇異向量矩陣,半正定w×h階對角矩陣S為Mn的奇異值矩陣,h×h階酉矩陣VH為Mn的右奇異向量矩陣.將左奇異值λk(k=1,2,…,w)按大小降序排列,對應(yīng)左奇異向量ηk(k=1,2,…,w).最小化重構(gòu)誤差求左投影矩陣:

        (2)

        左投影矩陣E=(η1,η1,…,ηL),由前L個左奇異向量構(gòu)成.L的取值可根據(jù)累計貢獻率確定:

        (3)

        (4)

        其中,ε為正則化因子.從而可對圖像In進行特征映射:

        Fn,k=EZLETXn.

        (5)

        同理,可對右奇異向量矩陣進行相同步驟,以實現(xiàn)另一維度的降維重構(gòu).主成分分析法需要將原數(shù)據(jù)投影(旋轉(zhuǎn))到主成分軸上,而零相位成分分析可在主成分分析的基礎(chǔ)上將數(shù)據(jù)由主成分空間再變換回原空間,使數(shù)據(jù)更接近原數(shù)據(jù).如圖1所示,數(shù)據(jù)通過利用零相位成分分析進行特征提取與去相關(guān)性之后,所得到的特征圖相對于原數(shù)據(jù)空間不發(fā)生變換.因此,零相位成分分析可在不改變數(shù)據(jù)結(jié)構(gòu)與特征空間的前提下,提取出目標(biāo)的重要特征.

        圖1 零相位成分分析特征圖與主成分分析特征圖對比

        2 零相位成分分析預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)識別算法

        基于零相位成分分析預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)識別算法的流程如圖2所示.首先,對訓(xùn)練集圖像進行數(shù)據(jù)增強,利用零相位成分分析法提取數(shù)據(jù)特征,并對卷積神經(jīng)網(wǎng)絡(luò)進行預(yù)訓(xùn)練; 然后,利用增強后的訓(xùn)練集圖像對卷積神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練; 最后,利用訓(xùn)練得到的卷積神經(jīng)網(wǎng)絡(luò)對測試集圖像進行目標(biāo)識別.

        圖2 合成孔徑雷達(dá)目標(biāo)識別流程示意圖

        在原始圖像上,以大小為90像素×90像素,步長為1像素的滑動窗口對圖像進行裁剪,可使每一類目標(biāo)的訓(xùn)練集大小增強為原始訓(xùn)練集大小的 (128- 90+1)× (128- 90+1)= 1 521 倍.隨機選擇每類 1 200 張圖像作為訓(xùn)練集,通過向訓(xùn)練集添加噪聲,以提高網(wǎng)絡(luò)在噪聲標(biāo)記條件下的識別性能.合成孔徑雷達(dá)中的相干斑噪聲在圖像中表現(xiàn)為信號在空間上相關(guān)的小斑點.斑點噪聲是一種散斑狀乘性噪聲:

        G=f+n*f,

        (6)

        其中,G為加噪后的圖像,f為原始圖像,n為服從均值為零、方差為σ2的均勻分布的隨機噪聲.

        卷積神經(jīng)網(wǎng)絡(luò)共包括5個卷積層與4個最大池化層.Conv.1、Conv.2 分別由32、64個 7×7 卷積核構(gòu)成,Conv.3 由128個 3×3 卷積核構(gòu)成,Conv.4 由128個 1×1 卷積核構(gòu)成.1×1 單位卷積核可減少輸出至下一卷積層的通道數(shù),降低計算的復(fù)雜度.前4個卷積層后均連接 2×2 的最大池化層.Conv.5 由10個 4×4 卷積核構(gòu)成.

        卷積神經(jīng)網(wǎng)絡(luò)對圖像進行層次特征提取是一個前向傳播過程.輸入圖像與卷積核進行卷積后通過非線性激活函數(shù),得到卷積后的特征圖.公式為

        (7)

        線性修正單元非線性激活函數(shù)可減少反向傳播算法的計算量,降低參數(shù)相互依存關(guān)系,從而增加網(wǎng)絡(luò)的稀疏性.Dropout指在一次訓(xùn)練過程中,隨機地讓網(wǎng)絡(luò)中的某些隱層節(jié)點的權(quán)重暫時失效.通過Dropout,可減輕網(wǎng)絡(luò)節(jié)點之間的聯(lián)合適應(yīng)性,防止網(wǎng)絡(luò)發(fā)生過擬合現(xiàn)象.池化過程降低了卷積神經(jīng)網(wǎng)絡(luò)對位移與形變的靈敏度,增加了對特征的魯棒性,也可以在一定程度上將圖像的低級紋理特征聚集為高級語義特征.池化窗口G(u,v)以步長s對特征圖進行最大池化的公式為

        (8)

        在Softmax分類器中,樣本假設(shè)函數(shù)為

        (9)

        每一個樣本估計其所屬類別的概率為

        (10)

        引入示性函數(shù)I(·),則Softmax的交叉熵?fù)p失函數(shù)為

        (11)

        在反向傳播中,通常采用隨機梯度下降算法,沿著目標(biāo)函數(shù)的梯度相反方向不斷地更新網(wǎng)絡(luò)參數(shù),以使目標(biāo)函數(shù)收斂.但隨機梯度下降算法在局部極值點附近易產(chǎn)生振蕩,導(dǎo)致收斂速度較慢.采用基于動量的梯度下降算法(Stochastic Gradient Descent based on Momentum, SGDM)可以較好地解決這一問題:

        (12)

        其中,ρ為Momentum,η為學(xué)習(xí)率,θ為參數(shù)集合.

        3 實驗與分析

        實驗數(shù)據(jù)采用美國國防高級研究計劃局與美國空軍研究實驗室聯(lián)合資助的MSTAR項目公開的部分?jǐn)?shù)據(jù)集.MSTAR數(shù)據(jù)集包含分辨率為 0.3 m× 0.3 m,大小為 128像素× 128像素的X波段聚束式合成孔徑雷達(dá)圖像.其中包括BMP-2(SN-9563、SN-9566、SN-C21)、BRDM-2、BTR-60、BTR-70、D7、T-62、T-72(SN-132、SN-812、SN-S7)、ZIL-131、ZSU-234、2S1等10類目標(biāo).括號中為同一類目標(biāo)的變形目標(biāo),其相互之間的差異為目標(biāo)的軍事配置不同,如裝甲車天線是否展開等.在實驗中,以17°俯仰角圖像為訓(xùn)練集,15°俯仰角圖像為測試集.實驗在MATLAB(2017a)環(huán)境下采用GPU (4 GB) 加速運算完成.Momentum為0.9,MiniBatchSize為64,MaxEpochs為50,初始學(xué)習(xí)率為 0.000 6.學(xué)習(xí)率更新采用步進式策略,每迭代15個Epoch,學(xué)習(xí)率更新為原來的0.5.訓(xùn)練過程中采用L2正則化方法對網(wǎng)絡(luò)參數(shù)設(shè)定先驗,以防止過擬合.

        3.1 合成孔徑雷達(dá)圖像目標(biāo)識別實驗

        在3類目標(biāo)識別實驗中,測試集為15°俯仰角的BMP-2-SN-9563、BMP-2-SN-9566、BMP-2-SN-C21、BTR70、T-72-SN-132、T-72-SN-812、T-72-SN-S7目標(biāo)圖像.表1給出了文中模型與其他方法的識別性能對比.可以看出,筆者提出的算法的識別率為98.75%,能有效地識別3類目標(biāo)及其變形子類目標(biāo),識別性能優(yōu)于其他合成孔徑雷達(dá)目標(biāo)識別算法.

        表1 不同算法的性能對比

        10類目標(biāo)識別實驗結(jié)果的混淆矩陣如表2所示.可以看出,算法對T-62的識別率最低,為94.14%;對D7、T-72(SN-132)、ZSU-234的識別率均達(dá)到100%.10類目標(biāo)的整體識別率可達(dá)到約98.52%.

        表2 10類目標(biāo)識別結(jié)果的混淆矩陣

        3.2 算法評價與噪聲魯棒性實驗

        圖3 噪聲條件下不同算法的識別率對比圖

        如圖3所示,通過算法對比,可評價算法對網(wǎng)絡(luò)識別性能的提升程度以及算法的噪聲魯棒性.對比的算法為:A0.網(wǎng)絡(luò)未采用Dropout與 1×1 卷積層,由未增強的訓(xùn)練集訓(xùn)練得到.B1.采用Dropout與 1×1 卷積層,由未增強的訓(xùn)練集訓(xùn)練得到.B2.由增強后的訓(xùn)練集訓(xùn)練B1得到.B3.采用零相位成分分析預(yù)訓(xùn)練,由未增強的訓(xùn)練集訓(xùn)練B1得到.Ours.采用零相位成分分析預(yù)訓(xùn)練,并由增強后的訓(xùn)練集訓(xùn)練B1得到.AN.利用增強后的訓(xùn)練集對AlexNet進行fine-tune得到.通過對比A0、B1可以看出,稀疏性技術(shù)減少了網(wǎng)絡(luò)參數(shù),降低了訓(xùn)練時間與計算復(fù)雜度,但不會降低網(wǎng)絡(luò)的識別率.事實上,當(dāng)網(wǎng)絡(luò)具有足夠多的參數(shù),足以表征所有數(shù)據(jù)的特征時,僅通過增加網(wǎng)絡(luò)層數(shù)與結(jié)構(gòu)復(fù)雜度,并不能提升識別性能,反而會浪費大量的訓(xùn)練成本,并產(chǎn)生過擬合現(xiàn)象.因此,網(wǎng)絡(luò)越深,越有必要增加網(wǎng)絡(luò)的稀疏性; 對比B1、B2可以看出,含噪數(shù)據(jù)增強可同時提升網(wǎng)絡(luò)的識別性能與噪聲魯棒性,這是由于數(shù)據(jù)增強擴增了訓(xùn)練集的樣本數(shù)量與樣本多樣性,使網(wǎng)絡(luò)學(xué)習(xí)到噪聲標(biāo)記條件下的數(shù)據(jù)特征,從而具有更高的噪聲魯棒性; 對比B1、B3可以看出,通過零相位成分分析法對數(shù)據(jù)進行特征提取,并利用所提取的特征對卷積神經(jīng)網(wǎng)絡(luò)進行初始化,可提升網(wǎng)絡(luò)的識別率; Ours利用預(yù)訓(xùn)練、數(shù)據(jù)增強以及網(wǎng)絡(luò)稀疏性技術(shù),大幅提升了卷積神經(jīng)網(wǎng)絡(luò)的識別性能與噪聲魯棒性,當(dāng)噪聲方差達(dá)到0.3時,識別率仍能達(dá)到92%,識別率相較A0提升了近35%.

        圖像在卷積層上的激活區(qū)域是卷積神經(jīng)網(wǎng)絡(luò)對目標(biāo)進行特征提取的關(guān)鍵范圍.圖4給出了目標(biāo)圖像在卷積神經(jīng)網(wǎng)絡(luò)的第1層卷積層上的最大正負(fù)激活,圖中白色為正激活區(qū)域,黑色為負(fù)激活區(qū)域.可以看出,筆者提出的算法降低了環(huán)境及噪聲干擾,而加深了目標(biāo)的正負(fù)激活程度,從而提升了網(wǎng)絡(luò)的識別性能.

        圖4 卷積核激活示意圖

        4 結(jié) 束 語

        筆者研究了采用卷積神經(jīng)網(wǎng)絡(luò)的合成孔徑雷達(dá)目標(biāo)識別算法.首先利用數(shù)據(jù)增強技術(shù)增加訓(xùn)練集,再利用零相位成分分析法對圖像進行特征提取與降維重構(gòu),提取出數(shù)據(jù)中的重要特征;然后建立稀疏的卷積神經(jīng)網(wǎng)絡(luò),利用所提取的重要特征對網(wǎng)絡(luò)進行預(yù)訓(xùn)練,再利用預(yù)訓(xùn)練后的網(wǎng)絡(luò)對訓(xùn)練集數(shù)據(jù)進行特征學(xué)習(xí),以提取出目標(biāo)的層次化特征,并用于目標(biāo)識別.實驗表明,筆者提出的算法提升了卷積神經(jīng)網(wǎng)絡(luò)的識別性能,能準(zhǔn)確地識別各類目標(biāo)及其變形子目標(biāo),對噪聲也有較強的魯棒性,是一種有效的合成孔徑雷達(dá)目標(biāo)識別算法.

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機變量的分布列與數(shù)字特征
        具有兩個P’維非線性不可約特征標(biāo)的非可解群
        月震特征及與地震的對比
        如何表達(dá)“特征”
        被k(2≤k≤16)整除的正整數(shù)的特征
        不忠誠的四個特征
        詈語的文化蘊含與現(xiàn)代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        能看的网站中文字幕不卡av| 久久精品人搡人妻人少妇| 亚洲 日韩 激情 无码 中出 | 波多野结衣一区二区三区视频 | 忘忧草社区www日本高清| 亚洲欧美日韩精品高清| 日韩Va亚洲va欧美Ⅴa久久| 国产69精品麻豆久久| 日韩日韩日韩日韩日韩| 亚洲中文字幕无码专区| 1234.com麻豆性爰爱影| 国内精品国产三级国产| 蜜臀av无码人妻精品| 国产精品女同一区二区| 蜜桃视频在线免费观看一区二区| 扒开美女内裤舔出白水| 欧美黑人性暴力猛交喷水| 99福利网| 白白色青青草视频免费观看| 欧美牲交a欧美牲交aⅴ免费下载| 伊人久久五月丁香综合中文亚洲| 国内成人精品亚洲日本语音| 蜜桃av多人一区二区三区| 海外华人在线免费观看| 国产h视频在线观看| 九九99久久精品在免费线18| 日本理论片一区二区三区| 久久精品国产一区老色匹| 99久热在线精品视频观看| 日韩精品无码久久久久久| 午夜人妻中文字幕福利| 精品国产a一区二区三区v| 国产成人涩涩涩视频在线观看| 精品亚洲午夜久久久久| 亚洲日本一区二区在线观看| 色综合久久中文综合网亚洲| 精品无码一区在线观看| 国产一区二区欧美丝袜| 久久精品熟女亚洲av麻豆永永 | 国产亚洲精品资源在线26u| 手机色在线|