亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種聯(lián)合陰影和目標(biāo)區(qū)域圖像的SAR目標(biāo)識別方法

        2015-07-05 16:46:53軍劉宏偉王英華王正玨齊會(huì)嬌時(shí)荔蕙
        電子與信息學(xué)報(bào) 2015年3期
        關(guān)鍵詞:區(qū)域方法模型

        丁 軍劉宏偉 王英華 王正玨 齊會(huì)嬌 時(shí)荔蕙

        (西安電子科技大學(xué)雷達(dá)信號處理國家重點(diǎn)實(shí)驗(yàn)室 西安 710071)

        一種聯(lián)合陰影和目標(biāo)區(qū)域圖像的SAR目標(biāo)識別方法

        丁 軍*劉宏偉 王英華 王正玨 齊會(huì)嬌 時(shí)荔蕙

        (西安電子科技大學(xué)雷達(dá)信號處理國家重點(diǎn)實(shí)驗(yàn)室 西安 710071)

        地面目標(biāo)的SAR圖像中除了包含目標(biāo)散射回波形成的區(qū)域,還包括由目標(biāo)遮擋地面形成的陰影區(qū)域。但是由于這兩種區(qū)域中的圖像特性不相同,所以傳統(tǒng)的SAR圖像自動(dòng)目標(biāo)識別主要利用目標(biāo)區(qū)域信息進(jìn)行目標(biāo)識別,或者單獨(dú)使用陰影區(qū)域進(jìn)行識別。該文提出一種陰影區(qū)域與目標(biāo)區(qū)域圖像聯(lián)合的稀疏表示模型。通過使用12ll范數(shù)最小化方法求解該模型得到聯(lián)合的稀疏表示,然后根據(jù)聯(lián)合重構(gòu)誤差最小準(zhǔn)則進(jìn)行SAR圖像目標(biāo)識別。在運(yùn)動(dòng)和靜止目標(biāo)獲取與識別(MSTAR)數(shù)據(jù)集上的識別實(shí)驗(yàn)結(jié)果表明,通過聯(lián)合稀疏表示模型可以有效地將目標(biāo)區(qū)域與陰影區(qū)域信息進(jìn)行融合,相對于采用單獨(dú)區(qū)域圖像的稀疏表示識別方法性能更好。

        SAR;目標(biāo)識別;聯(lián)合稀疏表示;12ll范數(shù)最小化

        1 引言

        目前,各式各樣合成孔徑雷達(dá)(SAR)系統(tǒng)獲取的高分辨率圖像越來越多,各國對SAR圖像理解特別是自動(dòng)目標(biāo)識別(Automatic Target Recognition, ATR)技術(shù)的研究需求也越來越迫切。傳統(tǒng)的SAR圖像自動(dòng)目標(biāo)識別一般利用圖像中的單一信息進(jìn)行目標(biāo)識別,例如:基于模板匹配[1]的方法,基于支持向量機(jī)(Support Vector Machine, SVM)分類器的方法[2]。為了進(jìn)一步提高SAR圖像目標(biāo)識別性能,除了完善預(yù)處理方法以及改進(jìn)現(xiàn)有分類器性能等手段外,融合SAR圖像中多種與類別相關(guān)的信息也是一種可行的途徑。Sun等人[3]使用Adaptive Boosting(AdaBoost)框架將多個(gè)弱分類器融合起來進(jìn)行SAR目標(biāo)識別。Papson等人[4]利用多幅SAR圖像中陰影區(qū)域進(jìn)行目標(biāo)識別。文獻(xiàn)[5]中通過融合目標(biāo)輪廓和陰影輪廓信息進(jìn)行SAR圖像目標(biāo)識別。文獻(xiàn)[6]中通過多層編碼器對目標(biāo)圖像與陰影輪廓進(jìn)行聯(lián)合特征提取并用于SAR目標(biāo)識別。另外,Zhang等人[7]利用多幅SAR目標(biāo)圖像的聯(lián)合稀疏表示進(jìn)行目標(biāo)識別,并取得較好效果。

        SAR目標(biāo)識別可以看作是一個(gè)模式識別問題。近年來,稀疏表示在模式識別領(lǐng)域得到了廣泛的應(yīng)用[5-10]。稀疏表示方法將觀測信號分解為給定字典中少數(shù)信號(又叫做原子)的線性組合。類似于傳統(tǒng)的最小二乘解,稀疏表示也是追求對觀測信號的最佳重構(gòu)。但不同的是,所使用的表示系數(shù)中只有少量元素具有非零值,而其他元素均為0。在很多模式識別應(yīng)用中[7-12],由于信號的稀疏表示可以較好地重構(gòu)原始信號,稀疏表示被視為與原始信號對應(yīng)的某種特征使用。例如:Wright等人[8]提出的基于稀疏表示的識別方法(Sparse Representation-based Classification, SRC)在人臉識別方面取得較好效果。該方法將訓(xùn)練樣本數(shù)據(jù)作為字典,通過測試數(shù)據(jù)在該字典下的稀疏表示進(jìn)行識別。Zhang等人[9]通過求解多視角數(shù)據(jù)的動(dòng)態(tài)聯(lián)合稀疏表示進(jìn)行人臉識別。Maurer等人[10]通過稀疏表示模型進(jìn)行多任務(wù)學(xué)習(xí)和遷移學(xué)習(xí);Gu等人[11]在行為識別中也引入了非負(fù)稀疏表示模型。最近,Wang等人[12]從最大化間隔角度將SRC方法解釋為一種間隔分類器。

        在上述方法的啟發(fā)下,本文提出一種陰影區(qū)域與目標(biāo)區(qū)域圖像聯(lián)合的稀疏表示模型。通過使用12ll范數(shù)最小化方法求解該模型得到聯(lián)合的稀疏表示,再根據(jù)聯(lián)合重構(gòu)誤差最小準(zhǔn)則進(jìn)行SAR圖像目標(biāo)識別。在MSTAR數(shù)據(jù)集上的試驗(yàn)表明,通過聯(lián)合稀疏表示模型可以有效地將目標(biāo)區(qū)域與陰影區(qū)域信息融合起來,比僅使用單獨(dú)區(qū)域圖像的稀疏表示識別方法識別精度更高。甚至在只使用一幅SAR圖像的情況下識別性能可接近Zhang等人[7]通過多幅SAR圖像聯(lián)合識別的結(jié)果。另外,采用聯(lián)合稀疏表示模型的識別方法對SAR圖像分割質(zhì)量魯棒性強(qiáng),因此具有較好的推廣性。

        2 聯(lián)合稀疏表示

        2.1 共享字典聯(lián)合稀疏表示模型

        文獻(xiàn)[7]中,將N幅同一目標(biāo)的SAR圖像集=Y [y1,y2,…,yN]融合為如式(1)所示的聯(lián)合稀疏表示模型:

        2.2 獨(dú)立字典的聯(lián)合稀疏表示模型

        我們知道,地面目標(biāo)的SAR圖像中除了包含目標(biāo)散射回波形成的區(qū)域,還包括由目標(biāo)遮擋地面形成的陰影區(qū)域。通過稀疏表示進(jìn)行分類的方法主要利用了圖像中強(qiáng)度值較大區(qū)域的信息(一般情況下為目標(biāo)散射的回波形成),而對于陰影部分的信息并未加以利用。而文獻(xiàn)[4]表明陰影中具有對識別可用的信息。一方面,目標(biāo)區(qū)域和陰影區(qū)域圖像產(chǎn)生原理不同,其圖像特性也不相同;另一方面,同一目標(biāo)的目標(biāo)區(qū)域與陰影區(qū)域又具有一一對應(yīng)的關(guān)系。于是本文將具有相同稀疏模式的約束應(yīng)用于目標(biāo)區(qū)域和陰影區(qū)域圖像,提出如式(2)所示的基于獨(dú)立字典的聯(lián)合稀疏表示模型以融合圖像中的目標(biāo)區(qū)域和陰影區(qū)域信息:

        其中,ty表示目標(biāo)區(qū)域圖像,sy表示陰影區(qū)域圖像,Dt為目標(biāo)區(qū)域所使用的字典,Ds為陰影區(qū)域所使用的字典;X=[xt,xs]為聯(lián)合稀疏表示矩陣,xt對應(yīng)為目標(biāo)區(qū)域的稀疏表示,xs為陰影區(qū)域的稀疏表示;表示矩陣的l1l2混合范數(shù),即:先對矩陣的行向量求2l范數(shù),然后再對結(jié)果向量求1l范數(shù)。由于將原有的02ll混合范數(shù)松弛為12ll混合范數(shù),該模型可以采用凸優(yōu)化方法進(jìn)行求解。通過引入拉格朗日乘子λ,上述模型可以進(jìn)一步轉(zhuǎn)化為

        上述模型中聯(lián)合稀疏表示系數(shù)分別對應(yīng)不同的字典,所以稱該模型為獨(dú)立字典的聯(lián)合稀疏表示模型。

        3 JSRI(Joint Sparse Representation with Independent dictionary)算法

        雖然對于獨(dú)立字典的聯(lián)合稀疏表示模型可以采用傳統(tǒng)的“內(nèi)點(diǎn)法”進(jìn)行求解,但在實(shí)際應(yīng)用中,出于對計(jì)算效率和問題規(guī)模的考慮,需要采用只用向量矩陣乘積操作的一階方法。文獻(xiàn)[13]證明,F(xiàn)ISTA(Fast Iterative Shrinkage Thresholding Algorithm)方法可以達(dá)到O(1/k2)的收斂率,為目前一階方法中可以證明的最優(yōu)收斂率。

        3.1 優(yōu)化求解

        本節(jié)給出基于FISTA方法的獨(dú)立字典聯(lián)合稀疏表示求解算法。

        表1 JSRI算法

        由于算法收斂速度較快,上述JSRI算法可采用固定迭代次數(shù)的方式,或者設(shè)定kX相對變化門限的方式作為停止條件。另外,算法的收斂性證明可以參考文獻(xiàn)[13]。

        3.2 應(yīng)用FISTA求解聯(lián)合稀疏表示模型

        定義1 (按矩陣行的軟閾值操作RST(Row based Soft-Thresholding))給定矩陣M∈?n×m,閾值v>0,則對矩陣MRSTv(?)操作定義為

        Mi?表示矩陣的第i行。

        由于獨(dú)立字典的聯(lián)合稀疏表示模型為凸優(yōu)化問題,通過對偶原理及文獻(xiàn)[14,15]中相似的推導(dǎo)過程可得到如下定理:

        3.3 JSRI算法復(fù)雜度分析

        本節(jié)將討論文中提出的JSRI算法的時(shí)間復(fù)雜度。對于式(3)的問題,本文主要運(yùn)行時(shí)間消耗在計(jì)算鄰近點(diǎn)操作pL(Zk)上。假定模型中所使用的字典Dt,Ds∈,那么求解梯度?f (Zk)的復(fù)雜度為O(dn)。而用于進(jìn)行RST操作的復(fù)雜度為O(d)。總體進(jìn)行pL(Zk)操作的復(fù)雜度為O(dn)。若算法循環(huán)次數(shù)為k次,那么JSRI算法的時(shí)間復(fù)雜度為O(kdn)。在實(shí)際應(yīng)用過程中,通常只需較少迭代次數(shù)算法就可以收斂,故JSRI算法的運(yùn)行時(shí)間只與數(shù)據(jù)維度d和字典中原子個(gè)數(shù)n有關(guān)。

        4 聯(lián)合陰影區(qū)域與目標(biāo)區(qū)域圖像的SAR目標(biāo)識別

        4.1 陰影區(qū)域和目標(biāo)區(qū)域提取

        此時(shí)外面雨勢稍減,方從云朝張位拱了拱手,閃身便出了轎子,張位連忙掀開窗簾去看,哪里還有方從云的影子?倒是一直在旁邊躲雨的二管家嚇了一跳,迎上前來:“老爺可有什么吩咐?這雨太大了,我讓轎夫們先歇歇……”

        目前有許多SAR圖像分割方法可用于提取目標(biāo)與陰影區(qū)域,如基于條件三元馬爾科夫場的方法[16]等。由于本文的重點(diǎn)并不是尋找一種最優(yōu)的分割方法,而是關(guān)注所提出的JSRI模型融合目標(biāo)與陰影信息后,與單獨(dú)使用某種信息相比,對識別效果所帶來的改善。所以文中采用比較簡單的閾值分割方法進(jìn)行SAR目標(biāo)和陰影區(qū)域的提取。在SAR圖像中,目標(biāo)區(qū)域像素一般具有較高的強(qiáng)度值,而陰影區(qū)域具有較低的強(qiáng)度值。我們首先根據(jù)預(yù)先設(shè)定的閾值a,b∈[0,1],將SAR圖像中像素值按照從大到小排序,選取比例為[0,a]的大像素作為目標(biāo)區(qū)域,同時(shí)選取比例為[,1]b的小像素作為陰影區(qū)域。為了去除孤立點(diǎn),接著對得到的目標(biāo)區(qū)域和陰影區(qū)域二值圖像進(jìn)行形態(tài)學(xué)濾波。圖1給出了一幅BMP2目標(biāo)SAR圖像經(jīng)過分割后得到的結(jié)果。其中,圖1(a)為原始圖像,圖1(b)為使用閾值a分割出目標(biāo)區(qū)域后得到的目標(biāo)區(qū)域圖像,圖1(c)為使用閾值b分割出陰影區(qū)域后得到的陰影區(qū)域圖像。由于陰影區(qū)域的實(shí)際回波值強(qiáng)度較小,為了增強(qiáng)陰影區(qū)域?qū)Ψ诸惖挠绊?,將陰影區(qū)域像素值置為1減去原始幅值,背景像素值賦為0。

        4.2 隨機(jī)投影降維

        將分割得到的圖像數(shù)據(jù)列向量化后得到的數(shù)據(jù)維度通常較高,需要采用有效的降維方法對其進(jìn)行處理。本文采用稀疏表示分類方法中常用的隨機(jī)投影法[17]。給定原始的特征向量維數(shù)d和降維后的維數(shù)r,產(chǎn)生一個(gè)具有獨(dú)立同標(biāo)準(zhǔn)正態(tài)分布的隨機(jī)矩陣P∈,將矩陣P左乘原始的特征向量S,以得到降維后的向量=PS∈。訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)采用相同的隨機(jī)投影矩陣P進(jìn)行降維。

        圖1 SAR圖像目標(biāo)區(qū)域與陰影區(qū)域提取示意圖

        4.3 字典構(gòu)造

        由于目標(biāo)區(qū)域與陰影區(qū)域圖像不同,我們采用獨(dú)立字典的聯(lián)合稀疏表示模型,因此需要對陰影區(qū)域和目標(biāo)區(qū)域圖像分別構(gòu)造字典。給定u類訓(xùn)練樣本,第i類訓(xùn)練樣本個(gè)數(shù)為in。將降維后的第i類目標(biāo)區(qū)域特征按列拼接成一個(gè)大小為r×ni的矩陣,稱為第i類目標(biāo)區(qū)域子字典。然后將所有目標(biāo)區(qū)域子字典連接起來就是所用的目標(biāo)區(qū)域字典。按照與目標(biāo)區(qū)域相同的順序?qū)⒔稻S后的第i類陰影區(qū)域特征拼接成一個(gè)大小為r×ni的矩陣,稱為第i類陰影區(qū)域子字典。接著將所有連接成。最后將字典中每一列原子按照l2范數(shù)進(jìn)行能量歸一化。

        4.4 分類準(zhǔn)則

        4.5 聯(lián)合陰影與目標(biāo)區(qū)域圖像的SAR目標(biāo)識別過程

        聯(lián)合陰影與目標(biāo)區(qū)域圖像的SAR目標(biāo)識別方法的流程如圖2所示,下面對訓(xùn)練階段與測試階段分別進(jìn)行介紹。

        (1)訓(xùn)練階段 首先,通過分割算法提取出SAR圖像中的目標(biāo)區(qū)域圖像數(shù)據(jù)St和陰影區(qū)域圖像數(shù)據(jù)Ss。然后根據(jù)原始樣本維數(shù)d和設(shè)定的降維維數(shù)r生成一個(gè)隨機(jī)高斯矩陣P∈。計(jì)算降維后的目標(biāo)區(qū)域特征數(shù)據(jù)=PSt和陰影區(qū)域數(shù)據(jù)= PSs。最后,將降維后的數(shù)據(jù)矩陣和進(jìn)行能量歸一化得到數(shù)據(jù)字典Dt和Ds,同時(shí)記錄各原子對應(yīng)的類別標(biāo)號。

        (2)測試階段 采用與訓(xùn)練階段相同的分割算法提取測試圖像y對應(yīng)的目標(biāo)區(qū)域圖像數(shù)據(jù)yt和陰影區(qū)域圖像數(shù)據(jù)ys。接著使用訓(xùn)練階段生成的隨機(jī)高斯矩陣P對yt和ys進(jìn)行降維。然后通過JSRI算法求解得到聯(lián)合稀疏表示系數(shù)xt和xs。最后根據(jù)聯(lián)合稀疏表示系數(shù)xt和xs計(jì)算各子類聯(lián)合重構(gòu)誤差,按照4.4節(jié)的分類準(zhǔn)則得到分類結(jié)果c。為了敘述方便,我們將采用JSRI算法的分類方法記為JSRC (Joint Sparse Representation with independent dictionary based Classification)。

        5 實(shí)驗(yàn)結(jié)果與分析

        圖2 聯(lián)合陰影與目標(biāo)區(qū)域圖像的SAR目標(biāo)識別方法流程圖

        本節(jié)所用的實(shí)驗(yàn)數(shù)據(jù)是美國國防預(yù)研計(jì)劃署和空軍研究實(shí)驗(yàn)室(DARPA/AFRL)聯(lián)合資助的運(yùn)動(dòng)和靜止目標(biāo)獲取與識別(MSTAR)計(jì)劃錄取的實(shí)測SAR地面靜止目標(biāo)數(shù)據(jù)。該數(shù)據(jù)是由X波段聚束式SAR采集得到。圖像大小為128×128像素,分辨率為0.3 m×0.3 m。該數(shù)據(jù)集包含了俯仰角為15°和17°下的3類目標(biāo)共7種型號:BMP2(包含3個(gè)型號:SNC21, SN9563, SN9566), BTR70(包含1個(gè)型號:C71), T72(包含3個(gè)型號:SN132, SN812, SNS7)。本節(jié)實(shí)驗(yàn)主要涉及兩種典型的目標(biāo)識別場景:3類目標(biāo)識別場景和7種型號識別場景。其中,3類目標(biāo)識別場景主要驗(yàn)證識別算法對屬于同一類型但不同型號的目標(biāo)的識別能力;7種型號識別場景主要驗(yàn)證在不同類別數(shù)據(jù)具有較大相似情況下算法的識別能力。各場景使用的具體樣本數(shù)目如表2和表3所示。兩種場景中均使用俯仰角17°下的圖像數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),俯仰角15°下的圖像數(shù)據(jù)作為測試數(shù)據(jù)。

        為了驗(yàn)證本文算法的有效性,將本文JSRC方法與只使用目標(biāo)區(qū)域數(shù)據(jù)的SRC方法(記為SRCT),只使用陰影區(qū)域數(shù)據(jù)的SRC方法(記為SRC-S)以及SVM算法在兩種SAR目標(biāo)識別場景上進(jìn)行性能比較。其中,SVM分類實(shí)驗(yàn)采用LIBSVM算法包[18]進(jìn)行求解,多類分類策略采用一對多策略[19]。懲罰參數(shù)C從集合[10-4,10-2,…,102,103]中,通過10折交叉驗(yàn)證選取。如無特別說明,實(shí)驗(yàn)中所用分割閾值a=0.05, b=0.20。文中所有結(jié)果均為獨(dú)立進(jìn)行5次實(shí)驗(yàn)以后取平均值得到。

        5.1 聯(lián)合陰影和目標(biāo)區(qū)域的SAR目標(biāo)識別

        本節(jié)選取兩種實(shí)驗(yàn)場景設(shè)置,對比JSRC和SRC-T, SRC-S以及SVM算法的識別性能。實(shí)驗(yàn)中降維維度r選取[50, 100, 200, 300, 500],圖3給出了實(shí)驗(yàn)結(jié)果。由圖可知,在各種降維維度下JSRC識別性能是4種算法中性能最好的。如圖3所示,無論是3類識別場景還是7種型號識別場景,JSRC算法要都比SRC-T算法識別率高出大約2個(gè)百分點(diǎn)。并且在3類識別場景中,數(shù)據(jù)維度為500維時(shí)本文提出的JSRC算法已可達(dá)到93.6%的識別率。在文獻(xiàn)[7]中,通過將3幅方位角度間隔為1°~3°的同目標(biāo)圖像聯(lián)合進(jìn)行識別,并且在降維維度為512時(shí)才可達(dá)到94.1%。而本文提出的JSRC算法只需要一幅目標(biāo)圖像就可以達(dá)到相近的識別結(jié)果??梢姴捎锚?dú)立字典的聯(lián)合稀疏表示模型可以有效地利用陰影區(qū)域信息,從而提升識別性能。

        我們知道,陰影區(qū)域不包含強(qiáng)度信息,只是目標(biāo)形狀遮擋地面反射回波形成。所以即使各類目標(biāo)的散射特性有所差異,但如果在雷達(dá)視線方向投影出的形狀大體相似,則成像后形成的陰影區(qū)域也會(huì)很相似。因此單純借助陰影區(qū)域進(jìn)行識別的性能較差,且對目標(biāo)姿態(tài)變化敏感(文獻(xiàn)[4])。而單純采用目標(biāo)區(qū)域進(jìn)行識別雖然可以達(dá)到較好的識別結(jié)果,卻損失了陰影區(qū)域中的有用信息。由于目標(biāo)區(qū)域與陰影區(qū)域這兩種信息在識別性能方面的差異較大,使得傳統(tǒng)的融合方法(如:投票法)很難奏效。要想將陰影信息合理有效地融合進(jìn)目標(biāo)識別任務(wù)中,就必須采用保守的融合方式,即:只利用兩種信息之間的必然聯(lián)系。為了進(jìn)一步說明,我們給出某幅BMP2圖像在SRC-T, SRC-S以及JSRC算法中求得的稀疏表示系數(shù)示意圖(見圖4)。其中虛線將圖像劃分成的3個(gè)區(qū)域分別對應(yīng)3個(gè)不同的類別,從左到右依次為BMP2, BTR70和T72。如圖4所示,若單從目標(biāo)區(qū)域的稀疏表示來看,該類型應(yīng)該屬于BTR70,但是與BMP2類別之間的差異并不顯著。而單從陰影的稀疏表示來看,該類型會(huì)被判定屬于T72??梢妴渭円蕾嚹撤N信息得到的判決結(jié)果之間存在矛盾。本文JSRC算法在構(gòu)造字典時(shí)對tD和sD使用了相同的拼接順序,測試時(shí)通過12ll混合范數(shù)強(qiáng)迫聯(lián)合稀疏表示系數(shù)中tx和sx所選原子具有相同的位置(如圖4(c)所示)。因此利用了目標(biāo)與陰影之間應(yīng)該具有的對應(yīng)關(guān)系,使得到的聯(lián)合稀疏表示更加合理,從而提升了識別性能。

        表2 3類目標(biāo)識別場景使用的訓(xùn)練和測試數(shù)據(jù)個(gè)數(shù)

        表3 7種型號識別場景使用的訓(xùn)練和測試數(shù)據(jù)個(gè)數(shù)

        圖3 聯(lián)合陰影和目標(biāo)區(qū)域的SAR目標(biāo)識別結(jié)果

        圖4 某幅BMP2測試圖像在3種算法中求得的稀疏表示系數(shù)

        5.2 分割閾值對識別性能的影響

        本節(jié)選取3類識別場景,測試JSRC算法受圖像分割質(zhì)量影響的程度。本節(jié)實(shí)驗(yàn)中隨機(jī)降維維度固定為500維,高強(qiáng)度分割閾值a取值范圍為[0.03, 0.04,0.05,0.06,0.07],低強(qiáng)度分割閾值b取值范圍為[0.30,0.25,0.20,0.15,0.10]。如圖5所示,識別率隨分割閾值的變化情況不大,平均識別率達(dá)到93.26%,標(biāo)準(zhǔn)差為0.0088。由此我們可看出JSRC算法受分割質(zhì)量的好壞影響不大,因此可更好地應(yīng)用于SAR目標(biāo)識別任務(wù)。

        6 結(jié)束語

        圖5 識別率隨分割閾值的變化

        地面SAR目標(biāo)圖像由目標(biāo)區(qū)域和陰影區(qū)域兩部分組成,如何充分而合理地利用SAR圖像中的信息是提升SAR目標(biāo)識別性能的關(guān)鍵。本文提出了一種聯(lián)合陰影區(qū)域與目標(biāo)區(qū)域圖像的SAR目標(biāo)識別方法。該方法通過引入獨(dú)立字典的聯(lián)合稀疏表示模型達(dá)到了陰影區(qū)域與目標(biāo)區(qū)域信息的有效融合。實(shí)驗(yàn)表明,該方法不僅可以進(jìn)一步提高SAR目標(biāo)識別精度,并且受SAR圖像分割質(zhì)量影響較小,具有較好的推廣性。另外,本文模型中的字典是由訓(xùn)練樣本直接構(gòu)成的,如何通過機(jī)器學(xué)習(xí)的方法學(xué)習(xí)出識別性能更好,結(jié)構(gòu)更緊湊的字典是需要進(jìn)一步研究的問題。

        [1] 張紅, 王超, 張波, 等. 高分辨率SAR圖像目標(biāo)識別[M]. 北京: 科學(xué)出版社, 2009: 5.2節(jié).

        Zhang Hong, Wang Chao, Zhang Bo, et al.. High Resolution SAR Image Target Recognition[M]. Beijing: Science Press, 2009: Chapter 5.2.

        [2] Zhao Qun and Principe J C, et al.. Support vector machines for SAR automatic target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2001, 37(2): 643-655.

        [3] Sun Yi-jun, Liu Zhi-peng, Todorovics S, et al.. Adaptive boosting for synthetic aperture radar automatic target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2007, 43(1): 112-125.

        [4] Scott P and Narayanan R M. Classification via the shadow region in SAR imagery[J]. IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(2): 969-980.

        [5] 尹奎英, 金林, 李成, 等. 融合目標(biāo)輪廓和陰影輪廓的SAR圖像目標(biāo)識別[J]. 空軍工程大學(xué)學(xué)報(bào)(自然科學(xué)版), 2011, 12(1): 24-28.

        Yin Kui-ying, Jin Lin, Li Cheng, et al.. An SAR ATR based on fusion of target contour and shadow contour[J]. Journal of Air Force Engineering University (Natural Science Edition), 2011, 12(1): 24-28.

        [6] 孫志軍, 薛磊, 許陽明, 等. 基于多層編碼器的SAR目標(biāo)及陰影聯(lián)合特征提取算法[J]. 雷達(dá)學(xué)報(bào), 2013, 2(2): 203-209.

        Sun Zhi-jun, Xue Lei, Xu Yang-ming, et al.. Shared representation of SAR target and shadow based on multilayer auto-encoder[J]. Journal of Radars, 2013, 2(2): 203-209.

        [7] Zhang Hai-chao, Nasrabadic N M, Zhang Yan-ning, et al.. Multi-view automatic target recognition using joint sparse representation[J]. IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(3): 2481-2497.

        [8] Wright J, Yang A Y, et al.. Robust face recognition via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 210-227.

        [9] Zhang Hai-chao, Nasrabadic N M, Zhang Yan-ning, et al.. Joint dynamic sparse representation for multi-view face recognition[J]. Pattern Recognition, 2012, 45(4): 1290-1298. [10] Maurer A, Pontil M, and Romera-Paredes B. Sparse coding for multitask and transfer learning[C]. Proceedings of the International Conference on Machine Learning, Atlanta, 2013: 343-351.

        [11] Gu H T and Ward R K. Learning sparse representations for human action recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(8): 1576-1588.

        [12] Wang Zhao-wen, Yang Jian-chao, et al.. A max-margin perspective on sparse representation-based classification[C]. Proceedings of the IEEE International Conference on Computer Vision, Sydney, 2013: 1217-1224.

        [13] Amir Beck and Marc Teboulle. A fast iterative shrinkagethresholding algorithm for linear inverse problems[J]. Society for Industrial and Applied Mathematics Journal on Imaging Sciences, 2009, 2(1): 183-202.

        [14] Chen Xi, Lin Qi-hang, et al.. Smoothing proximal gradient method for general structured sparse regression[J]. The Annals of Applied Statistics, 2012, 6(2): 719-752.

        [15] Francis B, Rodolphe J, et al.. Structured sparsity through convex optimization[J]. Statistical Science, 2012, 27(4): 450-468.

        [16] Lian Xiao-jie, Wu Yan, Zhao Wei, et al.. Unsupervised SAR image segmentation based on conditional triplet markov fields[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(7): 1185-1189.

        [17] Baraniuk R and Wakin M. Random projections of smooth manifolds[J]. Foundations of Computational Mathematics, 2009, 9(1): 51-77.

        [18] Chang Chih-chung and Lin Chih-jen. LIBSVM: a library for support vector machines[J]. ACM Transactions on Intelligent Systems and Technology, 2011, 2(3): 1-27.

        [19] Bishop C M. Pattern Recognition and Machine Learning [M]. New York: Springer, 2008: 200-201.

        丁 軍: 男,1982年生,博士生,研究方向?yàn)槔走_(dá)目標(biāo)識別.

        劉宏偉: 男,1971年生,教授,博士生導(dǎo)師,實(shí)驗(yàn)室主任,研究方向?yàn)樽赃m應(yīng)信號處理、雷達(dá)信號處理、雷達(dá)目標(biāo)識別等.

        王英華: 女,1982年生,副教授,碩士生導(dǎo)師,研究方向?yàn)镾AR圖像目標(biāo)檢測與識別.

        SAR Target Recognition by Combining Images of the Shadow Region and Target Region

        Ding Jun Liu Hong-wei Wang Ying-hua Wang Zheng-jue Qi Hui-jiao Shi Li-hui
        (National Laboratory of Radar Signal Processing, Xidian University, Xi’an 710071, China)

        SAR image of the ground target contains the target region formed by the scattered echoes of the target as well as the shadow area. However, the characteristics of the two areas are essentially different, therefore the traditional SAR image Automatic Target Recognition (ATR) methods use mainly target area information alone or shadow region only for recognition. This paper presents a joint sparse representation model by combining images of the shadow region and target region. By using the 12ll norm minimization method to solve the joint sparse representation model, the SAR image target recognition is achieved by minimizing the joint reconstruction error. Recognition results on Moving and Stationary Target Acquisition and Recognition (MSTAR) data sets show that the joint sparse representation model can effectively fuse the information within the target region and shadow region, and it has much better recognition performance than the methods using only the target or shadow area information of the image.

        SAR; Target recognition; Joint sparse representation; 12ll-norm minimization

        TN957.51

        A

        1009-5896(2015)03-0594-07

        10.11999/JEIT140713

        2014-05-23收到,2014-09-17改回

        國家自然科學(xué)基金(61201292, 61322103, 61372132),全國優(yōu)秀博士學(xué)位論文作者專項(xiàng)資金(FANEDD-201156),國家部委基金和中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資金資助課題

        *通信作者:丁軍 dingjun410@gmail.com

        猜你喜歡
        區(qū)域方法模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        可能是方法不對
        3D打印中的模型分割與打包
        關(guān)于四色猜想
        分區(qū)域
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        捕魚
        日韩av中文字幕亚洲天| 国产一区二区三区乱码在线| 蜜桃视频在线在线观看| 日韩欧美中文字幕公布| 亚洲av日韩av在线观看| 精品一区二区三区在线观看| 日韩美无码一区二区三区| 口爆吞精美臀国产在线| 国产午夜片无码区在线播放 | 国内自拍色第一页第二页| 人妻色综合网站| 色窝窝在线无码中文| 丝袜AV在线一区二区三区| 天堂岛国精品在线观看一区二区| 国产精品国产三级国产剧情| 国产自拍精品视频免费| 国产精品无码无片在线观看3d| 欧美日韩亚洲成人| 日韩丝袜人妻中文字幕| 中国亚洲一区二区视频| 狠狠色噜噜狠狠狠狠米奇777| 日日摸夜夜欧美一区二区| 国产青春草在线观看视频| 少妇被猛烈进入到喷白浆| 明星性猛交ⅹxxx乱大交| 欧美韩国精品另类综合| 亚洲av日韩精品一区二区| 国产日产亚洲系列最新| 久久久久久曰本av免费免费| 国产精品11p| 小草手机视频在线观看| 久久无码高潮喷水抽搐| 一本色道久久88亚洲精品综合| 成人做爰69片免费看网站| 日韩欧美国产自由二区| 国产成人高清视频在线观看免费| √天堂资源中文www| 亚洲欧洲日产国码高潮αv| 国产一区二区三区视频免费在线| 少妇太爽了在线观看免费| 亚洲中文字幕久在线|