亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于壓縮感知的SAR圖像目標(biāo)識(shí)別

        2012-09-30 01:38:04張順生
        火控雷達(dá)技術(shù) 2012年4期
        關(guān)鍵詞:訓(xùn)練樣本識(shí)別率類(lèi)別

        方 慶 張順生 段 昶

        (電子科技大學(xué) 成都 611731)

        1 引言

        當(dāng)前合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)圖像解譯系統(tǒng)的發(fā)展遠(yuǎn)滯后于信息源的獲取能力,SAR圖像自動(dòng)目標(biāo)識(shí)別作為SAR圖像解譯和分析的重要組成部分,具有重要的民用和軍事價(jià)值,日益成為國(guó)內(nèi)外圖像處理和模式識(shí)別領(lǐng)域的研究熱點(diǎn)。壓縮感知(Compressed Sensing,CS)理論是近年來(lái)提出的一種信號(hào)表示和壓縮方法,其關(guān)鍵是信號(hào)的稀疏表示問(wèn)題[1,2],由于其有效地改善了信號(hào)的采樣和壓縮能力,目前在無(wú)線通信、雷達(dá)成像、醫(yī)學(xué)圖像等領(lǐng)域受到高度關(guān)注。

        近年來(lái),壓縮感知理論被逐漸引入到模式識(shí)別的各個(gè)領(lǐng)域,特別是在人臉識(shí)別領(lǐng)域的成功應(yīng)用,取得了良好的識(shí)別效果[3,4]。與信號(hào)壓縮應(yīng)用中可以由多種標(biāo)準(zhǔn)基任意構(gòu)造稀疏表示的稀疏基不同,人臉識(shí)別應(yīng)用時(shí)需由訓(xùn)練樣本構(gòu)造稀疏基,測(cè)試樣本表示為稀疏基的線性組合。當(dāng)假設(shè)任意亮度和表情變化的人臉圖像取決于一個(gè)低維的人臉子空間時(shí),利用壓縮感知的重構(gòu)算法,可以從稀疏表示的結(jié)果中精確恢復(fù)出人臉圖像的表示,根據(jù)各類(lèi)訓(xùn)練樣本的重構(gòu)圖像與測(cè)試樣本之間的距離度量實(shí)現(xiàn)對(duì)目標(biāo)的有效識(shí)別?;谶@種基本思路,壓縮感知理論又被進(jìn)一步引入到人臉表情識(shí)別[5]和三維人臉識(shí)別[6]等領(lǐng)域。

        本文主要研究將壓縮感知理論應(yīng)用于SAR圖像目標(biāo)識(shí)別,以獲得對(duì)SAR目標(biāo)更優(yōu)的識(shí)別性能。但是值得注意是,通常SAR圖像反應(yīng)了圖像像素與散射系數(shù)之間的對(duì)應(yīng)關(guān)系,不像普通的光學(xué)圖像能較完整地反應(yīng)目標(biāo)的整體形狀,而且SAR圖像對(duì)成像的方位角較敏感,相同目標(biāo)在不同方位角下的成像結(jié)果區(qū)別很大,因此,SAR圖像難以由訓(xùn)練樣本的稀疏線性表示精確重構(gòu),所以,通過(guò)重構(gòu)圖像與測(cè)試樣本之間的距離度量無(wú)法實(shí)現(xiàn)對(duì)目標(biāo)的正確識(shí)別。

        為解決上述問(wèn)題,本文將壓縮感知應(yīng)用于SAR圖像目標(biāo)識(shí)別時(shí),將精簡(jiǎn)傳統(tǒng)壓縮感知識(shí)別算法中的樣本重構(gòu)和距離度量步驟,從稀疏表示時(shí)系數(shù)向量的分布特性角度,直接考察稀疏表示中測(cè)試樣本的真實(shí)類(lèi)別相對(duì)于其它類(lèi)別之間的可區(qū)分能力,根據(jù)系數(shù)向量的分布特點(diǎn)設(shè)計(jì)分類(lèi)算法,實(shí)現(xiàn)對(duì)目標(biāo)的有效識(shí)別。

        2 樣本的稀疏表示與求解

        壓縮感知理論的一個(gè)重要研究?jī)?nèi)容是稀疏基的構(gòu)造問(wèn)題,稀疏基的選擇對(duì)信號(hào)表示的稀疏性有直接影響。在信號(hào)壓縮應(yīng)用中,稀疏基可以選擇多種標(biāo)準(zhǔn)基(如 Fourier、Wavelet、Curvelet和Gabor基)構(gòu)造。但是在目標(biāo)識(shí)別應(yīng)用中,稀疏基需由訓(xùn)練樣本構(gòu)成,測(cè)試樣本表示為稀疏基的線性組合。理想情況下,當(dāng)可利用的訓(xùn)練樣本數(shù)量充足時(shí),可以將測(cè)試樣本僅僅表示為與該測(cè)試樣本同類(lèi)型的訓(xùn)練樣本的線性組合,因此,測(cè)試樣本基于全體訓(xùn)練樣本的線性組合實(shí)際上只依賴(lài)于部分訓(xùn)練樣本,滿足壓縮感知中對(duì)信號(hào)稀疏性的要求。通過(guò)求解最優(yōu)化問(wèn)題得到稀疏表示的系數(shù)向量,基于該系數(shù)向量可以實(shí)現(xiàn)對(duì)測(cè)試樣本的有效識(shí)別。

        模式識(shí)別的基本問(wèn)題是利用已知類(lèi)別的訓(xùn)練樣本將測(cè)試樣本標(biāo)記為正確的類(lèi)別。由第i類(lèi)目標(biāo)的ni個(gè)訓(xùn)練樣本組成矩陣的列向量集Ai=[vi,vi,…,vi,n1]∈Rm×ni,在 SAR 圖像目標(biāo)識(shí)別中,矩陣的列向量v∈Rm(m=w×h)由SAR圖像(大小為w×h)的列向量收尾相接而成,因此Ai的列向量是第i類(lèi)SAR圖像訓(xùn)練樣本。

        當(dāng)?shù)趇類(lèi)目標(biāo)具有足夠多的訓(xùn)練樣本,即Ai=[vi,1,vi,2,…,vi,ni]∈Rm×ni時(shí),任意同類(lèi)別的測(cè)試樣本y∈Rm可以近似表示為該類(lèi)訓(xùn)練樣本的線性組合:

        其中 αi,j∈ R,j=1,2,…,ni是線性表示的系數(shù)。

        當(dāng)測(cè)試樣本的類(lèi)別i未知時(shí),定義所有k類(lèi)n個(gè)訓(xùn)練樣本集組成矩陣A,即:

        因此測(cè)試樣本y在全體訓(xùn)練樣本下的線性表示為:

        其中 x0= [0,…,0,αi,1,αi,2,…,αi,ni,0,…,0]T∈ Rn是系數(shù)向量。理想情況下,x0中只有與測(cè)試樣本同類(lèi)的第i類(lèi)訓(xùn)練樣本系數(shù)可能非0,其它類(lèi)系數(shù)都為0。

        由于稀疏線性表示的系數(shù)向量x0含有未知目標(biāo)類(lèi)別的信息,因此,通過(guò)求解公式y(tǒng)=Ax可實(shí)現(xiàn)對(duì)目標(biāo)的識(shí)別。在SAR圖像目標(biāo)識(shí)別中,公式y(tǒng)=Ax通常是欠定的,沒(méi)有唯一解,不能通過(guò)求逆的方法直接求解。該問(wèn)題通??赊D(zhuǎn)化為l0范數(shù)下的最優(yōu)化問(wèn)題:

        公式(5)的求解是一個(gè)NP難題,難以直接求解。近年來(lái)對(duì)壓縮感知和稀疏表示的研究[7,8]表明:當(dāng)系數(shù)向量x0足夠稀疏時(shí),l0范數(shù)的最優(yōu)化問(wèn)題等價(jià)于l1范數(shù)的最優(yōu)化問(wèn)題:

        實(shí)際應(yīng)用中考慮到噪聲以及模型誤差等因素的影響,引入誤差容限ε,公式(6)的求解可以轉(zhuǎn)化為如下形式的最小l1范數(shù)問(wèn)題:

        通過(guò)求解該凸優(yōu)化問(wèn)題可以獲得稀疏表示的近似系數(shù)向量。

        這種測(cè)試樣本基于全體訓(xùn)練樣本的稀疏表示有三個(gè)特點(diǎn):a.訓(xùn)練樣本系數(shù)值的大小反應(yīng)了測(cè)試樣本與該訓(xùn)練樣本的相似性程度,系數(shù)值越大相似性越高,反之亦然;b.測(cè)試樣本的類(lèi)別不再依賴(lài)于單個(gè)或小部分訓(xùn)練樣本,而是由所有訓(xùn)練樣本系數(shù)的相對(duì)大小共同決定,避免了單個(gè)訓(xùn)練樣本最終決定測(cè)試樣本類(lèi)別的偶然性;c.當(dāng)訓(xùn)練樣本的種類(lèi)或數(shù)量越多時(shí),越容易取得更稀疏的樣本表示結(jié)果,也越有利于實(shí)現(xiàn)對(duì)樣本的正確識(shí)別。這些特點(diǎn)為后續(xù)識(shí)別算法的設(shè)計(jì)提供了指導(dǎo),有利于本文方法取得更好的識(shí)別率和魯棒性。

        3 基于壓縮感知的識(shí)別算法

        對(duì)于給定的測(cè)試樣本y和訓(xùn)練樣本集合,基于公式(7)的求解獲得稀疏表示的系數(shù)向量。理想情況下系數(shù)向量的非0系數(shù)應(yīng)該集中于測(cè)試樣本所屬類(lèi)上,只要提取出非0系數(shù)在中的位置就可以獲得測(cè)試樣本y的類(lèi)別。但是,實(shí)際應(yīng)用中受成像方位角、相干斑噪聲和模型誤差等因素影響,使得許多相對(duì)較小的非0系數(shù)分散到其它多個(gè)類(lèi)上,但是,總體上測(cè)試樣本y所屬類(lèi)中仍然集中了多數(shù)相對(duì)較大的非0系數(shù),由此可見(jiàn),稀疏表示的系數(shù)向量本身對(duì)測(cè)試樣本類(lèi)別具有可區(qū)分能力。因此,本文設(shè)計(jì)的分類(lèi)算法首先計(jì)算每一類(lèi)訓(xùn)練樣本的系數(shù)之和,然后將測(cè)試樣本歸類(lèi)到樣本系數(shù)之和最大的類(lèi)別。

        其中,ri(y)=sum[δi()]是向量 δi()的系數(shù)之和。下面總結(jié)了本文基于壓縮感知的SAR圖像目標(biāo)識(shí)別流程。其中l(wèi)1范數(shù)的最優(yōu)化問(wèn)題通過(guò)梯度投影法(Gradient Projection for Sparse Reconstruction,GPSR)求解[9]。

        步驟1輸入:k類(lèi)訓(xùn)練樣本組成的矩陣A=[A1,A2,…,Ak]∈Rm×n,任一測(cè)試樣本 y∈Rm。

        步驟2解最小l1范數(shù)問(wèn)題:

        4 實(shí)驗(yàn)結(jié)果與分析

        4.1 實(shí)驗(yàn)數(shù)據(jù)及其切片形式

        本文所用的研究數(shù)據(jù)是MSTAR計(jì)劃錄取的實(shí)測(cè)SAR地面靜止軍用目標(biāo)數(shù)據(jù)。包括3大類(lèi):BMP2(裝甲車(chē))、BMP70(裝甲車(chē))、T72(主戰(zhàn)坦克),成像分辨率是0.3m×0.3m,方位角覆蓋范圍是0~360°,圖像大小為128×128。實(shí)驗(yàn)使用該計(jì)劃推薦的訓(xùn)練樣本是目標(biāo)在俯視角為17°時(shí)的成像數(shù)據(jù),測(cè)試樣本是目標(biāo)在俯視角為15°時(shí)的成像數(shù)據(jù)。表1是本實(shí)驗(yàn)中訓(xùn)練樣本和測(cè)試樣本的類(lèi)別及其對(duì)應(yīng)的圖像數(shù)量。

        SAR圖像背景雜波和相干斑噪聲干擾,以及目標(biāo)的平移和目標(biāo)散射中心的不均勻分布都會(huì)影響識(shí)別性能。為了克服這些影響獲得利于識(shí)別的訓(xùn)練樣本矩陣A和待測(cè)樣本y,本文將對(duì)SAR圖像進(jìn)行必要的預(yù)處理,預(yù)處理步驟依次主要包括:基于馬爾可夫隨機(jī)場(chǎng)(Markov Random Field,MRF)的目標(biāo)分割[10]、形態(tài)學(xué)濾波和聚類(lèi)[11]、圖像增強(qiáng)和歸一化處理。最后,以目標(biāo)中心點(diǎn)為參考裁剪出直接用于識(shí)別的目標(biāo)切片圖像,目標(biāo)切片圖像的大小為50×50像素。

        表1 訓(xùn)練樣本、測(cè)試樣本類(lèi)別和數(shù)量

        4.2 稀疏系數(shù)分布

        根據(jù)第2節(jié)的分析可知,當(dāng)測(cè)試樣本的稀疏表示求解準(zhǔn)確時(shí),將得到具有可區(qū)分能力的系數(shù)向量,即系數(shù)向量的非0系數(shù)將主要集中于測(cè)試樣本所屬類(lèi)別的訓(xùn)練樣本上。本文通過(guò)實(shí)驗(yàn)考察測(cè)試樣本的總體系數(shù)分布和個(gè)別系數(shù)分布,從這兩個(gè)方面研究系數(shù)向量的這種分布特性。

        測(cè)試樣本的總體系數(shù)分布可通過(guò)所有單獨(dú)類(lèi)的總體系數(shù)分布來(lái)考察。假設(shè)(y1,y2,…,yN)是某一類(lèi)的所有 N 個(gè)測(cè)試樣本,(,…)是其對(duì)應(yīng)的N 個(gè)系數(shù)向量,定義S(y1,y2,…,yN)∈Rn為同一類(lèi)中所有測(cè)試樣本的系數(shù)向量的絕對(duì)值之和,(y1,y2,…,yN)∈Rn為 S(y1,y2,…,yN)的歸一化向量,則可通過(guò)(y1,y2,…,yN)來(lái)考察測(cè)試樣本的總體系數(shù)分布,即:

        圖1表明當(dāng)測(cè)試樣本的類(lèi)別分別為 BMP2、BTR70和T72時(shí)的總體系數(shù)分布情況。由圖可以看出,測(cè)試樣本在相同類(lèi)別訓(xùn)練樣本上的系數(shù)分布數(shù)值更大,密度更集中,從總體上直觀地反應(yīng)出本文方法可以實(shí)現(xiàn)對(duì)目標(biāo)的有效識(shí)別。

        圖2是在三類(lèi)目標(biāo)中任意抽取的單個(gè)測(cè)試樣本的系數(shù)分布。圖2(a)是預(yù)處理后分割出的圖像切片,圖2(b)是圖像切片基于訓(xùn)練樣本的系數(shù)分布??梢钥闯鰡蝹€(gè)測(cè)試樣本時(shí),系數(shù)向量的分布同樣集中于與之類(lèi)別相同的訓(xùn)練樣本上,因此,將測(cè)試樣本歸類(lèi)為樣本系數(shù)之和最大的類(lèi)別將有利于實(shí)現(xiàn)對(duì)目標(biāo)的正確識(shí)別。另外,注意到系數(shù)分布圖內(nèi)的圖像切片對(duì)應(yīng)于系數(shù)值最大的訓(xùn)練樣本,可以看出該訓(xùn)練樣本與測(cè)試樣本在目標(biāo)形狀和散射分布上都很相似,這說(shuō)明系數(shù)向量中的系數(shù)值大小反應(yīng)了測(cè)試樣本與訓(xùn)練樣本之間的相似程度。

        圖1 測(cè)試樣本的總體系數(shù)分布

        圖2 單個(gè)測(cè)試樣本的系數(shù)分布

        4.3 識(shí)別性能與比較

        最后,將通過(guò)識(shí)別率來(lái)考察本文方法的識(shí)別性能。識(shí)別率是測(cè)試樣本的正確識(shí)別數(shù)和總識(shí)別數(shù)的比值,是衡量識(shí)別算法的最重要指標(biāo)。表2給出了本文方法基于表1實(shí)驗(yàn)數(shù)據(jù)的識(shí)別率情況,可以看出本文方法對(duì)三類(lèi)典型目標(biāo)均取得了很高的識(shí)別率,其中對(duì)T72的識(shí)別率最高達(dá)到98.63%。

        表2 各類(lèi)目標(biāo)識(shí)別率(%)

        將本文基于壓縮感知的識(shí)別方法得到的識(shí)別率與其它幾種典型方法相比較,比較結(jié)果如表3所示。其中文獻(xiàn)[12]給出了一種支持向量機(jī)分類(lèi)方法,該方法沒(méi)有經(jīng)過(guò)特征提取,以30°為方位單元,在每個(gè)方位單元內(nèi)對(duì)圖像樣本用支持向量機(jī)完成分類(lèi)。文獻(xiàn)[13]給出了一種基于非負(fù)矩陣分解的SAR圖像目標(biāo)識(shí)別,該方法對(duì)分割后的目標(biāo)圖像運(yùn)用非負(fù)矩陣分解獲得特征向量,再依據(jù)Fisher線性判別構(gòu)成分類(lèi)器實(shí)現(xiàn)對(duì)目標(biāo)的識(shí)別。文獻(xiàn)[14]提出了一種基于AdaBoost算法的SAR圖像目標(biāo)識(shí)別方法,該方法首先對(duì)SAR圖像目標(biāo)進(jìn)行規(guī)則化調(diào)整和分割,然后組合目標(biāo)的多種特征形成特征向量,最后利用AdaBoost算法實(shí)現(xiàn)目標(biāo)識(shí)別。由表3可見(jiàn),本文方法得到的平均識(shí)別率明顯高于其他幾種識(shí)別方法得到的識(shí)別率。

        表3 幾種識(shí)別方法的識(shí)別率比較(%)

        5 結(jié)論

        本文提出了一種基于壓縮感知的SAR圖像目標(biāo)識(shí)別方法,該方法利用壓縮感知理論將測(cè)試樣本表示為訓(xùn)練樣本的線性組合,通過(guò)求解最優(yōu)化問(wèn)題得到了具有可區(qū)分能力的近似稀疏系數(shù),分析了該稀疏系數(shù)在訓(xùn)練樣本上的分布特性,從理論和實(shí)驗(yàn)兩方面研究了該識(shí)別方法的原理和可行性。實(shí)驗(yàn)結(jié)果表明,該方法可以實(shí)現(xiàn)對(duì)目標(biāo)的有效識(shí)別,能明顯提高對(duì)目標(biāo)的正確識(shí)別率。值得注意的是,SAR圖像目標(biāo)識(shí)別系統(tǒng)仍存在許多難以預(yù)料的擴(kuò)展工作條件,在后續(xù)的研究中將考慮把本文方法推廣到更復(fù)雜的環(huán)境之中。

        [1]Donoho D L.Compressed sensing[J].IEEE Trans.on Information Theory,2006,52(4):1289-1306.

        [2]Candes E J,Wakin M B.An introduction to compressive sampling[J].IEEE Signal Processing Magazine,2008,25(2):21-30.

        [3]John W,Allen Y Y,Arvind G,et al.Robust face recognition via sparse representation[J].IEEE Trans.on Pattern Analysis and Machine Intelligence,2009,30(2):210-227.

        [4]John W,Yi M,Julien M,et al.Sparse representation for computer vision and pattern recognition[J].Proceedings of The IEEE,2010,98(6):1031-1044.

        [5]Cotter S F.Sparse representation for accurate classification of corrupted and occluded facial expressions[C]//IEEE International Conference on Acoustics Speech and Signal Processing.New York,USA,2010:838-841.

        [6]Zhang C,Zhang Y N,Lin Z G,et al.An efficiently 3D face recognizing method using rangeimage and sparse representation[C]//IEEE International Conference on Computational Intelligence and Software Engineering,Wuhan,China,2010:1-4

        [7]Donoho D L,Elad M,Temlyakov V N.Stable recovery of sparse overcomplete representations in the presence of noise[J].IEEE Trans.on Information Theory,2006,52(1):6-18.

        [8]Candes E,Romberg J,Tao T.Robust uncertainty principles:exact signal reconstruction from highly incomplete frequency information[J]. IEEE Trans.on Information Theory,2006,52(2):489-509.

        [9]Figueiredo M T,Nowak R D,Stephen J W.Gradient projection for sparse reconstruction:application to compressed sensing and other inverse problems[J].IEEE Journal of Selected Topics in Signal Processing,2007,1(4):586-597.

        [10]賈亞飛,趙鳳軍,禹衛(wèi)東等.基于擴(kuò)散方程和MRF的SAR圖像分割[J].電子與信息學(xué)報(bào),2011,33(2):363-368.

        [11]Gonzalez R C,Woods R E.Digital image processing[M].Second edition,Beijing:Publishing House of Electronics Industry,2002.

        [12]Zhao Q and Principe J C.Support vector machines for SAR automatic target recognition[J].IEEE Trans.on Aerospace and Electronic Systems,2001,37(2):643-654.

        [13]龍泓琳,皮亦鳴,曹宗杰.基于非負(fù)矩陣分解的SAR圖像目標(biāo)識(shí)別[J].電子學(xué)報(bào),2010,38(6):1425-1429.

        [14]Guo W,Qi Q W,Jiang L L,et al.A new method of SAR image target recognition based on AdaBoost algorithm[C]//IEEE International Conference on Geoscience and Remote Sensing Symposium,Boston,USA,2008:1194-1197.

        猜你喜歡
        訓(xùn)練樣本識(shí)別率類(lèi)別
        基于類(lèi)圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        人工智能
        基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
        提升高速公路MTC二次抓拍車(chē)牌識(shí)別率方案研究
        寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
        融合原始樣本和虛擬樣本的人臉識(shí)別算法
        基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
        高速公路機(jī)電日常維護(hù)中車(chē)牌識(shí)別率分析系統(tǒng)的應(yīng)用
        服務(wù)類(lèi)別
        論類(lèi)別股東會(huì)
        商事法論集(2014年1期)2014-06-27 01:20:42
        亚洲发给我的在线视频| 久久发布国产伦子伦精品| 久久AⅤ无码精品为人妻系列| 91网红福利精品区一区二| 亚洲国产成人久久精品美女av| 久草青青91在线播放| 99亚洲男女激情在线观看| 在线免费观看国产精品| 97色人阁俺也去人人人人人| 一本色道久久88加勒比| 国语自产偷拍在线观看| a级黑人大硬长爽猛出猛进 | 中文无码日韩欧| 在线天堂中文字幕| 一区二区高清视频在线观看| 国产91色综合久久免费| 国产av无码专区亚洲av中文| 色yeye免费视频免费看| 亚洲中文字幕日本日韩| 日本精品一区二区三区福利视频| 97在线观看| 国产老妇伦国产熟女老妇高清| 人妻丰满精品一区二区| 在厨房被c到高潮a毛片奶水| 亚洲国产精品sss在线观看av| 高h视频在线免费观看| 大尺度极品粉嫩嫩模免费 | 六月婷婷久香在线视频| 亚洲av不卡电影在线网址最新 | 亚洲国产AV无码男人的天堂| 福利一区二区三区视频在线| 肥老熟女性强欲五十路| 人妻少妇久久中文字幕一区二区 | 日本熟女人妻一区二区| 男女上下猛烈啪啪免费看| 国产91色在线|亚洲| 日韩成人高清不卡av| 女人高潮久久久叫人喷水| 一群黑人大战亚裔女在线播放| 女同成片av免费观看| 精品人妻av区乱码色片|