亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多特征-多表示融合的SAR圖像目標(biāo)識(shí)別

        2017-11-27 08:42:09張新征譚志穎王亦堅(jiān)
        雷達(dá)學(xué)報(bào) 2017年5期
        關(guān)鍵詞:規(guī)則化識(shí)別率分類器

        張新征 譚志穎 王亦堅(jiān)

        (重慶大學(xué)通信工程學(xué)院 重慶 400044)

        基于多特征-多表示融合的SAR圖像目標(biāo)識(shí)別

        張新征*譚志穎 王亦堅(jiān)

        (重慶大學(xué)通信工程學(xué)院 重慶 400044)

        針對(duì)合成孔徑雷達(dá)(Synthetic Aperture Radar, SAR)圖像目標(biāo)識(shí)別問題,該文提出了一種基于多特征-多表示學(xué)習(xí)分類器融合的識(shí)別算法。首先,該算法提取了SAR圖像3種特征,包括主成分(Principle Component Analysis, PCA)特征,小波變換特征和2維切片Zernike矩(2-Dimension Slice Zernike Moments, 2DSZM)特征。然后,將測(cè)試樣本的3類特征分別輸入稀疏表示分類器和協(xié)同表示分類器進(jìn)行預(yù)分類,得到6個(gè)預(yù)測(cè)標(biāo)簽。對(duì)6個(gè)預(yù)測(cè)標(biāo)簽進(jìn)行分類器融合,得到最終的識(shí)別決策。實(shí)驗(yàn)中研究了3種不同的分類器融合算法,實(shí)驗(yàn)結(jié)果表明利用貝葉斯決策融合得到了最佳的識(shí)別性能?;诙嗵卣?多表示學(xué)習(xí)分類器融合的方法集成了多特征的鑒別能力,也融合了稀疏和協(xié)同表示的分類性能,實(shí)現(xiàn)優(yōu)勢(shì)互補(bǔ),有效提高了識(shí)別精度?;贛oving and Stationary Target Acquisition and Recognition (MSTAR)公開發(fā)布的SAR目標(biāo)數(shù)據(jù)庫(kù)的實(shí)驗(yàn)驗(yàn)證了該方法的有效性。

        合成孔徑雷達(dá);目標(biāo)識(shí)別;稀疏表示;協(xié)同表示;決策融合

        1 引言

        合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)是一種高分辨率微波成像雷達(dá),其工作不受光照和氣候條件的限制,可實(shí)現(xiàn)全天時(shí)、全天候持續(xù)對(duì)地觀測(cè),并且具有一定的地表穿透能力。SAR的優(yōu)良性能使得SAR在民用和軍用領(lǐng)域都有廣泛的應(yīng)用。在民用領(lǐng)域,SAR主要應(yīng)用于地質(zhì)和礦藏資源勘探、海洋生態(tài)環(huán)境監(jiān)測(cè)、氣候變化研究等方面[1,2];在軍用領(lǐng)域,SAR應(yīng)用包括軍事測(cè)繪、軍事偵察等方面[3,4]。由于SAR成像本質(zhì)上是電磁散射機(jī)理,導(dǎo)致SAR圖像不像光學(xué)圖像那樣具有視覺直觀性,因此,SAR圖像自動(dòng)目標(biāo)識(shí)別(Automatic Target Recognition, ATR) 作為SAR圖像解譯中的重要環(huán)節(jié),一直是國(guó)內(nèi)外學(xué)者的研究重點(diǎn)[5]。

        有效的特征提取和良好的分類模型可以很好地降低目標(biāo)周圍環(huán)境等對(duì)目標(biāo)圖像的影響、目標(biāo)對(duì)方位角敏感度等,提高識(shí)別方法的識(shí)別能力。SAR圖像目標(biāo)識(shí)別包括特征提取和分類識(shí)別兩個(gè)主要內(nèi)容??蒲腥藛T已經(jīng)研究了眾多基于2維SAR圖像的目標(biāo)識(shí)別算法。其中,最直接的一種方法就是將SAR圖像直接作為特征。另一種特征提取方法是基于小波變換或者多尺度分析。另外,諸如目標(biāo)區(qū)域描述子、陰影等圖像特征也用于進(jìn)行目標(biāo)識(shí)別[6,7]。采用基于物理特征的散射中心模型可以提供一種精細(xì)的,物理相關(guān)的目標(biāo)描述,但是其具有特征參數(shù)估計(jì)困難等缺點(diǎn)[8]。然而,單一的特征只能從單一角度描述圖像,并不能包含圖像的全部信息;另一方面,異類特征在相同域中具有不同的鑒別能力。聯(lián)合多個(gè)鑒別特征對(duì)目標(biāo)進(jìn)行識(shí)別是一個(gè)重要的發(fā)展趨勢(shì)?;氯艉绲乳_展了基于PCA、Independent Component Analysis (ICA)和Gabor小波決策融合的SAR目標(biāo)識(shí)別[9]。彭菲等開展了PCA和Kernel Principle Component Analysis (KPCA)自融合的SAR自動(dòng)目標(biāo)識(shí)別算法[10]。

        SAR目標(biāo)識(shí)別技術(shù)包括基于模板的方法、基于模型的方法和基于機(jī)器學(xué)習(xí)的方法?;诒硎緦W(xué)習(xí)的方法,近年來已經(jīng)成為了SAR圖像目標(biāo)識(shí)別的研究熱點(diǎn)。稀疏表示分類模型是近些年來較為成熟的表示分類模型,具有識(shí)別率高、噪聲魯棒性強(qiáng)等特點(diǎn),目前廣泛地應(yīng)用于SAR圖像目標(biāo)識(shí)別中。稀疏表示利用一系列已知信號(hào)的線性組合來表示觀測(cè)信號(hào),對(duì)表示系數(shù)的稀疏性進(jìn)行約束,即范數(shù)最小,得到唯一的表示系數(shù)解,再根據(jù)與每類訓(xùn)練樣本的重構(gòu)誤差確定目標(biāo)類型[11]。H. C. Zhang等通過挖掘多個(gè)視角的微波圖像之間的相關(guān)性提出了多視聯(lián)合稀疏表示的目標(biāo)識(shí)別方法[12]。G. Dong等研究了基于monogenic特征聯(lián)合稀疏表示的微波成像傳感器目標(biāo)識(shí)別方法,繼而又發(fā)展了Grassman流形上的monogenic特征的稀疏表示技術(shù)[13,14]。Y. Sun等提出了一種基于動(dòng)態(tài)稀疏表示和字典學(xué)習(xí)的SAR圖像目標(biāo)識(shí)別方法[15]。S. Song等提出了一種監(jiān)督鑒別字典學(xué)習(xí)的稀疏表示SAR目標(biāo)識(shí)別算法[16]。H. Liu等提出了基于稀疏表示和字典Refinement的屬性散射中心特征提取及目標(biāo)識(shí)別方法[17]。

        近年來發(fā)展起來的另一種表示學(xué)習(xí)方法是協(xié)同表示。協(xié)同表示學(xué)習(xí)實(shí)際上是范數(shù)約束下的優(yōu)化問題。協(xié)同表示已經(jīng)廣泛應(yīng)用于人臉識(shí)別[18]、高光譜分類等[19]。與稀疏表示的“競(jìng)爭(zhēng)”關(guān)系不同,協(xié)同表示利用“合作”,從而提高了分類精度。協(xié)同表示用所有的樣本特征來協(xié)同表示測(cè)試樣本,利用范數(shù)可直接求得閉式解,大大降低了求解的計(jì)算量[20]。由于其凸優(yōu)化的性質(zhì),稀疏表示僅從樣本中選擇少量原子時(shí),可能使得表示系數(shù)過于稀疏,從而導(dǎo)致其殘差略有偏差。在協(xié)同表示中,表示系數(shù)不需要稀疏,而當(dāng)標(biāo)記的樣本包括混合類信息時(shí),其判別能力受到限制。通過增加單個(gè)分類器結(jié)構(gòu)的復(fù)雜度來提高分類器精度通常不能滿足問題的需求,而將多個(gè)分類器利用不同的策略進(jìn)行融合從而提高整體的識(shí)別精度,將是一種更好的選擇。融合多分類器可集成多分類器的優(yōu)良性能,在融合之前,各個(gè)分類器已獨(dú)立完成分類任務(wù),再根據(jù)一定的準(zhǔn)則及每個(gè)決策的可信度做出最后決策,有良好的實(shí)時(shí)性和容錯(cuò)性[21]。M. Liu等人研究了多稀疏表示Dempster-Shafer融合的SAR圖像目標(biāo)識(shí)別方法[22]。H. C. Liu等研究了稀疏表示和支持向量機(jī)(Support Vector Machine, SVM)融合的SAR圖像目標(biāo)識(shí)別方法[23]?;谌诤系乃枷耄疚奶岢隽艘环N多特征-多表示分類器融合的SAR圖像目標(biāo)識(shí)別方法。該方法集成了主成分分析(Principle Component Analysis, PCA)特征,小波變換特征,兩維切片Zernike矩特征(2 Dimension Slice Zernike Moments, 2DSZM)的鑒別能力,通過決策融合算法融合了稀疏表示和協(xié)同表示兩種表示學(xué)習(xí)分類器的優(yōu)勢(shì);最終得到測(cè)試樣本的目標(biāo)類型。以美國(guó)Moving and Stationary Target Acquisition and Recognition (MSTAR)研究計(jì)劃公開發(fā)布的SAR圖像數(shù)據(jù)庫(kù)進(jìn)行了實(shí)驗(yàn)驗(yàn)證,實(shí)驗(yàn)結(jié)果驗(yàn)證了所提出方法的有效性和優(yōu)越性。

        本文組織結(jié)構(gòu)如下:第2部分簡(jiǎn)述了3種特征提?。坏?部分介紹了稀疏表示分類器、協(xié)同表示分類器和采用的多分類器融合方法;第4部分給出本文方法的實(shí)驗(yàn)結(jié)果及分析;第5部分對(duì)全文進(jìn)行了總結(jié)。

        2 SAR目標(biāo)圖像多特征提取

        每種特征都是從特定角度提取圖像信息的,因此不能反映圖像所有的信息。而且,異類特征之間往往具有互補(bǔ)性。因此,在目標(biāo)識(shí)別中利用多特征的鑒別能力是更合理的選擇。在本文中,提取SAR目標(biāo)圖像的3類特征,分別為:PCA特征,小波變換特征,2DSZM特征。

        2.1 PCA特征提取

        通過投影到一組由樣本數(shù)據(jù)求得的自相關(guān)矩陣的正交矢量上而得到的一組矢量,并且該矢量包含了樣本的主要成分,被稱為主分量,相比于原樣本矢量,主分量維數(shù)較低,可以代替原有樣本矢量表征樣本,該矢量即為PCA特征。

        2.2 小波特征提取

        小波變換是立足于傅里葉分析基礎(chǔ)上發(fā)展起來的多尺度分析方法。在模式識(shí)別領(lǐng)域,小波變換廣泛應(yīng)用于提取圖像中的各種特征。在本文中,采用2維離散小波變換對(duì)SAR目標(biāo)圖像進(jìn)行特征提取,將2維離散小波變換得到的一級(jí)低頻子帶圖像列向量化后作為特征向量。小波特征提取的過程可簡(jiǎn)化表示為:其中表示2維離散小波變換特征提取算子,即為提取后的小波特征。

        2.3 2DSZM特征提取

        2DSZM特征是近年來提出的一種分層描述SAR目標(biāo)散射特性的特征提取方法[24]。SAR目標(biāo)圖像包含了目標(biāo)豐富的散射中心位置分布和強(qiáng)度分布信息。通過具有不同強(qiáng)度值的切片可以將不同強(qiáng)度程度的散射中心分層到不同的切片上。該特征提取的基本操作為通過均勻切片操作,得到SAR目標(biāo)圖像的多層2維切片,對(duì)每個(gè)切片層進(jìn)行二值化,然后提取每層切片的Zernike矩特征,得到Zernike矩特征矢量,再將所有的切片的Zernike矩陣矢量順序排列為列矢量即得到2DSZM特征。具體實(shí)現(xiàn)過程可參考文獻(xiàn)[24]。圖1即為對(duì)3類目標(biāo)SAR圖像的切片操作示意圖,圖2為提取的2DSZM特征曲線圖。

        3 多表示學(xué)習(xí)及決策融合

        3.1 稀疏表示分類器

        稀疏表示在人臉識(shí)別、圖像恢復(fù)、圖像分類等多種領(lǐng)域都有廣泛的應(yīng)用,該模型的成功主要源于觀測(cè)信號(hào)在一組過完備基(字典)下可以稀疏表示,其最優(yōu)的稀疏表示可以利用凸優(yōu)化方法有效求解。

        由于待測(cè)樣本y的類標(biāo)簽未知,因此,需要用所有k類訓(xùn)練樣本來表示。

        為訓(xùn)練樣本的總數(shù)。所以待測(cè)樣本y的線性表示可寫作:

        上述即為稀疏表示分類器(Sparse Representation Classifier, SRC)。

        3.2 協(xié)同表示分類器

        Zhang等人將稀疏表示分類器視為協(xié)同表示分類器的一個(gè)特例。稀疏表示分類器尋找測(cè)試樣本在字典中最稀疏的線性表示,即用最小數(shù)目的訓(xùn)練樣本的線性組合來表示測(cè)試樣本,而協(xié)同表示用所有訓(xùn)練樣本的特征集協(xié)同表示測(cè)試樣本。將SRC中的基于范數(shù)的稀疏性約束條件轉(zhuǎn)化為范數(shù)最小問題,即為協(xié)同表示分類器。待測(cè)樣本y在訓(xùn)練樣本集X下的最優(yōu)表示問題為:

        圖1 3類目標(biāo)的多層2維切片F(xiàn)ig. 1 Multiple 2D slices of three targets

        這即便是協(xié)同表示分類器(Collaborative Representation Classifier, CRC)。

        3.3 決策融合

        本文提出的多特征-多表示融合的方法是基于決策層的融合?;跊Q策層的融合可以保證不影響單個(gè)分類器的性能,而又能發(fā)揮每個(gè)分類器的優(yōu)良性能。常用的決策融合方法有多數(shù)投票法、加權(quán)分?jǐn)?shù)融合、貝葉斯融合等多種融合方法。在本文的決策融合中,分別采用了多數(shù)投票融合算法;自適應(yīng)加權(quán)融合算法;貝葉斯融合算法。本文算法的流程圖如圖3所示。由于多數(shù)投票融合法的原理簡(jiǎn)單,下面主要介紹自適應(yīng)加權(quán)融合和貝葉斯融合兩種融合方法。

        3.3.1 自適應(yīng)加權(quán)融合加權(quán)分?jǐn)?shù)融合既能有效實(shí)現(xiàn)信息融合,同時(shí)易于實(shí)現(xiàn),在實(shí)際應(yīng)用中有很好的應(yīng)用價(jià)值。其中自動(dòng)設(shè)置權(quán)值是加權(quán)融合的關(guān)鍵。這里,采用文獻(xiàn)[25]中的自適應(yīng)加權(quán)融合算法。為簡(jiǎn)化描述,假定現(xiàn)在只融合單特征SRC和CRC兩種分類結(jié)果,自適應(yīng)加權(quán)融合方法主要步驟如下:

        步驟1 對(duì)所有測(cè)試樣本和訓(xùn)練樣本進(jìn)行特征提??;

        步驟2 分別利用SRC和CRC求出待測(cè)樣本y與每類訓(xùn)練樣本的重構(gòu)誤差,分別表示為,C為類別總數(shù)。代表用SRC測(cè)試樣本與第i類的重構(gòu)誤差,代表用CRC時(shí)測(cè)試樣本與第i類的重構(gòu)誤差。定義

        圖2 3類目標(biāo)的2D-slice Zernike moments特征值比較Fig. 2 Comparisons of 2D-slice Zernike moments of three targets

        圖3 基于多特征-多表示學(xué)習(xí)分類器融合算法流程圖Fig. 3 The procedure of based on fusion of multi-feature multiple representation classifier

        3.3.2 貝葉斯決策融合貝葉斯決策是一種比較自然的融合處理方式。在此方法中,兩個(gè)分類器是相互獨(dú)立的。為便于描述,以單特征為例進(jìn)行闡述,測(cè)試樣本為從SRC和CRC獲得的k1,k2的兩個(gè)預(yù)測(cè)結(jié)果,兩個(gè)分類器識(shí)別精度分別用PSRC,PCRC表示。測(cè)試樣本使用SRC預(yù)測(cè)為Tq而屬于Yn類的(1≤n≤C,1≤q≤C)的置信度可利用貝葉斯準(zhǔn)則計(jì)算如下:

        其中,P(Tc)為測(cè)試樣本屬于c類的概率,這里我們假設(shè)先驗(yàn)概率是等概率的。PSRC(Tq|Tn)表示為測(cè)試樣本為第Tn類使用SRC為預(yù)測(cè)Tq類的概率。同樣也可得到使用CRC方法的置信度PCRC(Tn|Tq)。利用SRC和CRC分別獲得測(cè)試樣本中每一類的置信度,并將通過兩種方法分別得到的同一類的置信度相乘。選擇具有最大置信度的類作為決策結(jié)果,可表示為:

        3.4 多特征-多表示融合方法框架

        多特征-多表示分類器融合框架就是在上述理論建立起來的,流程圖如圖3所示。首先分別提取訓(xùn)練樣本集和測(cè)試樣本集的3種特征,再將測(cè)試樣本的3類特征分別輸入稀疏表示分類器和協(xié)同表示分類器進(jìn)行預(yù)分類,得到6個(gè)預(yù)測(cè)標(biāo)簽。再利用分類器融合對(duì)6個(gè)預(yù)測(cè)標(biāo)簽進(jìn)行融合,得到最終的識(shí)別結(jié)果。這里的分類器融合分別采用了上述3種分類器融合方法,將單特征SRC和CRC以6類分類器融合的方式拓展為多特征-多表示融合。在基于多特征-多表示分類器算法中,6組分類器可獨(dú)立并行處理,大大節(jié)約了時(shí)間成本。

        4 實(shí)驗(yàn)結(jié)果及分析

        4.1 實(shí)驗(yàn)數(shù)據(jù)集介紹

        實(shí)驗(yàn)數(shù)據(jù)采用美國(guó)國(guó)防高等研究計(jì)劃署支持的MSTAR計(jì)劃所公開發(fā)布的實(shí)測(cè)SAR地面靜止目標(biāo)數(shù)據(jù)。該數(shù)據(jù)集是目前國(guó)內(nèi)外廣泛采用的SAR圖像目標(biāo)識(shí)別算法測(cè)試數(shù)據(jù)。該數(shù)據(jù)集的傳感器為高分辨率聚束式合成孔徑雷達(dá),成像分辨率為0.3 m×0.3 m,工作在X波段。該數(shù)據(jù)包含多種車輛目標(biāo)在各個(gè)方位角下的目標(biāo)圖像。在該數(shù)據(jù)集中包含一個(gè)該計(jì)劃推薦使用的訓(xùn)練集和測(cè)試集。訓(xùn)練集是雷達(dá)工作在俯仰角17°時(shí)所得到的目標(biāo)圖像數(shù)據(jù),實(shí)驗(yàn)中采用3大類:BTR70(裝甲運(yùn)輸車),BMP2(步兵戰(zhàn)車),T72(坦克),光學(xué)圖像如圖4所示;測(cè)試集是雷達(dá)工作在俯仰角15°時(shí)所得到的目標(biāo)圖像數(shù)據(jù),實(shí)驗(yàn)中也使用BMP2, T72, BTR70。圖5展示了相近角度下3類目標(biāo)的微波圖像。各種類別的目標(biāo)還具有不同的型號(hào),同類但不同型號(hào)的目標(biāo)在配備上有些差異,但總體散射特性相差不大。具體來說,目標(biāo)BMP2有3種配置類型BMP2-9563,BMP2-9566和BMP2-C21, BTR70有一種類型BTR70-C71, T72有3種配置類型T72-132, T72-812和T72-S7。訓(xùn)練和測(cè)試樣本的類型和數(shù)目如表1所示。在本次實(shí)驗(yàn)中,為了減少目標(biāo)周圍的雜波干擾,提取原始圖像中心60×60子圖像。

        4.2 實(shí)驗(yàn)結(jié)果及分析

        多特征-多表示分類器決策融合算法的優(yōu)勢(shì)在于集成了目標(biāo)的多特征鑒別能力,有效融合了多表示分類器的優(yōu)良性能,利用結(jié)構(gòu)簡(jiǎn)單的分類器就可以得到更高的識(shí)別精度,有較高的容錯(cuò)性。為了分析決策融合算法對(duì)識(shí)別性能的影響,實(shí)驗(yàn)中比較了多表示學(xué)習(xí)分類器的多數(shù)投票法(Sparse and Collaborative Majority Vote, SCMV)、自適應(yīng)權(quán)重融合方法(Sparse and Collaborative Adaptive Weighted Fusion, SCAWF)和貝葉斯決策融合方法(Sparse and Collaborative Bayesian Fusion,SCBF)。

        圖4 3類目標(biāo)光學(xué)圖像Fig. 4 Optical images of three targets

        表1 實(shí)驗(yàn)數(shù)據(jù)集的型號(hào)/數(shù)目Tab. 1 The types and numbers of training and testing datasets

        4.2.1 識(shí)別性能隨特征維數(shù)的變化特征維數(shù)的選取對(duì)SRC和CRC的分類性能都會(huì)產(chǎn)生很大的影響。實(shí)驗(yàn)中,設(shè)置不同的特征維數(shù),觀察各種融合算法隨特征維數(shù)的性能變化,同時(shí)將3種方法的識(shí)別性能進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如圖6和表2所示。在本文中,3種特征的維數(shù)是不同的,以各自的維數(shù)按照20%, 40%, 60%, 80%, 100%的比例設(shè)置得到不同的維數(shù);圖6中橫軸為PCA特征的維數(shù)。從圖4可以看出,采用貝葉斯決策融合的算法在幾乎所有維數(shù)情況下都是三者之中最好的。另外,特征維數(shù)為240時(shí),識(shí)別率最佳,可達(dá)99.60%。但當(dāng)維數(shù)增加到600維時(shí),所有方法的識(shí)別率有所下降,但SCBF仍然保持較高的識(shí)別率,可達(dá)到97.44%。

        圖6 3種算法隨特征維數(shù)變化的識(shí)別率Fig. 6 Recognition rate of three algorithms with feature dimension

        表2 3種算法隨特征維數(shù)變化的識(shí)別率(%)Tab. 2 Recognition rate of three algorithms with feature dimension (%)

        4.2.2 規(guī)則化參數(shù)對(duì)算法的影響多表示分類器融合算法中使用了兩種表示學(xué)習(xí)分類器:SRC和CRC。SRC和CRC模型中的規(guī)則化參數(shù)均對(duì)各自的識(shí)別性能有不同程度的影響,也因此會(huì)影響融合后的識(shí)別性能。為探究規(guī)則化參數(shù)對(duì)本文提出算法的影響,固定3種特征維數(shù)的取值,將規(guī)則化參數(shù)分別設(shè)置為10–3, 10–2, 10–1, 1, 5和10。對(duì)3種不同融合算法開展實(shí)驗(yàn),并且SRC和CRC中的規(guī)則化參數(shù)取相同的值,實(shí)驗(yàn)結(jié)果為圖7和表3。圖7中,在規(guī)則化參數(shù)為5時(shí),3種算法的識(shí)別率達(dá)到最大,多特征-多表示學(xué)習(xí)貝葉斯融合算法的識(shí)別性能最高。表4為貝葉斯融合方法隨變化的混淆矩陣。從實(shí)驗(yàn)結(jié)果可以看出,雖然3種融合方法都能實(shí)現(xiàn)分類器的優(yōu)勢(shì)互補(bǔ),但多特征-多表示分類器貝葉斯融合性能對(duì)規(guī)則化參數(shù)的變化具有最好的魯棒性,隨規(guī)則化參數(shù)變化的性能變化起伏不大。

        上述實(shí)驗(yàn)中SRC和CRC中的規(guī)則化參數(shù)取值相同,但實(shí)際中兩者的規(guī)則化參數(shù)不一定相同。為了分析規(guī)則化參數(shù)不同時(shí)對(duì)融合算法性能的影響,實(shí)驗(yàn)中對(duì)SRC中的規(guī)則化參數(shù)λ1和CRC中的規(guī)則化參數(shù)λ2分別取不同的值,觀測(cè)識(shí)別性能,如圖8。從圖8中可以看出,取值對(duì)識(shí)別性能的影響更大。

        圖7 3種算法隨規(guī)則化參數(shù)的識(shí)別率Fig. 7 Recognition rates of three algorithms with regularized parameters

        表3 3種算法隨規(guī)則化參數(shù)的識(shí)別率(%)Tab. 3 Recognition rates of three algorithms with regularized parameters (%)

        表3 3種算法隨規(guī)則化參數(shù)的識(shí)別率(%)Tab. 3 Recognition rates of three algorithms with regularized parameters (%)

        方法MFSCFMVAWFA 10–399.2098.5298.69 10–299.1598.5298.75 10–199.1598.5298.52 1 99.1598.4699.03 5 99.3298.8099.20 1099.3298.4699.09

        由于各類特征具有不同的鑒別性能,各類特征對(duì)目標(biāo)識(shí)別的貢獻(xiàn)不同,置信度也不同。另外,SRC和CRC分別是?1范數(shù)和?2范數(shù)約束下的優(yōu)化問題,其識(shí)別性能在不同的數(shù)據(jù)情況下也存在差異。多特征多表示分類器融合算法采用分類器融合技術(shù),特別是貝葉斯融合算法,集成了多特征的鑒別能力,提高了識(shí)別的總體置信度,從而提高了識(shí)別性能。

        另外,也把本文方法和最近的幾種SAR圖像識(shí)別方法的性能做了比較。在相同的數(shù)據(jù)集下,文獻(xiàn)[15]中的聯(lián)合動(dòng)態(tài)字典的稀疏表示方法獲得了96.48%的識(shí)別率;文獻(xiàn)[24]中的2維切片Zernike矩稀疏編碼算法獲得了98.63%的識(shí)別率;而本文提出方法的最佳識(shí)別率可以達(dá)到99.60%,識(shí)別性能均優(yōu)于上述兩種方法。

        4.2.3 大俯仰角下目標(biāo)識(shí)別性能與分析實(shí)際應(yīng)用中,很有可能出現(xiàn)測(cè)試集和訓(xùn)練集數(shù)據(jù)的俯仰角之間存在較大的差異,為此,研究大俯仰角變化下的目標(biāo)識(shí)別具有很重要的現(xiàn)實(shí)意義。本文基于MSTAR數(shù)據(jù)開展了大俯仰角下的實(shí)驗(yàn),以數(shù)據(jù)庫(kù)中17°數(shù)據(jù)為訓(xùn)練數(shù)據(jù),同時(shí)分別采用30°和45°的數(shù)據(jù)集做測(cè)試集,來驗(yàn)證算法對(duì)大俯仰角的魯棒性。表5為大俯仰角實(shí)驗(yàn)中目標(biāo)類型和樣本數(shù)目表。圖9為各種方法的實(shí)驗(yàn)結(jié)果比較。從圖9和表6可以看出,小波特征在大俯仰角下識(shí)別率都較低,PCA特征和2DSZM特征的識(shí)別率相對(duì)較高。30°俯仰角下,融合6種單分類器分類結(jié)果的3種算法的識(shí)別率分別為:86.56%、90.38%和94.79%。其中多表示學(xué)習(xí)分類器貝葉斯融合的識(shí)別率最佳。隨著俯仰角從30°增加到了45°,訓(xùn)練樣本和測(cè)試樣本之間的類內(nèi)關(guān)聯(lián)減弱,目標(biāo)的正確識(shí)別率顯著下降,最好的識(shí)別率僅為68.65%,其中,多數(shù)投票融合方法通過簡(jiǎn)單的投票,部分錯(cuò)誤的識(shí)別結(jié)果容易影響正確的識(shí)別結(jié)果從而導(dǎo)致整體的識(shí)別率的下降,自適應(yīng)加權(quán)融合方法采用次最優(yōu)的思想也易造成部分錯(cuò)誤結(jié)果權(quán)值過大影響整體效果。貝葉斯融合方法在3種融合方法中具有最佳的識(shí)別性能,這也證明了多特征-多表示學(xué)習(xí)分類器貝葉斯融合方法對(duì)大俯仰角變化時(shí)具有較好的魯棒性。

        表4 SCBF隨規(guī)則化參數(shù)的混淆矩陣Tab. 4 Confusion matrix of SCBF with regularized parameters

        表4 SCBF隨規(guī)則化參數(shù)的混淆矩陣Tab. 4 Confusion matrix of SCBF with regularized parameters

        識(shí)別結(jié)果目標(biāo)類型BMP2BTR70T72 10–3 BMP258043 BTR7045840 T7230579 10–2 BMP258044 BTR7045840 T7230578 10–1 BMP258153 BTR7035831 T7230578 1 BMP257943 BTR7055840 T7230579 5 BMP257931 BTR7045850 T7240581 10 BMP257931 BTR7045850 T7240581

        圖8 SCBF隨規(guī)則化參數(shù)λ1和λ2的識(shí)別率Fig. 8 Recognition rate of SCBF with the regularization parameters λ1 and λ2

        表5 大俯仰角實(shí)驗(yàn)中使用的數(shù)據(jù)集Tab. 5 Dataset used in large depression angle experiment

        圖9 大俯仰角下3種算法的識(shí)別率柱狀圖Fig. 9 Histogram of recognition rate of three algorithms at large pitch angle

        多特征-多表示融合算法的計(jì)算復(fù)雜度依賴于所采用的是何種表示學(xué)習(xí)分類器。對(duì)于本文來說,采用的是經(jīng)典的稀疏表示分類器(SRC)模型和協(xié)同表示分類器(CRC)模型,只不過是3類特征分別輸入這兩種表示學(xué)習(xí)分類器。另外,融合部分產(chǎn)生的計(jì)算量和這兩種分類器的計(jì)算量相比很小,因此本文算法的總計(jì)算量是3倍SRC計(jì)算量和3倍CRC計(jì)算量的和。

        5 結(jié)論

        本文探討了基于多特征-多表示決策融合的SAR圖像目標(biāo)識(shí)別,并使用MSTAR數(shù)據(jù)庫(kù)測(cè)試了識(shí)別性能。算法中采用PCA特征,Wavelet特征和2DSZM特征,利用結(jié)構(gòu)較為簡(jiǎn)單的基本SRC和CRC進(jìn)行多表示決策融合。實(shí)驗(yàn)結(jié)果表明,采用貝葉斯融合的多特征-多表示分類器融合方法性能更為優(yōu)越,對(duì)規(guī)則化參數(shù)的變化具有最好的魯棒性,在大俯仰角下也能取得更好的結(jié)果,能夠有效地提高識(shí)別精度。與其他算法相比,基于多特征-多表示學(xué)習(xí)決策融合的SAR圖像目標(biāo)識(shí)別具有以下優(yōu)勢(shì):第一,集成了多特征的鑒別能力,實(shí)現(xiàn)了異類特征之間的優(yōu)勢(shì)互補(bǔ);第二,使用多表示分類器融合代替結(jié)構(gòu)復(fù)雜的分類器,簡(jiǎn)化了算法的復(fù)雜度,有效提高算法的魯棒性。

        表6 大俯仰角下不同分類方法的識(shí)別率(%)Tab. 6 Recognition rate for different classification methods at large pitch angles (%)

        [1]Qi Zhi-xin, Yeh A G O, Li Xia,et al.. A novel algorithm for land use and land cover classification using RADARSAT-2 polarimetric SAR data[J].Remote Sensing of Environment,2012, 118: 21–39. DOI: 10.1016/j.rse.2011.11.001.

        [2]Liu Bin, Hu Hao, Wang Huan-yu,et al.. Superpixel-based classification with an adaptive number of classes for polarimetric SAR images[J].IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(2): 907–924. DOI:10.1109/TGRS.2012.2203358.

        [3]Wang Hui, Chen Zhan-sheng, and Zheng Shi-chao.Preliminary research of Low-RCS moving target detection based on Ka-Band video SAR[J].IEEE Geoscience and Remote Sensing Letters, 2017, 14(6): 811–815. DOI:10.1109/LGRS.2017.2679755.

        [4]El-DarymliK, Gill E W, and Mcguire P. Automatic target recognition in synthetic aperture radar imagery: A state-ofthe-art review[J].IEEE Access, 2016, 4: 6014–6058. DOI:10.1109/ACCESS.2016.2611492.

        [5]Novak L M, Owirka G J, and Netishen C M. Performance of a high-resolution polarimetric SAR automatic target recognition system[J].The Lincoln Laboratory Journal,1993, 6(1): 11–23.

        [6]Saghri J A and DeKelaita A. Exploitation of target shadows in synthetic aperture radar imagery for automatic target recognition[C]. Proceedings of SPIE Volume 6312 Applications of Digital Image Processing XXIX, California,United States, 2006, 6312: 631212. DOI: 10.1117/12.684401.

        [7]Amoon M and Rezai-Rad G A. Automatic target recognition of synthetic aperture radar (SAR) images based on optimal selection of Zernike moments features[J].IET Computer Vision, 2014, 8(2): 77–85. DOI: 10.1049/ietcvi.2013.0027.

        [8]Gerry M J, Potter L C, Gupta I J,et al.. A parametric model for synthetic aperture radar measurements[J].IEEE Transactions on Antennas and Propagation, 1999, 47(7):1179–1188. DOI: 10.1109/8.785750.

        [9]宦若虹, 張平, 潘赟. PCA、ICA和Gabor小波決策融合的SAR目標(biāo)識(shí)別[J]. 遙感學(xué)報(bào), 2012, 16(2): 262–274.Huan Ruo-hong, Zhang Ping, and Pan Yun. SAR target recognition using PCA, ICA and Gabor wavelet decision fusion[J].Journal of Remote Sensing, 2012, 16(2): 262–274.DOI: 10.11834/jrs.20120457.

        [10]Lin Chang, Peng Fei, Wang Bing-hui,et al.. Research on PCA and KPCA self-fusion based MSTAR SAR automatic target recognition algorithm[J].Journal of Electronic Science and Technology, 2012, 10(4): 352–357.

        [11]Zhang Zheng, Xu Yong, Yang Jian,et al.. A survey of sparse representation: Algorithms and applications[J].IEEE Access, 2015, 3: 490–530. DOI: 10.1109/ACCESS.2015.2430359.

        [12]Zhang Hai-chao, Nasrabadi N, Zhang Yan-ning,et al..Multi-view automatic target recognition using joint sparse representation[J].IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(3): 2481–2497. DOI: 10.1109/TAES.2012.6237604.

        [13]Dong Gang-gang, Kuang Gang-yao, Wang Na,et al.. SAR target recognition via joint sparse representation of monogenicsignal[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(7):3316–3328. DOI: 10.1109/JSTARS.2015.2436694.

        [14]Dong Gang-gang and Kuang Gang-yao. SAR target recognition via sparse representation of Monogenic signal on Grassmann manifolds[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2016,9(3): 1308–1319. DOI: 10.1109/JSTARS.2015.2513481.

        [15]Sun Yong-gang, Du Lan, Wang Yan,et al.. SAR automatic target recognition based on dictionary learning and joint dynamic sparse representation[J].IEEE Geoscience and Remote Sensing Letters, 2016, 13(12): 1777–1781. DOI:10.1109/LGRS.2016.2608578.

        [16]Song Sheng-li, Xu Bin, and Yang Jian. SAR target recognition via supervised discriminative dictionary learning and sparse representation of the SAR-HOG feature[J].Remote Sensing, 2016, 8(8): 683. DOI: 10.3390/rs8080683.

        [17]Liu Hong-wei, Bo Jiu, Li Fei,et al.. Attributed scattering center extraction algorithm based on sparse representation with dictionary refinement[J].IEEE Transactions on Antennas and Propagation, 2017, 65(5): 2604–2614. DOI:10.1109/TAP.2017.2673764.

        [18]Zhang Lei, Yang Meng, and Feng Xiang-chu. Sparse representation or collaborative representation: Which helps face recognition?[C]. Proceedings of IEEE International Conference on Computer Vision, Barcelona, Spain, 2012:471–478.

        [19]Li Wei, Du Qian, Zhang Fan,et al.. Hyperspectral image classification by fusing collaborative and sparse representations[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2016, 9(9):4178–4187. DOI: 10.1109/JSTARS.2016.2542113.

        [20]Chi Yue-jie and Porikli F. Classification and Boosting with multiple collaborative representations[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014, 36(8): 1519–1531. DOI: 10.1109/TPAMI.2013.236.

        [21]Haghighi M S, Vahedian A, and Yazdi H S. Extended decision template presentation for combining classifiers[J].Expert Systems with Applications, 2011, 38(7): 8414–8418.DOI: 10.1016/j.eswa.2011.01.036.

        [22]Liu Ming, Wu Yan, Zhao Wei,et al.. Dempster-Shafer fusion of multiple sparse representation and statistical property for SAR target configuration recognition[J].IEEE Geoscience and Remote Sensing Letters, 2014, 11(6):1106–1109. DOI: 10.1109/LGRS.2013.2287295.

        [23]Liu Hai-cang and Li Shu-tao. Decision fusion of sparse representation and support vector machine for SAR image target recognition[J].Neurocomputing, 2013, 113: 97–104.DOI: 10.1016/j.neucom.2013.01.033.

        [24]Zhang Xin-zheng, Liu Zhou-ying, Liu Shu-jun,et al.. Sparse coding of 2D-slice Zernike moments for SAR ATR[J].International Journal of Remote Sensing, 2017, 38(2):412–431. DOI: 10.1080/01431161.2016.1266107.

        [25]Xu Yong and Lu Yuwu. Adaptive weighted fusion: A novel fusion approach for image classification[J].Neurocomputing,2015, 168: 566–574. DOI: 10.1016/j.neucom.2015.05.070.

        張新征(1978–),男,山東省聊城人,博士,副教授。2009年于航天科工集團(tuán)第二研究院獲導(dǎo)航制導(dǎo)與控制專業(yè)博士學(xué)位,現(xiàn)擔(dān)任重慶大學(xué)通信工程學(xué)院副教授。主要研究方向?yàn)檫b感信息獲取與處理、人工智能及其應(yīng)用,目前已發(fā)表論文20余篇,專利獲權(quán)5項(xiàng)。社會(huì)兼職:中國(guó)電子學(xué)會(huì)會(huì)員。

        E-mail: zhangxinzheng@cqu.edu.cn

        譚志穎(1994–),女,湖南郴州人,2016年在湘潭大學(xué)信息工程學(xué)院獲得本科學(xué)位,現(xiàn)為重慶大學(xué)通信工程學(xué)院碩士研究生,研究方向?yàn)檫b感圖像分類。

        E-mail: 20161202031t@cqu.edu.cn

        王亦堅(jiān)(1994–),男,江西撫州人,2016年在重慶大學(xué)通信工程學(xué)院獲得本科學(xué)位,現(xiàn)為重慶大學(xué)通信工程學(xué)院碩士研究生,研究方向?yàn)镾AR圖像目標(biāo)檢測(cè)與識(shí)別。

        E-mail: 20161202029t@cqu.edu.cn

        The National Natural Science Foundation of China (61301224)

        SAR Target Recognition Based on Multi-feature Multiple Representation Classifier Fusion

        Zhang Xinzheng Tan Zhiying Wang Yijian
        (College of Communication Engineering,Chongqing University,Chongqing400044,China)

        In this paper, we present a Synthetic Aperture Radar (SAR) image target recognition algorithm based on multi-feature multiple representation learning classifier fusion. First, it extracts three features from the SAR images, namely principal component analysis, wavelet transform, and Two-Dimensional Slice Zernike Moments (2DSZM) features. Second, we harness the sparse representation classifier and the cooperative representation classifier with the above-mentioned features to get six predictive labels. Finally, we adopt classifier fusion to obtain the final recognition decision. We researched three different classifier fusion algorithms in our experiments, and the results demonstrate thatusing Bayesian decision fusion gives thebest recognition performance. The method based on multi-feature multiple representation learning classifier fusion integrates the discrimination of multi-features and combines the sparse and cooperative representation classification performance to gain complementary advantages and to improve recognition accuracy. The experiments are based on the Moving and Stationary Target Acquisition and Recognition (MSTAR) database,and they demonstrate the effectiveness of the proposed approach.

        Synthetic Aperture Radar (SAR); Target recognition; Sparse representation; Collaborative representation; Decision fusion

        TN959

        A

        2095-283X(2017)05-0492-11

        10.12000/JR17078

        張新征, 譚志穎, 王亦堅(jiān). 基于多特征-多表示融合的SAR圖像目標(biāo)識(shí)別[J]. 雷達(dá)學(xué)報(bào), 2017, 6(5):492–502.

        10.12000/JR17078.

        Reference format:Zhang Xinzheng, Tan Zhiying, and Wang Yijian. SAR target recognition based on multifeature multiple representation classifier fusion[J].Journal of Radars, 2017, 6(5): 492–502. DOI:10.12000/JR17078.

        2017-08-18;改回日期:2017-10-22;網(wǎng)絡(luò)出版:2017-10-27

        *通信作者: 張新征 zhangxinzheng@cqu.edu.cn

        國(guó)家自然科學(xué)基金(61301224)

        猜你喜歡
        規(guī)則化識(shí)別率分類器
        論黨的民主集中制的規(guī)則化
        理論探索(2021年6期)2021-05-26 17:06:22
        數(shù)據(jù)規(guī)則化技術(shù)的研究及應(yīng)用
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        數(shù)據(jù)規(guī)則化技術(shù)在焉耆盆地老資料處理中的應(yīng)用
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
        采用移動(dòng)掃描成像法實(shí)現(xiàn)高壓氣瓶?jī)?nèi)壁凹坑缺陷檢測(cè)
        提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
        BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        国产91久久麻豆黄片| 久久精品re| 亚欧乱色束缚一区二区三区| 国产女主播大秀在线观看| 丰满人妻一区二区三区蜜桃| 日本在线看片免费人成视频1000| 最新国产三级| 久久伊人精品只有这里有| 国产影片一区二区三区| 国产精品永久免费| 亚洲av无码一区二区二三区下载| 日产精品一区二区免费| 成人国产精品三上悠亚久久| 国精品人妻无码一区免费视频电影| 国产av一区二区三区日韩| 蜜桃视频免费在线视频| 免费一区二区三区女优视频| 绝顶潮喷绝叫在线观看| 巨大欧美黑人xxxxbbbb| 岛国av一区二区三区| 精品粉嫩av一区二区三区| 亚洲精品午夜无码专区| 亚洲伊人久久大香线蕉影院| 一本大道加勒比东京热 | 一区二区三区国产亚洲网站| 一区二区韩国福利网站| 亚洲av色香蕉一区二区三区av| 亚洲av一二三区成人影片| 吸咬奶头狂揉60分钟视频| 久久国产精品老人性| 久久久精品亚洲人与狗| 中文字幕aⅴ人妻一区二区| 欧美一级色图| 国产精品一区一区三区| 人与人性恔配视频免费| 亚洲av无码精品色午夜果冻不卡| 国产精品女同久久免费观看 | 日韩极品视频在线观看免费| 国产一级二级三级在线观看av| 亚洲毛片αv无线播放一区| 国产精品视频一区日韩丝袜|