陳士超+劉明+盧福剛++王軍
摘 要: 精確的目標方位角估計對于基于模板的SAR ATR算法的性能提高大有裨益,可降低算法運算量,提高運算效率。提出一種有效的基于稀疏描述的SAR目標方位角估計方法。首先,利用所有訓練樣本構造字典矩陣,獲得測試樣本的稀疏描述向量;然后,通過稀疏描述向量中的非零系數(shù)計算重構誤差,利用SAR圖像中特有的目標方位角敏感特性,選出重構誤差最小的樣本所對應的方位角作為估角結果。不同于現(xiàn)有的方位角估計方法,所提算法可以有效地克服180°方位角模糊問題。采用實測的MSTAR數(shù)據(jù)進行實驗,實驗結果驗證了所提方法的有效性。
關鍵詞: 方位角估計; 稀疏描述; 目標識別; 合成孔徑雷達
中圖分類號: TN911?34; TN957.52 文獻標識碼: A 文章編號: 1004?373X(2017)12?0132?04
Abstract: Precise estimation of target azimuth angle has a great advantage for improving the performance of template?based automation target recognition (ATR) algorithm of synthetic aperture radar (SAR), which can dramatically reduce the computational burden. A SAR azimuth angle estimation algorithm based on sparse representation is proposed in this paper. Firstly, the dictionary matrix is constructed by all the training samples to get the sparse representation vector of the testing sample, and then the reconstruction errors are calculated with the nonzero coefficients in the sparse representation vector. The azimuth angle corresponding to the sample with smallest reconstruction error is selected as the final estimation result by means of the sensitivity property of target azimuth angle in SAR images. The proposed algorithm can overcome the ambiguity phenomenon in 180° azimuth angle effectively, which is different from the existing algorithms. The experiment based on measured MSTAR (moving and stationary target acquisition and recognition) data was performed. The validity of the proposed algorithm was verified by the experimental results.
Keywords: azimuth angle estimation; sparse representation; target recognition; synthetic aperture radar
0 引 言
合成孔徑雷達(Synthetic Aperture Radar,SAR)由于其全天時、全天候等諸多優(yōu)勢,已經(jīng)被廣泛應用于各種領域中[1?4]。SAR自動目標識別(Automation Target Recognition,ATR)作為SAR應用的一個重要分支,在戰(zhàn)場感知、精確打擊、目標細節(jié)特征獲取等領域吸引了越來越多的關注[5?10]。
模板法[5?6]是一種有效的SAR ATR算法,在實際工程應用中,為了確保算法的穩(wěn)健性以及考慮易于工程化實現(xiàn)的特性,往往采用模板法進行識別。在測試樣本和訓練樣本的成像條件比較接近的情況下,模板法往往能夠得到令人滿意的識別結果,而且當待識別目標的種類增加時,有的訓練好的目標模板不需要重新進行訓練,只需要建立新增目標的模板即可,比較方便。采用模板匹配法進行識別時,首先,產(chǎn)生每個目標在不同方位區(qū)間上的模板,每一個模板都反映了目標在該方位區(qū)間內(nèi)的目標特性;然后,將待識別的樣本與所有目標的模板按照某種匹配準則(如常見的匹配準則有:最小均方誤差、最小歐氏距離、最小余弦距離、最大相關系數(shù)等)進行對比,和待識別目標最匹配的模板所對應的目標類別作為識別結果。但是模板法的缺點是由于目標的后向散射對雷達入射波的俯仰角、目標方位角和周圍環(huán)境等因素都比較敏感,所以很難建立完備的目標模板庫,而且隨著目標類別數(shù)的增加,模板總數(shù)也會相應的大量增加,需要大量的存儲空間來儲存模板,匹配得到識別結果的運算時間也會隨之大幅度的增加。因此,如果能提前估計出測試樣本的方位角,那么就不需要將測試樣本和所有模板進行對比,可以只將測試樣本和其方位角區(qū)間內(nèi)的模板進行對比,可極大地降低模板法的運算量[11?12]。
針對上述問題,本文提出一種有效的目標方位角估計方法,將稀疏描述理論[13]引入SAR圖像的目標方位角估計中。利用全體訓練樣本構造字典矩陣,將測試樣本在該字典上進行投影獲得其對應的稀疏描述向量;利用稀疏描述向量中的非零系數(shù)計算對應訓練樣本的重構誤差;最后選出重構誤差最小的訓練樣本對應的方位角作為方位角的估計結果。此外,本文算法不存在現(xiàn)有目標方位角估計方法[11?12]普遍存在的180°模糊問題,可有效地提高模板匹配識別算法的運算效率。
1 基于稀疏描述的方位角估計方法
通過構造合適的字典矩陣,稀疏描述算法利用較少的非零系數(shù)即可實現(xiàn)樣本的準確描述,構造不同的判別準則,可高效地應用于圖像處理和目標識別等領域。本文意在將稀疏描述算法引入到SAR圖像中目標的方位角估計中來。首先通過優(yōu)化式(1)獲得測試樣本的稀疏描述向量:
式中:表示測試樣本;表示測試樣本圖像的總像素數(shù);字典矩陣由所有的訓練樣本組成,表示第個訓練樣本,表示訓練樣本總數(shù);表示測試樣本的稀疏描述向量,可由標準線性規(guī)劃方法獲得[14]。稀疏描述向量中較大的非零值對應于與測試樣本方位角相近的訓練樣本,其余測試樣本將對應稀疏描述向量中的較小非零值或者零值。
獲得稀疏描述向量以后,根據(jù)向量中的非零系數(shù),通過式(2)計算樣本的重構誤差:
式中:表示稀疏描述向量中的非零值個數(shù),也就是稀疏描述向量的稀疏度;表示提取出稀疏描述向量中的第個非零元素,并且將該向量其余位置的元素全部置零的函數(shù)。
之所以構造式(2)的誤差準則,是由于SAR特有的相干成像機制,使得SAR圖像具有方位角敏感特性。也就是說,不同類型目標但方位角相近的樣本之間的差異通常要遠遠小于相同類型目標但方位角明顯不同的樣本之間的差異。如圖1所示,每一行樣本(同一個目標不同方位角下的樣本)之間的差異明顯要大于每一列樣本(不同目標相同方位角下的樣本)之間的差異??紤]到SAR圖像的方位角敏感特性,只有與測試樣本同類且具有相同方位角的訓練樣本能夠實現(xiàn)對該測試樣本的最佳描述,該訓練樣本所對應的重構誤差在所有樣本中會是最小的一個。
也就是說,將對應最小重構誤差的訓練樣本的方位角作為最終的目標方位角估計結果。
式中:表示取出向量中第個非零值元素對應的索引(即第個非零元素在稀疏描述向量中的所處位置的序號);表示提取出訓練樣本方位角的函數(shù)。
2 實驗結果與分析
采用運動與靜止目標獲取與識別(Moving and Stationary Target Acquisition and Recognition,MSTAR)數(shù)據(jù)[15]驗證所提算法的有效性。每一幅訓練樣本圖像和測試樣本圖像均含有個像素,圖像的距離向分辨率和方位向分辨率均為 m,目標方位角變化范圍為0°~360°。表1給出了訓練樣本和測試樣本的圖像數(shù)。
首先在每幅圖像中心截取一個50×50像素的子圖像,以減弱SAR圖像中大面積背景雜波對算法的影響;然后利用標準直方圖均衡化將每一幅截取的子圖像的幅度值調整到區(qū)間。
圖2給出了目標BMP2?9563的方位角為的測試樣本的稀疏描述向量。圖3給出了對應每一個非零系數(shù)的重構誤差結果。由圖3可見,對應稀疏描述向量第2個非零元素的重構誤差最小,該樣本的方位角即為最終的方位角估計結果。可見,所提算法可以實現(xiàn)對測試樣本方位角的準確估計。
對所有測試樣本進行方位角估計,所得的估計結果誤差的直方圖如圖4所示。由圖4可見,絕大多數(shù)樣本的方位角估計誤差均在以內(nèi),方位角估計的結果如表2所示。
由表2可見,在進行方位角估計的所有1 365個測試樣本中,有1 334個樣本的方位角估計結果的絕對誤差在5°以內(nèi),所占比例為97.73%;而樣本的方位角估計結果的絕對誤差在以內(nèi)的樣本有1 357個,所占比例為99.41%。由實驗結果可知,所提算法可以實現(xiàn)高精度的目標方位角估計。
下面以模板識別算法為例說明所提方位角估計方法的優(yōu)越性,假設利用訓練樣本產(chǎn)生36個模板,即每個模板占據(jù)整個360°方位角范圍中連續(xù)的10°。假如某個待測試樣本的方位角為45°,那么利用所提的方位角估計方法,只需要將測試樣本與每個類型目標的3個模板進行比較即可,這3個模板對應的方位角區(qū)間分別為,和。
此外,所提算法成功地克服了方位角模糊問題。假設文獻[11?12]中的方位角估計結果能獲得與本文算法相同的精度,這里再次采用上述例子進行對比,對于這個測試樣本而言,它除了需要與對應上述3個方位角區(qū)間的模板進行匹配以外,還需要分別與對應,和三個區(qū)間的模板進行匹配,才能得到最終的識別結果。
3 結 論
目標的方位角估計是高精度識別的重要前提。本文提出了一種基于稀疏描述的目標方位角估計方法,利用SAR圖像特有的方位角敏感特性,通過構造單個樣本重構誤差最小準則,得到了高精度的方位角估計結果。此外,所提算法不存在傳統(tǒng)目標方位角估計算法中普遍存在的方位角模糊問題。
參考文獻
[1] ZHAO Y, ZHANG M, ZHAO Y, et al. A bistatic SAR image intensity model for the composite ship?ocean scene [J]. IEEE transactions on geoscience and remote sensing, 2015, 53(8): 4250?4258.
[2] LUO Y, SONG H, WANG R, et al. Arc FMCW SAR and applications in ground monitoring [J]. IEEE transactions on geoscience and remote sensing, 2014, 52(9): 5989?5998.
[3] ZHANG H, LIN H, LI Y. Impacts of feature normalization on optical and SAR data fusion for land use/land cover classification [J]. IEEE geoscience and remote sensing letters, 2015, 12(5): 1061?1065.
[4] HE Y, HE S, ZHANG Y, et al. A forward approach to establish parametric scattering center models for known complex radar targets applied to SAR ATR [J]. IEEE transactions on antennas and propagation, 2014, 62(12): 6192?6205.
[5] NOVAK L M, OWIRKA G J, BROWER W S. Performance of 10? and 20?target MSE classifiers [J]. IEEE transactions on aerospace and electronic systems, 2000, 36(4): 1279?1289.
[6] PHAM Q H, EZEKIEL A, CAMPBELL M T. New end?to?end SAR ATR system [C]// Proceedings of 6th SPIE Conference on Algorithms Synthetic Aperture Radar Imagery. Orlando, USA: SPIE, 1999: 293?301.
[7] HUANG X, QIAO H, ZHANG B. SAR target configuration recognition using tensor global and local discriminant embedding [J]. IEEE geoscience and remote sensing letters, 2016, 13(2): 222?226.
[8] LIU M, WU Y, ZHANG Q, et al. Synthetic aperture radar target configuration recognition using locality?preserving property and the Gamma distribution [J]. IET radar sonar navigation, 2016, 10(2): 256?263.
[9] CUI Z, CAO Z, YANG J, et al. Target recognition in synthetic aperture radar images via non?negative matrix factorisation [J]. IET radar sonar navigation, 2015, 9(9): 1376?1385.
[10] OHNO S, KIDERA S, KIRIMOTO T, et al. Efficient SOM?based ATR method for SAR imagery with azimuth angular variations [J]. IEEE geoscience and remote sensing letters, 2014, 11(11): 1901?1905.
[11] SUN Y, LIU Z, TODOROVIC S, et al. Adaptive boosting for SAR automatic target recognition [J]. IEEE transactions on aerospace and electronic systems, 2007, 43(1): 112?125.
[12] VOICU L I, PATTON R, MYLER H R. Multicriterion vehicle pose estimation for SAR ATR [C]// Proceedings of 6th SPIE Conference on Algorithms Synthetic Aperture Radar Imagery. Orlando, USA: SPIE, 1999: 497?506.
[13] DONG G, KUANG G, WANG N, et al. SAR target recognition via joint sparse representation of monogenic signal [J]. IEEE journal of selected topics in applied earth observations and remote sensing, 2015, 8(7): 3316?3328.
[14] DONG G, WANG N, KUANG G. Sparse representation of monogenic signal: with application to target recognition in SAR images [J]. IEEE signal processing letters, 2014, 21(8): 952?956.
[15] DING J, CHEN B, LIU H, et al. Convolutional neural network with data augmentation for SAR target recognition [J]. IEEE geoscience and remote sensing letters, 2016, 13(3): 364?368.