亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        稀疏編碼樹框架下的SAR目標識別*

        2017-06-05 15:05:51陳春林劉學軍
        計算機與生活 2017年5期
        關鍵詞:字典型號類別

        陳春林,張 禮,劉學軍

        南京航空航天大學 計算機科學與技術學院,南京 211106

        稀疏編碼樹框架下的SAR目標識別*

        陳春林,張 禮,劉學軍+

        南京航空航天大學 計算機科學與技術學院,南京 211106

        +Corresponding author:E-mail:xuejun.liu@nuaa.edu.cn

        CHEN Chunlin,ZHANG Li,LIU Xuejun.SAR target recognition based on framework of sparse coding tree. Journal of Frontiers of Computer Science and Technology,2017,11(5):768-775.

        SAR目標識別;型號識別;稀疏編碼樹;字典學習;稀疏表示

        1 引言

        雷達目標識別(radar target recognition)是指從雷達接收到的目標電磁波散射場的回波中提取出目標相關的特征,并對目標的種類、型號、屬性等進行判斷的過程,是模式識別理論在雷達領域的重要應用。合成孔徑雷達(synthetic aperture radar,SAR)[1]作為探測目標的重要手段,具有全天時、全天候探測的優(yōu)勢,已經(jīng)在軍事和民用領域獲得越來越多的應用,而如何對SAR圖像進行快速準確的理解與識別也受到越來越多研究人員的重視?;赟AR圖像的目標識別是從SAR圖像中獲取目標的信息,實現(xiàn)對目標的種類和型號進行判斷的過程,在軍事領域尤其具有重要意義。目前國內(nèi)外有許多機構都開展了對SAR圖像自動目標識別技術的研究,這些研究在圖像預處理、特征提取和分類器設計等方面各不相同。傳統(tǒng)的方法主要采用模板匹配[2]、主成分分量分析、支持向量機[3]等方法進行目標類別識別研究。

        近年來,稀疏表示作為一種新的信號表示方法,在模式識別的多個領域中獲得應用,比如人臉識別[4]、表情識別[5]等圖像識別領域,雷達成像、目標識別[6]等信號分析領域。將稀疏表示應用到分類問題的出發(fā)點是獲得目標的稀疏表示結果,構成特征向量,滿足分類需求。文獻[6]將稀疏表示應用到SAR圖像的目標識別,將訓練集中的圖像歸一化后構成向量,組成字典集合,然后計算測試樣本在該字典上的稀疏表示,根據(jù)系數(shù)的能量特征實現(xiàn)分類識別。與直接從圖像中提取特征識別的方法相比,稀疏表示減弱了對圖像預處理和姿態(tài)估計的要求,獲得了比傳統(tǒng)方法更優(yōu)秀的精度。之后有學者改進直接由訓練樣本構成字典的做法,對SAR圖像通過2DPCA(twodimensional principal component analysis)降維之后,構成過完備字典,計算測試樣本在該字典上的稀疏表示,根據(jù)稀疏能量實現(xiàn)分類[7]。另外,有學者提出SAR雷達數(shù)據(jù)本身是可壓縮的,結合壓縮感知的方法,從圖像中提取壓縮特征,構造字典,采用稀疏表示方法對目標類別進行識別[8]。最近,有學者借鑒多信息字典學習[9]的方法,利用SAR圖像的幅度信息和頻域幅度信息,采用有監(jiān)督字典學習方法,構造多信息字典,采用聯(lián)合動態(tài)稀疏表示求解稀疏向量,通過重構誤差比較完成測試樣本識別[10]。與傳統(tǒng)方法相比,一方面,通過學習降低了字典的冗余性;另一方面,減小了存儲量和后續(xù)聯(lián)合動態(tài)稀疏表示的運算量,降低了字典的原子數(shù)目。而在字典原子數(shù)目較少時,通過學習得到的字典,與直接由訓練樣本構成的字典相比,能夠更好地包含各類目標的信息,達到更好的識別性能。

        在實際應用中SAR圖像識別受到很多因素的影響,其中之一是由于同一種類別目標在配置和結構上會存在一定的差異,如同類坦克上有無機關槍、油箱,以及天線是否展開等,同類裝甲車上有無炮筒、擋泥板和聚光燈等差異,導致同一種目標存在多個型號變體。型號變體的存在對目標識別精度有很大的影響,針對型號識別有兩方面的問題:一是,在一個目標類別存在多個型號的情況下,仍然能識別出目標類別;二是,能夠?qū)δ繕说木唧w型號進行識別。目前大多數(shù)目標識別方法[7-13]針對目標類別進行研究,很少針對目標型號進行研究,有些文獻只驗證了測試樣本是訓練階段未出現(xiàn)的目標型號的情況下,對目標類別的識別影響,即上文中提到的針對型號識別的第一個問題。對目標型號做出精確識別能夠提供比單純目標類別識別更多的信息,對戰(zhàn)場感知具有重要意義。本文主要針對識別目標具體型號的問題進行探討。

        針對目標型號識別的問題,本文提出稀疏編碼樹(sparse coding tree,SC-Tree)的方法,利用子節(jié)點對根節(jié)點識別結果進行校正,提高目標型號識別的準確率。稀疏編碼樹如圖1所示。在MSTAR(moving and stationary target acquisition and recognition)數(shù)據(jù)集上的實驗證明,稀疏編碼樹在達到與一般方法相當?shù)哪繕祟悇e識別精度的基礎上,有效提高了型號識別的準確率。

        Fig.1 Sparse coding tree illustration圖1 稀疏編碼樹示意圖

        2 稀疏編碼樹方法

        2.1 稀疏表示和字典學習

        稀疏表示是為了尋找一種對輸入數(shù)據(jù)盡可能簡潔的表示,是在一組字典基中使用少量的原子線性組合來近似表示原來信號的方法。常用的稀疏表示基有固定字典以及從數(shù)據(jù)中學習的字典基兩種,固定字典包括小波基、傅立葉基等,由數(shù)據(jù)構成字典包括直接由訓練數(shù)據(jù)拼接構成字典基,或者通過字典學習方法從訓練數(shù)據(jù)中學習字典基。

        給定一個字典D={d1,d2,…,dk},k=1,2,…,K,di∈?N,di表示原子,K為原子個數(shù)。給定一組信號Y={y1,y2,…,yp},yi∈?n,稀疏表示就是在D上尋找Y的一個線性表示,在保證誤差不大的前提下,使得使用的原子盡可能少,即稀疏表示。記作:

        為了獲得有效的稀疏表示系數(shù),預設表示原子個數(shù)上限為T。尋找稀疏表示向量描述成:

        其中,||·||0表示零范數(shù)。求解這個問題是一個NPHard問題,本文采用正交匹配追蹤算法(orthogonal matching pursuit,OMP)[14]方法求解。

        當字典使用足夠多的訓練樣本作為原子來構造時,直接利用訓練樣本構造的字典與使用字典學習算法學習得到的字典相比,性能差別不大。直接基于訓練樣本構造的字典已經(jīng)可以充分地包含各類目標的信息,經(jīng)過字典學習并沒有提供更多對于分類有益的信息。但是當樣本個數(shù)較少時,直接使用訓練樣本構造字典則不能滿足信息需求,而字典學習的優(yōu)勢主要體現(xiàn)在字典原子數(shù)目較少的情況下獲得對信號表示更有效的字典。本文采用的數(shù)據(jù)集圖像數(shù)據(jù)不夠豐富,適合采用字典學習的方法構造字典基。構造字典方法通過K-SVD[15]算法求解方程(3)獲得。

        2.2 稀疏編碼樹

        稀疏編碼樹是自上而下建立每個節(jié)點的。根據(jù)識別任務的不同將稀疏表示劃分為目標類別識別和型號識別兩種識別需求,分別學習與之對應的字典和分類器。具體來說,在根節(jié)點處學習針對目標類別識別的分類器,根據(jù)分類器輸出結構進行判斷,當該目標類別不存在型號變體時,輸出最終識別結果;當目標存在型號變體時,在子節(jié)點處學習針對該目標類別下所有型號的字典和分類器,經(jīng)過子節(jié)點識別后,輸出最終識別結果。每個節(jié)點建立包括3個步驟:根據(jù)分類任務選擇訓練數(shù)據(jù),并學習該節(jié)點上的字典,然后根據(jù)該字典對訓練數(shù)據(jù)和測試數(shù)據(jù)稀疏表示,使用稀疏表示特征作為分類器輸入,輸出分類結果。詳細過程如下:

        (1)建立字典。根據(jù)該節(jié)點處預設的字典尺寸大小等參數(shù),平均從該節(jié)點需要處理的目標型號訓練樣本中隨機挑選樣本作為字典初始化樣本,根據(jù)式(3),采用K-SVD算法學習字典。

        (2)分類器學習。使用第一步中建立的字典作為稀疏表示的字典基,對輸入數(shù)據(jù)計算稀疏表示系數(shù),將稀疏表示系數(shù)向量作為特征列表,目標型號作為標號訓練分類器。本文采用SVM(support vector machine)作為分類器。

        (3)傳遞規(guī)則判斷。根據(jù)第二步分類器結果進行判斷,如果分類結果顯示該目標類別存在型號變體,則在該分類結果的基礎上,建立新的節(jié)點。如果該目標型號不存在變體型號,則輸出最終型號識別結果。

        3 實驗

        3.1 數(shù)據(jù)集

        很多現(xiàn)有的SAR目標識別文獻(例如文獻[16-18]等)中,都采用MSTAR[19]數(shù)據(jù)集對方法進行驗證。MSTAR數(shù)據(jù)庫是由DARPA等資助的MSATR計劃所公開的數(shù)據(jù)集,該數(shù)據(jù)集中包含多種目標多個俯仰角和方位角下的SAR圖像。本文使用俯仰角為17°和15°下BMP2、BTR70、T72共3種目標數(shù)據(jù)進行實驗,每一種目標的方位角范圍由0°變換到360°,分辨率為0.3 m×0.3 m,圖像尺寸為128×128像素。圖2給出了3種目標的光學圖像和SAR圖像的樣圖。各型號樣本數(shù)目統(tǒng)計見表1。

        3.2 稀疏編碼樹建立

        在實驗中,對MSTAR[17]數(shù)據(jù)集進行預處理,稀疏編碼樹建立,目標識別3個過程。預處理中,從原始128×128圖像中截取中間64×64的區(qū)域,保留所需要識別的整個目標,去除多余的背景,然后將每一幅圖像排成一個列向量,構成樣本矩陣,根據(jù)2.2節(jié)方法構造稀疏編碼樹,并進行識別處理。

        Fig.2 Target and SAR images on MSTAR data set圖2MSTAR數(shù)據(jù)集的目標光學圖像和SAR圖像對比

        Table 1 MSTAR data set information表1 MSTAR數(shù)據(jù)集信息匯總

        在MSTAR數(shù)據(jù)集中,BMP2步兵戰(zhàn)車包含3種型號BMP2SN9563、BMP2SN9566、BMP2SNC21;T72坦克包含3種型號T72SN132、T72SN812、T72SNS7;BTR70裝甲運輸車只有一種型號BTR70C71。對應到稀疏編碼樹中,在根節(jié)點位置,采用所有7種型號的訓練數(shù)據(jù)建立字典,并計算訓練樣本的稀疏表示向量,然后訓練根節(jié)點的分類器,輸出型號判斷結果。另外在該數(shù)據(jù)集中,有兩種目標(BMP2,T72)存在多種型號,因此建立兩個子節(jié)點,在每個子節(jié)點上分別為BMP2步兵戰(zhàn)車和T72坦克學習相應的稀疏表示字典和分類器。稀疏編碼樹結構如圖3所示。

        測試階段,首先計算測試樣本在根節(jié)點字典上的稀疏表示向量,并輸入分類器,判斷目標型號。根據(jù)目標型號判斷結果決定樹的走向,如果根節(jié)點識別為BTR70,直接輸出目標型號BTR70C71;如果該目標識別為BMP2或者T72類別,則輸出到相應的子節(jié)點,繼續(xù)對目標型號進行判斷,并輸出最終型號識別結果。

        Fig.3 Sparse coding tree on MSTAR data set圖3MSTAR數(shù)據(jù)集上稀疏編碼樹表示

        在根節(jié)點位置,稀疏編碼樹輸出7種目標類別識別結果,統(tǒng)計識別結果中每個目標型號的個數(shù),如表2所示。根據(jù)識別結果的樣本點分布情況,型號識別中大部分的錯誤發(fā)生在同一種目標類型中,比如將SN9563錯分為SN9566或者SNC21,而很少會錯分成其他的目標類別。這是由于同一種目標擁有大量相似的特征,這些相似的特征能夠保證出現(xiàn)目標型號變體時,仍然能識別出正確的目標類型,但是也造成了型號識別的困難。

        Table 2 Recognition sample count on root node表2 根節(jié)點位置型號識別統(tǒng)計

        而在表3中,在經(jīng)過子節(jié)點對目標型號進行識別之后,原有的部分錯誤型號識別結果被重新校正到正確目標類型下,錯誤型號的樣本減少,同時并不改變對目標類別的判斷,如在根節(jié)點上來自SN9563的樣本被錯分為SNC21,在子節(jié)點校正為SN9563。這是由于在判斷目標類別的前提下,采用了針對型號識別的稀疏表示字典和分類器,能夠校正在根節(jié)點處的型號識別錯誤。從表4中可以看出,在同等條件下,通過稀疏編碼樹對目標根節(jié)點和子節(jié)點進行識別,在保持對目標類型識別率不變的情況下,能夠有效地將目標型號的識別率提高5%至6%。

        Table 3 Recognition sample count on child nodes表3 子節(jié)點位置型號識別統(tǒng)計

        Table 4 Comparison of root node and child node表4 根節(jié)點識別結果和子節(jié)點識別結果比較

        3.3 稀疏編碼樹結果比較

        為了驗證稀疏編碼樹對目標類別識別的能力,比較了本文提出方法與參考文獻[4]中稀疏表示分類器(sparse representation classification,SRC)方法以及文獻[8]中聯(lián)合動態(tài)稀疏表示(joint dynamic sparse representation classification,JDSRC)方法,結果如表5所示。由于稀疏編碼樹方法最終輸出目標的具體型號,在實驗數(shù)據(jù)集上共7種類別標號,在比較對目標類別識別能力時,計算目標類別準確率只按照目標類別識別統(tǒng)計,例如識別結果為T72SNC71和T72SN132都統(tǒng)計為T72類別。其中JDSRC方法的識別結果明顯好于SRC方法的識別結果,這是由于聯(lián)合利用目標的圖像域幅度信息與頻域幅度信息兩種信息,比單一采用圖像域幅度信息對于SAR圖像目標識別更有效。此外與另外兩種方法相比,本文方法在目標類別識別準確率上明顯優(yōu)于SRC,這是由于通過字典學習構建出的字典比直接使用樣本構造出的字典能夠提供更加充分的信息,這樣保證了后續(xù)稀疏表示能夠提供更多對分類有益的特征。與JDSRC方法相比,稀疏編碼樹獲得和JDSRC相當?shù)哪繕祟悇e識別精度,但是個別目標精度比JDSRC方法要差。

        Table 5 Taget recognition ratio of different methods表5 各方法目標類別識別準確率比較 %

        由于字典學習對字典原子個數(shù)敏感,一般當字典原子個數(shù)越多時,表示精度越高。為比較字典尺寸對識別結果的影響,給定根節(jié)點字典原子個數(shù),比較不同子節(jié)點字典原子個數(shù)下識別精度變化趨勢。圖4展示了型號識別中,BMP2類別下SNC21、T72類別下SN132兩種型號的識別精度隨子節(jié)點字典原子個數(shù)變化的趨勢。結果顯示當子節(jié)點字典原子個數(shù)增加時,各型號的識別率會隨之增加。對比圖5中C71型號識別精度隨子節(jié)點字典原子個數(shù)變化趨勢,C71識別精度基本保持穩(wěn)定。由于C71屬于BTR70類型,且BTR70目標下只含有一種目標型號,在根節(jié)點識別完成后,直接輸出最終結果,不受子節(jié)點尺寸影響,識別精度基本保持穩(wěn)定。

        Fig.4 Dictionary size VS target recognition ratio圖4 子節(jié)點字典尺寸與目標型號識別精度比較

        Fig.5 Dictionary size VS target recognition ratio圖5不同字典尺寸下SNC71識別精度比較

        4 結束語

        本文采用稀疏編碼樹方法對SAR圖像目標識別進行研究,使用稀疏表示方法構造特征向量,SVM作為分類器。根據(jù)識別要求不同,采用不同數(shù)據(jù)分別學習相應的字典以及分類器,構成稀疏編碼樹。在單個分類器對目標型號識別精度不夠,但型號識別精度較高的情況下,采用子節(jié)點對根節(jié)點的識別結果進行矯正,在保證目標類別識別精度的前提下,提高了目標型號的識別能力。通過實驗結果與傳統(tǒng)方法比較,本文提出的SAR圖像目標識別方法能夠從較大范圍內(nèi)提高目標類型的識別準確率,通過與JDSRC方法的對比,為通過聯(lián)合多種方法的特征并研究更加優(yōu)化的方法提供了實現(xiàn)的可能性。

        本文目標識別的平均精度達到92%,由于采用單一信息字典進行稀疏表示,對比多信息字典方法相比對某些類別的識別還不夠精確,而且對目標型號的平均識別精度只有60%,還達不到能準確識別目標型號的目的。大量文獻表明,學習得到的字典比預先定義的字典能更準確地對樣本進行描述,得到更好的識別結果。因此為獲得更高的識別精度,下一步工作會將字典選擇和字典學習算法引入到稀疏描述算法中進行深入研究。

        References:

        [1]Wehner D R.High resolution radar[M].2nd ed.[S.l.]:Artech House,1995.

        [2]Novak L M,Owirka G J,Brower W S.Performance of 10-and 20-target MSE classifiers[J].IEEE Transactions on Aerospace&Electronic Systems,2000,36(4):1279-1289.

        [3]Zhao Qun,Principe J C.Support vector machines for SAR automatic target recognition[J].IEEE Transactions on Aerospace&Electronic Systems,2001,37(2):643-654.

        [4]Wright J,Yang A Y,Ganesh A,et al.Robust face recognition via sparse representation[J].IEEE Transactions on PatternAnalysis and Machine Intelligence,2009,31(2):210-227.

        [5]Chen H C,Comiter M Z,Kung H T,et al.Sparse coding trees with application to emotion classification[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops,Boston,USA,Jun 7-12, 2015.Piscataway,USA:IEEE,2015:77-86.

        [6]Thiagarajan J J,Ramamurthy K N,Knee P,et al.Sparse representations for automatic target classification in SAR images [C]//Proceedings of the 2010 International Symposium on Communications,Control and Signal Processing,Limassol, Cyprus,Mar 3-5,2010.Piscataway,USA:IEEE,2010:1-4.

        [7]Wang Yanxia,Zhang Gong.Target recognition in SAR images using sparse representation based on feature space[J]. Journal of Chongqing University of Posts and Telecommunitions:National Science Edition,2012,24(3):308-313.

        [8]Yang Shuyuan,Ma Yonggang,Wang Min,et al.Compressive feature and kernel sparse coding-based radar target recognition[J].IET Radar,Sonar&Navigation,2013,7(7): 755-763.

        [9]Zhang Haichao,Nasrabadi N M,Zhang Yanning,et al.Joint dynamic sparse representation for multi-view face recognition[J].Pattern Recognition,2012,45(4):1290-1298.

        [10]Qi Huijiao,Wang Yinghua,Ding Jun,et al.SAR target recognition based on multi-information dictionary learning and sparse representation[J].Systems Engineering and Electronics,2015,37(6):1280-1287.

        [11]Quan Sinong,Xiong Boli,Yang Libo,et al.Evaluation of different SAR change detectors based on vehicle recognition with MSTAR data set[J].Remote Sensing Letters,2015,6(7): 539-547.

        [12]Dong Ganggang,Kuang Gangyao,Wang Na,et al.SAR target recognition via joint sparse representation of monogenic signal[J].IEEE Journal of Selected Topics in Applied Earth Observations&Remote Sensing,2015,8(7):3316-3328.

        [13]Wang Haipeng,Chen Sizhe,Xu Feng,et al.Application of deep-learning algorithms to MSTAR data[C]//Proceedings of the 2015 IEEE International Geoscience and Remote Sensing Symposium,Milan,Italy,Jul 26-31,2015.Piscataway,USA:IEEE,2015:3743-3745.

        [14]Rubinstein R,Zibulevsky M,Elad M.Efficient implementation of the K-SVD algorithm using batch orthogonal matching pursuit[J].CS Technion,2008,40:1-15.

        [15]Aharon M,Elad M,Bruckstein A.K-SVD:an algorithm for designing overcomplete dictionaries for sparse representation[J].IEEE Transactions on Signal Processing,2006,54 (11):4311-4322.

        [16]Wagner S.Morphological component analysis in SAR images to improve the generalization of ATR systems[C]//Proceedings of the 3rd International Workshop on Compressed Sensing Theory and Its Applications to Radar,Sonar and Remote Sensing,Pisa,Italy,Jun 17-19,2015.Piscataway,USA: IEEE,2015:46-50.

        [17]Xu Liyuan,Cao Zongjie.Sub-dictionary based joint sparse representation for multi-aspect SAR automatic target recognition[C]//LNEE 322:Proceedings of the 3rd International Conference on Communications,Signal Processing,and Systems,2015:167-175.

        [18]Hu Liping,Liu Hongwei,Wu Shunjun.Novel pre-processing method for SAR image based automatic target recognition [J].Journal of Xidian University:National Science Edition, 2007,34(5):733-737.

        [19]Timothy D R,Steven W W,Vincent J V,et al.Standard SAR ATR evaluation experiments using the MSTAR public release data set[J].Proceedings of SPIE,1998,3370:566-573.

        附中文參考文獻:

        [7]王燕霞,張弓.基于特征參數(shù)稀疏表示的SAR圖像目標識別[J].重慶郵電大學學報:自然科學版,2012,24(3):308-313.

        [10]齊會嬌,王英華,丁軍,等.基于多信息字典學習及稀疏表示的SAR目標識別[J].系統(tǒng)工程與電子技術,2015,37(6): 1280-1287.

        [18]胡利平,劉宏偉,吳順君.一種新的SAR圖像目標識別預處理方法[J].西安電子科技大學學報:自然科學版,2007, 34(5):733-737.

        CHEN Chunlin was born in 1992.He is an M.S.candidate at Nanjing University of Aeronautics and Astronautics. His research interests include machine learning and radar target recognition,etc.

        陳春林(1992—),男,江蘇南通人,南京航空航天大學碩士研究生,主要研究領域為機器學習,雷達目標識別等。

        ZHANG Li was born in 1985.He received the Ph.D.degree in computer applications from Nanjing University of Aeronautics andAstronautics in 2015.His research interests include bioinformatics and machine learning,etc.

        張禮(1985—),男,2015年于南京航空航天大學獲得博士學位,主要研究領域為生物信息學,機器學習等.

        LIU Xuejun was born in 1976.She received the Ph.D.degree in computer science from the University of Manchester in 2006.Now she is a professor at College of Computer Science and Technology,Nanjing University of Aeronautics andAstronautics.Her research interests include bioinformatics and machine learning,etc.

        劉學軍(1976—),女,2006年于英國曼切斯特大學獲得博士學位,現(xiàn)為南京航空航天大學教授,主要研究領域為生物信息學,機器學習等。

        《計算機工程與應用》投稿須知

        中國科學引文數(shù)據(jù)庫(CSCD)來源期刊、北大中文核心期刊、中國科技核心期刊、RCCSE中國核心學術期刊、《中國學術期刊文摘》首批收錄源期刊、《中國學術期刊綜合評價數(shù)據(jù)庫》來源期刊,被收錄在《中國期刊網(wǎng)》、《中國學術期刊(光盤版)》、英國《科學文摘》(SA/INSPEC)、俄羅斯《文摘雜志》(AJ)、美國《劍橋科學文摘》(CSA)、美國《烏利希期刊指南》(Ulrich’s PD)、《日本科學技術振興機構中國文獻數(shù)據(jù)庫》(JST)、波蘭《哥白尼索引》(IC),中國計算機學會會刊

        《計算機工程與應用》是由中華人民共和國中國電子科技集團公司主管,華北計算技術研究所主辦的面向計算機全行業(yè)的綜合性學術刊物。

        辦刊方針堅持走學術與實踐相結合的道路,注重理論的先進性和實用技術的廣泛性,在促進學術交流的同時,推進科技成果的轉(zhuǎn)化。覆蓋面寬、信息量大、報道及時是本刊的服務宗旨。

        報導范圍行業(yè)最新研究成果與學術領域最新發(fā)展動態(tài);具有先進性和推廣價值的工程方案;有獨立和創(chuàng)新見解的學術報告;先進、廣泛、實用的開發(fā)成果。

        主要欄目理論與研發(fā),大數(shù)據(jù)與云計算,網(wǎng)絡、通信與安全,模式識別與人工智能,圖形圖像處理,工程與應用,以及其他熱門專欄。

        注意事項為保護知識產(chǎn)權和國家機密,在校學生投稿必須事先征得導師的同意,所有稿件應保證不涉及侵犯他人知識產(chǎn)權和泄密問題,否則由此引起的一切后果應由作者本人負責。

        論文要求學術研究:報道最新研究成果,以及國家重點攻關項目和基礎理論研究報告。要求觀點新穎,創(chuàng)新明確,論據(jù)充實。技術報告:有獨立和創(chuàng)新學術見解的學術報告或先進實用的開發(fā)成果,要求有方法、觀點、比較和實驗分析。工程應用:方案采用的技術應具有先進性和推廣價值,對科研成果轉(zhuǎn)化為生產(chǎn)力有較大的推動作用。

        投稿格式1.采用學術論文標準格式書寫,要求文筆簡練、流暢,文章結構嚴謹完整、層次清晰(包括標題、作者、單位(含電子信箱)、摘要、關鍵詞、基金資助情況、所有作者簡介、中圖分類號、正文、參考文獻等,其中前6項應有中、英文)。中文標題必須限制在20字內(nèi)(可采用副標題形式)。正文中的圖、表必須附有圖題、表題,公式要求用MathType編排。論文字數(shù)根據(jù)論文內(nèi)容需要,不做嚴格限制,對于一般論文建議7 500字以上為宜。2.請通過網(wǎng)站(http∶//www.ceaj.org)“作者投稿系統(tǒng)”一欄投稿(首次投稿須注冊)。

        SAR Target Recognition Based on Framework of Sparse Coding Tree*

        CHEN Chunlin,ZHANG Li,LIU Xuejun+
        College of Computer Science and Technology,Nanjing University of Aeronautics and Astronautics,Nanjing 211106 China

        In order to improve the SAR(synthetic aperture radar)target recognition performance,especially for variant target recognition performance,this paper proposes a sparse coding tree framework for radar target recognition based on the sparse representation recognition method.Sparse coding tree is a classification tree that uses nodespecific dictionaries and classifiers at each node.In the training stage,this paper designs two types of classifiers respectively for target identification requirements and variant target recognition requirement.The root node is built to identify target type,while child nodes of the tree are built to identify variant target series.In the testing stages,the sparse coding tree recognizes the target type on the root node.Then according to the recognition result of the root node,the tree decides whether branching the test sample to a child node or outputting final recognition result.Target with variant type will branch to the child node trained for this specific target type group.In addition,target without a variant will simply output a final classification label.The experimental results on MSTAR(moving and stationary target acquisition and recognition)SAR image data sets show that the sparse coding tree improves the ability of variant target recognition,while obtains similar target category recognition accuracy compared to the mainstream method.

        SAR target recognition;variant target recognition;sparse coding tree;dictionary learning;sparse representation

        10.3778/j.issn.1673-9418.1603058

        A

        TP391

        *TheAeronautical Science Foundation of China under Grant Nos.20151452021,20152752033(航空科學基金).

        Received 2016-02,Accepted 2016-04.

        CNKI網(wǎng)絡優(yōu)先出版:2016-04-19,http://www.cnki.net/kcms/detail/11.5602.TP.20160419.1431.016.html

        摘 要:為了提高利用合成孔徑雷達(synthetic aperture radar,SAR)圖像對目標型號識別的能力,在稀疏表示識別方法的基礎上,提出了一種樹形框架稀疏編碼的雷達目標識別方法。稀疏編碼樹是由多個節(jié)點構成的分類器,其上每個節(jié)點由不同識別需求的子分類器構成。在訓練階段,分別針對目標型號識別需求以及型號識別需求學習相應分類器,組成分類器的根節(jié)點和子節(jié)點。識別階段在根節(jié)點位置完成對目標類別的判斷,再根據(jù)根節(jié)點的判斷結果,對存在型號變體的目標,在子節(jié)點上再對型號進行識別,最終輸出目標的識別結果,而不存在型號變體的目標則直接輸出識別結果。基于美國運動和靜止目標獲取與識別(moving and stationary target acquisition and recognition,MSTAR)計劃錄取的SAR圖像數(shù)據(jù)集上的實驗結果表明,樹形結構在取得與主流方法相當?shù)哪繕祟悇e識別精度的前提下,提高了對目標型號的識別能力,同時能夠準確輸出目標類別識別結果。

        猜你喜歡
        字典型號類別
        開心字典
        家教世界(2023年28期)2023-11-14 10:13:50
        開心字典
        家教世界(2023年25期)2023-10-09 02:11:56
        “三化”在型號研制中的應用研究
        型號產(chǎn)品配套管理模式探索與實踐
        我是小字典
        正版字典
        讀者(2016年14期)2016-06-29 17:25:50
        不同型號CTC/TDCS設備的互聯(lián)互通
        服務類別
        新校長(2016年8期)2016-01-10 06:43:59
        論類別股東會
        商事法論集(2014年1期)2014-06-27 01:20:42
        中醫(yī)類別全科醫(yī)師培養(yǎng)模式的探討
        亚洲国产av一区二区四季 | 久久成人免费电影| 午夜亚洲国产精品福利| 亚洲中文字幕综合网站| 亚洲av综合色区无码另类小说| 亚洲av麻豆aⅴ无码电影 | 中国老熟女重囗味hdxx| 中文字幕av日韩精品一区二区| 97无码人妻一区二区三区蜜臀| 激情都市亚洲一区二区| 日日拍夜夜嗷嗷叫国产| 精品香蕉久久久午夜福利| 色婷婷精品综合久久狠狠| 久久久亚洲av午夜精品| 久9re热视频这里只有精品| 中文字幕亚洲乱码熟女在线萌芽| 女人被爽到呻吟gif动态图视看 | 日本办公室三级在线看| 国产色视频一区二区三区不卡 | 加勒比特在线视频播放| 国产不卡精品一区二区三区| 伊人激情av一区二区三区| 在线不卡av天堂| 蜜桃av一区二区三区| 亚洲乱码一区二区三区在线观看 | 久激情内射婷内射蜜桃| 无码成人片一区二区三区| 国内精品久久人妻互换| 亚洲国产亚综合在线区| 欧美性狂猛xxxxx深喉| 亚洲九九夜夜| 国产三区二区一区久久| 人妻丰满熟妇av无码区| 国产成人亚洲综合一区| 久久偷拍国内亚洲青青草| 一区二区三区内射美女毛片 | 精品人妻一区二区三区av| 人人妻人人澡人人爽精品日本| 老熟妇乱子伦av| 日韩无码尤物视频| 亚洲国产精品国自产拍性色|