劉 磊
(海軍航空工程學(xué)院電子信息工程系 煙臺(tái) 264001)
?
基于Gabor變換和KPCA的SAR圖像艦船目標(biāo)鑒別*
劉 磊
(海軍航空工程學(xué)院電子信息工程系 煙臺(tái) 264001)
針對(duì)SAR圖像中的艦船目標(biāo)和雜波虛警的鑒別問題,采用Gabor變換和核主成分分析(Kernel Principal Component Analysis,KPCA)相結(jié)合的艦船目標(biāo)鑒別算法。首先對(duì)SAR圖像中的樣本切片進(jìn)行Gabor變換,獲得艦船的紋理特征,將這些特征用KPCA算法降維并提取目標(biāo)的主成分分量,把最終采集的樣本特征通過k-近鄰分類器進(jìn)行訓(xùn)練和測(cè)試。通過仿真結(jié)果的比較表明,利用Gabor變換和KPCA降維相結(jié)合的方法可以有效地對(duì)SAR圖像中的艦船目標(biāo)和雜波虛警進(jìn)行鑒別。
SAR圖像; 艦船目標(biāo)鑒別; Gabor變換; KPCA; k-近鄰分類
Class Number TR391
紋理特征是一種重要的視覺線索,是圖像中普遍存在而又難以描述的特征。它反映了物體表面的內(nèi)在屬性,包含了物體表面的重要結(jié)構(gòu)信息以及與外界環(huán)境的聯(lián)系。SAR圖像中含有豐富的紋理信息,對(duì)SAR圖像進(jìn)行紋理分析可以提取圖像中的重要信息[1~2]。經(jīng)過各國(guó)研究者幾十年的共同努力,紋理特征提取獲得了很大發(fā)展,按照紋理特征提取方法所基于的基礎(chǔ)理論和研究思路的不同,并借鑒非常流行的Tuceryan和Jain的分類方法,將紋理特征提取方法分為四大類:統(tǒng)計(jì)法、結(jié)構(gòu)法、模型法和信號(hào)處理法[3~4]。本文采用信號(hào)處理法中的Gabor變換來提取SAR圖像中的紋理特征,然后對(duì)圖像中的艦船目標(biāo)和雜波虛警進(jìn)行鑒別處理。
單獨(dú)的采用某一類特征進(jìn)行目標(biāo)鑒別會(huì)因特征本身的缺陷而造成鑒別的正確率低,通過特征融合將多類特征融合為聯(lián)合特征,可以有效提高鑒別率[5~6]。Gabor特征可以很好地反映圖像中的局部特性,有著良好的頻率性和方向性。但由于Gabor是非正交的,不同特征分量之間有冗余,因此本文將Gabor變換提取的紋理特征用KPCA方法進(jìn)行降維,消除了各特征間的冗余性,優(yōu)化了鑒別效果。
2.1 基于Gabor變換的紋理特征提取
Gabor變換是由Dennis Gabor于1946年提出一種信號(hào)時(shí)頻分析方法,也是一種加窗的短時(shí)傅里葉變換。Gabor函數(shù)能夠在不同尺度和方向上提取相關(guān)特征。通過一組多通道Gabor濾波器,可以體現(xiàn)目標(biāo)在不同頻率和方向上的強(qiáng)度變化,從而獲取目標(biāo)的紋理特征。Gabor濾波器克服了傳統(tǒng)傅里葉變換的不足,能夠很好地兼顧信號(hào)在空間域和頻率域中的分辨能力,因此被廣泛應(yīng)用在目標(biāo)識(shí)別中[7~8]。
常用的二維Gabor函數(shù)可以用下式表示
·exp[2πj(Ux+Vy)]
(1)
·exp[2πjFx′]
(2)
Gabor函數(shù)的頻域響應(yīng)表達(dá)式為
(3)
式中,u′=ucosφ+vsinφ,v′=-usinφ+vcosφ。Gabor濾波器頻率F、頻率帶寬B以及方向帶寬Ω(rad),頻率與方向帶寬關(guān)系圖如圖1所示。
圖1 Gabor頻率帶寬以及方向帶寬的關(guān)系圖
n為所采用的濾波器包含的角度總數(shù),范圍為0~π。當(dāng)取n=8時(shí),即所選擇8個(gè)方向上的特征信息。圖2表示Gabor濾波器頻率和方向關(guān)系,各子圖像對(duì)應(yīng)不同的頻率和方向。
Gabor變換法提取紋理特征利用了Gabor濾波器的良好性質(zhì),即具有時(shí)域和頻域的綜合最佳分辨率,在圖像紋理特征提取中備受青睞。但由于Gabor是非正交的,不同特征分量之間存在冗余,所以本文將通過Gabor變換提取的目標(biāo)紋理特征用KPCA方法進(jìn)行降維處理,提取目標(biāo)的主成分。
圖2 Gabor濾波器不同頻率與方向
2.2 基于KPCA的特征提取
核主分量分析(KPCA)是通過對(duì)圖像的數(shù)據(jù)統(tǒng)計(jì),按照像素相關(guān)性來提取目標(biāo)主要信息的一種方法[9~10]。KPCA是在PCA算法的基礎(chǔ)上,引入核函數(shù),通過非線性變換將樣本映射到高維空間,再由PCA算法選出主要的特征向量。
用數(shù)學(xué)形式可描述為:樣本數(shù)據(jù)X={x1,x2,…,xm},X∈RN,m為樣本的數(shù)量,根據(jù)非線性變換φ將樣本映射到高維空間F,F={φ(X):X∈RN},如圖3所示。
圖3 由非線性空間到線性空間的變換
[φ(x1),φ(x2),…,φ(xm)]
(4)
(5)
KPCA是一種加核的PCA算法,KPCA和PCA之間存在很多相似的特點(diǎn),提取的主分量都代表著圖像目標(biāo)中的最大方差即主成分分量,都使得均方誤差最小,且各個(gè)主分量間都是互不相關(guān)的。當(dāng)然,它們之間的區(qū)別是PCA是線性變換,不能夠處理非線性問題,KPCA通過核函數(shù)可以將非線性問題轉(zhuǎn)換到高維空間中,再進(jìn)行特征提取。
首先將SAR圖像艦船目標(biāo)通過形態(tài)學(xué)濾波的方法進(jìn)行預(yù)處理,再經(jīng)過Gabor變換提取樣本的紋理特征,然后利用KPCA算法進(jìn)行降維處理,將保留的特征樣本通過k近鄰分類器進(jìn)行訓(xùn)練,再將測(cè)試樣本通過訓(xùn)練后的分類器進(jìn)行分類,獲得識(shí)別結(jié)果,本文采用的鑒別流程如圖4所示。
圖4 本文算法流程圖
實(shí)驗(yàn)數(shù)據(jù)取自C波段RADARSAT-2衛(wèi)星獲取的實(shí)測(cè)SAR數(shù)據(jù)。圖像方位向和距離向分辨率都為3m。將艦船目標(biāo)和雜波圖像都裁剪成100×100像素大小的樣本各60幅。艦船目標(biāo)和雜波虛警如圖5所示;將預(yù)處理后的圖像通過Gabor進(jìn)行紋理特征提取,在實(shí)驗(yàn)中,選取了樣本在5個(gè)尺度和8個(gè)方向的紋理特征,以圖5(a)為例,經(jīng)過Gabor變換提取的紋理特征效果圖如圖6所示;然后經(jīng)過KPCA算法進(jìn)行非線性特征提取,降維保留20個(gè)主成分分量,最后通過k近鄰分類器進(jìn)行分類識(shí)別,為驗(yàn)證實(shí)驗(yàn)效果,與單一Gabor變換和KPCA方法進(jìn)行對(duì)比。
圖5 SAR圖像中截取的樣本圖像
圖6 Gabor 變換提取紋理特征效果圖
提取后的紋理特征,因特征之間存在冗余,所以將這些特征組成一個(gè)新的向量,采用KPCA進(jìn)行非線性特征提取,利用核函數(shù),對(duì)向量矩陣進(jìn)行降維后保留20個(gè)主成分分量,再將保留的主成分分量作為樣本特征輸入到k近鄰分類器中,分類結(jié)果如表1所示。
由表1中可以看出,采用Gabor變換提取圖像的紋理特征進(jìn)行目標(biāo)鑒別分類正確率為93.33%,采用KPCA降維提取圖像主成分的方法分類正確率為95.00%,略高于Gabor變換方法。而將Gabor變換和KPCA方法相結(jié)合提取的特征得到分類正確率為98.33%,比采用單一方法進(jìn)行特征提取的正確率有明顯提高,實(shí)驗(yàn)表明了本文方法可以有效地對(duì)SAR圖像中的艦船目標(biāo)和雜波虛警進(jìn)行鑒別。
表1 分類結(jié)果比較
Gabor變換具有很強(qiáng)的空間定位和方向選擇特性,常被用于紋理特征的提取,然而由于Gabor是非正交的,各分量之間存在交叉冗余現(xiàn)象,因此本文引入KPCA算法。首先針對(duì)SAR圖像樣本切片通過Gabor變換提取紋理特征,再通過KPCA算法進(jìn)行降維處理;把最終采集的樣本特征通過k近鄰分類器訓(xùn)練、測(cè)試,獲得效果。從實(shí)驗(yàn)數(shù)據(jù)中表明,采用基于Gabor變換和KPCA融合的方法對(duì)SAR圖像目標(biāo)進(jìn)行特征提取能夠有效提高鑒別精度和鑒別效果。
[1] John R Smith, Shih-Fu Chang. Automated binary texture feature sets for image retrieval[C]//IEEE International Conference on Acoustics, Speech, and Signal Processing. Atlanta,GA,USA,1996(4):2239-2242.
[2] Rober M, Shanmugam, Itshak Dinstein. Texture features for image classification[J]. IEEE Trans on Sys, Man, and Cyb,1973,SMC-3(6):610-621.
[3] Pierce L,Hang P.Dobson M.Texture estimation in SAR images of forests[C]//IGARSS’03, Proceedings, 2003 IEEE International Volume,2006(6):4010-4012.
[4] Beaulieu J M, Touzi R. Segmentation of textured scenes using polar metric SARs[C]//IGARSS’03, Proceedings,2003 IEEE International Volume 1,2003:446-448.
[5] 龐鵬飛.紋理特征提取與自動(dòng)分類算法研究[D].天津:天津大學(xué),2011.
[6] 吳良斌.SAR圖像處理與目標(biāo)識(shí)別[M].北京:航空工業(yè)出版社,2013.
[7] Huang L L, Shimizu A, Kobatake H. Robust face detection using Labor filter features[J]. Pattern Recognition Letters,2005:26(11):1641-1649.
[8] Liu Chengjun, Wechsler H. Independent component analysis of Gabor features for face recognition[J]. IEEE Transactions on Neural Network,2003:14(4):919-928.
[9] 韓萍,吳仁彪,王兆華.基于KPCA準(zhǔn)則的SAR目標(biāo)特征提取與識(shí)別[J].電子與信息學(xué)報(bào),2003:25(10):1297-1301.
[10] B. Scholkopf, A. Smola, K. R. Muller, Nonlinear component analysis as a kernel eigenvalue problem[J]. Neural Computation,1998,10(5):1299-1319.
Ship Targets Discrimination in SAR Images Based on Gabor and KPCA
LIU Lei
(Department of Electronic and Information Engineering, Naval Aeronautical and Astronautical University, Yantai 264001)
Ship targets discrimination algorithm based on Gabor and Kernel Principal Component Analysis(KPCA) was proposed to deal with the problem of ship targets discrimination in SAR images. Firstly, the sample slices of the SAR image were put to Gabor filter to extract texture features. Then, KPCA algorithm was used to reduce the dimension of these characteristics and extract the main ingredients of the targets. The final sample characteristics were put to k-neighbor classifier to train and test. The result showed that the combination of Gabor and KPCA can effectively discriminate the ship target and the clutter in SAR images.
SAR images, ship targets discrimination, Gabor transform, KPCA, k-neighbor classifier
2016年5月17日,
2016年7月3日
國(guó)家自然科學(xué)基金(編號(hào):61179016)資助。
劉磊,男,博士研究生,研究方向:SAR圖像目標(biāo)識(shí)別。
TR391
10.3969/j.issn.1672-9730.2016.11.009