韓 光, 趙春霞
(南京理工大學(xué)計(jì)算機(jī)學(xué)院,江蘇 南京 210094)
紋理分析在過去的幾十年里一直都是研究的熱點(diǎn)問題,因?yàn)槠湓诤芏囝I(lǐng)域都起著十分重要的作用,例如,遙感分類[1]、圖像檢索[2]以及智能機(jī)器人導(dǎo)航[3]等領(lǐng)域。其中,紋理分類問題,特別是對于旋轉(zhuǎn)了一定角度后的紋理圖像的分類,在紋理分析中是一個既有挑戰(zhàn)性又非常重要的問題。在文獻(xiàn)中已經(jīng)有很多關(guān)于旋轉(zhuǎn)不變性的紋理特征提取方法被提出[4-5]。
脊波(Ridgelet)變換是最近才發(fā)展起來的一種信號表示方法[6],這種變換可以分為兩個階段:Radon變換階段和一維小波變換階段,脊波變換可以能夠解決線奇異問題,因此相對于只能解決點(diǎn)奇異的小波變換來說是更好的特征提取工具。Chen等[7]人首先提出了一種利用脊波變換來提取旋轉(zhuǎn)不變性特征的方法,并且在字符和形狀識別中表現(xiàn)良好。然而,該方法能產(chǎn)生高維特征,例如一幅64×64的字符圖像,能夠產(chǎn)生168維的特征,這使其在紋理分類中變得不可用,因?yàn)榧y理圖像的尺寸可能更大。Huang等[8]也提出了一種類似特征提取方法。Pan等[9]則提出了在脊波變換中使用頻率 B-樣條小波來提取旋轉(zhuǎn)不變性特征的方法。
以上基于脊波變換的旋轉(zhuǎn)不變性紋理特征是經(jīng)過一維小波變換后,在每個頻率子波段中獨(dú)立提取的,并沒有考慮到同一分解尺度下高、低頻子波段之間的相互關(guān)系。然而這種關(guān)系是的確存在的,即使使用正交化小波進(jìn)行分解,同一分解尺度下高、低頻子波段之間的相互關(guān)系也是存在的。Portilla 和 Simoncelli[10]已經(jīng)證明如果沒有這些子波段間相互關(guān)系的知識,紋理的準(zhǔn)確重構(gòu)是不可能的。Wang等[11]也將這種關(guān)系用于紋理分類,該方法是在小波包變換中利用線性回歸模型來評估子波段間關(guān)系,并將回歸模型的系數(shù)作為特征。Hiremath等[12]則在小波變換后的圖像中計(jì)算共生直方圖來提取不同頻率子波段之間的關(guān)系作為特征,并且在紋理分類和字符識別中表現(xiàn)良好。
基于以上分析,本文提出了一種新的基于脊波變換的旋轉(zhuǎn)不變性紋理特征提取方法。該方法是先將圖像經(jīng)過脊波變換得到脊波變換系數(shù)矩陣。然后,對于上述矩陣中的頻率系數(shù),采用一種直方圖的形式來提取特征,用以評估高、低頻子波段之間系數(shù)的相互關(guān)系,對這些關(guān)系特征數(shù)據(jù)以及在每個子波段中提取的特征沿方向θ進(jìn)行一維傅里葉變換并取其幅值,從而得到本文所提出的旋轉(zhuǎn)不變性紋理特征。實(shí)驗(yàn)表明,本文方法可靠有效。
則對于參數(shù)集γ,定義2R →R函數(shù)
則稱γψ為由容許條件生成的Ridgelet函數(shù)。其中,a稱為Ridgelet的尺度參數(shù),u表示方向,b為位置參數(shù)。
其中 ψ(x)為一維Wavelet函數(shù),稱變換
由脊波變換與Radon變換的關(guān)系可知,為了實(shí)現(xiàn)脊波變換,第一步首先要計(jì)算 Radon變換Rf(θ,t),然后對投影切片 Rf(θ,?)進(jìn)行一維小波變換,最終得到Ridgelet變換系數(shù)矩陣。
由投影切片定理,如下式(7)所示
假設(shè)給定一幅 N×N的紋理圖像,首先對該圖像進(jìn)行二維傅里葉變換,然后在變換后的圖像中央選擇一個圓盤區(qū)域,并在方向[0°,180°]內(nèi)等間隔角度進(jìn)行頻率抽樣,從而得到映射切片。根據(jù)文獻(xiàn)[5],映射切片的總數(shù)在(π/2)N~πN時(shí),可產(chǎn)生較好的分類結(jié)果,這里選擇映射切片的總數(shù)為2N,即頻率抽樣的間隔角度為180°/2N。經(jīng)過Radon變換后,在每個映射切片上應(yīng)用一維小波變換,可得到脊波變換系數(shù)矩陣。從脊波變換系數(shù)矩陣可以看出,給定圖像的旋轉(zhuǎn)將會導(dǎo)致在每個矩陣中列指數(shù)的循環(huán)平移。上述過程可由圖1所示。
圖1 脊波變換流程圖
Hiremath等人[12]在二維圖像中進(jìn)行小波變換后,用共生直方圖來提取不同頻率子波段之間的關(guān)系,但這種方法不能夠直接用于脊波變換后的頻率系數(shù)中,本文對Hiremath的方法進(jìn)行了簡化和改進(jìn),使其能夠用于提取脊波變換后各頻率子波段之間的關(guān)系。對于一幅紋理圖像,通過上述脊波變換得到脊波變換系數(shù)矩陣,該矩陣的列坐標(biāo)是采樣方向θ,行坐標(biāo)是頻率系數(shù)長度。其中,在對投影切片進(jìn)行一維小波變換時(shí),每分解一層,便可產(chǎn)生一個近似(A)和一個細(xì)節(jié)(V)系數(shù)矢量(不同于二維小波變換,會形成3個方向的細(xì)節(jié)系數(shù)矩陣)。近似(A)和細(xì)節(jié)(V)系數(shù)矢量分別對應(yīng)的是低、高頻子波段。脊波變換后高、低頻子波段間關(guān)系特征的提取算法如下:
(1)對脊波變換系數(shù)矩陣按列平分成 M組,每組包含n列,這樣就得到M組長度為m(對投影切片進(jìn)行一維小波變換后的頻率系數(shù)長度),寬度為n的近似系數(shù)矩陣Aq和細(xì)節(jié)系數(shù)矩陣Vq,其中,1≤q≤M。
(2)直方圖構(gòu)建。在 Aq中的小波系數(shù) xij對應(yīng)在 Vq中的系數(shù) yij,1≤i≤m,1≤j≤n,其上下最近鄰ak和hk展示如圖2所示,k=1、2分別代表上、下方向。
圖2 在Aq和Vq中xij和yij的上下最近鄰
直方圖構(gòu)建的偽代碼如下(見表1):
表1 直方圖構(gòu)建算法
對于每一對(Aq, Vq),通過上述算法將產(chǎn)生4個直方圖H,每個方向兩個。
(3)規(guī)范化累積直方圖
將H設(shè)為256等級值,即
這里,ni是每個等級值的占有數(shù)目。然后對于這256個等級值的累計(jì)占有數(shù)目進(jìn)行計(jì)算并使其規(guī)范化,從而得到規(guī)范化的累積直方圖。
所有在步驟(2)中得到的直方圖都要再經(jīng)過上述處理。
(4)特征提取
對于規(guī)范化的累積直方圖NCH,可得到序列對 ( y0, x0), ( y1, x1),…,( y255, x255),其中,yi在 0到1之間,xi在0到255之間。將這些序列對利用最小均值的方法進(jìn)行直線擬合,并計(jì)算其斜率k和偏移量h
對于每一對 (Aq, Vq),可得到4個直方圖,而每個直方圖可以給出了2個特征,也就是說對于每一對(Aq, Vq)共可得到2(特征)×4(直方圖)=8個特征。
對每個投影切片進(jìn)行3尺度的小波分解后得到脊波變換系數(shù)矩陣,并在該矩陣中進(jìn)行旋轉(zhuǎn)不變性紋理特征提取,具體過程如下:
(1)首先對脊波變換系數(shù)進(jìn)行分組,將該矩陣中列平分成16組。例如,組1包含了給定矩陣的1-16列,組2包含了給定矩陣的17-32列等。
(2)在每組系數(shù)中,分別計(jì)算近似和細(xì)節(jié)系數(shù)的均值和方差如下所示
這里的Mi是在第i組中系數(shù)的個數(shù),c是第i組中的系數(shù)。
(3)按2.2節(jié)中的方法計(jì)算每個分解尺度子波段間的關(guān)系特征k、h。
該實(shí)驗(yàn)使用了以下兩個數(shù)據(jù)庫來評估本文算法的性能,第一個數(shù)據(jù)庫是來自麻省理工學(xué)院的視覺紋理數(shù)據(jù)庫(VisTex),另一個是Brodatz數(shù)據(jù)庫。 其中,VisTex是關(guān)于真實(shí)世界場景的紋理庫,而Brodatz則是標(biāo)準(zhǔn)的紋理庫,并且這兩個數(shù)據(jù)庫都是可以公開獲得的。同時(shí)將本文提出的算法與Pan的方法[9]和Pietik?inen的LBP特征提取法[15]進(jìn)行實(shí)驗(yàn)對比,上述兩種對比方法分別稱為方法一和方法二。該實(shí)驗(yàn)使用了 K近鄰(K Nearest-Neighbour, K-NN)分類器用于紋理分類,K值被分別設(shè)置為 1、3、5、7和 9。這里的 K值是指將一個測試數(shù)據(jù)分類為與它最接近的 K個近鄰訓(xùn)練數(shù)據(jù)中出現(xiàn)最多的那個類別,為了不產(chǎn)生分類模糊,K一般為奇數(shù)。在實(shí)驗(yàn)中作者發(fā)現(xiàn)當(dāng) K值超過 10以后,分類正確率(Correct Classification Percentages,CCP)下降明顯,所以這里只給出10以內(nèi)K值的分類結(jié)果。
數(shù)據(jù)集1是從VisTex數(shù)據(jù)庫中隨機(jī)挑選的20幅紋理圖像,其大小為512×512,如圖3所示。每幅圖像都被分割成 16個無重疊的大小為128×128的子圖像,這樣共可得到320(20×16)幅子圖像用做訓(xùn)練集。將每幅圖像按一定角度旋轉(zhuǎn),旋轉(zhuǎn)角度從 10°到 160°,間隔 10°,然后在每個旋轉(zhuǎn)圖像的中心區(qū)域分割出 4幅無重疊的128×128的子圖像。這樣可獲得 1280(20×16×4)幅子圖像用作測試集。
圖3 VisTex數(shù)據(jù)庫中的20幅紋理圖像
數(shù)據(jù)集2是從Brodatz數(shù)據(jù)庫中隨機(jī)挑選的30幅紋理圖像,其大小為640×640,如圖4所示。每幅圖像被分割成25個128×128大小的子圖像,因此共有750(30×25)幅子圖像用作訓(xùn)練集。測試集的創(chuàng)建方法同數(shù)據(jù)集 1中方法一樣,有1920(30×16×4)幅子圖像用做測試集。
圖4 Brodatz數(shù)據(jù)庫中的30幅紋理圖像
表2為使用不同類型小波基時(shí)的本文方法與現(xiàn)有方法在數(shù)據(jù)集 1上的分類正確率(Correct Classification Percentages,CCP)對比。由表可見,對使用同一類小波基, CCP隨K的增加沒有明顯的變化;對于同一K值,使用不同類型的小波基時(shí),CCP也無明顯變化,只是使用Rbio3.7小波基時(shí)的 CCP要稍高于其它幾種小波基。從表中也可看出,本文方法使用表中各類型小波基時(shí)的CCP(除及個別外),要高于文獻(xiàn)方法一,遠(yuǎn)高于文獻(xiàn)方法二,這同時(shí)也驗(yàn)證了本文所提出的旋轉(zhuǎn)不變性紋理特征的有效性。
表2 使用不同小波基時(shí)的本文方法與現(xiàn)有方法在數(shù)據(jù)集1上的CCP對比(%)
表3為使用不同類型小波基時(shí)的本文方法與現(xiàn)有方法在數(shù)據(jù)集2上的CCP對比。由表可知,對于同一類小波基,CCP隨K的增加略微呈上升趨勢;對于同一K值,使用不同類型的小波基時(shí),CCP變動幅度較大,使用 Rbio3.7小波基時(shí)的CCP要高于使用其它幾種小波基的結(jié)果,尤其要高于使用 bior3.5小波基時(shí)的結(jié)果。這說明該數(shù)據(jù)集對使用何種類型的小波基較敏感,但從結(jié)果來看,使用rbio3.7小波基時(shí)的CCP仍然是較高的。但與表2 相比,CCP普遍有所下降,原因除了數(shù)據(jù)集2中的圖像增多外,在于該數(shù)據(jù)集中的圖像紋理相似性程度要高于數(shù)據(jù)集 1。使用bior3.5、db4、db6、sym2及dmey6的CCP比使用方法一的CCP要低,除Bior3.5外均高于方法二。但是當(dāng)本文方法使用rbio3.7小波基時(shí)的CCP要高于上述兩種文獻(xiàn)方法。
本文提出了一種新的基于脊波變換的旋轉(zhuǎn)不變性紋理特征提取方法。該方法的特點(diǎn)是在脊波變換后所形成的每個頻率子波段中獨(dú)立提取特征的基礎(chǔ)上,融合了同一分解尺度下高、低頻子波段之間的關(guān)系特征。將本文所提出方法與兩種最近才發(fā)展起來的用于旋轉(zhuǎn)不變性紋理分類的方法進(jìn)行了對比實(shí)驗(yàn),結(jié)果表明本文的方法能夠取得更好的分類結(jié)果。如何利用脊波變換提取的旋轉(zhuǎn)不變性特征在真實(shí)的場景圖像中進(jìn)行地形分類,是本文下一步的研究方向。
[1]Kandaswamy U, Adjeroh D A, Lee M C. Efficient texture analysis of SAR imagery [J]. IEEE Transaction on Geoscience and Remote Sensing, 2005, 43(9):2075-2083.
[2]Giacinto G, Roli F. Bayesian relevance feedback for content-based image retrieval [J]. Pattern Recognition,2004, 37(7): 1499-1508.
[3]Manduchi R, Castano A, Talukder A, et al. Obstacle detection and terrain classification for autonomous off-road navigation [J]. Autonomous Robots, 2005, 18:81-102.
[4]Pun C M, Lee M C. Log-polar wavelet energy signatures for rotation and scale invariant texture classification [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(5):590-603.
[5]Jafari-Khouzani K, Soltanian-Zadeh H. Rotation invariant multi-resolution texture analysis using radon and wavelet transforms [J]. IEEE Transactions on Image Processing, 2005, 14(6): 783-795.
[6]Candes E J, Donoho D L. Ridgelets: a key to higherdimensional intermittency [J]. Philosophical Transactions of the Royal Society of London, Series A,1999, 357(1760): 2495-2509.
[7]Chen G Y, Bui T D, Krzyzak A. Rotation invariant pattern recognition using ridgelet, wavelet cycle-spinning, and fourier features [J]. Pattern Recognition, 2005, 38(12): 2314-2322.
[8]Huang K, Aviyente S. Rotation invariant texture classification with ridgelet transform and fourier transform [C]//Proceeding of IEEE International Conference on Image Processing, 2006: 2141-2144.
[9]Pan W, Bui T D, Suen C Y. Rotation invariant texture classification by ridgelet transform and frequencyorientation space decomposition [J]. Signal Processing,2008, 88: 189-199.
[10]Portilla J, Simoncelli P E. A parametric texture model based on joint statistics of complex wavelet coefficients [J]. International Journal of Computer Vision, 2000, 40(1): 49-70.
[11]Wang Z Z, Yong J H. Texture analysis and classification with linear regression model based on wavelet transform [J]. IEEE Transactions on Image Processing, 2008, 17(8): 1421-1430.
[12]Hiremath P S, Shivashankar S. Wavelet based co-occurrence histogram features for texture classification with an application to script identification in a document image [J]. Pattern Recognition Letters, 2008, 29: 1182-1189.
[13]Candes E J. Ridgelet theory and applications [D].Stanford University, 1998.
[14]Starck J, Candes E J, Donoho D L. The curvelet transform for image denoising [J]. IEEE Transaction on Signal Processing, 2002, 11(6): 670-684.
[15]Pietik?inen M, Nurmela T, M?enp?? T, et al.View-based recognition of real-world textures [J].Pattern Recognition, 2004, 37(2): 313-323.