徐 侃, 胡 凡, 李 陶
(1. 武漢大學(xué) 衛(wèi)星導(dǎo)航定位技術(shù)研究中心, 430079 武漢; 2武漢大學(xué) 電子信息學(xué)院, 430079 武漢)
?
一種快速有效的遙感圖像場(chǎng)景分類特征
徐侃1, 胡凡2, 李陶1
(1. 武漢大學(xué) 衛(wèi)星導(dǎo)航定位技術(shù)研究中心, 430079 武漢; 2武漢大學(xué) 電子信息學(xué)院, 430079 武漢)
摘要:針對(duì)在遙感大數(shù)據(jù)中如何進(jìn)行快速有效的場(chǎng)景分類,提出一種圖像特征的構(gòu)建方法. 基于非監(jiān)督學(xué)習(xí)進(jìn)行快速二值編碼,首先對(duì)圖像局部訓(xùn)練樣本利用非監(jiān)督學(xué)習(xí)獲取相應(yīng)濾波器組,然后再使用二值化哈希編碼方法對(duì)場(chǎng)景單元特征圖進(jìn)行量化,最后統(tǒng)計(jì)得到場(chǎng)景全局特征. 實(shí)驗(yàn)結(jié)果表明,該特征描述結(jié)合了濾波器組和二進(jìn)制特征描述子的優(yōu)點(diǎn),在保證較高分類精度的前提下,能夠大幅度提升計(jì)算效率,具有較好的魯棒性.
關(guān)鍵詞:遙感圖像;場(chǎng)景分類;二值編碼;特征表達(dá)
隨著遙感技術(shù)的飛速發(fā)展,遙感影像已成為各部門及機(jī)構(gòu)直接有效獲取對(duì)地觀測(cè)信息的重要技術(shù)手段[1]. 面對(duì)海量的高分辨率遙感影像數(shù)據(jù),快速識(shí)別和獲取不同專題信息通常直接取決于對(duì)遙感圖像場(chǎng)景的內(nèi)容解譯. 而遙感影像場(chǎng)景分類則是對(duì)整幅圖像最直觀的理解,分類的準(zhǔn)確性直接決定了圖像場(chǎng)景解譯質(zhì)量的高低,分類結(jié)果的準(zhǔn)確性與所關(guān)注地物的有效提取,將成為相關(guān)部門的重要參考依據(jù),為進(jìn)一步?jīng)Q策或規(guī)劃提供有力技術(shù)支撐. 面對(duì)源源不斷所獲取的海量遙感數(shù)據(jù)與信息,如何針對(duì)其進(jìn)行高效處理,迅速提取用戶密切關(guān)注的重點(diǎn)區(qū)域,一直以來都是備受關(guān)注的研究熱點(diǎn). 因此,作為遙感圖像場(chǎng)景與地物分類的先決條件和重要步驟,研究其特征提取和表達(dá)方法具有重要意義.
目前應(yīng)用于遙感圖像分類的特征多種多樣,其本質(zhì)為對(duì)數(shù)字信號(hào)進(jìn)行處理分析[2]. 而使用濾波器組的方法在信號(hào)處理分析領(lǐng)域中是長期備受關(guān)注的焦點(diǎn). 以紋理圖像識(shí)別為例,通常先將紋理圖像與已設(shè)定好的一組濾波器進(jìn)行卷積運(yùn)算,連接各濾波器的響應(yīng);然后利用量化方法構(gòu)造紋理基元;最后統(tǒng)計(jì)圖像中不同紋理基元頻率直方圖,將其作為紋理圖像特征[3-5]. 盡管這種方法在紋理識(shí)別中非常有效,識(shí)別精度也比較高,但是由于構(gòu)造紋理基元時(shí)需要大量訓(xùn)練數(shù)據(jù),導(dǎo)致量化方法(實(shí)際情況一般采用K-means算法)的訓(xùn)練過程十分緩慢,計(jì)算代價(jià)太大. 另一方面,由于二進(jìn)制局部特征(binary local feature)描述算子具有計(jì)算簡(jiǎn)便快速且便于存儲(chǔ)的特點(diǎn),使得其在圖像特征表達(dá)研究領(lǐng)域中得到了廣泛應(yīng)用. 但基于該框架所構(gòu)建的特征魯棒性和判別性較弱,往往會(huì)影響圖像分類精度[6-10].
針對(duì)上述方法所存在的不足,本文結(jié)合濾波器組和二進(jìn)制特征描述算子的優(yōu)點(diǎn),尤其針對(duì)于大尺寸高分辨率遙感影像,提出一種基于快速二值編碼特征表達(dá)方法,應(yīng)用于高分辨率遙感影像場(chǎng)景分類. 本文方法采用非監(jiān)督方法學(xué)習(xí)場(chǎng)景單元中的局部圖像塊,通過濾波器組與場(chǎng)景單元的卷積響應(yīng)進(jìn)行二值編碼,獲取各場(chǎng)景圖像的全局描述,不僅具有高分類精度,同時(shí)還能大幅提高計(jì)算效率.
1基于快速二值編碼的特征表達(dá)
利用非監(jiān)督學(xué)習(xí)算法訓(xùn)練場(chǎng)景單元中的局部圖像塊獲得濾波器組,并將濾波器組與場(chǎng)景單元的卷積響應(yīng)進(jìn)行二進(jìn)制編碼,獲得大幅遙感場(chǎng)景單元的全局特征描述.
1.1遙感影像場(chǎng)景劃分
對(duì)大場(chǎng)景遙感影像進(jìn)行場(chǎng)景分類,首先需要定義場(chǎng)景單元與場(chǎng)景類別數(shù). 本文在大幅遙感影像中選擇合適尺寸的矩形區(qū)域作為場(chǎng)景單元,采用均勻網(wǎng)格進(jìn)行劃分,每個(gè)子網(wǎng)格代表一個(gè)場(chǎng)景單元且相鄰場(chǎng)景單元間無重疊.
1.2局部圖像塊訓(xùn)練樣本提取
分類框架中需要對(duì)獲得的場(chǎng)景單元進(jìn)行學(xué)習(xí),得到數(shù)據(jù)驅(qū)動(dòng)型濾波器組,濾波器組需要從場(chǎng)景單元中大量無標(biāo)號(hào)的局部圖像塊(patch)中自動(dòng)學(xué)習(xí)得到. 針對(duì)上一步驟獲得的初始化無標(biāo)號(hào)場(chǎng)景單元,從各場(chǎng)景單元中隨機(jī)抽取若干尺寸相同的patch構(gòu)成訓(xùn)練樣本,將各patch在像素級(jí)(pixel)空間上展開為一個(gè)向量,該向量中的元素為patch的像素值,并對(duì)其進(jìn)行均值方差歸一化操作:
(1)
式中:p(i)表示第i個(gè)patch向量,x(i)表示均值方差歸一化后第i個(gè)patch向量,mean(p(i))和std(p(i))分別表示第i個(gè)patch向量中元素的均值和方差. 將歸一化后的patch向量x(1),x(2),…,x(M)構(gòu)建成向量矩陣X=[x(1),x(2),…,x(M)],x(i)∈Rn×1,Rn表示n維實(shí)空間,且n=r×r,r×r為patch尺寸.M表示patch訓(xùn)練樣本個(gè)數(shù);i為patch訓(xùn)練樣本序號(hào),其取值為1,2,…,M.
1.3利用非監(jiān)督學(xué)習(xí)獲得濾波器組
在獲得了均值方差歸一化的patch向量矩陣X后,需要選擇合適的非監(jiān)督學(xué)習(xí)方法對(duì)其進(jìn)行訓(xùn)練,由此獲得濾波器組. 具體實(shí)施方式中,可以采用多種不同的非監(jiān)督學(xué)習(xí)方法來獲得濾波器組,在本文的實(shí)驗(yàn)中以稀疏編碼[11]為例,具體說明如何從patch向量矩陣X中學(xué)習(xí)得到濾波器組.
輸入patch向量矩陣X,將采用稀疏編碼法學(xué)習(xí)得到的字典作為濾波器組. 傳統(tǒng)的稀疏編碼方法在進(jìn)行非監(jiān)督訓(xùn)練時(shí),視覺字典和與之對(duì)應(yīng)的稀疏向量通過求解如下優(yōu)化問題來獲取:
式中:W表示由稀疏編碼法學(xué)習(xí)得到的字典;W(k)表示字典W中第k個(gè)碼本,W(k)∈Rn×1;z(i)表示第i個(gè)patch訓(xùn)練樣本的稀疏向量;λ為懲罰權(quán)重因子,用來控制稀疏向量z(i)的稀疏度,即稀疏向量中零元素個(gè)數(shù). 在完成稀疏編碼后,將字典W作為濾波器組,W(k)表示第k個(gè)濾波器.
除了上述方法,還可以采用其他非監(jiān)督學(xué)習(xí)方法,例如:K均值(K-Means)、主成分分析PCA(principalcomponentanalysis)、局部保持映射LPP(localitypreservingprojections)、獨(dú)立成分分析ICA(independentcomponentanalysis)、非負(fù)矩陣分解NMF(non-negativematrixfactorization)、隨機(jī)映射RP(randomprojection)等,同樣也可以獲得濾波器組.
1.4場(chǎng)景單元的快速二值編碼
通過非監(jiān)督學(xué)習(xí),可以從大量無標(biāo)號(hào)的patch訓(xùn)練樣本中學(xué)習(xí)得到濾波器組W,利用濾波器組中W各濾波器分別與場(chǎng)景單元進(jìn)行卷積計(jì)算,獲得各場(chǎng)景單元的濾波器響應(yīng)圖. 在做濾波器卷積前,需重新調(diào)整濾波器組W中各濾波器W(k)尺寸,使得濾波器W(k)與patch尺寸相同. 本文采用函數(shù)resize(·):Rn×1Rr×r調(diào)整濾波器尺寸,尺寸調(diào)整后濾波器為w(k)=resize(W(k)),w(k)∈Rr×r. 完成濾波器尺寸調(diào)整后,濾波器組W就變?yōu)閃re∈Rr×r×L,L表示濾波器個(gè)數(shù). 利用調(diào)整尺寸的濾波器組Wre與各場(chǎng)景單元分別做卷積,獲得N個(gè)濾波器響應(yīng)圖,該過程可采用如下公式表示:
為得到各場(chǎng)景單元的全局特征描述,需要將各場(chǎng)景單元的L個(gè)特征圖融合,本文提出了一種二值編碼法來實(shí)現(xiàn)場(chǎng)景單元特征圖的融合. 為了使二值編碼過程更簡(jiǎn)潔,免除由于特征圖在量級(jí)上的差異所采取的尺度歸一化等不必要的操作,需要選取合適閾值(本文中設(shè)定為0). 將特征圖上各位置濾波器響應(yīng)值與閾值作比較,大于閾值的位置編碼為1,小于閾值的位置編碼為0,編碼過程可用如下公式表示:
式中:T(i)表示第i幅場(chǎng)景單元的十進(jìn)制編碼圖,(a,b)為編碼圖中各位置坐標(biāo). 最后獲得T(i)在非負(fù)整數(shù)區(qū)間[0,2L-1]上的直方圖,記為Y(i),并將Y(i)作為第i幅場(chǎng)景單元的全局特征描述. 濾波器組中濾波器的個(gè)數(shù)決定了十進(jìn)制響應(yīng)值的范圍,在場(chǎng)景單元十進(jìn)制編碼圖中,所有十進(jìn)制響應(yīng)值的頻率直方圖則作為該場(chǎng)景單元的全局特征描述.
2實(shí)驗(yàn)結(jié)果
2.1實(shí)驗(yàn)數(shù)據(jù)集
資源三號(hào)測(cè)繪衛(wèi)星(ZY-3)集測(cè)繪和資源調(diào)查功能于一體,是我國第一顆自主的民用高分辨率立體測(cè)繪衛(wèi)星,所配備的三線陣測(cè)繪相機(jī)和多光譜相機(jī)等有效載荷可以長期連續(xù)且穩(wěn)定地獲取全色影像、多光譜影像以及輔助數(shù)據(jù),能夠?yàn)閲临Y源、農(nóng)業(yè)、林業(yè)等多項(xiàng)領(lǐng)域提供服務(wù). 資源三號(hào)測(cè)繪衛(wèi)星影像所對(duì)應(yīng)參數(shù)如表1所示. 為了驗(yàn)證本文方法的有效性,選取資源三號(hào)數(shù)據(jù)中的2.1m分辨率全色影像,其覆蓋范圍涵括湖北省某輸電線路走廊區(qū)域,主要包括的地物類型有:房屋、農(nóng)田、水域、植被.
表1 資源三號(hào)衛(wèi)星影像參數(shù)
2.2分類器
采用SVM分類器,以最大分類間隔為準(zhǔn)則,通過尋找最優(yōu)分類超平面來對(duì)樣本進(jìn)行空間劃分.SVM分類器的訓(xùn)練過程最終轉(zhuǎn)化為解決如下優(yōu)化問題:
式中:w和b為定義分類超平面wTφ(x)+b=0的參數(shù),常量C用于控制目標(biāo)函數(shù)中兩項(xiàng)間的權(quán)重,ξi表示松弛變量,φ(x)表示訓(xùn)練樣本x的非線性映射,yi表示第i個(gè)訓(xùn)練樣本的類別標(biāo)號(hào),n為訓(xùn)練樣本個(gè)數(shù).
2.3實(shí)驗(yàn)流程
實(shí)驗(yàn)流程如圖1所示. 訓(xùn)練數(shù)據(jù)集從輸電線路走廊區(qū)域附近范圍中選取,每一類地物分別選取10、20、30、40、50幅訓(xùn)練圖像作為訓(xùn)練樣本,大小為100×100像素. 所采用的測(cè)試圖像(輸電線路走廊區(qū)域緩沖區(qū))大小為2 000×4 000像素,在分類過程中被均勻劃分為800個(gè)100×100像素的patch. 在經(jīng)過所構(gòu)建的快速二值編碼特征表達(dá)后,輸入到SVM分類器完成分類. 實(shí)驗(yàn)均建立在隨機(jī)抽取訓(xùn)練與測(cè)試圖像樣本上進(jìn)行,計(jì)算每次實(shí)驗(yàn)中所有類別平均分類準(zhǔn)確率,每組實(shí)驗(yàn)重復(fù)5次,將所得的平均準(zhǔn)確率與標(biāo)準(zhǔn)偏差作為最終結(jié)果.
圖1 分類實(shí)驗(yàn)流程示意
2.4分類結(jié)果
分類結(jié)果如圖2所示. 在人工標(biāo)注結(jié)果中,不屬于任何一類的被標(biāo)注為空. 本文采用基于“詞袋”BOW(bagofwords)表示方法,采用尺度不變特征變換(SIFT)[2]進(jìn)行分類性能比較. 其中,對(duì)于SIFT特征使用K均值聚類進(jìn)行聚類運(yùn)算(聚類中心個(gè)數(shù)設(shè)為300),進(jìn)而將其量化為視覺詞匯表. 與之對(duì)應(yīng)的分類結(jié)果如圖2中第2列所示. 從圖中可以看出,與本文方法中所采用的特征相比,基于BOW的特征表述容易將一部分水域和植被錯(cuò)分為農(nóng)田,這是由于水域和農(nóng)田在結(jié)構(gòu)類型上具有一定程度的相似性,而在農(nóng)田的周圍所分布的植物在BOW表述方法下對(duì)分類起到了干擾作用. 由此可見,本文所提出的特征描述方法具有更好的判別性. 基于本文特征表達(dá)所得分類結(jié)果的混淆矩陣如圖3所示,可見對(duì)于水域的錯(cuò)分現(xiàn)象明顯減少,而錯(cuò)分現(xiàn)象主要出現(xiàn)在農(nóng)田與植被之間. 這是由于在灰度圖像中農(nóng)田與植被的紋理類型比較接近,而本文所構(gòu)建的二值化特征主要側(cè)重于對(duì)地物紋理特性的描述,從而容易導(dǎo)致混淆.
圖2 分類結(jié)果示意
近年來,輸電線路因野外山火而引發(fā)的跳閘停電故障不斷增多,給電網(wǎng)的安全可靠運(yùn)行帶來了巨大隱患. 因此,輸電線路中的火險(xiǎn)高發(fā)地帶屬于電網(wǎng)運(yùn)維管理工作中所關(guān)注的重點(diǎn)區(qū)域. 由本文的分類結(jié)果可以從線路走廊區(qū)域中迅速剔除不易發(fā)生火險(xiǎn)的區(qū)域(水域與房屋),而對(duì)于容易發(fā)生火險(xiǎn)的區(qū)域(植被與農(nóng)田)則屬于需要在輸電線路運(yùn)維中著重關(guān)注的對(duì)象.
圖3 基于本文方法所得分類混淆矩陣
與此同時(shí),使用SIFT特征,基于BOW的特征表示形式與本文方法所構(gòu)建的特征在分類精度和計(jì)算效率方面分別進(jìn)行了比較,對(duì)比結(jié)果如表2和表3所示. 可以看出,在訓(xùn)練樣本相同的情況下,本文所構(gòu)建的特征所對(duì)應(yīng)分類結(jié)果具有更高分類精度,在訓(xùn)練樣本較小的情況下仍具有較好的魯棒性,而且能夠?qū)⒂?jì)算時(shí)間從數(shù)小時(shí)大幅度縮減至數(shù)十秒,計(jì)算速率得以有效提高.
表2 不同訓(xùn)練樣本下分類結(jié)果比較
表3 分類精度及計(jì)算速率比較(訓(xùn)練樣本=50幅)
3結(jié)論
1)針對(duì)從遙感圖像所覆蓋的輸電線路走廊區(qū)域中如何快速有效提取地物類型這一問題,通過對(duì)圖像局部訓(xùn)練樣本獲取濾波器組,采用二值化哈希編碼對(duì)特征圖進(jìn)行量化,構(gòu)建一種快速二值編碼的特征,應(yīng)用于高分辨率遙感圖像中輸電線路走廊區(qū)域的地物分類.
2)基于“資源三號(hào)”衛(wèi)星影像的實(shí)驗(yàn)結(jié)果表明,本文所構(gòu)建的特征在訓(xùn)練樣本有限的情況下具有較高判別性,能夠在保證較高分類精度的前提下,大幅提高計(jì)算效率. 分類結(jié)果具有較好魯棒性,能夠?qū)旊娋€路走廊區(qū)域中較高風(fēng)險(xiǎn)區(qū)域進(jìn)行快速有效提取,可以為輸電線路的運(yùn)維工作提供參考依據(jù).
參考文獻(xiàn)
[1] 宋維靜,劉鵬,王力哲,等. 遙感大數(shù)據(jù)的智能處理:現(xiàn)狀與挑戰(zhàn)[J]. 工程研究——跨學(xué)科視野中的工程, 2014, 6(3):259-265.
[2] 徐侃,陳麗君,楊文,等. 利用特征選擇的遙感圖像場(chǎng)景分類[J]. 哈爾濱工業(yè)大學(xué)學(xué)報(bào),2011, 43(9): 117-121.
[3] LEUNG T, MALIK J. Representing and recognizing the visual appearance of materials using three-dimensional textons[J]. International Journal of Computer Vision, 2001, 43(1): 29-44.
[4] VARMA M, ZISSERMAN A. A statistical approach to texture classification from single images[J]. International Journal of Computer Vision, 2005, 62(1):61-81.
[5] LIU L, FIEGUTH P W. Texture classification from random features[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(3): 574-586.
[6] OJALA T, PIETIKAINEN M, MAENPAA T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971-987.[7] AHONEN T, RAHTU E, OJANSIVU V, et al. Recognition of blurred faces using local phase quantization[C]//19th International Conference in Pattern Recognition(ICPR). Florida:IEEE Computer Sciety, 2008:1-4.
[8] CALONDER M, LEPETIT V, STRECHA C, et al. Brief: binary robust independent elementary features[C]//European Conference on Computer Vision(ECCV). Grete: Springer, 2010: 778-792.
[9] LEUTENEGGER S, CHLI M, SIEGWART R Y. BRISK: binary robust invariant scalable keypoints[C]//IEEE International Conference on Computer Vision (ICCV).Barcelona: IEEE, 2011: 2548-2555.
[10]ALAHI A, ORTIZ R, VANDERGHEYNST P. Freak: fast retina keypoint[C]//IEEE Conference in Computer Vision and Pattern Recognition (CVPR).Providence, RI: IEEE, 2012: 510-517.
[11]MAIRAL J, BACH F, PONCE J,et al. Online dictionary learning for sparse coding[C]//International Conference on Machine Learning(ICML). Montreal: International Machine on Learning Society, 2009: 689-696.
(編輯王小唯苗秀芝)
A feature for fast and effective scene classification of remote sensing image
XU Kan1, HU Fan2, LI Tao1
(1.GNSS Research Center, Wuhan University, 430079 Wuhan, China;2. School of Electronic Information, Wuhan University, 430079 Wuhan, China)
Abstract:For this purpose of the rapid and effective scene interpretation for remote sensing big data, a novel method for feature representation is presented. First of all, the corresponding filter banks of local training samples in image are obtained by unsupervised learning. The feature map of scene units is then quantized based on binary hashing coding. Finally, the global feature of scene is obtained from statistical results. The experimental results demonstrate that, combining with both the advantages of filter bank and binary feature descriptor, the proposed feature can greatly enhance the computational efficiency on the assumption of ensuring high accuracy, which has shown its robustness.
Keywords:remote sensing image; scene classification; binary coding; feature representation
中圖分類號(hào):P237.4
文獻(xiàn)標(biāo)志碼:A
文章編號(hào):0367-6234(2016)05-0122-05
通信作者:徐侃, jcarloswhu@msn.com.
作者簡(jiǎn)介:徐侃(1983—),男,博士.
基金項(xiàng)目:國家自然科學(xué)基金項(xiàng)目(41274048),武漢大學(xué)自主科研項(xiàng)目(2042014kf0082).
收稿日期:2015-04-13.
doi:10.11918/j.issn.0367-6234.2016.05.020