亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多特征融合的遙感圖像分類

        2014-07-25 04:30:36李士進(jìn)
        數(shù)據(jù)采集與處理 2014年1期
        關(guān)鍵詞:直方圖紋理單詞

        劉 帥 李士進(jìn) 馮 鈞

        (河海大學(xué)計(jì)算機(jī)與信息學(xué)院,南京,210098)

        引 言

        隨著遙感和信息技術(shù)的迅速發(fā)展,每天可獲取的遙感圖像數(shù)據(jù)量正以驚人的速度增長(zhǎng)。面對(duì)海量的遙感數(shù)據(jù),如何利用計(jì)算機(jī)自動(dòng)把圖像按照語(yǔ)義進(jìn)行分類成為一個(gè)極具挑戰(zhàn)性的難題。傳統(tǒng)的遙感影像目視解譯方法不僅要求豐富的專業(yè)經(jīng)驗(yàn)和充足的野外實(shí)地調(diào)查資料,而且由于這種識(shí)別方法是建立在特定的先驗(yàn)知識(shí)基礎(chǔ)上,因此識(shí)別難度大,效率較低[1]。高分辨率遙感影像能夠提供豐富的地物細(xì)節(jié),但各種地物空間分布復(fù)雜,同類物體呈現(xiàn)出很大的光譜異質(zhì)性,具體表現(xiàn)為特征類內(nèi)方差變大、類間方差減小、不同地物的光譜相互重疊,使得傳統(tǒng)的基于像元的分類技術(shù)容易造成過(guò)多的錯(cuò)分、漏分,從而導(dǎo)致分類精度較低。以往傳統(tǒng)方法主要依據(jù)光譜信息,沒有較好地利用高空間分辨率影像的對(duì)象特征。近年來(lái)出現(xiàn)了面向?qū)ο蟮姆诸惙椒ǎ?]。

        根據(jù)描述圖像的方式不同,當(dāng)前面向?qū)ο蟮膱?chǎng)景分類方法分為基于全局特征和基于局部特征的視覺詞袋模型兩大類。早期的場(chǎng)景分類方法是根據(jù)圖像的全局統(tǒng)計(jì)特征來(lái)描述場(chǎng)景內(nèi)容的,如顏色直方圖[3]、紋理[4]等。顏色直方圖具有較好的幾何變換不變性,并且計(jì)算效率高。但是由于其舍棄了圖像的空間信息,對(duì)于兩幅顏色分布相同,內(nèi)容具有顯著差別的圖像無(wú)法區(qū)分,因此魯棒性不好,識(shí)別率較低。近年來(lái),場(chǎng)景分類的主流方法是基于詞袋模型[5](Bag of visual words,BOVW)的方法,它將圖像表示為一些局部圖像塊,每幅圖像像文本句子一樣被表示為不同頻率的單詞,所有單詞的集合組成詞典。詞袋模型具有計(jì)算簡(jiǎn)單,對(duì)噪聲、光照和局部遮擋更加魯棒等特點(diǎn)。但是由于遙感圖像紋理信息豐富,局部特征點(diǎn)較多,直接采用基于聚類方法獲得視覺單詞不一定能反映場(chǎng)景特征,從而造成總體分類精度也不高。并且對(duì)于高分辨率遙感圖像中的不同目標(biāo),各種特征的有效性不盡相同:如有些類可能由于其顏色特征的顯著性,所以最適合采用顏色直方圖特征來(lái)進(jìn)行分類,而有些地物紋理比較豐富,局部特征更加顯著。顯然如果采用單一特征對(duì)不同類別目標(biāo)進(jìn)行分類不再適用。

        針對(duì)上述問題,本文從兩方面進(jìn)行了研究。首先對(duì)視覺詞袋模型進(jìn)行了改進(jìn),通過(guò)對(duì)不同場(chǎng)景類的顯著單詞特征信息進(jìn)行加權(quán),從而提高了單一圖像與整體類的相似程度。對(duì)一些個(gè)體差異比較明顯,但語(yǔ)義相似的圖像取得了很好的分類正確率。其次考慮到每類圖像所具有的顯著特征并不一致,并且不同特征錯(cuò)分的情況也不盡相同,提出了多特征融合的遙感圖像分類方法,并根據(jù)每種特征的分類結(jié)果進(jìn)行自適應(yīng)綜合,最終獲得多特征融合后的分類結(jié)果。

        1 特征提取

        圖像特征在模式分類中具有極其重要的作用,本文基于改進(jìn)的圖像視覺詞袋模型、顏色直方圖和Gabor紋理特征進(jìn)行遙感影像分類。

        1.1 視覺詞袋特征

        文獻(xiàn)[6]提出基于局部特征的生成模型用于圖像分類,Lazebnik[7]提出了基于幾何對(duì)應(yīng)的圖像分類方法,但這些方法性能不穩(wěn)定而且計(jì)算復(fù)雜度非常高。為了更好利用這些局部特征,研究人員提出許多基于特征詞袋的方法進(jìn)行圖像目標(biāo)分類,并取得良好性能。視覺詞袋的生成算法主要包括局部特征的提取和圖像的高層語(yǔ)義表示兩個(gè)步驟。

        圖像的局部特征是根據(jù)某種顯著性準(zhǔn)則定義的圖像局部模式,通常與一種或幾種圖像屬性的改變相關(guān)聯(lián),存在點(diǎn)、邊、圖像區(qū)塊等多種形式。它可以克服視角和光照變化、復(fù)雜背景、遮擋和類內(nèi)差異等視覺表示的困難。近年Lowe提出的具有各種不變性的尺度不變轉(zhuǎn)換(Scale invariant feature transform,SIFT)特征[8]集特征檢測(cè)和描述于一體,對(duì)旋轉(zhuǎn)、尺度和亮度等變換保持不變,對(duì)視角變化和光照變化也具有一定的穩(wěn)定性。SIFT特征的構(gòu)造方法包括關(guān)鍵點(diǎn)的檢測(cè)和描述子的構(gòu)造兩部分。

        將輸入圖像通過(guò)不同尺度的高斯核函數(shù)進(jìn)行連續(xù)濾波和下采樣,形成高斯金字塔圖像。再將相鄰尺度的兩個(gè)高斯圖像相減得到高分差(Difference of Gaussians,DoG),即金字塔多尺度空間表示。然后對(duì)金字塔多尺度空間上的每個(gè)點(diǎn)與相鄰尺度和相鄰位置的點(diǎn)逐個(gè)進(jìn)行比較,得到的局部極值位置即為關(guān)鍵點(diǎn)所處的位置和對(duì)應(yīng)的尺度。通過(guò)擬合三維二次函數(shù)對(duì)關(guān)鍵點(diǎn)進(jìn)行進(jìn)一步的精確定位,去除低對(duì)比度關(guān)鍵點(diǎn)和不穩(wěn)定的邊緣響應(yīng)點(diǎn),以增強(qiáng)匹配穩(wěn)定性和抗噪聲能力。

        在構(gòu)造SIFT描述子之前要為每個(gè)關(guān)鍵點(diǎn)賦予一個(gè)主方向,使描述子具有旋轉(zhuǎn)不變性。然后以特征點(diǎn)為中心,取16像素×16像素的鄰域作為采樣窗口,再將此鄰域均勻地分為4×4個(gè)子區(qū)域,計(jì)算每個(gè)子區(qū)域的梯度方向直方圖,然后將子區(qū)域里的8方向直方圖根據(jù)位置順次排序,最后獲得4×4×8的128維特征描述子[9]。

        提取局部特征描述子后,利用矢量量化方法(如K均值聚類)對(duì)局部特征點(diǎn)集進(jìn)行聚類,聚類中心即為視覺單詞。K均值聚類算法具有簡(jiǎn)單、高效等優(yōu)點(diǎn),常用于視覺詞袋模型中生成視覺詞典。得到視覺詞典后,采用硬分配方法將圖像特征向量分配到距離最近的視覺單詞,然后統(tǒng)計(jì)詞頻形成圖像表示。這樣一幅圖像就可以用一個(gè)高維的視覺單詞向量進(jìn)行表示[10]。

        1.2 改進(jìn)的視覺詞袋特征

        傳統(tǒng)的詞袋模型已經(jīng)廣泛應(yīng)用于物體識(shí)別和場(chǎng)景分類,但是也存在一些缺點(diǎn),因此出現(xiàn)很多改進(jìn)算法。如在視覺表示中加入空間信息[11-12],對(duì)聚類算法的改進(jìn)[13-14]等,本文的改進(jìn)算法主要是采用軟權(quán)重的思想加強(qiáng)了圖像的顯著視覺特征表示。

        原始的圖像詞袋表示僅包含了單幅圖像的特征。當(dāng)同一類場(chǎng)景的各個(gè)圖像之間存在較大差異時(shí),圖像詞袋表示之間的差異也會(huì)較大。這些差異會(huì)影響圖像的分類精度。并且,雖然同一類中有些圖像與其他圖像之間存在著較大的差異,但是這些存在較大差異的圖像也包含了能夠代表這一類圖像所共有的特征,這些特征是進(jìn)行分類判斷的重要依據(jù)。如果充分考慮到同一類圖像所共有的圖像特征,那么在分類時(shí)就不僅考慮了圖像與圖像之間的相似,也考慮了圖像與整體類之間的相似性,從而對(duì)分類會(huì)有較大的幫助。一類場(chǎng)景中所共有的這些特征往往出現(xiàn)在詞頻比較靠前的一些單詞上,這些單詞的組合構(gòu)成了類與類之間的鑒別特征。如果在詞袋生成的過(guò)程中對(duì)這些詞頻靠前的單詞進(jìn)行加權(quán)表示,那么單幅圖像就會(huì)加入了所屬類的共有特征,從而能提高分類精度。

        本文據(jù)此對(duì)詞袋模型進(jìn)行了改進(jìn),提出了一種新的加權(quán)詞袋表示,具體步驟如下:

        (1)類總體詞袋表示:統(tǒng)計(jì)每一類場(chǎng)景所有圖像的視覺詞袋表示中各個(gè)視覺單詞的詞頻,從而得到一類場(chǎng)景的的總體詞袋表示。

        (2)確定重要單詞的權(quán)重:從統(tǒng)計(jì)結(jié)果中取前N名單詞的詞頻,對(duì)這N個(gè)單詞的詞頻進(jìn)行歸一化,并通過(guò)其詞頻的倒數(shù)來(lái)表示單詞對(duì)應(yīng)的權(quán)重值,其值分別為wi(0<i<N+1,i為整數(shù))。將這些權(quán)重值進(jìn)行歸一化,使其權(quán)重值在0到1之間。然后對(duì)每一個(gè)權(quán)重值進(jìn)行加1的運(yùn)算,即wi=wi+1。這樣權(quán)重值就被量化到1和2之間,以此消除過(guò)大的權(quán)重所帶來(lái)的不利影響。

        (3)挑選每類重要的單詞進(jìn)行加權(quán):各個(gè)圖像的特征向量進(jìn)行詞袋分配后,將單幅圖像所屬類的前N名單詞的權(quán)重值wi乘以單幅圖像中權(quán)重值wi所對(duì)應(yīng)的單詞詞頻。這樣就得到單幅圖像的加權(quán)視覺詞袋表示。

        經(jīng)過(guò)上述處理,得到了加權(quán)圖像詞袋表示,它充分反映了每類圖像的顯著特征,后面的實(shí)驗(yàn)證明能有效提高圖像的分類精度。

        1.3 顏色直方圖

        顏色直方圖是在許多圖像檢索系統(tǒng)中被廣泛采用的一種全局特征,具有特征提取和相似度計(jì)算簡(jiǎn)便的優(yōu)點(diǎn)。Swain和Ballard[3]最早提出把直方圖應(yīng)用于圖像檢索。本文的直方圖特征提取基于亮度飽和度(Hue,lightness,saturation,HLS)色彩空間,相對(duì)于RGB色彩空間,其更符合人眼的視覺感知特性。具體提取方法如下:

        對(duì)于圖像中的每一個(gè)像素,將其H,L,S分量分別量化為8等份,這樣HLS直方圖就有256個(gè)間隔(bin)。然后統(tǒng)計(jì)所有像素的直方圖,最后再進(jìn)行歸一化,以消除圖像大小變化的影響。

        1.4 紋理特征

        紋理是空間以一定的形式變化而產(chǎn)生的圖案,是一種不依賴于顏色或亮度反應(yīng)圖像中同質(zhì)現(xiàn)象的視覺特征?;诮y(tǒng)計(jì)信息的紋理特征提取是對(duì)圖像中顏色及強(qiáng)度的空間分布信息進(jìn)行統(tǒng)計(jì)得到相關(guān)紋理信息。使用Gabor濾波器獲得圖像紋理特征被證明是一種高效的遙感圖像分析方法[4],鑒于該方法的優(yōu)越性,它已經(jīng)在2002年的MPEG-7多媒體內(nèi)容描述接口中被標(biāo)準(zhǔn)化[15]。具體提取方法如下:使用5個(gè)尺度,6個(gè)方向的Gabor濾波器對(duì)原始圖像進(jìn)行Gabor變換,可以形成30幅圖像紋理表示,再計(jì)算這30幅圖像的均值和方差從而得到一個(gè)60維的特征向量。

        2 融合多特征的遙感圖像分類算法

        一類場(chǎng)景中圖像的顯著特征有些表現(xiàn)在局部特征點(diǎn)上,有些表現(xiàn)在顏色直方圖上,還有一些則表現(xiàn)在紋理上。如圖1中立交橋類的紋理非常明顯,如果采用紋理進(jìn)行分類,將會(huì)有很好的效果。而圖2中的高爾夫球場(chǎng),由于顏色特征比較顯著,則使用顏色直方圖分類效果較好。表1給出了這兩類圖像采用不同特征的分類結(jié)果??梢姴捎脝我坏奶卣鲗?duì)所有類進(jìn)行分類很容易造成一類場(chǎng)景的顯著特征的丟失從而降低分類精度。

        圖1 立交橋(紋理特征非常明顯)Fig.1 Overpass(Texture feature is very obvious)

        圖2 高爾夫球場(chǎng)(顏色特征非常明顯,總是一些綠色和一些白色的搭配)Fig.2 Golfcourse(Colour feature is very obvious,always be the mixture of green and white)

        表1 立交橋類和高爾夫球場(chǎng)類采用不同特征的分類結(jié)果(80幅訓(xùn)練樣本,20幅測(cè)試樣本) %Table 1 The classification accuracy of different features of overpass and golfcourse(80are training samples,20are testing samples)

        不僅如此,同一類場(chǎng)景的不同圖像的顯著特征也存在差異,如果只采用一種特征來(lái)對(duì)圖像進(jìn)行分類,則也很容易丟失單幅圖像的顯著特征,造成分類精度不高。如飛機(jī)類遙感圖像中,有些紋理較為顯著,而有些局部特征比較顯著,見圖3。如果只利用單一特征進(jìn)行識(shí)別,則不能較好的利用每幅圖像的顯著特征,從而造成分類精度降低。多特征融合能夠改善這種情況,進(jìn)一步提高分類精度[16]。

        圖3 飛機(jī)(左邊圖像的紋理特征比較明顯,而右邊圖像的紋理特征不明顯,但是局部形狀特征較為明顯)Fig.3 Airplane(Texture feature of left images are obvious,while the right are not,but the local features are obvious)

        本文的方法就是針對(duì)遙感圖像中復(fù)雜目標(biāo)的這些特點(diǎn),首先為不同場(chǎng)景類各個(gè)樣本分別提取三種特征,然后采用多特征融合的方法,在圖像分類中自適應(yīng)選擇不同特征的分類結(jié)果進(jìn)行組合,從而極大提高了分類精度。

        本文算法步驟如下:

        (1)訓(xùn)練過(guò)程。將已經(jīng)標(biāo)記好類標(biāo)簽的訓(xùn)練樣本圖像提取局部特征,得到BOVW表示;再提取全局特征,得到HLS顏色直方圖表示和Gabor紋理表示。然后分別用支持向量機(jī)(Support vector machine,SVM)訓(xùn)練,得到3個(gè)不同的支持向量機(jī)分類器,分別記為SVM1,SVM2,SVM3。

        (2)測(cè)試過(guò)程。提取待測(cè)試圖像的BOVW表示,顏色直方圖特征以及Gabor紋理特征,將其分別采用SVM1,SVM2,SVM3進(jìn)行分類,得到該圖像的三組預(yù)測(cè)概率:分別為P1,P2,P3。

        (3)判斷待檢測(cè)圖像的顯著特征,并求其對(duì)應(yīng)的最大概率值:計(jì)算P1,P2,P3中的最大值max,并得到該max所對(duì)應(yīng)的類標(biāo)簽為L(zhǎng)abel1。同時(shí)記錄P1,P2,P3中的次大值以及第3大值,分別對(duì)應(yīng)次顯著特征和最不顯著特征,相應(yīng)的類標(biāo)簽記為L(zhǎng)abel2和Label3。

        (4)由于次顯著特征和最不顯著特征的組合可能要比顯著特征好,因此要比較這兩者的投票結(jié)果和最顯著特征概率的大?。喝绻鸏abel2和Label3相同,并且對(duì)應(yīng)的概率之和大于max,則最終的分類結(jié)果為L(zhǎng)abel2或Label3。否則,輸出Label1作為最終的分類結(jié)果。

        具體測(cè)試流程如圖4所示。

        圖4 本文算法測(cè)試過(guò)程的流程圖Fig.4 The flow chart of testing process of our proposed algorithm

        3 實(shí)驗(yàn)結(jié)果及分析

        鑒于支持向量機(jī)在解決高維特征空間中線性不可分問題上的優(yōu)越性能,本文采用支持向量機(jī)作為基分類器[17]。對(duì)于多類分類問題,采用一組二類分類器來(lái)進(jìn)行最大值投票表決,并根據(jù)投票結(jié)果得到分類結(jié)果和對(duì)應(yīng)的類概率。本文支持向量機(jī)實(shí)現(xiàn)使用了LIBSVM軟件包[18],各個(gè)分類器的最優(yōu)參數(shù)通過(guò)該軟件包附帶的網(wǎng)格搜索法獲得。

        3.1 數(shù)據(jù)

        本文采用了與文獻(xiàn)[5]相同的圖像數(shù)據(jù)進(jìn)行實(shí)驗(yàn)。該圖像數(shù)據(jù)集是國(guó)際上第一個(gè)大型的遙感圖像分類公共測(cè)試數(shù)據(jù)集,共21類,每類100幅圖像,均為QuickBird高分辨率遙感圖像,大小為256×256。這些圖像是從美國(guó)地質(zhì)勘探局(United states geological survey,USGS)處下載的,包括美國(guó)多個(gè)州的各種場(chǎng)景:農(nóng)田、飛機(jī)、棒球內(nèi)場(chǎng)、海濱、建筑物、灌叢、稠密居住區(qū)、森林、高速公路、高爾夫球場(chǎng)、海港、十字路口、中等稠密居住區(qū)、活動(dòng)房區(qū)、立交橋、停車場(chǎng)、河流、機(jī)場(chǎng)跑道、稀疏居住區(qū)、儲(chǔ)油罐和網(wǎng)球場(chǎng)。這些圖像反映了每類場(chǎng)景的典型情況,具有較好的代表性。

        在下面分類實(shí)驗(yàn)中,如無(wú)特別說(shuō)明,從每一類中取出80幅圖像作為訓(xùn)練樣本,20幅圖像作為測(cè)試樣本。

        3.2 改進(jìn)的BOVW

        首先比較了采用不同核函數(shù)時(shí)詞袋模型的分類精度,并據(jù)此確定后續(xù)實(shí)驗(yàn)的核函數(shù)。圖5和圖6分別給出了改進(jìn)的BOVW方法和原始BOVW方法在采用不同的SVM核函數(shù)和碼本個(gè)數(shù)時(shí)的平均分類精度值。從圖5和圖6可以看出,直方圖相交核(Histogram Inter SVM)要優(yōu)于線性核函數(shù)(Linear SVM)和徑向基核(RBF SVM),并且當(dāng)碼本的個(gè)數(shù)為1 000時(shí),分類效果最好。圖5,6中,碼本個(gè)數(shù)分別為200,500,1 000,2 000,5 000。

        圖5 采用不同的核函數(shù)和碼本個(gè)數(shù),改進(jìn)的BOVW方法的總體平均分類精度Fig.5 The overall average classification accuracy of our improved BOVW method which use the different kernel function or codebook number

        圖6 采用不同的核函數(shù)和碼本個(gè)數(shù),原始的BOVW方法的總體平均分類精度Fig.6 The overall average classification accuracy of our original BOVW method which use the different kernel function or codebook number

        圖7 本文改進(jìn)后的BOVW生成算法和原始BOVW的各類分類精度和總的平均分類精度Fig.7 The average classification accuracy of each class which used our improved BOVW algorithm or the original algorithm,the overall average classification accuracy which use our improved BOVW algorithm or the original algorithm

        采用本文改進(jìn)的BOVW詞袋生成算法,算法步驟2中的參數(shù)N為20時(shí)效果最佳。與普通的BOVW算法進(jìn)行比較,結(jié)果如圖7所示。從圖7看出,本文改進(jìn)的BOVW詞袋生成算法比原始的BOVW詞袋生成算法的總體平均分類精度約有4%的提高(78.33%vs 74.52%)。

        3.3 單一特征的分類結(jié)果

        根據(jù)上一節(jié)實(shí)驗(yàn)分析,采用直方圖相交核作為BOVW特征和顏色直方圖特征的核函數(shù)。RBF核函數(shù)作為Gabor紋理特征的的核函數(shù)。BOVW特征中,參數(shù)C的值設(shè)為8時(shí)分類結(jié)果最優(yōu),顏色直方圖特征中,參數(shù)C的值設(shè)為32時(shí)最優(yōu)。Gabor特征中,參數(shù)C的值設(shè)為128,參數(shù)g的值設(shè)為0.003 906 25時(shí)最優(yōu)。

        如前所述,從每一類中選取80幅圖像作為訓(xùn)練樣本,利用支持向量機(jī)進(jìn)行訓(xùn)練,其余20幅圖像作為測(cè)試樣本。各個(gè)特征對(duì)應(yīng)分類器使用的參數(shù)如下:詞袋模型中,碼本個(gè)數(shù)為1 000;顏色直方圖特征中,向量維數(shù)為512;Gabor紋理中,尺度數(shù)為5,方向數(shù)為6,向量維數(shù)為60。分類結(jié)果統(tǒng)計(jì)如圖8所示。

        從圖8可以看出,對(duì) AGRI,AIR,BUILD,CHAP,F(xiàn)OR,HARB,INTER,MHP,PARK,SRE,TENN 類,BOVW 的 分 類 效 果 較 好,對(duì)BASE,BEACH,DRE,GOLF,MRE,RIV,STOR類,顏色直方圖的效果較好,對(duì)FREE,OVER,RUN類,Gabor紋理特征的分類較高。雖然每一種特征都有表現(xiàn)較好的幾類,但是總體平均分類精度都不高,不能滿足實(shí)際分類精度的要求。3種單一特征BOVW,顏色直方圖,Gabor紋理的總體平均分類精度分別為78.33%,78.33%,71.19%。

        3.4 多特征融合的結(jié)果

        采用本文自適應(yīng)融合算法的分類結(jié)果的統(tǒng)計(jì)如圖8所示。從圖8可以看出,除了BASE,BEACH,GOLF,RIV,SRE類,其他類的分類精度都要比單一特征的最大分類精度要高,這說(shuō)明對(duì)每一種特征,其錯(cuò)分的圖像不同,并且有交叉。采用多特征融合的方法可以根據(jù)圖像的顯著特征自適應(yīng)得到較可靠的分類結(jié)果。而BASE,BEACH,GOLF,RIV,SRE類,由于個(gè)別圖像的顯著特征將其錯(cuò)分了,從而導(dǎo)致最終的分類錯(cuò)誤,降低了總的分類精度。但這些降低是建立在其他大多數(shù)類的分類精度的明顯提升基礎(chǔ)上的,所以這種折中平衡是可以接受的。從圖像的總體平均分類精度上看,達(dá)到了89.05%,比單一特征分類精度的最高值78.33%要高出約10%。這樣好的分類精度表明本文算法具有較大優(yōu)越性。

        3.5 和其他融合方法的比較

        在文獻(xiàn)[19,20]中,研究人員提出幾種常見的多分類器組合方法用于遙感圖像分類,有投票表決法,最大概率類別法及模糊積分判別法等,本文選擇對(duì)加權(quán)綜合法,多數(shù)票法和完全一致法3種多分類器組合方法進(jìn)行比較。加權(quán)綜合法計(jì)算每種特征所對(duì)應(yīng)分類器的總體精度,作為其權(quán)重值,然后分別求出待識(shí)別圖像的每種特征所對(duì)應(yīng)的類概率值,并乘以其權(quán)重。最后對(duì)相同類的概率值相加,并根據(jù)最大概率作為最終的輸出。多數(shù)票法計(jì)算每種特征所對(duì)應(yīng)的類標(biāo)簽輸出,只有至少兩個(gè)輸出標(biāo)簽相同時(shí)才給出識(shí)別結(jié)果,否則拒識(shí)。完全一致法要求更嚴(yán)格,只有在3個(gè)分類器輸出一致的情況下才輸出結(jié)果,否則拒識(shí)。圖9給出了上述3種組合方法對(duì)各類的具體識(shí)別結(jié)果。表2給出了各種方法的平均分類精度對(duì)比。

        表2 各種方法平均分類精度對(duì)比 %Table 2 The comparison of the overall average classification accuracy of different functions

        圖8 單一特征和多特征融合方法的各類分類精度和總的平均分類精度Fig.8 The average classification accuracy of each class which is based on the single feature or the fusion of multiple features

        圖9 加權(quán)綜合法、多數(shù)票法和完全一致法各類分類精度和總的平均分類精確度Fig.9 The average classification accuracy of each class which used weighted comprehensive assessment method or the majority vote method or the complete unification method,the overall average classification accuracy which used weighted comprehensive assessment method or the majority vote method or the complete unification method

        為了說(shuō)明本文方法的有效性,采用遙感圖像分類中常用的非參數(shù) McNemar檢驗(yàn)[21]進(jìn)行統(tǒng)計(jì)顯著性分析。該方法基于標(biāo)準(zhǔn)正態(tài)檢驗(yàn)公式

        式中:f12表示方法1錯(cuò)分類而方法2正確分類的樣本數(shù),f21表示方法2錯(cuò)分類而方法1正確分類的樣本數(shù)。本文方法和其他方法的顯著性檢驗(yàn)結(jié)果見表3。

        表3 本文方法與其他各種方法的非參數(shù)McNemar檢驗(yàn)結(jié)果Table 3 The result comparison of non-parameter of our proposed method and other methods

        對(duì)于5%的顯著性水平,對(duì)應(yīng)的|z|值為1.96。本文方法和加權(quán)綜合法處于相同水平,而顯著優(yōu)于多數(shù)票法與完全一致法。加權(quán)綜合法平均分類精度與本文算法的結(jié)果比較接近,但是由于該方法要求首先根據(jù)訓(xùn)練樣本集測(cè)試精度確定每個(gè)分類器的權(quán)重,考慮的是所有訓(xùn)練樣本的總體平均精度,而本文方法根據(jù)每個(gè)測(cè)試樣本的具體情況自適應(yīng)確定其多特征的融合,因此本文方法平均精度更高。多數(shù)票法和完全一致法明顯低于本文方法,分別只有81.43%和52.86%。

        4 結(jié)束語(yǔ)

        本文采用基于支持向量機(jī)的多特征融合的方法對(duì)高分辨率遙感圖像進(jìn)行分類,對(duì)各單一特征的分類結(jié)果進(jìn)行自適應(yīng)綜合,提高了分類精度。并且改進(jìn)了傳統(tǒng)的BOVW生成算法,對(duì)每類的總體視覺單詞特征進(jìn)行了加權(quán),提高了分類精度。與當(dāng)前流行的幾種融合方法進(jìn)行比較,在一個(gè)大型遙感圖像公共測(cè)試數(shù)據(jù)集上進(jìn)行的對(duì)比實(shí)驗(yàn)證明了本文方法較有效,具有更高的分類精度。每類遙感目標(biāo)都有各自的顯著性特征,如果采用視覺注意模型,對(duì)遙感圖像中代表一類場(chǎng)景的顯著信息進(jìn)行提取,并且去除冗余信息,分類精度應(yīng)該會(huì)有更大的提高。

        [1]張錦水,何春陽(yáng),潘耀忠,等.基于SVM的多源信息復(fù)合的高空間分辨率遙感數(shù)據(jù)分類研究[J].遙感學(xué)報(bào).2006,10(1):49-57.

        Zhang Jinshui,He Chunyang,Pan Yaozhong,et al.The high spatial resolution RS image classification based on SVM method with the multi-source data[J].Journal of Remote Sensing,2006,10(1):49-57.

        [2]黎新亮,趙書河,芮一康,等.面向?qū)ο蟾叻直孢b感影像分類研究[J].遙感信息,2007,6:58-61.

        Li Xinliang,Zhao Shuhe,Rui Yikan,et al.Study on object-oriented approach to classification of high resolution remote sensed image[J].Remote Sensing Information,2007,6:58-61.

        [3]Swain M J,Ballard D H.Color indexing[J].International Journal of Computer Vision,1991,7(1):11-32.

        [4]Lee Tai Sing.Image representation using 2Dgabor wavelets[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1996,18(10):1-13.

        [5]Yang Yi,Shawn N.Bag of visual words and spatial extensions for land-use classification[C]//ACM International Conference on Advances in Geographic In-formation Systems.New York,USA:[s.n.],2010:270-279.

        [6]Li Feifei,Perona P.A Bayesian hierarchical model for learning natural scene categories[C]//IEEE International Conference on Computer Vision and Pattern Recognition.San Diego,CA,USA:[s.n.],2005:524-531.

        [7]Lazebnik S,Schmid C,Ponce J.A maximum entropy framework for part-based texture and object recognition[C]//IEEE International Conference on Computer Vision and Pattern Recognition.Beijing,China:[s.n.],2005:832-838.

        [8]Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-100.

        [9]李曉明,鄭鏈,胡占義.基于SIFT特征的遙感影像自動(dòng)配準(zhǔn)[J].遙感學(xué)報(bào),2006,10(6):885-892.

        Li Xiaoming,Zheng Lian,Hu Zhanyi.SIFT based automatic registration of remotely-sensed imagery[J].Journal of Remote Sensing,2006,10(6):885-892.

        [10]王傳旭,董晨晨.基于時(shí)空特征點(diǎn)的群體異常行為檢測(cè)算法[J].數(shù)據(jù)采集與處理,2012,27(4):422-428.

        Wang Chuanxu,Dong Chenchen.Abnormal crowded behavior detection algorithm based on spatial temporal interesting points[J].Journal of Data Acquisition and Processing,2012,27(4):422-428.

        [11]Yang Yi,Shawn N.Spatial pyramid co-occurrence for image classification[C]//IEEE International Conference on Computer Vision.Barcelona,Spain:[s.n.],2011:1465-1472.

        [12]Wu J,Rehg J M.Beyond the euclidean distance:Creating effective visual codebooks using the histogram intersection kernel[C]//IEEE International Conference on Computer Vision.Kyoto,Japan:[s.n.],2009:630-637.

        [13]劉巍,賀廣南,楊育彬.結(jié)構(gòu)上下文:一種新的物體類別描述符[J].計(jì)算機(jī)科學(xué)與探索,2010,4(04):304-311.

        Liu Wei,He Guangnan,Yang Yubing.Structural context:A new descriptor for object categorization[J].Journal of Frontiers of Computer Sci & Tech,2010,(04):304-311.

        [14]楊丹,李博,趙紅.魯棒視覺詞匯本的自適應(yīng)構(gòu)造與自然場(chǎng)景分類應(yīng)用[J].電子與信息學(xué)報(bào),2010,32(9):2139-2144.

        Yang Dan,Li Bo,Zhao Hong.An adaptive algorithm for robust visual codebook generation and its natural scene categorization application[J].Journal of Electronics &Information Technology,2010,32(9):2139-2144.

        [15]Li Shijin,Tao Jian,Wan Dingsheng,et al.Contentbased remote sensing image retrieval using co-training of multiple classifiers[J].Journal of Remote Sensing,2010,14(3):493-506.

        [16]羅曉清,吳小俊,王士同,等.基于二次融合多特征的多聚焦圖像融合[J].數(shù)據(jù)采集與處理,2010,25(4):430-436.

        Luo Xiaoqing,Wu Xiaojun,Wang Shitong,et al.Multi-focus image fusion based on second fusion and multi-feature[J].Journal of Data Acquisition and Processing,2010,25(4):430-436.

        [17]程娟,平西建,周冠瑋.基于多特征和SVM的文本圖像版面分類方法[J].數(shù)據(jù)采集與處理,2008,23(5):569-574.

        Cheng Juan,Ping Xijian,Zhou Guanwei.Layout analysis based on multi-feature and SVM[J].Journal of Data Acquisition and Processing,2008,23(5):569-574.

        [18]Chang C C,Lin C J.LIBSVM:A library for support vector machines[J].ACM Transactions on Intelligent Systems and Technology,2011,2:1-27.

        [19]彭正林,毛先成,劉文毅,等.基于多分類器組合的遙感影像分類方法研究[J].國(guó)土資源遙感,2011,89(2):19-25.

        Peng Zhenglin,Mao Xiancheng,Liu Wenyi,et al.Method for classification of remote sensing images based on multiple classifiers combination[J].Remote Sensing for Land & Resources,2011,89(2):19-25.

        [20]孫灝,杜培軍,趙衛(wèi)常.基于多分類器組合的高分辨率遙感影像目標(biāo)識(shí)別[J].地理與地理信息科學(xué),2009,25(1):32-35.

        Sun Hao,Du Peijun,Zhao Weichang.Target identification from high resolution remote sensing image based on multiple classifier combination[J].Geography and Geo-Information Science,2009,25(1):32-35.

        [21]Foody G M.Thematic map comparison:Evaluating the statistical significance of differences in classification accuracy[J].Photogrammetric Engineering &Remote Sensing,2004,70(5):627-633.

        猜你喜歡
        直方圖紋理單詞
        統(tǒng)計(jì)頻率分布直方圖的備考全攻略
        符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
        基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
        軟件(2020年3期)2020-04-20 01:45:18
        單詞連一連
        用直方圖控制畫面影調(diào)
        使用紋理疊加添加藝術(shù)畫特效
        看圖填單詞
        TEXTURE ON TEXTURE質(zhì)地上的紋理
        Coco薇(2017年8期)2017-08-03 15:23:38
        看完這些單詞的翻譯,整個(gè)人都不好了
        消除凹凸紋理有妙招!
        Coco薇(2015年5期)2016-03-29 23:22:15
        国产亚洲女人久久久久久| 久久老熟女一区二区三区福利| 精品国产色哟av一区二区三区| 日本一区二区免费高清| 丰满女人猛烈进入视频免费网站 | 强开少妇嫩苞又嫩又紧九色 | 桃花影院理论片在线| 欧洲午夜视频| 成年男人裸j照无遮挡无码| 按摩偷拍一区二区三区| 亚洲精品无码永久中文字幕| 少妇高潮尖叫黑人激情在线| 亚洲成av人最新无码| 日本精品极品视频在线| 久久丝袜熟女av一区二区| 国产高潮视频在线观看| 国产精品久久久久久无码| 亚洲一区综合精品狠狠爱| 国产精品成人久久一区二区| 日本一区二区三区精品免费| 中文字幕人妻熟女人妻| 亚洲黄色电影| 搡老女人老妇女老熟妇69| 侵犯了美丽丰满人妻中文字幕| 激情综合色五月丁香六月欧美 | 日本红怡院东京热加勒比| 黑人玩弄极品人妻系列视频| 九九久久自然熟的香蕉图片| 精品麻豆国产色欲色欲色欲www| 在线播放a欧美专区一区| 亚州毛色毛片免费观看| 国产一区二区三区不卡视频| 一本一道av无码中文字幕麻豆| 污污污污污污WWW网站免费| 91亚洲最新国语中文字幕| 青青草成人在线免费视频| 国产精品成人va在线观看| 国产在线手机视频| 日韩性感av一区二区三区| 亚洲自拍偷拍色图综合| 蜜臀av在线播放一区二区三区 |