亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        視覺(jué)詞袋和Gabor紋理融合的遙感圖像檢索

        2016-04-11 01:22:15江順亮葉發(fā)茂許慶勇唐祎玲南昌大學(xué)信息工程學(xué)院南昌33003南昌航空大學(xué)軟件學(xué)院南昌330063
        光電工程 2016年2期
        關(guān)鍵詞:特征融合

        葛 蕓,江順亮,葉發(fā)茂,許慶勇,唐祎玲( . 南昌大學(xué) 信息工程學(xué)院,南昌 33003;2. 南昌航空大學(xué) 軟件學(xué)院,南昌 330063 )

        ?

        視覺(jué)詞袋和Gabor紋理融合的遙感圖像檢索

        葛 蕓1,2,江順亮1,葉發(fā)茂1,許慶勇1,唐祎玲1
        ( 1. 南昌大學(xué) 信息工程學(xué)院,南昌 330031;2. 南昌航空大學(xué) 軟件學(xué)院,南昌 330063 )

        摘要:針對(duì)高分辨率的遙感圖像,提出了一種視覺(jué)詞袋和Gabor紋理融合的圖像檢索方法。遙感圖像紋理信息豐富,局部關(guān)鍵點(diǎn)多,當(dāng)圖像存在較多相似紋理時(shí),視覺(jué)詞袋檢索準(zhǔn)確率下降。將視覺(jué)詞袋和Gabor紋理融合在一起結(jié)合了局部特征和全局特征以及中層詞袋和底層紋理的優(yōu)點(diǎn),可以改進(jìn)遙感圖像的描述方式。實(shí)驗(yàn)結(jié)果表明,通過(guò)合理地分配視覺(jué)詞袋和Gabor紋理的權(quán)重,特征融合的檢索性能與單一特征方法相比有較大提高,并優(yōu)于傳統(tǒng)的Gabor紋理和顏色矩融合方法。因此,視覺(jué)詞袋和Gabor紋理融合在遙感圖像檢索領(lǐng)域是一種有效的方法。關(guān)鍵詞:遙感圖像檢索;視覺(jué)詞袋;Gabor紋理;特征融合

        0 引 言

        近年來(lái),隨著遙感技術(shù)的發(fā)展,遙感圖像分辨率不斷提高,數(shù)據(jù)量急速增長(zhǎng)。如何有效地管理利用遙感圖像數(shù)據(jù),滿足用戶對(duì)數(shù)據(jù)的使用需求成為近年來(lái)研究的熱點(diǎn)。其中,從海量的遙感圖像中快速有效地檢索出感興趣的目標(biāo)或場(chǎng)景成為急需解決的關(guān)鍵問(wèn)題之一。

        基于內(nèi)容的圖像檢索(Content-Based Image Retrieval, CBIR)技術(shù)在遙感圖像中應(yīng)用廣泛[1-2],遙感圖像紋理特征顯著,可以有效地區(qū)分不同的實(shí)體,在遙感圖像的檢索中有重要的作用[3-4]。顏色特征常和紋理等其他特征融合在一起進(jìn)行圖像檢索[5]。從整幅圖像中提取的紋理和顏色等特征被稱為全局特征,其提取復(fù)雜度低,魯棒性強(qiáng),但在復(fù)雜圖像中精確匹配效果不如局部特征。局部特征大多位于高維空間,數(shù)目眾多,局部特征可以通過(guò)聚類(lèi)的方式構(gòu)建成低維的視覺(jué)詞袋(Bag of Visual Words, BoVW)模型。視覺(jué)詞袋是中層特征,與顏色和紋理等底層特征相比,視覺(jué)詞袋能夠進(jìn)一步縮小圖像檢索中的語(yǔ)義鴻溝。從視覺(jué)詞袋在遙感圖像檢索中首次應(yīng)用來(lái)看[6],其檢索性能優(yōu)于基于顏色和紋理的檢索性能。

        遙感圖像紋理信息豐富,局部關(guān)鍵點(diǎn)較多,當(dāng)圖像存在較多相似紋理時(shí),視覺(jué)詞袋檢索結(jié)果的準(zhǔn)確性較低[7]。因此通過(guò)在視覺(jué)詞袋中融合紋理特征的方法來(lái)提高圖像檢索的準(zhǔn)確率。遙感圖像中的目標(biāo)一般比多媒體圖像中的目標(biāo)尺度小得多,有時(shí)更需要關(guān)注圖像的全局信息,而局部特征最大的不足是缺少對(duì)圖像的整體描述。Gabor紋理能夠反映圖像的全局信息,基于局部特征的視覺(jué)詞袋和Gabor紋理融合在一起結(jié)合了全局特征和局部特征、中層詞袋特征和底層紋理特征的優(yōu)勢(shì)。因此本文將基于局部特征的視覺(jué)詞袋和全局Gabor紋理相融合并用于遙感圖像檢索。實(shí)驗(yàn)結(jié)果表明,通過(guò)合理地分配特征的權(quán)重,特征融合的檢索性能比單一特征的檢索性能有較大提高,并優(yōu)于傳統(tǒng)的特征融合。

        1 特征提取

        1.1 視覺(jué)詞袋

        局部特征選用應(yīng)用廣泛的尺度不變特征變換(Scale Invariable Feature Transformation, SIFT)[8]。將提取的遙感圖像的SIFT局部特征,通過(guò)k-means算法聚類(lèi),聚類(lèi)后得到一個(gè)視覺(jué)詞典,詞典中的每個(gè)元素為一個(gè)視覺(jué)單詞,即聚類(lèi)中心。最后,采用硬分配方法將圖像特征向量分配到距離最近的視覺(jué)單詞,統(tǒng)計(jì)圖像中各個(gè)視覺(jué)單詞出現(xiàn)的頻數(shù),得到一個(gè)圖像的視覺(jué)單詞向量,其維數(shù)為聚類(lèi)中心的數(shù)目。構(gòu)建視覺(jué)詞袋后特征向量表示為其中fi是聚類(lèi)中心i出現(xiàn)的頻數(shù),k是聚類(lèi)中心的數(shù)目。

        1.2 Gabor紋理

        Gabor濾波器獲得圖像紋理特征是一種有效的遙感圖像分析方法。具體的特征提取方法使用5個(gè)尺度,6個(gè)方向的Gabor濾波器對(duì)原始圖像進(jìn)行Gabor變換,形成30幅圖像紋理表示,計(jì)算這30幅圖像的均值和方差,最終得到一個(gè)60維的特征向量,其中μij和ijσ分別代表相應(yīng)的尺度和方向上的均值和方差。

        2 基于特征融合的檢索方法

        2.1 歸一化

        圖像各特征向量代表的物理意義往往不同,即使對(duì)于同一特征向量其各個(gè)分量的取值范圍也可能存在很大的差異,需對(duì)特征向量進(jìn)行歸一化處理[9],特征向量?jī)?nèi)部歸一化的目的是使特征向量?jī)?nèi)部的不同分量在相似性度量時(shí)具有相同的地位。采用常用的高斯方法進(jìn)行內(nèi)部歸一化。用代表圖像庫(kù)中的m幅圖像,令一幅圖像Ii的某個(gè)l維特征向量為,將圖像庫(kù)中所有圖像的特征向量看成一個(gè)大小為m×l的矩陣F。計(jì)算F每一行特征分量對(duì)應(yīng)的平均值μi和標(biāo)準(zhǔn)差iσ,通過(guò)式(1)將特征向量進(jìn)行歸一化和平移,使得絕大部分的值在[0,1]范圍。

        特征向量外部歸一化的目的是使不同的特征向量在相似性度量時(shí)具有相同的地位。對(duì)于任意查詢圖像q,根據(jù)相似性度量標(biāo)準(zhǔn)計(jì)算q與圖像庫(kù)中m幅圖像的相似度,對(duì)其進(jìn)行高斯歸一化和平移操作,使得絕大多數(shù)的相似度在[0,1]范圍內(nèi)。

        對(duì)提取的視覺(jué)詞袋和Gabor紋理分別進(jìn)行內(nèi)部歸一化后,再對(duì)不同特征的相似度進(jìn)行外部歸一化。查詢圖像與數(shù)據(jù)庫(kù)中圖像的相似度用視覺(jué)詞袋特征相似度和Gabor紋理相似度的加權(quán)表示:

        2.2 檢索方法

        圖1描述了基于特征融合的遙感圖像檢索流程,具體的步驟如下:

        輸入:遙感圖像庫(kù)M,查詢圖像q。

        輸出:返回n幅最相似的圖像。

        步驟1) 提取M中每幅圖像的k維視覺(jué)詞袋特征和60維Gabor紋理。提取q的k維視覺(jué)詞袋特征和60維Gabor紋理。

        步驟2) 根據(jù)高斯方法,M中每幅圖像的特征分別進(jìn)行內(nèi)部歸一化,形成特征庫(kù)。q的視覺(jué)詞袋特征和Gabor紋理分別進(jìn)行內(nèi)部歸一化后的特征為qbovw和qgabor。

        步驟3) qbovw、qgabor分別和特征庫(kù)中相應(yīng)的特征計(jì)算相似度,經(jīng)過(guò)高斯外部歸一化后得到視覺(jué)詞袋相似度Dbovw和Gabor紋理相似度Dgabor。

        步驟4) 合理分配Dbovw和Dgabor的權(quán)重wbovw和wgabor,得到相似度。

        步驟5) 在一系列的相似度中按需求返回距離最小,即最相似的n幅圖像。

        圖1 基于特征融合的遙感圖像檢索流程圖Fig.1 The remote sensing images retrieval flow chart based on feature fusion

        3 實(shí)驗(yàn)結(jié)果及分析

        3.1 實(shí)驗(yàn)數(shù)據(jù)和評(píng)估標(biāo)準(zhǔn)

        實(shí)驗(yàn)以目前最大的遙感圖像公共測(cè)試數(shù)據(jù)集UCMerced Land Use/Land Cover[10]為對(duì)象,該數(shù)據(jù)集包含了農(nóng)田、飛機(jī)和棒球場(chǎng)等21類(lèi)場(chǎng)景圖片,每類(lèi)有100幅圖像。

        為了評(píng)價(jià)檢索的有效性,采用圖像檢索系統(tǒng)中應(yīng)用最為廣泛的性能評(píng)價(jià)準(zhǔn)則平均查準(zhǔn)率(Precision)、平均查全率(Recall)以及相應(yīng)的查準(zhǔn)率-查全率曲線??紤]檢索圖像的排序情況,實(shí)驗(yàn)中采用了在MPEG-7標(biāo)準(zhǔn)化處理中廣泛使用的平均歸一化修改檢索等級(jí)(Average Normalize Modified Retrieval Rank, ANMRR)[6],ANMRR取值越小,說(shuō)明檢索出來(lái)的相關(guān)圖像越靠前,即檢索效果越好。實(shí)驗(yàn)中,將數(shù)據(jù)集中的每一幅圖像取出作為檢索條件,在整個(gè)圖像集合進(jìn)行檢索,通過(guò)比較2 100次檢索的平均性能對(duì)檢索方案進(jìn)行驗(yàn)證。文獻(xiàn)[6]的實(shí)驗(yàn)結(jié)果表明視覺(jué)詞袋特征中的單詞數(shù)目為150時(shí)檢索性能比較好,因此實(shí)驗(yàn)中的單詞數(shù)目為150。Gabor紋理中的尺度數(shù)為5,方向數(shù)為6,維數(shù)為60,相似性度量采用常用的歐氏距離。

        3.2 不同權(quán)重檢索性能比較

        視覺(jué)詞袋和Gabor紋理的權(quán)重對(duì)實(shí)驗(yàn)結(jié)果有較大影響,通過(guò)一系列的實(shí)驗(yàn)來(lái)驗(yàn)證不同權(quán)重分配對(duì)檢索性能的影響。令wbovw和wgabor分別表示視覺(jué)詞袋的權(quán)重和Gabor紋理的權(quán)重,在集合{0,0.1,...,0.9,1}中選擇和的取值(需滿足)。

        表1和表2分別表示特征融合方法在不同權(quán)重下的平均查準(zhǔn)率、ANMRR值和平均查全率。在實(shí)際檢索系統(tǒng)中,用戶一般只關(guān)心排序靠前的結(jié)果。表中列出了當(dāng)檢索返回圖像數(shù)目分別為5、10、20、40和60時(shí)的平均查準(zhǔn)率和平均查全率,數(shù)字前標(biāo)*的值為同一行中最優(yōu)值。當(dāng)只返回5幅圖像時(shí),視覺(jué)詞袋和Gabor在不同的權(quán)重取值下,基于特征融合方法的平均查準(zhǔn)率和平均查全率比基于單一特征的平均查準(zhǔn)率和平均查全率都高;當(dāng)返回10幅圖像時(shí),只有在wbovw=0.1、wgabor=0.9情況下的特征融合的檢索性能不如基于視覺(jué)詞袋的檢索性能;在wbovw=0.5、wgabor=0.5情況下特征融合的平均查準(zhǔn)率比基于Gabor的平均查準(zhǔn)率提高了13.9%,比基于視覺(jué)詞袋的平均查準(zhǔn)率提高了5.7%。當(dāng)返回圖像數(shù)目較少時(shí)(返回5幅圖),Gabor權(quán)重較大時(shí)的查準(zhǔn)率和查全率比較高。隨著返回圖像數(shù)目的增多,則視覺(jué)詞袋權(quán)重較大時(shí)查準(zhǔn)率和查全率值更高。視覺(jué)詞袋和Gabor紋理融合的查準(zhǔn)率和查全率比基于單一特征的檢索性能有較大提高。

        表1 特征融合方法在不同權(quán)重下平均查準(zhǔn)率和ANMRRTable 1 The average precision and ANMRR of feature fusion method with different weighted values %

        表2 特征融合方法在不同權(quán)重下平均查全率Table 2 The average recall of feature fusion method with different weighted values %

        表1中的ANMRR值表明,特征融合的方法比基于Gabor方法的檢索性能好;而只有在視覺(jué)詞袋權(quán)重比重較大時(shí),特征融合方法的檢索性能才優(yōu)于基于視覺(jué)詞袋的檢索性能。從表1和表2的整體結(jié)果來(lái)看,基于視覺(jué)詞袋的檢索性能比基于Gabor的檢索性好,基于特征融合的檢索性能在視覺(jué)詞袋權(quán)重較大時(shí)優(yōu)于Gabor權(quán)重較大時(shí)。

        3.3 不同特征融合方法比較

        圖2顯示了不同特征的查準(zhǔn)率-查全率比較,查準(zhǔn)率和查全率返回圖像數(shù)目最少的為2,最大為2 100。特征融合1和特征融合2均為視覺(jué)詞袋和Gabor紋理融合的方法(特征融合1代表Gabor權(quán)重較大的融合方法,特征融合2代表視覺(jué)詞袋權(quán)重較大的融合方法),特征融合3為Gabor紋理和顏色矩融合的方法[5]。

        圖2 不同特征的查準(zhǔn)率-查全率比較Fig.2 Precision-recall curves for the different features

        由于返回圖像數(shù)目在2到2 100之間,因此選用表1中ANMRR值最優(yōu)時(shí)的權(quán)重分配wgabor=0 .2 ),即屬于特征融合2的方法。特征融合1的權(quán)重分配隨機(jī)選定為(wbovw=0.2,wgabor=0.8)。特征融合3實(shí)驗(yàn)中,當(dāng)Gabor紋理的權(quán)重和顏色矩的權(quán)重相等時(shí)ANMRR值最小,因此特征融合3的權(quán)重分配為(wgabor=0.5,wcolor=0.5),其中wcolor表示顏色矩的權(quán)重。

        當(dāng)返回圖像數(shù)目少于10時(shí),特征融合1的性能較好。隨著返回圖像數(shù)目增多,特征融合1的檢索性能急劇下降,只優(yōu)于Gabor和特征融合3的方法。從整體來(lái)看,特征融合2的檢索性能比其他方法的檢索性能都好。當(dāng)圖像返回?cái)?shù)目增多時(shí),特征融合2的檢索性能接近于視覺(jué)詞袋的檢索性能。

        3.4 不同類(lèi)別圖像的檢索性能比較

        不同類(lèi)別圖像的特征存在差異,特征融合的效果也不同。通過(guò)實(shí)驗(yàn)比較不同類(lèi)別圖像的ANMRR值和平均查準(zhǔn)率,并分析特征與圖像類(lèi)別的關(guān)系。圖3顯示了不同特征在各類(lèi)圖像檢索中的ANMRR值,三種特征融合的權(quán)重分配與圖2一致。圖4比較了返回圖像數(shù)目為20時(shí),不同特征在各類(lèi)圖像中的平均查準(zhǔn)率,特征融合1的權(quán)重分配隨機(jī)選定,特征融合2的權(quán)重分配是視覺(jué)詞袋和Gabor紋理融合中平均查準(zhǔn)率最高的情況,特征融合3的權(quán)重分配為Gabor紋理和顏色矩融合中平均查準(zhǔn)率最高的情況。

        圖3 不同特征在各類(lèi)圖像中的ANMRR比較Fig.3 Per class ANMRR for the different features

        圖4 不同特征在各類(lèi)圖像中的查準(zhǔn)率比較Fig.4 Per class performance for the different features

        為了研究特征和圖像類(lèi)別的關(guān)系,分別找出圖3和圖4中5種不同特征對(duì)應(yīng)的最優(yōu)檢索類(lèi)別。以圖3的特征融合1為例,特征融合1在農(nóng)田類(lèi)圖像中的ANMRR值不是最小,因此農(nóng)田不是特征融合1的最優(yōu)類(lèi)別,而在稀疏區(qū)和儲(chǔ)油罐類(lèi)圖像中,特征融合1對(duì)應(yīng)的ANMRR值最小,因此稀疏區(qū)和儲(chǔ)油罐為特征融合1的最優(yōu)類(lèi)別。基于單一特征的檢索中,圖3和圖4中基于視覺(jué)詞袋檢索的共同最優(yōu)類(lèi)別有海港和停車(chē)場(chǎng)。從圖5可以看出,這兩類(lèi)圖像的共同點(diǎn)是圖像中的目標(biāo)(船只或車(chē)輛)的大小形狀相似,并整齊排列,更容易找到有效的關(guān)鍵點(diǎn)。圖3和圖4都不存在基于Gabor檢索最優(yōu)的圖像,但高爾夫場(chǎng)、稀疏區(qū)和儲(chǔ)油罐三種類(lèi)別圖像基于Gabor的檢索優(yōu)于基于視覺(jué)詞袋的檢索;圖5中,這三類(lèi)圖像存在一兩處突出目標(biāo)(比如高爾夫場(chǎng)中的沙坑),這些目標(biāo)稀疏且紋理信息和周?chē)膱D像有很大區(qū)別,這類(lèi)圖像在基于單一特征檢索的情況下使用Gabor進(jìn)行檢索的性能更好。

        基于特征融合的檢索中,特征融合2的檢索效果突出,其中飛機(jī)、棒球場(chǎng)、建筑物、稠密區(qū)、十字路口和立交橋?yàn)閳D3和圖4的共同最優(yōu)圖像類(lèi)別。將這5類(lèi)圖像分為2種情況,一種是飛機(jī)、棒球場(chǎng)、十字路口和立交橋類(lèi)圖像,這類(lèi)圖像的目標(biāo)特點(diǎn)非常明顯,具有自身特定的形狀(比如棒球場(chǎng)呈扇形),并且存在對(duì)比明顯的紋理信息(比如飛機(jī)和周?chē)鷪?chǎng)地的紋理信息),不容易和其他目標(biāo)混淆。另一種是建筑物和稠密區(qū),這類(lèi)圖像中房屋的圖案等細(xì)節(jié)很難反應(yīng)出來(lái),更關(guān)注的是居住區(qū)的整體信息,比如建筑風(fēng)格。特征融合3中共同存在的圖像類(lèi)別有灌叢、高爾夫場(chǎng)和河流,這三種圖像中具有豐富的紋理信息和顏色信息。

        根據(jù)以上的分析,特征融合2適用的圖像種類(lèi)最多,它適用于目標(biāo)形狀特定或者全局信息區(qū)分度更大的圖像;其次是視覺(jué)詞袋和特征融合3,視覺(jué)詞袋適用于目標(biāo)的大小形狀相似并排列整齊的圖像,特征融合3適用于紋理和顏色信息對(duì)比度明顯的圖像;特征融合1和Gabor能夠適用的圖像種類(lèi)比較少,適用于目標(biāo)稀疏且紋理信息突出的圖像。

        由一系列的實(shí)驗(yàn)結(jié)果可以看出,視覺(jué)詞袋和Gabor的權(quán)重對(duì)圖像的檢索性能有較大影響,由于視覺(jué)詞袋特征能夠有效縮小圖像檢索中的語(yǔ)義鴻溝問(wèn)題,因此當(dāng)視覺(jué)詞袋權(quán)重較大時(shí)的特征融合效果更好。視覺(jué)詞袋和Gabor紋理融合方法在查準(zhǔn)率-查全率上比傳統(tǒng)的Gabor紋理和顏色矩融合方法得到較大程度的提高,并且在絕大多數(shù)類(lèi)別的圖像中,視覺(jué)詞袋和Gabor紋理融合方法的ANMRR值和查準(zhǔn)率都優(yōu)于傳統(tǒng)的Gabor紋理和顏色特征融合的方法。

        圖5 共同類(lèi)別的圖像Fig.5 Images for the common categories

        4 總結(jié)和展望

        本文將視覺(jué)詞袋和Gabor紋理融合的方法用于遙感圖像檢索。視覺(jué)詞袋和Gabor紋理融合在一起結(jié)合了局部信息和全局信息以及中層特征和底層特征的優(yōu)勢(shì),可以進(jìn)一步改進(jìn)圖像的描述方式。另外,遙感圖像紋理信息非常豐富,當(dāng)圖像存在大量相似的紋理信息時(shí),視覺(jué)詞袋特征檢索的準(zhǔn)確率下降,可以通過(guò)結(jié)合Gabor紋理加以改善。實(shí)驗(yàn)分別比較了不同權(quán)重、不同特征融合方法在遙感圖像中的檢索性能,并比較分析了幾種檢索方法在不同類(lèi)別圖像中的檢索性能。視覺(jué)詞袋和Gabor紋理融合中兩者的權(quán)重對(duì)檢索性能有較大影響,當(dāng)返回圖像數(shù)目非常少時(shí),Gabor權(quán)重較大時(shí)的檢索效果更好;當(dāng)返回圖像數(shù)目較多,則視覺(jué)詞袋權(quán)重較大時(shí)的檢索效果更好。視覺(jué)詞袋和Gabor紋理融合方法中,視覺(jué)詞袋權(quán)重較大時(shí)的查準(zhǔn)率-

        查全率上明顯優(yōu)于Gabor權(quán)重較大時(shí)的結(jié)果,并且比傳統(tǒng)的Gabor紋理與顏色矩的特征融合以及單一視覺(jué)詞袋或Gabor紋理的圖像檢索效果好。在比較幾種特征對(duì)不同類(lèi)別圖像的檢索實(shí)驗(yàn)中,視覺(jué)詞袋權(quán)重較大時(shí)的視覺(jué)詞袋和Gabor紋理融合適用的圖像種類(lèi)最多。因此,本文提出的視覺(jué)詞袋和Gabor紋理融合方法,在視覺(jué)詞袋權(quán)重較大時(shí)能有效地提高遙感圖像的檢索性能,并優(yōu)于傳統(tǒng)的Gabor紋理和顏色矩融合的方法。本文只通過(guò)實(shí)驗(yàn)比較了不同權(quán)重對(duì)特征融合的檢索性能的影響,并不能自適應(yīng)地選擇權(quán)重,因此下一步工作中將研究通過(guò)相關(guān)反饋和機(jī)器學(xué)習(xí)的方法來(lái)自適應(yīng)地選擇不同特征的權(quán)重,以進(jìn)一步提高圖像檢索的性能。另外,也將研究圖像的GIST特征、顏色特征和形狀特征在特征融合中對(duì)檢索性能的影響。

        參考文獻(xiàn):

        [1] Demir B,Bruzzone L. A Novel Active Learning Method in Relevance Feedback for Content-Based Remote Sensing Image Retrieval [J]. IEEE Transactions on Geoscience and Remote Sensing(S0196-2892),2015,53(9):2323–2334.

        [2] Piedra-Fernandez J A,Ortega G,Wang J Z,et al. Fuzzy Content-Based Image Retrieval for Oceanic Remote Sensing [J]. IEEE Transactions on Geoscience and Remote Sensing(S0196-2892),2014,52(9):5422–5431.

        [3] Aptoula E. Remote Sensing Image Retrieval with Global Morphological Texture Descriptors [J]. IEEE Transactions on Geoscience and Remote Sensing(S0196-2892),2013,52(5):3023-3034.

        ( )( )

        [4] YAO Hongyu,LI Bicheng,CAO Wen. Remote sensing imagery retrieval based-on Gabor texture feature classification [C]// Proceedings of 7th International Conference on Signal Processing,Aug 31-Sept 4,2004,1:733–736.

        [5] 陸麗珍,劉仁義,劉南. 一種融合顏色和紋理特征的遙感圖像檢索方法 [J]. 中國(guó)圖象圖形學(xué)報(bào),2004,9(3):328-332.

        LU Lizhen,LIU Renyi,LIU Nan. Remote Sensing Image Retrieval Using Color and Texture Fused Features [J]. Journal of Image and Graphics,2004,9(3):328-332.

        [6] YANG Yi,Newsam Shawn. Geographic image retrieval using local invariant features [J]. IEEE Transactions on Geoscience and Remote Sensing(S0196-2892),2013,51(2):818-832.

        [7] 楊進(jìn),劉建波,戴芹. 一種改進(jìn)包模型的遙感圖像檢索方法 [J]. 武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2014,39(9):1109-1113.

        YANG Jin,LIU Jianbo,DAI Qin. An Improved Remote Sensing Image Retrieval Method Based on Bag of Word Framework [J]. Geomatics and Information Science of Wuhan University,2014,39(9):1109-1113.

        [8] David G Lowe. Distinctive Image Features from Scale-Invariant Keypoints [J]. International Journal of Computer Vision (S0920-5691),2004,60(2):91-110.

        [9] Gondra I,Heistcrkamp D R. Content-based Image retrieval with the normalized information distance [J]. Computer Vision and Image Understanding(S1077-3142),2008,111(2):219-228.

        [10] YANG Yi,Newsam Shawn. Bag-of-Visual-Words and Spatial Extensions for Land-Use Classification [C]// Proceedings of the 18th ACM SIGSPATIAL International Conference on Advances in Geographic Information Systems,San Jose,California,Nov 2-5,2010:270-279.

        Remote Sensing Image Retrieval Based on the Fusion of BoVW and Gabor Texture

        GE Yun1,2,JIANG Shunliang1,YE Famao1,XU Qingyong1,TANG Yiling1
        ( 1. Information Engineering School, Nanchang University, Nanchang 330031, China; 2. Software School, Nanchang Hangkong University, Nanchang 330063, China )

        Abstract:A retrieval method based on the fusion of Bag of Visual Words (BoVW) and Gabor texture is presented for the high resolution remote sensing images. Remote sensing images have rich texture information and many local key points. But when an image contains lots of similar texture, the retrieval precision of BoVW will be reduced. The fusion of BoVW and Gabor texture combines the advantages of local feature and global feature, mid-level feature and low-level texture to improve image description. Experiment results show that the presented fusion method is superior to the traditional fusion method using Gabor texture and color moments. Retrieval performance of the fused features method is improved compared with that using single feature, and the improved performance depended on the suitable fusion weights. Experiment results indicate that the fused BoVW and Gabor texture is effective for high-resolution remote sensing image retrieval.

        Key words:remote sensing image retrieval; BoVW; Gabor texture; feature fusion

        作者簡(jiǎn)介:葛蕓(1983-),女(漢族),江西高安人。講師,博士研究生,主要研究工作是圖像檢索。E-mail: geyun@nchu.edu.cn。

        基金項(xiàng)目:國(guó)家自然科學(xué)基金地區(qū)項(xiàng)目(41261091);江西省教育廳科技項(xiàng)目(GJJ13482);江西省青年科學(xué)基金(20142BAB217017);江西省教育廳項(xiàng)目(GJJ14542)

        收稿日期:2015-06-11; 收到修改稿日期:2015-09-23

        文章編號(hào):1003-501X(2016)02-0076-06

        中圖分類(lèi)號(hào):TP394.1;TP75

        文獻(xiàn)標(biāo)志碼:A

        doi:10.3969/j.issn.1003-501X.2016.02.013

        猜你喜歡
        特征融合
        多特征融合的粒子濾波紅外單目標(biāo)跟蹤
        基于稀疏表示與特征融合的人臉識(shí)別方法
        一種“客觀度量”和“深度學(xué)習(xí)”共同驅(qū)動(dòng)的立體匹配方法
        多特征融合的紋理圖像分類(lèi)研究
        語(yǔ)譜圖傅里葉變換的二字漢語(yǔ)詞匯語(yǔ)音識(shí)別
        基于多特征融合的圖像匹配算法
        人體行為特征融合與行為識(shí)別的分析
        基于移動(dòng)端的樹(shù)木葉片識(shí)別方法的研究
        科技資訊(2017年11期)2017-06-09 18:28:13
        基于SIFT特征的港口內(nèi)艦船檢測(cè)方法
        融合整體與局部特征的車(chē)輛型號(hào)識(shí)別方法
        国产又大又硬又粗| 都市激情亚洲综合一区| 国产日产韩国级片网站| 免费无遮挡无码永久在线观看视频 | 亚洲福利视频一区| 亚洲国产精品亚洲高清| av网站大全免费在线观看| 久久久久亚洲精品无码网址蜜桃 | 人妻色综合网站| 中文字幕第一页亚洲| 亚洲人成伊人成综合网中文| 国产伦一区二区三区色一情| 国模丽丽啪啪一区二区| 亚洲AV无码精品呻吟| 美女福利视频网址导航| 一本到在线观看视频| 国产欧美一区二区精品仙草咪| 国产伦精品一区二区三区四区| 中文字幕亚洲乱码熟女1区2区 | 欧美日韩一区二区三区在线观看视频| 日日干夜夜操高清视频| 午夜av内射一区二区三区红桃视| 精品人妻一区二区三区视频| 中文 在线 日韩 亚洲 欧美| 尤物视频一区二区| av网站免费在线不卡| 欧美疯狂性受xxxxx喷水| 亚洲一区精品无码色成人| 欧美在线成人免费国产| av在线天堂国产一区| 99爱在线精品免费观看| 久久免费大片| 亚洲中文高清乱码av中文| 久久久久九九精品影院| 久草热8精品视频在线观看| 一区二区三区国产精品| 亚洲字幕中文综合久久| 无码精品人妻一区二区三区人妻斩| 欧美日韩激情在线一区二区| 手机免费高清在线观看av| 无码成人一区二区|