亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        顧及局部特性的CNN在遙感影像分類的應(yīng)用

        2018-04-08 05:46:57楊嘉樹梅天燦仲思東
        計算機(jī)工程與應(yīng)用 2018年7期
        關(guān)鍵詞:類別像素卷積

        楊嘉樹,梅天燦,仲思東

        YANG Jiashu,MEI Tiancan,ZHONG Sidong

        武漢大學(xué) 電子信息學(xué)院,武漢 430072

        School of Electronic Information,Wuhan University,Wuhan 430072,China

        1 引言

        遙感是一種對地實施觀測和資源管理的有效手段。遙感影像分類,在土地規(guī)劃、災(zāi)害救災(zāi)以及變換檢測等應(yīng)用中發(fā)揮著關(guān)鍵作用。由于高分辨率影像中普遍存在的“異物同譜”和“同物異譜”現(xiàn)象[1],現(xiàn)有高分辨率影像分類技術(shù)不能有效滿足實際應(yīng)用需求,高分辨率遙感影像分類方法研究仍然是一個開放性的問題。

        影像分類性能在很大程度上取決于影像數(shù)據(jù)特性的表示方式。結(jié)合影像光譜和空間信息的特征表示方法在高分影像分類中得到廣泛應(yīng)用,如LEWA(Lengthwidth Extraction Algorithm)[2]、PSI(Pixel Shape Index)[3]等算子通過描述影像的形狀特征,改善了分類性能。Yuan等[4]利用局部光譜特征統(tǒng)計圖、SIFT(Scale-Invariant Feature Transform)[5]、HOG(Histogram of Oriented Gradient)[6]算子等描述影像的空間信息用于影像分類。為進(jìn)一步提高特征的魯棒性,人們通過對底層特征進(jìn)行編組處理得到中層特征(Mid-level feature)。BoVW(Bag of Visual Words)[7]是一種廣泛應(yīng)用的中層特征描述子:首先使用SIFT等算法提取影像特征的描述算子,生成視覺“詞典”,然后統(tǒng)計視覺“單詞”的數(shù)目得到特征,結(jié)合boosting等方法進(jìn)行分類。從滿足實際應(yīng)用需求的角度看,這些特征的適用范圍以及描述高層語義特征的能力都有待提高。近年來,深度學(xué)習(xí)的方法在圖像識別和語言處理等方面展示了優(yōu)異的性能[8]。卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)是一種常見的深度學(xué)習(xí)結(jié)構(gòu)。卷積神經(jīng)網(wǎng)絡(luò)模擬人腦視覺分層機(jī)理,通過學(xué)習(xí)的方法得到數(shù)據(jù)特征,省去了設(shè)計特征的困難。此外,卷積神經(jīng)網(wǎng)絡(luò)提取的特征,相對于傳統(tǒng)人工設(shè)計特征,有平移和旋轉(zhuǎn)不變性,在圖像分類和目標(biāo)識別等領(lǐng)域的表現(xiàn)更優(yōu)。卷積神經(jīng)網(wǎng)絡(luò)正在被應(yīng)用于計算機(jī)視覺的眾多領(lǐng)域。

        卷積神經(jīng)網(wǎng)絡(luò)是一種數(shù)據(jù)驅(qū)動的模型,需要大量的數(shù)據(jù)作為支撐。由于遙感影像數(shù)據(jù)特性的限制,直接采用現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)模型表示遙感影像數(shù)據(jù)特性存在以下問題:(1)基于卷積神經(jīng)網(wǎng)絡(luò)的特征學(xué)習(xí)方法需要大量訓(xùn)練樣本。如果訓(xùn)練樣本不足,學(xué)習(xí)得到的特征不能有效描述數(shù)據(jù)特性。遙感影像數(shù)據(jù)分類一般難于獲取足夠的訓(xùn)練樣本[9]。(2)現(xiàn)有基于卷積神經(jīng)網(wǎng)絡(luò)的影像分類方法需要首先確定目標(biāo)在影像中可能出現(xiàn)的位置,然后在該位置開一個窗口,最終根據(jù)窗口內(nèi)的數(shù)據(jù)確定目標(biāo)的類別。遙感影像分類需確定每個像素的類別,因此要以每個像素為中心開窗獲取的數(shù)據(jù)確定像素的類別。這種處理使得計算效率很低,窗口大小選擇不合適也會顯著降低分類性能。因此,直接采用現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行遙感影像分類不能有效提高分類性能。

        針對直接使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行遙感影像分類存在的問題,本文的主要工作:(1)利用影像分割獲取的區(qū)域信息確定用于卷積神經(jīng)網(wǎng)絡(luò)的子窗口影像,提高了卷積神經(jīng)網(wǎng)絡(luò)對遙感影像分類的效率;(2)采用支撐向量機(jī)(Support Vector Machine,SVM)在卷積神經(jīng)網(wǎng)絡(luò)分類結(jié)果的基礎(chǔ)上進(jìn)行再分類,進(jìn)一步提高分類精度。

        2 影像分類

        圖1 分類框架流程圖

        本文提出的遙感影像分類方法流程如圖1所示。本文實現(xiàn)高分辨率遙感影像分類時,首先對影像使用Mean Shift[10]進(jìn)行過分割,根據(jù)分割結(jié)果確定輸入卷積神經(jīng)網(wǎng)絡(luò)的影像塊,使用卷積神經(jīng)網(wǎng)絡(luò)對影像塊進(jìn)行分類,分類結(jié)果作為該區(qū)域的分類結(jié)果,在所有區(qū)域上使用同樣操作得到初始分類結(jié)果。在此基礎(chǔ)上,針對卷積神經(jīng)網(wǎng)絡(luò)分類的結(jié)果,使用支撐向量機(jī)進(jìn)一步改善分類性能。

        2.1 卷積神經(jīng)網(wǎng)絡(luò)分類框架

        卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于特征學(xué)習(xí)和分類的框架如圖2所示。卷積神經(jīng)網(wǎng)絡(luò)包含多個用于提取特征的卷積層(convolution layer)、池化層(pooling layer)和全連接層(fully connected layer)。卷積層對輸入圖像或特征圖進(jìn)行卷積,其輸出表示為(hk)ij=f((Wk?x)ij+bk),其中k=1,2,…,K為卷積核的索引,也是輸出特征圖的索引,x為第k個卷積核的輸入,Wk和bk分別為第k個卷積核的權(quán)重和偏置值,(hk)ij為第k個特征圖在(i,j)位置的響應(yīng)值,“?”表示二維卷積運算,f(·)為卷積層的激活函數(shù)。卷積層的輸出特征圖為卷積核在輸入上的響應(yīng)。池化層通常對卷積層輸出中的子區(qū)域使用最大池化或平均池化進(jìn)行下采樣。池化操作一方面可增加特征的魯棒性,另一方面減少了卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)。全連接層使用yk=∑Wklxl+bk計算輸出,其中xl為輸入,yk為全連接層的第k個輸出,Wkl和bk為全連接層的權(quán)重和偏置值。全連接層的存在使得卷積神經(jīng)網(wǎng)絡(luò)的輸入尺寸固定。Softmax層可視為全連接層的一種,輸出為數(shù)據(jù)類別概率的歸一化分布。對于多分類而言,常取歸一化概率最大的標(biāo)簽作為分類結(jié)果。

        圖2 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖

        卷積神經(jīng)網(wǎng)絡(luò)中存在全連接層,全連接層節(jié)點的固定導(dǎo)致卷積神經(jīng)網(wǎng)絡(luò)的輸入為固定尺寸。卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于圖像識別時,需將輸入圖像縮放為固定大小,如AlexNet[11]輸入大小為224×224。遙感影像分類需要確定影像中每個像素的類別。如圖2所示,卷積神經(jīng)網(wǎng)絡(luò)用于遙感影像分類時,也需以當(dāng)前像素點為中心開子窗口,將該子窗口影像數(shù)據(jù)縮放至卷積神經(jīng)網(wǎng)絡(luò)的輸入尺寸后,輸入網(wǎng)絡(luò),從而確定當(dāng)前像素的類別。這種基于分塊影像分類的方法是平移不變的,即像素的類別與其周圍的像素有關(guān),與其所處的位置無關(guān)。對于寬1 300像素,高1 300像素的圖像,當(dāng)窗口滑動步長為3,以長寬均為64像素取影像塊,影像塊數(shù)目超過105。以單塊影像通過卷積神經(jīng)網(wǎng)絡(luò)的時間為15 ms計,用CNN對影像分類總時間超過25 min,直接應(yīng)用該種方法時間消耗巨大。

        2.2 基于區(qū)域信息的卷積神經(jīng)網(wǎng)絡(luò)分類窗口數(shù)據(jù)采集方法

        針對影像采樣窗口過多導(dǎo)致效率低這一問題,本文提出一種基于影像數(shù)據(jù)局部特性的窗口數(shù)據(jù)采樣方法。該方法可以顯著減少采樣窗口的數(shù)量,從而提高分類效率。

        本文后續(xù)進(jìn)行描述時,將影像分割后的像素集合稱為區(qū)域,將放縮到卷積神經(jīng)網(wǎng)絡(luò)的輸入尺寸的影像稱為窗口采樣影像。

        影像分割是指將影像數(shù)據(jù)中有不同意義的區(qū)域或部分等分割開來,這些分割出來的區(qū)域彼此互不重疊且滿足一定的區(qū)域一致性。影像分類是將影像數(shù)據(jù)按照其反映的特征分成預(yù)定義的類別并為每個類別賦予類別標(biāo)記方法。影像分割后的區(qū)域在光譜信息上有一定的相似性,同時也有紋理、大小或上下文之間的一致性。通常假設(shè)每個區(qū)域中的全部像素都是屬于一個類別的,實際上這種假設(shè)很難成立,因此在實際應(yīng)用中常采用過分割方式確保區(qū)域內(nèi)的像素具有相同的類別。由于過分割區(qū)域內(nèi)像素具有相同類別,在利用卷積神經(jīng)網(wǎng)絡(luò)分類給出區(qū)域內(nèi)一個像素的類別,就可得到屬于該區(qū)域的所有像素類別。

        Mean Shift作為一種統(tǒng)計聚類方法,在圖像分割中得到廣泛應(yīng)用。Mean Shift分割得到的區(qū)域使得區(qū)域內(nèi)像素具有相同的屬性,從而使得區(qū)域內(nèi)像素具有相同類別。直接將Mean Shift過分割后的區(qū)域外接矩形的影像數(shù)據(jù)作為卷積神經(jīng)網(wǎng)絡(luò)的輸入存在兩個問題:一方面,遙感影像中不同地物大小各異導(dǎo)致Mean Shift分割后的區(qū)域大小不同,直接將區(qū)域縮放至同樣大小會損失影像反映包含的信息,造成錯分;另一方面,Mean Shift分割的區(qū)域可能為任意形狀,縮放后進(jìn)行分類可能引入過多其他地物類別信息,造成錯分,如分割后出現(xiàn)環(huán)形區(qū)域等。這些問題的出現(xiàn)會降低分類精度。為克服以上問題,當(dāng)過分割后區(qū)域面積較大,即分割的區(qū)域總像素數(shù)大于某一閾值時,選取區(qū)域中固定大小的影像塊作為窗口采樣影像輸入卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類。當(dāng)區(qū)域面積過小時,以當(dāng)前區(qū)域形心為中心選取固定大小的影像塊作為采樣數(shù)據(jù)輸入卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類。當(dāng)區(qū)域面積過小時,通過取一個固定窗口數(shù)據(jù)可以保證輸入卷積神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)包含足夠的信息用于分類。本文采用下述策略確定采樣窗口。

        記Mean Shift分割后其中的第i區(qū)域像素數(shù)目為Pi,其外接矩形總像素數(shù)為Ri。第i個區(qū)域的窗口采樣影像大小為M×M(像素×像素)的窗口影像數(shù)據(jù),記為Ci;每個區(qū)域至少包含的像素數(shù)為Np。Ci中第i區(qū)域的像素在窗口總像素比為w,設(shè)定最小比為w=0.5。和圖3為分類樣本選擇過程的示例。

        圖3 分類時卷積神經(jīng)網(wǎng)絡(luò)選擇樣本流程和示例

        (1)若Pi≤Np,則以區(qū)域中心像素為中心的M×M窗口影像作為卷積神經(jīng)網(wǎng)絡(luò)輸入,輸出作為該區(qū)域的分類結(jié)果。

        (2)若Pi>Np,取 M×M 窗口并以外接矩形左上角的坐標(biāo)為窗口左上點坐標(biāo)。若w>wo,取得該窗口影像為窗口采樣影像;否則,向下或向右滑動M×M窗口,直至w>wo。若遍歷區(qū)域后窗口采樣影像中均不滿足w>wo,則取w最大的M×M窗口的影像數(shù)據(jù)作為窗口采樣影像,輸入卷積神經(jīng)網(wǎng)絡(luò)。將輸出作為區(qū)域的分類結(jié)果。

        基于Mean Shift分割區(qū)域獲取卷積神經(jīng)網(wǎng)絡(luò)分類窗口的過程如圖3所示。分割后采樣窗口紅色線為Mean Shift分割結(jié)果,淡藍(lán)色框為每個區(qū)域?qū)?yīng)的采樣窗口,黃色矩形框?qū)?yīng)區(qū)域的外接矩形。區(qū)域1面積較大,包含像素多,w>wo,采樣影像窗口左上角坐標(biāo)與區(qū)域左上角坐標(biāo)重合。區(qū)域2中Pi>Np,遍歷區(qū)域內(nèi)所有像素后w<wo,因此采樣窗口選擇在w最大的影像塊處。區(qū)域3中Pi<Np,以區(qū)域3形心為中心固定大小的窗口作為采樣窗口。將窗口影像縮放至卷積神經(jīng)網(wǎng)絡(luò)的輸入尺寸進(jìn)行分類,得到分類結(jié)果。

        2.3 基于SVM的后續(xù)分類

        高分遙感影像不同地物的高度相似性使得基于卷積神經(jīng)網(wǎng)絡(luò)的分類結(jié)果仍然存在部分錯分現(xiàn)象。通過對錯分現(xiàn)象的分析,發(fā)現(xiàn)光譜信息差別很大的地物被卷積神經(jīng)網(wǎng)絡(luò)誤分為一類,如道路和屋頂?shù)墓庾V信息差別較大,卷積神經(jīng)網(wǎng)絡(luò)卻不能區(qū)分這兩類物體。這種現(xiàn)象出現(xiàn)的原因可能是光譜信息差別較大的兩類物體經(jīng)卷積神經(jīng)網(wǎng)絡(luò)逐層抽象后,在新的特征空間沒有可區(qū)分性。為克服這一問題,基于錯分物體光譜特性差別較大這一事實,本文采用支撐向量機(jī)直接利用光譜信息對卷積神經(jīng)網(wǎng)絡(luò)易于錯分的地物類別進(jìn)行進(jìn)一步分類。支撐向量機(jī)[12]是一種有堅實理論基礎(chǔ)的小樣本學(xué)習(xí)方法。它采用結(jié)構(gòu)風(fēng)險最小化準(zhǔn)則,在最小化樣本點誤差的同時,縮小模型預(yù)測誤差的上界,提高了模型的泛化能力。因此本文在卷積神經(jīng)網(wǎng)絡(luò)分類的基礎(chǔ)上,使用支持向量機(jī)結(jié)合光譜特征進(jìn)行再分類,以進(jìn)一步提高分類精度。

        3 實驗與分析

        3.1 實驗數(shù)據(jù)與卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練

        本文選取的影像數(shù)據(jù)覆蓋部分江蘇泰州區(qū)域,共5幅影像。每幅影像為1 300×1 300像素,RGB三通道圖像,分辨率0.2 m,如圖4(a)所示;圖4(b)為對應(yīng)影像的類別圖;實驗中卷積神經(jīng)網(wǎng)絡(luò)分類類別為農(nóng)田、草地、樹木、水體、荒地、道路、灰色屋頂、珊瑚色屋頂、藍(lán)色屋頂9種,注釋如圖4(c)。

        為驗證方法有效性,本文設(shè)計了3個實驗:(1)不同影像分割方法的卷積神經(jīng)網(wǎng)絡(luò)類結(jié)果;(2)本文層次分類結(jié)果;(3)本文與常用方法對比。目前研究者一般從視覺效果和定量指標(biāo)來評價影像分類質(zhì)量。從視覺效果來說,好的分類結(jié)果能保持邊緣特性且具有好的區(qū)域一致性;定量指標(biāo)常用混淆矩陣、分類精確度等。本文3組實驗使用混淆矩陣作為精度評定的定量指標(biāo)。混淆矩陣中,用戶精度表示被正確標(biāo)記為A類的像素個數(shù)與分類器將整個影像的像素點分為A類的像素個數(shù)的總和的比值。生產(chǎn)者精度表示被正確標(biāo)記為A類的像素個數(shù)與A類真實參考數(shù)目的比值。生產(chǎn)者精度和用戶精度分別對應(yīng)漏分誤差和錯分誤差。

        卷積神經(jīng)網(wǎng)絡(luò)中訓(xùn)練參數(shù),需要大量數(shù)據(jù)參與訓(xùn)練。如本文使用的AlexNet[11]包含60多萬參數(shù),原始訓(xùn)練集有超過107張圖像。遙感影像分類時收集如此大量的數(shù)據(jù)不現(xiàn)實。訓(xùn)練數(shù)據(jù)不足導(dǎo)致卷積神經(jīng)網(wǎng)絡(luò)模型無法生成數(shù)據(jù)的準(zhǔn)確描述。遷移學(xué)習(xí)[13](transfer learning)旨在將對原始數(shù)據(jù)集的理解遷移到目標(biāo)數(shù)據(jù)集。尤其當(dāng)目標(biāo)數(shù)據(jù)集數(shù)據(jù)量不足時,將源數(shù)據(jù)集上訓(xùn)練的分類器修改后應(yīng)用到目標(biāo)數(shù)據(jù)集中,可有效提高模型描述目標(biāo)數(shù)據(jù)特性的能力。

        ImageNet[14]中圖像主體明確,如 tabby cat、tiger cat等。單片遙感影像通常覆蓋范圍廣,地物信息豐富,僅對單片影像給出一個類別意義不大,本文處理遙感影像數(shù)據(jù)時先對影像分塊。分塊后按照一定策略確定分塊影像類別:(1)以一定像素大小的窗口在遙感影像與其標(biāo)簽圖(ground truth)上滑動,得到分塊影像集S1和對應(yīng)類別集合L1。(2)設(shè)類別標(biāo)簽為1,2,…,K共K種類別,統(tǒng)計每小塊影像中每類的像素個數(shù)nk,記采樣窗口總像素為N。若對于k∈{1,2,…,K},存在nk>0.5N ,則該小塊影像的類別標(biāo)簽為k,若不存在符合條件的nk,則將該小塊影像舍棄,得到數(shù)據(jù)集D1。(3)為增強(qiáng)模型的旋轉(zhuǎn)不變性,再以2M×2M的窗口在影像和對應(yīng)ground truth上滑動,得到分塊影像集S′和對應(yīng)類別集合 L′。將 S′旋轉(zhuǎn) θ∈{30,60,90,120,150,180}后,取中心M×M窗口影像,得到小塊影像集S2和對應(yīng)類別集合L2。在S2中同樣按步驟2得到數(shù)據(jù)集D2。將D=D1?D2,L=L1?L2作為訓(xùn)練時的樣本集和對應(yīng)標(biāo)簽。

        圖4 實驗影像數(shù)據(jù)及訓(xùn)練、參考樣本

        基于卷積網(wǎng)絡(luò)的遷移特性,本文以AlexNet模型為基礎(chǔ)結(jié)構(gòu),將softmax層輸出由1 000修改為9。預(yù)訓(xùn)練模型為 Evan Shelhamer使用 caffe[15],在 ImageNet[14]數(shù)據(jù)集上訓(xùn)練得到的模型(top-1準(zhǔn)確率57.3%,top-5準(zhǔn)確率80.2%)。使用隨機(jī)梯度下降方法進(jìn)行fine-tuning,反映本文數(shù)據(jù)特性。在確定訓(xùn)練樣本窗口時,若窗口過大,丟棄的窗口數(shù)過多導(dǎo)致訓(xùn)練樣本不足。若窗口過小,卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練時無法有效學(xué)習(xí)不同地物特征情況。綜上所述,本文通過交叉驗證的方式,選取M=64獲取窗口數(shù)據(jù)。獲得窗口影像后將其放大至AlexNet輸入大小即224×224進(jìn)行訓(xùn)練??傆?xùn)練樣本數(shù)目約為48 000個,測試樣本約為5 000個,測試精度為96.1%。

        訓(xùn)練樣本采集流程如圖5所示。

        圖5 訓(xùn)練樣本采集流程

        3.2 實驗結(jié)果與分析

        實驗1不同采樣窗口影像的分類結(jié)果對比

        實驗1對比在訓(xùn)練影像上滑動取窗口影像,SLIC(Simple Linear Iterative Clustering)[16]分割超像素分類,Mean Shift分割后分類選取基元在卷積神經(jīng)網(wǎng)絡(luò)下的結(jié)果。第一種方法中窗口大小64×64,步長3×3,將窗口影像放大至224×224后輸入卷積神經(jīng)網(wǎng)絡(luò),分類結(jié)果作為3×3小窗結(jié)果。第二種方法將超像素塊初始大小設(shè)為64×64,超像素聚類結(jié)束后,取每個超像素的外接矩形的影像得到窗口影像。得到窗口影像后,將窗口影像放縮至224×224后輸入卷積神經(jīng)網(wǎng)絡(luò),分類結(jié)果作為該超像素區(qū)域的分類結(jié)果。實驗結(jié)果如圖6所示。

        從圖6的結(jié)果可以看出,第一種方法邊緣模糊。Mean Shift結(jié)果邊緣清晰,目視效果最好。表1給出了這兩個方法的精度對比。因在真實類別圖中未標(biāo)記藍(lán)色屋頂和荒地類別,故這兩列數(shù)據(jù)為0。從目視效果上看,SLIC方法分類結(jié)果粗糙度很大,影像的邊緣信息基本消失,效果最差,因而沒有給出混淆矩陣。從表1中發(fā)現(xiàn),第一種方法與第三種總體精度接近,相差不大。從時間上看,對于本文影像而言,滑窗方法計算超過106個窗口,遠(yuǎn)大于Mean Shift需要計算的窗口數(shù)(約103個)。本文選用Mean Shift過分割得到區(qū)域信息比較合理。

        在測試影像上應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類。測試影像1及其對應(yīng)結(jié)果如圖7和表2所示。其中圖7(b)真實類別圖中的灰色部分為道路陰影,其余地物類型注釋與圖4(c)中相同。表2中數(shù)字為分類結(jié)果中像素的統(tǒng)計數(shù)目。

        在圖7結(jié)果中看到,黑色框中所示卷積神經(jīng)網(wǎng)絡(luò)在道路和灰色屋頂之中存在明顯錯分。在表2中也發(fā)現(xiàn),大量道路被錯分為灰色屋頂。此外,樹木和草地之間也存在明顯錯分,其余分類基本準(zhǔn)確。

        實驗2卷積神經(jīng)網(wǎng)絡(luò)與SVM結(jié)合遙感影像分類

        圖6 訓(xùn)練數(shù)據(jù)中不同采樣窗口影像的卷積神經(jīng)網(wǎng)絡(luò)分類結(jié)果

        表1 滑動窗口法分類和本文選擇基元分類實驗精度對比%

        圖7 測試影像1分類結(jié)果圖

        表2 測試影像1使用本文基元分類的分類結(jié)果混淆矩陣 像素

        表3 測試影像1在本文方法下的分類結(jié)果精度%

        針對卷積神經(jīng)網(wǎng)絡(luò)初始分類中的易錯分類別,引入支撐向量機(jī)進(jìn)行分類。圖4(a)一些道路在房屋周圍,從兩種方法的混淆矩陣和目視分類結(jié)果中也可發(fā)現(xiàn):(1)房屋周圍的道路有很明顯的錯分。(2)一些樹木被分類為草地,存在異常。(3)陰影主要集中在道路中。分析混淆矩陣的結(jié)果,并結(jié)合影像數(shù)據(jù)發(fā)現(xiàn):房屋和道路在構(gòu)造采樣窗口影像時候在地物信息上有一定的相似性,因而不好區(qū)分。樹木和草地在道路兩旁同時出現(xiàn),導(dǎo)致卷積神經(jīng)網(wǎng)絡(luò)無法對兩類有效區(qū)分。因此,在影像數(shù)據(jù)使用SVM進(jìn)一步提高精度,混合類別為道路-房屋-陰影、道路-樹木-草地。實驗中混合類別中每類隨機(jī)選取1 000像素點,作為SVM的訓(xùn)練樣本。分類結(jié)果如圖7(d)所示,精度表如表3所示。

        對比圖7(c)和圖7(d)結(jié)果發(fā)現(xiàn),基于卷積神經(jīng)網(wǎng)絡(luò)分類結(jié)果基礎(chǔ)上構(gòu)建的混合類別中,僅使用光譜信息作為分類特征,即可分類道路和屋頂。但陰影和灰色屋頂中存在大量錯分,說明使用光譜特征無法對灰色屋頂和陰影部分有效區(qū)分。影像中黑框部分所示,發(fā)現(xiàn)陰影區(qū)域與灰色屋頂部分特性相似,不易區(qū)分,未來考慮使用其他方法進(jìn)行再分類。

        實驗3本文方法與其他方法實驗結(jié)果對比

        為比較本文方法與常用分類方法的性能,使用常用方法與本文分類方法進(jìn)行對比:基于光譜信息的SVM和基于光譜和dense SIFT的SVM。分類結(jié)果如圖8所示,精度對比如圖9所示。

        圖8 常用方法分類結(jié)果

        從圖9的分類結(jié)果看,第二種對比方法水體的生產(chǎn)者精度比本文方法的精度高,但是用戶精度比較低。生產(chǎn)者精度和用戶精度分別對應(yīng)漏分誤差和錯分誤差,即在水體的分類結(jié)果中,對比算法的高生產(chǎn)者精度是以大量錯分為基礎(chǔ)的,這顯然會影響其他類別的分類效果。本文的方法克服了上述問題。

        圖9 本文方法與其他方法用戶精度和生產(chǎn)者精度對比

        圖10 測試影像二中本文方法和其他兩種方法對比

        圖11 測試影像二中本文方法與其他方法生產(chǎn)者精度和用戶精度對比結(jié)果

        本文另一遙感影像數(shù)據(jù)分類結(jié)果如圖10所示。本文方法和其他方法對比如圖11所示,圖11中表格數(shù)據(jù)對應(yīng)生產(chǎn)者精度和用戶精度。從生產(chǎn)者精度和用戶精度上看,本文方法優(yōu)于其他兩種方法,整體精度約有10%的提升。

        4 結(jié)束語

        本文將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于遙感影像分類,在過分割的基礎(chǔ)上確定了采樣窗口影像,結(jié)合卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)了高分辨率遙感影像分類,并使用層次分類進(jìn)一步提高了最終分類精度。實驗結(jié)果表明,本文方法可提高卷積神經(jīng)網(wǎng)絡(luò)在高分辨率遙感影像中分類的效率。相比于傳統(tǒng)人工設(shè)計的特征表示方法,基于卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)得到的特征具有更好的可區(qū)分性。下一步研究工作是結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和影像中的結(jié)構(gòu)信息得到更好的數(shù)據(jù)特性描述,提高高分辨率遙感影像分類精度。

        參考文獻(xiàn):

        [1]Xu Linlin,Li Jonathan.Bayesian classification of hyperspectral imagery based on probabilistic sparse representation and markov random field[J].Geoscience and Remote Sensing Letters,2014,11(4):823-827.

        [2]Shackelford A K,Davis C H.A hierarchical fuzzy classification approach for high-resolution multispectral data over urban areas[J].IEEE Transactions on Geoscience and Remote Sensing,2003,41(9):1920-1932.

        [3]Zhang L,Huang X,Huang B,et al.A pixel shape index coupled with spectral information for classification of high spatial resolution remotely sensed imagery[J].IEEE Transactions on Geoscience and Remote Sensing,2006,44(10).

        [4]Yuan J,Wang D L,Li R.Remote sensing image segmentation by combining spectral and texture features[J].IEEE Transactions on Geoscience and Remote Sensing,2014,52(1):16-24.

        [5]Lowe D G.Object recognition from local scale-invariant features[C]//Proceedings of the 7th IEEE International Conference on Computer Vision,1999:1150-1157.

        [6]Dalal N,Triggs B.Histograms of oriented gradients for human detection[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR’05),2005:886-893.

        [7]Xu S,F(xiàn)ang T,Li D,et al.Object classification of aerial images with bag-of-visual words[J].Geoscience and Remote Sensing Letters,2010,7(2):366-370.

        [8]LeCun Y,Bengio Y,Hinton G.Deep learning[J].Nature,2015,521:436-444.

        [9]Dos Santos J A,Gosselin P H,Philipp-Foliguet S,et al.Interactive multiscale classification of high-resolution remote sensing images[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2013,6(4):2020-2034.

        [10]Comaniciu D,Meer P.Mean shift:A robust approach toward feature space analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(5):603-619.

        [11]Krizhevsky A,Sutskever I,Hinton G E.Imagenet classification with deep convolutional neural networks[C]//Advances in Neural Information Processing Systems,2012:1097-1105.

        [12]Bouman C,Liu B.Multiple resolution segmentation of textured images[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1991,13(2):99-113.

        [13]Pan S J,Yang Q.A survey on transfer learning[J].IEEE Transactions on Knowledge and Data Engineering,2010,22(10):1345-1359.

        [14]Deng J,Dong W,Socher R,et al.ImageNet:A largescale hierarchical image database[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2009:248-255.

        [15]Jia Y,Shelhamer E,Donahue J,et al.Caffe:Convolutional architecture for fast feature embedding[C]//Proceedings of the 22nd ACM International Conference on Multimedia,2014:675-678.

        [16]Achanta R,Shaji A,Smith K,et al.SLIC superpixels compared to state-of-the-art superpixel methods[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(11):2274-2282.

        猜你喜歡
        類別像素卷積
        趙運哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        “像素”仙人掌
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        服務(wù)類別
        新校長(2016年8期)2016-01-10 06:43:59
        論類別股東會
        商事法論集(2014年1期)2014-06-27 01:20:42
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        老太婆性杂交视频| 中文字幕精品永久在线 | 我揉搓少妇好久没做高潮| 久久久亚洲欧洲日产国码二区| 97在线观看| 国产九色AV刺激露脸对白| 国产一级自拍av播放| 日韩人妻另类中文字幕| 99久久综合精品五月天| 91亚洲国产成人aⅴ毛片大全| 中文字幕亚洲精品高清| 一本色道久久88加勒比一| 蜜桃无码一区二区三区| 中文字幕无码人妻丝袜| 亚洲国产人成自精在线尤物| 先锋影音人妻啪啪va资源网站| 国产精品沙发午睡系列990531| 四虎成人精品国产一区a| 一区二区三区一片黄理论片| 国内精品视频一区二区三区八戒| 亚洲精品国偷自产在线99正片| 亚洲色欲色欲大片WWW无码| 极品少妇人妻一区二区三区 | 精品国产国产AV一区二区| 国产精品成人久久a级片| 日韩日韩日韩日韩日韩日韩日韩| 精品一区二区三区无码免费视频| 女同中的p是什么意思| 特级黄色大片性久久久| 在线看片免费人成视频电影 | 国产精品国产三级农村妇女| 久久麻豆精亚洲av品国产蜜臀| 在线观看亚洲第一黄片| 国产人妻久久精品二区三区特黄| 美女超薄透明丝袜美腿| 国产老熟女伦老熟妇露脸 | 国产二级一片内射视频插放| 国产在线不卡免费播放| 亚洲精品中文字幕91| 97久久综合区小说区图片区| 国产欧美乱夫不卡无乱码 |