亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于全卷積神經(jīng)網(wǎng)絡(luò)的多源高分辨率遙感道路提取

        2018-08-27 10:42:42張永宏夏廣浩葛濤濤王劍庚
        計(jì)算機(jī)應(yīng)用 2018年7期
        關(guān)鍵詞:特征方法模型

        張永宏,夏廣浩,闞 希,何 靜,葛濤濤,王劍庚

        (1.南京信息工程大學(xué) 信息與控制學(xué)院,南京210044; 2.南京信息工程大學(xué) 大氣科學(xué)學(xué)院,南京 210044)(*通信作者電子郵箱287141243@qq.com)

        0 引言

        隨著大數(shù)據(jù)時(shí)代的來(lái)臨,各種遙感探測(cè)衛(wèi)星陸續(xù)發(fā)射升空,獲取遙感影像變得容易起來(lái),對(duì)遙感影像中感興趣的目標(biāo)進(jìn)行提取就成了研究的熱點(diǎn)。道路是現(xiàn)代交通體系的主體,具有重要的地理、政治、經(jīng)濟(jì)意義[1]。從高分辨遙感圖像中對(duì)道路進(jìn)行提取在地圖繪制、災(zāi)后重建方面有著廣泛的應(yīng)用。

        從高分辨率遙感影像中對(duì)道路進(jìn)行識(shí)別和提取經(jīng)過(guò)近些年的發(fā)展,目前提出了多種方法。Poullis等[2]結(jié)合了Gabor濾波器、張量投票和最優(yōu)化分割思想對(duì)多種數(shù)據(jù)中的道路進(jìn)行提取,但對(duì)道路相似的背景區(qū)域進(jìn)行分割時(shí)效果不好,且道路邊緣提取得不夠精細(xì);蔡紅玥等[3]利用面向?qū)ο蠓椒ㄌ崛〉缆坊⒉捎脭?shù)學(xué)形態(tài)學(xué)等方法進(jìn)行優(yōu)化,這種方法沒(méi)有考慮圖像的紋理信息,只是利用形狀特征進(jìn)行簡(jiǎn)單提取,普適性較低;沈照慶等[4]提出基于一對(duì)多算法的多種道路支持向量機(jī)(Support Vector Machine, SVM)一次性高精度提取的多分類策略,該方法對(duì)小樣本道路的識(shí)別效果更加明顯,但是較為耗時(shí);王建華等[5]提出加入空間紋理信息的遙感圖像道路提取方法,該方法比不加入空間紋理信息提取精度提高了約5%,但道路邊界提取效果一般;Li等[6]先利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)對(duì)道路區(qū)域進(jìn)行預(yù)測(cè),然后通過(guò)改進(jìn)的線積分卷積算法對(duì)原始圖片進(jìn)行平滑處理,最后再結(jié)合一些圖像處理操作將道路網(wǎng)絡(luò)提取出來(lái),該方法提取的道路精度更高,但效率較低; Xia等[7]利用深度卷積網(wǎng)絡(luò)(Deep Convolutional Neural Network, DCNN)對(duì)道路網(wǎng)絡(luò)進(jìn)行提取,該方法可以提取出不同級(jí)別的道路,但訓(xùn)練用時(shí)較多。

        從上述遙感影像道路提取方法的發(fā)展可以看出,傳統(tǒng)方法通過(guò)提取底層的視覺(jué)特征,如:顏色特征、紋理特征、形狀特征來(lái)進(jìn)行道路識(shí)別。由于傳統(tǒng)方法提取的道路特征較為單一,導(dǎo)致其提取精度較低且只能對(duì)單張影像進(jìn)行處理,而深度學(xué)習(xí)方法能夠有效地提高道路提取精度和提取速度。深度學(xué)習(xí)是一種具有多個(gè)隱藏層的人工神經(jīng)網(wǎng)絡(luò),它由Hinton[8]提出,通過(guò)大量隱藏層對(duì)數(shù)據(jù)進(jìn)行擬合,在圖像識(shí)別、語(yǔ)音分析領(lǐng)域有著廣泛的應(yīng)用。LeCun等[9]提出的卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別及語(yǔ)音分析領(lǐng)域有著廣泛的應(yīng)用,但傳統(tǒng)的CNN算法在進(jìn)行目標(biāo)提取時(shí)耗時(shí)較長(zhǎng),而Long等[10]提出的全卷積網(wǎng)絡(luò)(Fully Convolutional neural Network, FCN)在CNN的基礎(chǔ)上進(jìn)行改進(jìn),并將其應(yīng)用到了圖像語(yǔ)義分割領(lǐng)域,即對(duì)一張圖片上的所有像素點(diǎn)進(jìn)行分類,以此對(duì)一張圖片上的目標(biāo)進(jìn)行提取。深度學(xué)習(xí)的方法以它的高正確率、高普適性及高效性,正在代替和超越半自動(dòng)道路提取方法在高分辨率遙感影像道路提取領(lǐng)域的應(yīng)用。本文利用基于FCN的多源高分辨率遙感道路提取模型,對(duì)高分辨率遙感圖像中的道路進(jìn)行提取。實(shí)驗(yàn)結(jié)果表明,該方法提取精度提升明顯,且具有較快的處理速度。

        1 相關(guān)工作

        1.1 CNN模型

        卷積神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的一種,它通過(guò)權(quán)值共享降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值的數(shù)量,該優(yōu)勢(shì)在網(wǎng)絡(luò)輸入是多維圖像時(shí)表現(xiàn)得尤為明顯。在CNN中,圖像作為層級(jí)結(jié)構(gòu)最低層的輸入,信息依次傳輸?shù)讲煌膶樱ㄟ^(guò)這種多層的學(xué)習(xí)可以自動(dòng)發(fā)現(xiàn)數(shù)據(jù)中的復(fù)雜結(jié)構(gòu),避免了傳統(tǒng)算法中復(fù)雜的特征提取過(guò)程,其在圖像分類[11-14]、目標(biāo)檢測(cè)[15-16]等問(wèn)題上有著極為廣泛的應(yīng)用。

        因本文的分類任務(wù)較為簡(jiǎn)單,只需要將包含道路的圖片篩選出來(lái),故采用經(jīng)典的LeNet-5來(lái)對(duì)包含道路的圖片進(jìn)行分類篩選,LeNet-5結(jié)構(gòu)如圖1所示。

        圖1 LeNet- 5結(jié)構(gòu)圖

        典型的LeNet- 5模型由四個(gè)關(guān)鍵部分組成,分別為局部連接、權(quán)值共享、下采樣以及多層卷積。卷積神經(jīng)網(wǎng)絡(luò)包括了一個(gè)由卷積層和下采樣層組成的特征提取器。在卷積層中,一個(gè)神經(jīng)元只與部分鄰層神經(jīng)元連接,卷積核通過(guò)一組權(quán)值和鄰層特征圖的某個(gè)局部作卷積運(yùn)算,即局部連接;然后,將加權(quán)值傳遞給一個(gè)非線性激活函數(shù),如sigmoid函數(shù)或者ReLU函數(shù);同一個(gè)特征平面的所有單元共享權(quán)值,即共享卷積核,權(quán)值共享可以有效減少網(wǎng)絡(luò)各層間的連接,同時(shí)降低過(guò)擬合的風(fēng)險(xiǎn);下采樣又叫作池化(Pooling),通過(guò)下采樣操作能夠減少模型參數(shù),減少運(yùn)行時(shí)間,常見(jiàn)的兩種下采樣為均值下采樣(mean pooling)和最大值下采樣(max pooling)。而由于單層卷積學(xué)到的特征往往是局部特征,在實(shí)際應(yīng)用中大多采用多層卷積來(lái)進(jìn)行全局特征學(xué)習(xí)。

        1.2 Canny邊緣檢測(cè)

        Canny算子是一種基于最優(yōu)化思想的邊緣檢測(cè)算子,它試圖在抑制噪聲和準(zhǔn)確定位之間尋求一種最佳的折中方案。用Canny算子進(jìn)行邊緣檢測(cè)的主要步驟如下:

        1)利用高斯濾波器平滑圖像。N維空間正態(tài)分布高斯公式如式(1)所示:

        (1)

        其中:r為模糊半徑;σ是正態(tài)分布的標(biāo)準(zhǔn)差。高斯濾波即根據(jù)待濾波像素點(diǎn)及其鄰域點(diǎn)的灰度值,按照一定的參數(shù)規(guī)則進(jìn)行加權(quán)平均,該方法可以有效地去除圖像中的高頻噪聲,同時(shí)更好地保留邊緣信息;

        2)計(jì)算濾波后圖像梯度的幅度和方向。常見(jiàn)的梯度算子有Roberts算子、Sobel算子、Prewitt算子,本文實(shí)現(xiàn)Canny算法所采用的梯度算子比較簡(jiǎn)單,表達(dá)式如式(2)所示:

        (2)

        其x向、y向的一階偏導(dǎo)數(shù)矩陣、梯度幅值及梯度方向的數(shù)學(xué)表達(dá)式如式(3)~(6)所示:

        P[i,j]=

        (3)

        Q[i,j]=

        (4)

        (5)

        Θ[i,j]=arctan(Q[i,j]/P[i,j])

        (6)

        3)對(duì)梯度幅度應(yīng)用非極大值抑制;其過(guò)程是找出圖像梯度中的局部極大值點(diǎn),把其他非局部極大值點(diǎn)置零,以得到細(xì)化的邊緣。通過(guò)對(duì)梯度幅值進(jìn)行非極大值抑制來(lái)找出梯度的局部極大值點(diǎn),將其他非局部極大值點(diǎn)置零來(lái)得到細(xì)化的邊緣。

        4)用雙閾值算法檢測(cè)和連接邊緣;選用兩個(gè)閾值T1和T2(T1>T2),T1用來(lái)找到每一條線段,T2用來(lái)在這些線段的兩個(gè)方向上延伸尋找邊緣的斷裂處,并連接這些邊緣。通過(guò)兩個(gè)閾值T1和T2來(lái)進(jìn)行邊緣處理,T1的作用是尋找每一條線段,T2的作用是延伸每條線段,使得線段連續(xù)起來(lái)。

        1.3 精度評(píng)估方法

        本文采用語(yǔ)義分割常用的三種度量方式來(lái)評(píng)估不同算法在此次實(shí)驗(yàn)上的表現(xiàn),即:

        1)像素精度(Pixel Accuracy, PA)。PA是語(yǔ)義分割最簡(jiǎn)單的度量,為標(biāo)記正確的像素占總像素的比例:

        (7)

        2)均像素精度(Mean Pixel Accuracy, MPA)。MPA是PA的一種簡(jiǎn)單提升,即計(jì)算每個(gè)類內(nèi)被正確分類像素?cái)?shù)的比例,之后求所有類的平均值。

        (8)

        3)均交并比(Mean Intersection over Union, MIoU)。MIoU為語(yǔ)義分割的標(biāo)準(zhǔn)度量,其計(jì)算真實(shí)值(ground truth)和預(yù)測(cè)值(predicted segmentation)的交集、并集之比,之后求平均值。

        (9)

        2 全卷積神經(jīng)網(wǎng)絡(luò)道路提取算法

        對(duì)于高分辨率遙感圖像道路提取任務(wù),基于FCN的多源高分辨率遙感道路提取流程如圖2所示。為了提高模型的普適性,本文選用兩種高分辨率衛(wèi)星圖像作為輸入源,首先,對(duì)高分二號(hào)和World View圖像進(jìn)行分割,調(diào)整成合適的尺寸來(lái)適應(yīng)網(wǎng)絡(luò)結(jié)構(gòu)。為了提高FCN對(duì)于道路的提取速度,本文先采用CNN對(duì)分割出的圖像進(jìn)行分類篩選,剔除掉非道路區(qū)域圖像來(lái)減少FCN對(duì)非道路圖像的處理時(shí)間。為了增加輸入特征的多樣性,本文采用Canny邊緣檢測(cè)算子對(duì)篩選出的道路圖片進(jìn)行處理,將檢測(cè)出的邊緣特征圖像結(jié)合RGB和灰度圖像一起放入FCN中進(jìn)行訓(xùn)練,之后用訓(xùn)練好的模型對(duì)道路進(jìn)行提取。

        2.1 FCN模型

        FCN在現(xiàn)有的網(wǎng)絡(luò)上進(jìn)行微調(diào),如AlexNet[9],GoogleNet[10]以及VGGNet(Visual Geometry Group Net)[11],使得微調(diào)后的網(wǎng)絡(luò)模型可以對(duì)圖像進(jìn)行像素級(jí)分類。全卷積神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)相比,在結(jié)構(gòu)上有了一些變化,主要體現(xiàn)在卷積層后的網(wǎng)絡(luò)結(jié)構(gòu)上。傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)在卷積層之后通常連接的是幾層全連接層(fully connected layers),全連接層將卷積層產(chǎn)生的特征圖(feature map)映射成固定長(zhǎng)度的特征向量,最后以概率值的方式輸出圖像的分類結(jié)果。而Long等[10]將傳統(tǒng)CNN中的全連接層改為反卷積層,采用反卷積層對(duì)不同卷積層輸出的特征圖進(jìn)行上采樣,使圖像恢復(fù)到原始輸入圖像大小,且每個(gè)像素都有一個(gè)預(yù)測(cè)結(jié)果。相較于CNN而言,F(xiàn)CN模型的輸出結(jié)果由單一的分類概率變成了與原圖尺寸一致的語(yǔ)義分割圖,分割圖中的每個(gè)像素對(duì)應(yīng)其所屬類別。FCN的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

        圖2 道路提取流程

        圖3 FCN網(wǎng)絡(luò)結(jié)構(gòu)示意圖

        2.1.1 上采樣

        在全卷積網(wǎng)絡(luò)模型中,下采樣層縮小了輸入圖像的尺寸,要想得到一張與輸入圖像大小一致的圖像,則需要將熱圖(heat map)擴(kuò)大相應(yīng)的倍數(shù),這個(gè)擴(kuò)大的過(guò)程在FCN模型中叫作上采樣(Upsampling)。上采樣中最為核心的步驟叫作反卷積(Deconvolution),反卷積的作用與卷積恰恰相反,以卷積核大小為4×4的卷積層為例,輸入大小為5×5,卷積步長(zhǎng)為1,卷積輸出為2×2,而反卷積則與之相反,使得2×2的輸入還原成5×5的輸出。卷積與反卷積示意圖如圖4所示。

        圖4 卷積與反卷積示意圖

        2.1.2 多尺度特征融合

        FCN中有5個(gè)2×2的下采樣層,圖像經(jīng)過(guò)每個(gè)下采樣層后分辨率都會(huì)降低,故最后一層卷積層輸出的特征圖分辨率會(huì)很低,細(xì)節(jié)特征不明顯,若直接對(duì)特征圖進(jìn)行32倍上采樣,則獲得的圖像精度不高,而且邊緣比較粗糙。Long等[10]提出了多尺度特征融合的FCN結(jié)構(gòu),結(jié)合不同下采樣層輸出的特征圖進(jìn)行融合,使得模型在細(xì)節(jié)處理上能力更強(qiáng)。FCN有5個(gè)下采樣層,每個(gè)下采樣層之前有若干個(gè)卷積層,最后一層的輸出圖像為熱圖(heat map)。FCN有三種不同的特征融合方式,直接將熱圖進(jìn)行32倍上采樣的方法叫作FCN- 32s;將熱圖進(jìn)行2倍上采樣,與第四層下采樣層輸出的特征圖進(jìn)行融合,再進(jìn)行16倍上采樣的方法叫作FCN- 16s;將FCN- 16s的特征圖進(jìn)行2倍上采樣,與第三次池化層輸出的特征圖進(jìn)行融合,再進(jìn)行8倍上采樣的方法叫作FCN- 8s,圖5為FCN多尺度特征融合示意圖。

        2.2 基于FCN的多源道路提取

        本文基于FCN的多源遙感道路提取方法的多源性在于:1)多數(shù)據(jù)源,本文采用高分二號(hào)和World View高分辨率遙感數(shù)據(jù)作為訓(xùn)練集,模型通過(guò)處理這兩種不同衛(wèi)星源的數(shù)據(jù)可以學(xué)習(xí)到不同衛(wèi)星源數(shù)據(jù)的特征,使得該模型普適性更高;2)多特征輸入源,訓(xùn)練集中的圖片有四類,在原有的RGB圖以及道路標(biāo)簽圖的基礎(chǔ)上,新增了經(jīng)過(guò)Canny算子檢測(cè)的道路邊緣信息圖和灰度圖,將這四類圖片一同作為訓(xùn)練的輸入數(shù)據(jù),為道路提取提供了更豐富的特征信息。

        圖5 多尺度特征融合示意圖

        本文的FCN模型基于VGG- 19 Nets進(jìn)行改進(jìn),共19層,前16層為卷積層,后3層為反卷積層。選擇ReLu作為模型的激活函數(shù),其數(shù)學(xué)表達(dá)式如式(10)所示:

        h(x)=max(0,x)

        (10)

        相較于sigmoid和tanh激活函數(shù),ReLu可以很好地解決反向傳播中梯度消失的問(wèn)題,并且可以減少參數(shù)之間的依存關(guān)系,緩解過(guò)擬合問(wèn)題的發(fā)生;損失函數(shù)(loss function)用來(lái)評(píng)估模型預(yù)測(cè)值和標(biāo)簽值的差別,損失函數(shù)的值越小,模型的效果就越好,模型的訓(xùn)練過(guò)程就相當(dāng)于損失函數(shù)求最優(yōu)解的過(guò)程,本文采用softmax交叉熵函數(shù)作為模型的損失函數(shù),其數(shù)學(xué)表達(dá)式如式(11)所示:

        (11)

        其中:wij表示第i個(gè)神經(jīng)元的第j個(gè)權(quán)重;b為偏置;zi表示該網(wǎng)絡(luò)的第i個(gè)輸出;ai表示softmax的輸出值,即對(duì)應(yīng)了每個(gè)像素點(diǎn)的預(yù)測(cè)值;yi表示真實(shí)的分類結(jié)果,即每個(gè)像素點(diǎn)的標(biāo)簽值。訓(xùn)練過(guò)程中加入了Dropout,目的是使模型在每次訓(xùn)練時(shí)隨機(jī)讓某些隱藏層節(jié)點(diǎn)不工作,這種方法可以有效地減少每次訓(xùn)練迭代中參數(shù)的個(gè)數(shù),防止過(guò)擬合現(xiàn)象的發(fā)生。

        模型在預(yù)測(cè)時(shí),同時(shí)讀入RGB、灰度圖和邊緣檢測(cè)圖,三個(gè)卷積通道分別對(duì)RGB、灰度圖和邊緣檢測(cè)圖進(jìn)行特征采樣,在卷積通道的末端輸出三張熱圖,將這三張熱圖進(jìn)行加權(quán)疊加,合并成一張熱圖后輸入到反卷積通道,采用FCN- 8s的特征融合方式,對(duì)熱圖和下采樣圖進(jìn)行特征融合,之后通過(guò)上采樣輸出一張結(jié)果圖。模型預(yù)測(cè)示意圖如圖6所示。

        3 實(shí)驗(yàn)結(jié)果與分析

        本次實(shí)驗(yàn)采取Windows下的tensorflow機(jī)器學(xué)習(xí)框架,使用Anaconda軟件進(jìn)行程序編寫,實(shí)驗(yàn)平臺(tái)的配置如下:CPU為Inter Xeon E5-2650 3.5 GHz,GPU為Nvidia Titan X 12 GB。

        3.1 實(shí)驗(yàn)數(shù)據(jù)

        在深度學(xué)習(xí)的分類算法中,訓(xùn)練集的質(zhì)量直接決定了訓(xùn)練出來(lái)模型的好壞。本文為了增強(qiáng)模型的普適性及魯棒性,故采用了兩種高分辨率遙感衛(wèi)星數(shù)據(jù),即高分二號(hào)數(shù)據(jù)和World View數(shù)據(jù)。高分二號(hào)遙感圖像由西藏高分中心提供,共33景圖像,分為4 m多光譜圖像和1 m全色圖像;World View遙感圖像為下載所得,共30景,分為1.8 m多光譜圖像和0.5 m全色圖像。本次實(shí)驗(yàn)區(qū)域選擇西藏日喀則地區(qū),目的是為了減少云層對(duì)實(shí)驗(yàn)的干擾。訓(xùn)練集分為原始圖像(包括RGB、Gary及邊緣特征圖像)和與之對(duì)應(yīng)的標(biāo)簽圖像。根據(jù)手動(dòng)劃分的矢量文件制作標(biāo)簽圖像,令道路的灰度值為120,其他區(qū)域灰度值為0。為了節(jié)省內(nèi)存并適應(yīng)網(wǎng)絡(luò)結(jié)構(gòu),將訓(xùn)練圖片裁剪成100×100的圖片進(jìn)行訓(xùn)練,本次實(shí)驗(yàn)共選取12 000對(duì)原始圖像和標(biāo)簽圖像,其中訓(xùn)練集為10 000對(duì),驗(yàn)證集為2 000對(duì),且訓(xùn)練集和測(cè)試集不重復(fù),圖7為訓(xùn)練集數(shù)據(jù)。

        圖6 模型預(yù)測(cè)示意圖

        圖7 訓(xùn)練集數(shù)據(jù)

        3.2 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證多衛(wèi)星源輸入對(duì)訓(xùn)練結(jié)果的影響,本文將對(duì)比單個(gè)高分衛(wèi)星圖像作為輸入和兩種衛(wèi)星圖像一起投入網(wǎng)絡(luò)作訓(xùn)練的效果,分3種制作訓(xùn)練集方法,即:1)方法1:訓(xùn)練集全部采用高分二號(hào)圖像;2)方法2:訓(xùn)練集全部采用World View圖像;3)方法3:高分二號(hào)和World View圖像以1:1的比例制作訓(xùn)練集。不同輸入比例的訓(xùn)練收斂速度對(duì)比如圖8所示。

        圖8 不同數(shù)據(jù)比例訓(xùn)練收斂速度對(duì)比

        從圖8中可以看出,方法1、方法2只采用一種高分辨率圖像作為訓(xùn)練集時(shí),訓(xùn)練迭代次數(shù)較多,這是因?yàn)閱畏N數(shù)據(jù)源的特征信息較少,模型需要大量的迭代計(jì)算來(lái)獲得更多的圖像特征;在這三種方法中,方法3的迭代效率明顯高于方法1和方法2,這是由于加入了適當(dāng)比例分辨率較低的圖像作為補(bǔ)充,模型可以同時(shí)對(duì)兩種不同分辨率圖像進(jìn)行特征提取,故本文將采用方法3的訓(xùn)練集制作方式來(lái)進(jìn)行模型的訓(xùn)練。

        本次實(shí)驗(yàn)?zāi)P突贔CN- 8s,為驗(yàn)證該方法在高分辨率遙感影像道路提取上的效果,將其與傳統(tǒng)的分水嶺算法、支持向量機(jī)算法進(jìn)行對(duì)比,然后再與深度學(xué)習(xí)中FCN的3個(gè)變種FCN- 8s、FCN- 16s、FCN- 32s進(jìn)行對(duì)比。最終的分類結(jié)果對(duì)比如圖9所示。從圖9中可以看出:傳統(tǒng)方法中,SVM算法提取出的道路網(wǎng)絡(luò)更接近于標(biāo)簽圖片,但SVM算法和分水嶺算法都會(huì)誤將與道路顏色相近的空地識(shí)別成道路;FCN的三種方法中,F(xiàn)CN- 8s取得了較好的分割效果,但道路的邊緣信息提取得不夠準(zhǔn)確,而由于特征融合的效果不好,F(xiàn)CN- 16s和FCN- 32s道路提取的效果較差;本文方法在FCN- 8s的基礎(chǔ)上加入了Canny邊緣檢測(cè)信息,結(jié)果顯示,該方法能夠有效優(yōu)化道路邊緣細(xì)節(jié),且道路網(wǎng)絡(luò)提取完整。

        圖9 不同方法分類結(jié)果對(duì)比

        將本文提出的基于FCN的多源遙感道路提取方法與其他幾種具有代表性的道路提取方法進(jìn)行比較,如基于模式識(shí)別的SVM算法、基于數(shù)學(xué)形態(tài)學(xué)的分水嶺算法和傳統(tǒng)的FCN算法,結(jié)果如表1所示。數(shù)據(jù)分析顯示,本文方法取得了88.5%的道路提取精度,較傳統(tǒng)的分水嶺算法和SVM算法提升了超過(guò)20個(gè)百分點(diǎn),且處理速度上大幅領(lǐng)先;而FCN的三個(gè)變種FCN- 32s、FCN- 16s、FCN- 8s中表現(xiàn)最好的是FCN- 8s,達(dá)到了74.7%的道路提取精度,但處理速度在這三種方法中最慢;本文方法在FCN- 8s模型上進(jìn)行改進(jìn),在道路提取精度上較FCN- 8s提升了約14個(gè)百分點(diǎn),道路提取速度也提升了30%左右。總體看來(lái),本文基于FCN的多源遙感道路提取方法在道路提取精度和處理速度上都得到了明顯的提升。

        表1 不同方法道路提取精度和測(cè)試用時(shí)對(duì)比

        4 結(jié)語(yǔ)

        針對(duì)半自動(dòng)道路提取方法存在著提取精度較低、提取速度較慢的問(wèn)題,提出了一種基于全卷積神經(jīng)網(wǎng)絡(luò)的道路提取方法。該方法的優(yōu)點(diǎn)在其精確、快速的道路提取能力。與此同時(shí),該方法還有許多問(wèn)題值得進(jìn)一步研究,如:1)如何將提取單一的道路信息擴(kuò)展到提取更多的地物信息;2)怎樣加入更多特征信息圖片來(lái)進(jìn)一步提升該方法的準(zhǔn)確率。

        猜你喜歡
        特征方法模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        可能是方法不對(duì)
        3D打印中的模型分割與打包
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        人禽无码视频在线观看| 亚洲中文字幕av天堂自拍| 日本做受120秒免费视频| 国产亚洲av片在线观看18女人| 99久久亚洲国产高清观看| 人妻丰满精品一区二区| 国产免费观看黄av片| 50岁熟妇的呻吟声对白| 久久半精品国产99精品国产| 国产激情免费观看视频| 国产精选自拍视频网站| 国产精品自在线拍国产| 国产麻豆一精品一AV一免费软件| 久久99久久久精品人妻一区二区| 天天做天天爱夜夜夜爽毛片| 久久99热久久99精品| 亚洲VA中文字幕欧美VA丝袜| 精品日韩av专区一区二区| 一区二区三区人妻少妇| 午夜成人鲁丝片午夜精品| 精品亚洲欧美高清不卡高清| 亚洲中文字幕免费精品| 成人丝袜激情一区二区| 少妇对白露脸打电话系列| 亚洲精品动漫免费二区| 中文字幕乱码亚洲在线| 亚洲精品久久| 亚洲高清无码第一| 久久精品国产亚洲av蜜臀久久| 欧美日韩午夜群交多人轮换| 囯产精品一品二区三区| 久久久久久久久中文字幕| 国产不卡在线观看视频| 一本久久a久久精品vr综合| 欧美在线专区| 精品国产麻豆免费人成网站| 国产成人午夜高潮毛片| 亚洲国产高清在线观看视频| 国产高清精品在线二区| 黄色av一区二区在线观看| 在线观看午夜亚洲一区|