賀 浩,王仕成,楊東方,王舒洋,劉 星
1. 火箭軍工程大學(xué)控制工程系,陜西 西安 710025; 2. 火箭軍工程大學(xué)信息工程系,陜西 西安 710025
道路作為交通的主要組成部分,在人類各項活動中發(fā)揮著不可替代的作用。在現(xiàn)代社會中,道路也是地圖和地理信息系統(tǒng)中重要的標(biāo)識對象。隨著交通地理信息系統(tǒng)的建設(shè),道路的自動提取技術(shù)隨之出現(xiàn)并不斷發(fā)展[1]。及時而完備的道路交通信息系統(tǒng),可在交通導(dǎo)航、城市規(guī)劃、農(nóng)林及飛行器自動駕駛等諸多領(lǐng)域發(fā)揮重要作用。人類觀測手段的更新和交通建設(shè)的日新月異對道路自動提取技術(shù)不斷地提出更高的要求。一方面,當(dāng)今人類建設(shè)活動快速地改變著交通和地貌信息,與此同時,人們對數(shù)字地圖、導(dǎo)航等需求也十分旺盛。另一方面,人類觀測地球的手段也更加豐富,高分辨率衛(wèi)星、航拍無人機、成像雷達(dá)等設(shè)備的應(yīng)用使得可用數(shù)據(jù)出現(xiàn)海量增長。在此情況下,如何利用海量的數(shù)據(jù),快速且完備地提取道路信息以更新地理信息系統(tǒng),成為該領(lǐng)域的研究熱點。
在過去的幾十年里,人們對遙感圖像的道路自動提取技術(shù)進(jìn)行了大量的研究。這些研究絕大多數(shù)都采用“特征匹配+道路連接”的思路[2-10],即,先通過設(shè)計道路的一般特征,如灰度特征、平行雙邊緣、道路交叉口等,來確定道路種子的位置,并通過連接算法,如Snake算法等完成道路的提取。如文獻(xiàn)[10]通過形狀、距離、語義等設(shè)計度量特征,并使用支持向量機(SVM)訓(xùn)練道路網(wǎng)的回歸模型以實現(xiàn)道路提取。這些方法在一定的應(yīng)用場合下發(fā)揮了積極作用,但是其特征設(shè)計和連接算法中有諸多閾值參數(shù)需要人工調(diào)節(jié),才能在某類型圖片下取得較好效果,這就限制了其在大規(guī)模數(shù)據(jù)上的應(yīng)用,使其難以實現(xiàn)通用[11]。
隨著深度學(xué)習(xí)技術(shù)在計算機視覺領(lǐng)域的開疆拓土,圖像分類、物體識別和語義分割任務(wù)等都獲得了重大突破。遙感影像的道路提取任務(wù),可作為圖像的語義分割任務(wù)的子集進(jìn)行研究,即設(shè)計分割算法,將遙感影像中的道路與背景分割開來。隨著深度語義分割研究的進(jìn)展[12-18],遙感影像道路提取技術(shù)的研究也不斷深入。文獻(xiàn)[11,19—20]通過深度神經(jīng)網(wǎng)絡(luò)對Massachusetts城市道路和建筑的標(biāo)注及提取進(jìn)行了大量研究,并建立了相應(yīng)的道路提取數(shù)據(jù)集。文獻(xiàn)[21]基于經(jīng)典深度神經(jīng)網(wǎng)絡(luò)和滑動窗口來識別道路方向,并用有限狀態(tài)機來連接道路,該方法采用了滑動窗口操作實現(xiàn)對像素區(qū)域的分類,因而其提取速度較為緩慢。文獻(xiàn)[22]基于FCN[15]網(wǎng)絡(luò)架構(gòu),將道路結(jié)構(gòu)信息約束到損失函數(shù)中,改進(jìn)了深度分割網(wǎng)絡(luò)在道路提取任務(wù)中的表現(xiàn)效果。文獻(xiàn)[23]基于SegNet[17]網(wǎng)絡(luò)結(jié)構(gòu)和ELU激活單元,進(jìn)一步提升了道路提取效果,在Massachusetts Roads數(shù)據(jù)集[20]測試中其F1-score達(dá)到了81.2%。但是這兩種方法均未考慮道路特征自身特點,而使用通用的分割網(wǎng)絡(luò)結(jié)構(gòu)完成道路提取任務(wù)。
本文針對道路目標(biāo)的特點,針對性地設(shè)計了深度卷積編解碼網(wǎng)絡(luò)結(jié)構(gòu)(deep convolutional Encoder-Decoder network,DCED):為保留道路網(wǎng)絡(luò)豐富的低層細(xì)節(jié)特征,增加了低層特征向高層的跳連,并減少Encoder過程中下采樣次數(shù),保證中間特征圖的分辨率;針對道路語義信息較為簡單的特點,壓縮了DCED網(wǎng)絡(luò)層數(shù),減少了需要訓(xùn)練的參數(shù)數(shù)量,降低了網(wǎng)絡(luò)訓(xùn)練難度。同時,針對遙感影像中道路目標(biāo)所占像素較少的特點,針對性地改進(jìn)了損失函數(shù),改善了網(wǎng)絡(luò)訓(xùn)練中正負(fù)樣本嚴(yán)重失衡的問題。最后,通過試驗驗證了本文方法性能,并與其他算法進(jìn)行了比較分析。
道路是線形的,具有網(wǎng)狀分布的特殊結(jié)構(gòu),其細(xì)節(jié)信息豐富,但是語義信息較為簡單。這樣的特點對分割網(wǎng)絡(luò)的細(xì)節(jié)特征提取能力提出了較高要求。經(jīng)典的語義分割網(wǎng)絡(luò)面對的圖像復(fù)雜多樣,對于語義信息的提取要求更高,其Encoder部分大多采用了經(jīng)典分類網(wǎng)絡(luò)(如VGG16)的預(yù)訓(xùn)練模型。在這些網(wǎng)絡(luò)架構(gòu)中,輸入圖片經(jīng)過多次下采樣,網(wǎng)絡(luò)得到的中間特征圖尺寸被多倍壓縮,如文獻(xiàn)[22]采用FCN架構(gòu),最小的中間特征圖被壓縮了32倍,因而丟失了目標(biāo)的部分細(xì)節(jié)信息。隨后這些網(wǎng)絡(luò)雖然采用了“上采樣+跳連”的方式來解碼圖片細(xì)節(jié)信息,但是對于道路目標(biāo),仍然不足以有效地還原道路網(wǎng)的細(xì)節(jié)。同時,道路目標(biāo)語義信息簡單的特點,也決定了道路提取任務(wù)并非必須采用大規(guī)模圖片分類網(wǎng)絡(luò)的預(yù)訓(xùn)練模型來進(jìn)行特征提取。針對道路提取問題的特殊性,本文設(shè)計了深度相對較淺的DCED網(wǎng)絡(luò),其結(jié)構(gòu)如圖1所示。
將輸入圖片規(guī)范到512×512像素大小,經(jīng)過若干層卷積和兩次最大池化對圖片完成編碼部分,此時特征圖6大小壓縮為原圖大小的1/4,而后將特征圖送入解碼網(wǎng)絡(luò)。在完成第1次上采樣后,將原圖1/2大小的特征圖5跳連至上采樣層后,與特征圖10并聯(lián)送入后續(xù)網(wǎng)絡(luò)。在完成第2次上采樣后,將原圖大小的特征圖2跳連至本次上采樣層后,與上采樣輸出的特征圖14并聯(lián)送入后續(xù)網(wǎng)絡(luò)。而后,通過包含兩個卷積核的卷積層將特征圖映射到512×512×2大小的特征圖17,實現(xiàn)輸入的RGB圖到輸出二分類分割圖的映射。而后通過包含一個卷積核,卷積核大小為1×1的卷積層,將輸出映射成為像素分類的概率圖,其大小為512×512×1。
圖1 針對道路提取任務(wù)的Encoder-Decoder網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 The architecture of the designed Encoder-Decoder network for road extraction
本文所設(shè)計的網(wǎng)絡(luò)結(jié)構(gòu)只經(jīng)過兩次下采樣處理,其最小特征圖仍然具有原圖1/4的尺度,因而能夠更多地保留道路的局部細(xì)節(jié)特征。同時,在較淺的網(wǎng)絡(luò)結(jié)構(gòu)下,通過跳連操作將低層局部特征與高層語義特征融合起來,使得最終輸出的特征圖對道路網(wǎng)的語義信息及細(xì)節(jié)信息均具有良好的表示能力。網(wǎng)絡(luò)中使用到的方法具體情況如下。
1.1.1 卷積
除去用于輸出的1×1卷積層,其他卷積層卷積核大小均為3×3,并設(shè)置padding為1,使得卷積層輸入特征圖與輸出特征圖的寬、高一致。
1.1.2 ELU激活
在過去一段時間里,修正線性單元(rectified linear unit,ReLU)激活在深度卷積神經(jīng)網(wǎng)絡(luò)中被廣泛采用。文獻(xiàn)[24]提出了指數(shù)線性單元(exponential linear unit,ELU),可以加速網(wǎng)絡(luò)收斂速度,有效克服梯度消失等問題。假設(shè)某節(jié)點輸出為xi,則經(jīng)過ELU層后的輸出ri可表示為
(1)
1.1.3 最大池化
池化操作可以匯合低層特征信息,縮減計算數(shù)據(jù)量,擴大高層濾波器的感受野。本網(wǎng)絡(luò)的池化操作均采用最大池化,尺寸設(shè)置為2×2,步長也為2×2。經(jīng)過最大池化層后的特征圖,其輸出的深度不變,高和寬變?yōu)樵瓉淼?/2。
1.1.4 跳層連接
在所設(shè)計的網(wǎng)絡(luò)中,特征圖經(jīng)過卷積層后其寬和高是不變的。因此,經(jīng)過若干卷積層,兩次下采樣與兩次上采樣的特征圖14與特征圖2的尺寸是一致的。同理,特征圖10與特征圖5的尺寸也是一致的。所謂跳連操作,即將低層特征圖與相應(yīng)高層特征圖整合為新的張量,并進(jìn)行后續(xù)的計算和處理。其具體的實現(xiàn)方式為將特征圖2(512×512×64)與特征圖14(512×512×64)在深度維度上串聯(lián),構(gòu)成新的組合特征圖(512×512×128)并送入后續(xù)卷積層進(jìn)行運算。同理,對特征圖5與特征圖10也進(jìn)行相似的操作。跳連操作能夠融合高層的語義信息和低層的局部特征信息,從而實現(xiàn)準(zhǔn)確而又精細(xì)的道路特征提取。
1.1.5 上采樣
與池化操作相反,對較小的特征圖進(jìn)行上采樣,其輸出的特征圖深度不變,高和寬變?yōu)樵瓉淼?倍。本文采用了雙線性插值實現(xiàn)上采樣。通過如下方式計算上采樣后某一點(x,y)的值P:假設(shè)輸入的特征圖在相鄰4個像素(x1,y1)、(x1,y2)、(x2,y1)和(x2,y2)處的值分別為Q11、Q12、Q21和Q22。首先在x方向進(jìn)行線性插值
(2)
(3)
式中,R1和R2分別代表輸出圖在(x,y1)和(x,y2)位置的值。然后在y方向進(jìn)行線性插值,可得
(4)
聯(lián)立式(2)、式(3)、式(4)可得
(5)
本文將特征圖上采樣為原來大小的2倍,則式(5)可以簡化為
(6)
1.1.6Sigmoid
經(jīng)過該操作,輸出為
(7)
式中,zi為上層節(jié)點輸出值。輸出值介于0與1之間,可作為二分類預(yù)測的概率描述。
道路提取問題可看作是對像素的二分類問題。對于二分類問題,TP(true-positive)代表標(biāo)簽為正,預(yù)測也為正;TN(true-negative)代表標(biāo)簽為負(fù),預(yù)測為負(fù);FP(false-positive)代表標(biāo)簽為負(fù),預(yù)測為正;FN(false-negative)代表標(biāo)簽為正,預(yù)測為負(fù)。
通常此類問題采用二分類交叉熵?fù)p失函數(shù):
(8)
式中,yi為第i個像素的真實值,yi=0代表該像素屬于背景區(qū)域,yi=1則代表該像素為道路區(qū)域;ai為經(jīng)過sigmoid函數(shù)第i個像素的預(yù)測值,ai取值落于(0,1)內(nèi),ai越趨近于1,代表其屬于道路的概率越高。訓(xùn)練的過程即通過不斷調(diào)整網(wǎng)絡(luò)的權(quán)值參數(shù),使得損失函數(shù)L達(dá)到最小的過程。
可以看出,式(8)無差別對待輸出yi,給予了所有像素相同的權(quán)重,因而忽略了yi的位置與其分類之間的聯(lián)系?;诖擞^點,文獻(xiàn)[22]將損失函數(shù)改進(jìn)為
(9)
式中,f(di)的定義為
(10)
log(1-ai))
(11)
式中,比例系數(shù)λ1和λ2均為正數(shù)且有λ1>λ2。對于二分類問題而言,正負(fù)樣本的合理比例約為1∶1。
圖2 遙感影像與其道路標(biāo)注圖Fig.2 The remote sensing images and the ground truth of the road
針對每一份訓(xùn)練樣本,統(tǒng)計其正樣本數(shù)目Np和負(fù)樣本數(shù)目Nn,設(shè)置加權(quán)系數(shù)使得其滿足λ1+λ2=2且滿足
(12)
可得
(13)
一般而言,二分類問題中,正負(fù)樣本所占比例應(yīng)大致相等,因而設(shè)置常數(shù)P≈1,但是P值的設(shè)置還與正負(fù)樣本特征的多樣性、復(fù)雜程度等多種因素相關(guān),在應(yīng)用中應(yīng)進(jìn)一步深入研究。
1.3.1 數(shù)據(jù)擴充
深度學(xué)習(xí)是一種數(shù)據(jù)驅(qū)動技術(shù),要訓(xùn)練性能優(yōu)異的深度網(wǎng)絡(luò),數(shù)據(jù)量是其基礎(chǔ)。同時,目前規(guī)范的遙感影像道路數(shù)據(jù)集容量還不能絕對滿足網(wǎng)絡(luò)對數(shù)據(jù)的需求。在目標(biāo)樣本量不足的情況下,一種解決方案是利用遷移學(xué)習(xí),使用大規(guī)模圖片識別預(yù)訓(xùn)練模型的強大表示能力來提取圖片特征,另一種思路則是通過對樣本圖像的處理和變換來擴充訓(xùn)練數(shù)據(jù)容量。
本文通過對道路影像的多角度旋轉(zhuǎn)和鏡像映射來擴充訓(xùn)練數(shù)據(jù)集。如圖3所示,通過旋轉(zhuǎn)以及上下、左右的鏡像映射,可用的訓(xùn)練數(shù)據(jù)量擴充為原來的6倍。
1.3.2 樣本預(yù)處理
1.3.3 優(yōu)化算法配置
深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練,一方面需要足夠的計算資源和大量訓(xùn)練數(shù)據(jù),另一方面也需要配置合理的超參數(shù),采用有效的優(yōu)化算法。本文采用了Adam優(yōu)化算法[26]來訓(xùn)練網(wǎng)絡(luò)參數(shù)。該算法可利用梯度的一階矩估計及二階矩估計動態(tài)地調(diào)整每個參數(shù)的學(xué)習(xí)率。
Adam算法:
require:α,步長
require:β1,β2∈[0,1) #矩估計的指數(shù)衰減速率
require:f(θ) #基于參數(shù)θ的損失函數(shù)
require:θ0#初始參數(shù)向量
require:ε#較小的常數(shù)
m0=0 #(初始化一階矩向量)
v0=0 #(初始化二階矩向量)
t=0 #(計數(shù)器歸0)
whileθt未收斂do
t=t+1
mt=β1mt-1+(1-β1)gt#更新有偏一階矩估計
end while
returnθt
這里,根據(jù)實際情況,配置基礎(chǔ)學(xué)習(xí)率α=10-4,β1=0.9,β2=0.999,ε=10-8。另外,受限于計算資源,本文設(shè)置批處理大小(batch size)為6。
試驗數(shù)據(jù)集采用目前最大的遙感影像道路數(shù)據(jù)集,Massachusetts Roads。該數(shù)據(jù)集采用覆蓋了美國馬薩諸塞州超過2600 km2面積的衛(wèi)星遙感圖像,圖片為1500×1500像素的RGB圖,地面分辨率約1 m/像素。數(shù)據(jù)集包含訓(xùn)練集1108張衛(wèi)星照片及其對應(yīng)標(biāo)注圖,測試集49張衛(wèi)星照片及其對應(yīng)標(biāo)注圖,驗證集14張衛(wèi)星照片及其對應(yīng)標(biāo)注圖,每一幅衛(wèi)星照片中都包含有道路目標(biāo)。在訓(xùn)練集中,為了增強數(shù)據(jù)的容錯性,數(shù)據(jù)集的制作者故意對一些照片添加了遮擋。網(wǎng)絡(luò)的訓(xùn)練采用了數(shù)據(jù)集中訓(xùn)練集及增強數(shù)據(jù)共6648張照片及對應(yīng)標(biāo)注圖,并將原始圖片從1500×1500像素縮放為512×512像素,使用其測試集共49張照片及其標(biāo)注圖對DCED網(wǎng)絡(luò)性能進(jìn)行評估。
當(dāng)作語義分割任務(wù)來看,道路提取所得的結(jié)果也通常采用語義分割的評價方法,即準(zhǔn)確率(accuracy),召回率(recall),F(xiàn)1-score和精度(precision)等。其中,準(zhǔn)確率定義為accuracy=(TP+TN)/(TP+TN+FP+FN),召回率的定義為recall=TP/(TP+FN),F(xiàn)1-score定義為F1=2TP/(2TP+FN+FP),精度定義為precision=TP/(TP+FP)。
從經(jīng)典的道路提取方法來看,文獻(xiàn)[27—28]采用道路的完整度(completeness)、正確度(correctness)和質(zhì)量(quality)等作為指標(biāo)。完整度的定義為completeness=TP/(TP+FN),正確度的定義為correctness=TP/(TP+FP),質(zhì)量的定義為quality=TP/(TP+FP+FN)。
可以看出這兩種評價體系基本觀點的類似,本文采用召回率(完整度)和精度(正確度)及F1-score作為評價指標(biāo)。
2.2.1 對比試驗結(jié)果及分析
在Massachusetts Roads數(shù)據(jù)集下,通過與文獻(xiàn)[18—23]所提方法進(jìn)行對比,證明了本文所提方法的良好性能。U-net[18]主要運用于醫(yī)療影像分割,其應(yīng)用對象,如血管陰影等,與道路目標(biāo)結(jié)構(gòu)相似,因而也可用于遙感影像的分割。與一般的深度分割網(wǎng)絡(luò)類似,U-net也使用了包含跳連、上采樣和全卷積的Encoder-Decoder架構(gòu)。雖然U-net并未使用通用的預(yù)訓(xùn)練模型,但是其基本結(jié)構(gòu)與一般分割模型并無大的區(qū)別,其下采樣縮小倍率為32倍,最小特征圖為28×28,對于遙感道路網(wǎng)絡(luò)的細(xì)節(jié)分辨率不足。RSRCNN[22]的基本網(wǎng)絡(luò)架構(gòu)是基于FCN實現(xiàn)的,其Encoder部分采用了VGG16預(yù)訓(xùn)練模型,對輸入進(jìn)行了4次下采樣,縮小32倍,最小特征圖僅為7×7,因而其細(xì)節(jié)表達(dá)存在缺陷。ELU-SegNet[23]引入了更加先進(jìn)的分割網(wǎng)絡(luò)結(jié)構(gòu)SegNet和激活函數(shù)ELU,使得道路分割結(jié)果大為改善,在對訓(xùn)練數(shù)據(jù)進(jìn)行了擴充后,ELU-SegNet-R取得了更好的效果。但是ELU-SegNet仍然基于SegNet網(wǎng)絡(luò)基本架構(gòu),其Encoder部分使用了VGG16預(yù)訓(xùn)練模型,與RSRCNN存在同樣的問題。
使用Massachusetts Roads數(shù)據(jù)集中49張測試圖片進(jìn)行了驗證,所得結(jié)果指標(biāo)如表1所示。
U-net網(wǎng)絡(luò)難以獲得令人滿意的效果,可見其模型結(jié)構(gòu)設(shè)計并不能完全適應(yīng)遙感影像的道路提取任務(wù)。在使用FCN架構(gòu)情況下,RSRCNN通過對損失函數(shù)進(jìn)行改進(jìn),使F1-score達(dá)到了66.2%,證明了其對損失函數(shù)的改進(jìn)是有效的。ELU-SegNet-R則由于采用了更加先進(jìn)的網(wǎng)絡(luò)結(jié)構(gòu)和激活函數(shù),并擴充了訓(xùn)練數(shù)據(jù),將F1-score提到了81.2%;但是ELU-SegNet-R的改進(jìn)并沒有考慮道路本身的特征特點,而直接利用了適合于街景分割的SegNet基本架構(gòu),因而限制了其提取道路網(wǎng)絡(luò)的性能。
表1不同方法的道路提取結(jié)果對比
Tab.1Theexperimentalresultsofroadextractionindifferentmethods
方法recallprecisionF1-scoreU-net[18]0.6320.5410.545RSRCNN[22]0.7290.6060.662ELU-SegNet-R[23]0.8470.7800.812本文方法(網(wǎng)絡(luò)結(jié)構(gòu))0.8310.8140.822本文方法(網(wǎng)絡(luò)結(jié)構(gòu)+改進(jìn)損失函數(shù))0.8390.8250.829
由于本文方法的網(wǎng)絡(luò)結(jié)構(gòu)適應(yīng)了遙感影像的特征特點,在不引入損失函數(shù)改進(jìn)的情況下,本文對網(wǎng)絡(luò)結(jié)構(gòu)的改進(jìn)將F1-socre提高到了82.2%,并且在細(xì)節(jié)辨識能力上明顯優(yōu)于其他方法。在改進(jìn)的網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上,引入所提出的加權(quán)交叉熵?fù)p失函數(shù),進(jìn)一步提高了對道路網(wǎng)絡(luò)的提取能力,使得F1-score進(jìn)一步達(dá)到了82.9%。除了結(jié)果指標(biāo)有所提升,道路邊緣區(qū)域預(yù)測的置信度也顯著高于未改進(jìn)之前,提高了約10%,證明了對損失函數(shù)的改進(jìn)可以改善數(shù)據(jù)樣本不均衡帶來的影響。
本文所提方法除了在以上數(shù)據(jù)指標(biāo)上表現(xiàn)更好,其優(yōu)勢更在于能夠保留道路細(xì)節(jié)信息,實現(xiàn)更加精確清晰的道路提取。對預(yù)測輸出進(jìn)行可視化來比較本文與文獻(xiàn)[22—23]的道路提取效果,如圖4所示。
圖4 道路提取結(jié)果的可視化對比 Fig.4 Subjective results of road extraction
2.2.1.1 在細(xì)節(jié)表示能力方面
在圖4(a)、(c)、(d)中,RSRCNN方法受限于網(wǎng)絡(luò)結(jié)構(gòu)不足,其細(xì)節(jié)提取能力較差,不能有效地分離雙車道,而ELU-SegNet-R及本文方法能夠結(jié)合低層特征,有效地提取了雙車道信息;在圖4(a)中,由于網(wǎng)絡(luò)結(jié)構(gòu)過深,對細(xì)節(jié)特征分辨率不足,RSRCNN及ELU-SegNet-R均不能準(zhǔn)確地提取圖片頂端的圓形道路區(qū)域,其結(jié)果形狀和結(jié)構(gòu)均存在缺陷。本文方法可以完整準(zhǔn)確地提取該目標(biāo)。
可以看出,本文方法適應(yīng)了道路特征特點,因而能夠準(zhǔn)確有效地提取道路局部特征信息,在細(xì)節(jié)表示能力方面明顯優(yōu)于對照方法。
2.2.1.2 在提取結(jié)果準(zhǔn)確性方面
在圖4(b)、(c)、(d)中,RSRCNN方法存在較多誤檢測區(qū)域,野值點明顯多于ELU-SegNet-R及本文方法,同時,在所有圖例中,RSRCNN方法所提取的道路結(jié)構(gòu)都存在著邊緣較為粗糙的問題。在圖4(c)、(d)中,ELU-SegNet-R出現(xiàn)了道路結(jié)構(gòu)缺損的情況。相較于對照方法,本文方法所得結(jié)果野值點較少,且道路結(jié)構(gòu)清晰完整。
相較于對照方法,本文方法分辨率高,較好地保存了道路結(jié)構(gòu)細(xì)節(jié)信息,因而能夠有效避免周圍背景環(huán)境干擾,準(zhǔn)確地提取道路結(jié)構(gòu)??梢钥闯?,本文方法在結(jié)果的準(zhǔn)確性方面優(yōu)于其他方法。
2.2.2 試驗結(jié)果的適應(yīng)性分析
本文方法是一種有監(jiān)督的機器學(xué)習(xí)方法,因此其適應(yīng)性能依賴于訓(xùn)練數(shù)據(jù)的多樣性。對于道路提取任務(wù)而言,訓(xùn)練樣本能夠涵蓋同類型圖片中大部分道路,因此本文方法在同類數(shù)據(jù)中具有較好的適應(yīng)性能。例如,遙感影像或航拍照片中的道路存在有周圍建筑物、行道樹陰影遮擋的問題,這對傳統(tǒng)的道路提取方法造成了嚴(yán)重的干擾,而本文方法則不受影響。
試驗所采用的測試數(shù)據(jù)中包含了部分遮擋較為明顯的樣本,某些樣本只是道路的邊緣及顏色特征發(fā)生了改變,而極端的例子中道路被樹木所阻斷,如圖5中遙感影像所示。
圖5 被遮擋道路區(qū)域提取效果Fig.5 The extraction of the obscured road area
通過圖5的提取結(jié)果可以看出,本文方法對于被樹木遮擋的道路也有良好的提取效果,甚至于被樹木阻斷的道路結(jié)構(gòu)也能有效提取。這是由于訓(xùn)練樣本中包含了被樹蔭遮擋的道路,在訓(xùn)練過程中,網(wǎng)絡(luò)自動學(xué)習(xí)了這部分道路的特征,因而能夠在測試樣本中提取具有相同特征的道路區(qū)域。這證明了本文方法對于復(fù)雜環(huán)境下的道路提取具有良好的適應(yīng)性能。
針對遙感影像中,道路目標(biāo)細(xì)節(jié)豐富且語義較為簡單的特點,本文針對性地設(shè)計了層數(shù)相對較淺、細(xì)節(jié)分辨率較高的Encoder-Decoder深度分割網(wǎng)絡(luò),相較一般方法,更多地保留了道路的局部特征信息,提高了道路提取的細(xì)節(jié)識別能力;針對目標(biāo)圖像正負(fù)樣本嚴(yán)重不均衡的情況,改進(jìn)了二分類交叉熵?fù)p失函數(shù),改善了正樣本對損失函數(shù)影響不夠的問題。通過對訓(xùn)練數(shù)據(jù)進(jìn)行旋轉(zhuǎn)和鏡像映射擴充了樣本容量,在此基礎(chǔ)上訓(xùn)練并利用試驗驗證了DCED網(wǎng)絡(luò)性能。
試驗表明,本文所提的Encoder-Decoder網(wǎng)絡(luò)在召回率、精度和F1-score指標(biāo)上均表現(xiàn)優(yōu)異,所提取道路結(jié)構(gòu)完整清晰,且具有良好的適應(yīng)性能,可以有效地從遙感影像中提取道路網(wǎng)絡(luò)。相較于傳統(tǒng)的“特征提取+道路連接”的方法,深度分割網(wǎng)絡(luò)在應(yīng)用階段不需要人工設(shè)計特征和預(yù)設(shè)閾值參數(shù),并且在特定應(yīng)用場合下泛化性能良好,能夠經(jīng)受大量樣本檢驗,因而具有良好的應(yīng)用前景。
同時,深度學(xué)習(xí)技術(shù)的性能依賴于訓(xùn)練數(shù)據(jù),其特征都是從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)得到的,因而其泛化性能受到訓(xùn)練數(shù)據(jù)集多樣性的制約。在單一類背景和視場下訓(xùn)練得到的網(wǎng)絡(luò)并不能完全適應(yīng)新的應(yīng)用場合。對于本文的應(yīng)用場合而言,同一組衛(wèi)星或飛行器對一定區(qū)域獲取的影像在視場和背景上均相似,其特征能夠從訓(xùn)練樣本中學(xué)習(xí)得到,因此適應(yīng)性能良好。如需在新的應(yīng)用場合使用深度分割網(wǎng)絡(luò),一般需將該類型數(shù)據(jù)加入訓(xùn)練集并對網(wǎng)絡(luò)權(quán)重值進(jìn)行訓(xùn)練微調(diào)。
深度語義分割是從像素域?qū)Φ缆纺繕?biāo)進(jìn)行提取的,相應(yīng)的結(jié)果評價方法也是基于像素域的,因此缺乏對道路拓?fù)浣Y(jié)構(gòu)完整性和準(zhǔn)確性的表示能力。下一步的研究可以基于道路的拓?fù)浣Y(jié)構(gòu)信息,設(shè)計和實現(xiàn)深度網(wǎng)絡(luò)提取道路的拓?fù)浣Y(jié)構(gòu),與本文所提取的分割結(jié)果進(jìn)行融合,以達(dá)到更加精確和完整的道路提取成果。