張浩然,趙江洪,張曉光
(1.北京建筑大學(xué) 測(cè)繪與城市空間信息學(xué)院,北京 102616;2.現(xiàn)代城市測(cè)繪國(guó)家測(cè)繪地理信息局重點(diǎn)實(shí)驗(yàn)室,北京 102616;3.建筑遺產(chǎn)精細(xì)重構(gòu)與健康監(jiān)測(cè)北京市重點(diǎn)實(shí)驗(yàn)室,北京 102616)
建筑物是人們必不可少的生活和活動(dòng)場(chǎng)所。運(yùn)用遙感圖像進(jìn)行建筑物的目標(biāo)提取作為遙感影像分割的一個(gè)分支,一直是被研究的熱點(diǎn)[1-2]。
高分辨率光學(xué)遙感影像具有地理紋理信息豐富、成像光譜多,重訪(fǎng)時(shí)間短的特點(diǎn)[3]。在遙感科學(xué)中,分辨率對(duì)于一張遙感影像來(lái)說(shuō)是一個(gè)非常重要的評(píng)判指標(biāo),它直接關(guān)系到影像的使用價(jià)值[4]。高分辨率遙感影像的問(wèn)世為遙感技術(shù)在建筑物的提取應(yīng)用上提供了更好的便利條件[5]。
傳統(tǒng)的遙感影像建筑物提取方法對(duì)于高分辨率遙感影像的分割,會(huì)存在圖像質(zhì)量與算法效果2個(gè)方面的難題[6-7]。一方面,由于科技水平的迅速提高,建筑物的設(shè)計(jì)更加新奇,致使其形狀千姿百態(tài),影像中的建筑物輪廓更加趨于不規(guī)則,更加復(fù)雜。顯然,傳統(tǒng)遙感影像因其較低的分辨率已經(jīng)遠(yuǎn)遠(yuǎn)不能滿(mǎn)足對(duì)現(xiàn)代建筑物特征及細(xì)節(jié)的表達(dá)。然而,因高空間分辨率遙感影像的分辨率顯著提高,地物的細(xì)節(jié)信息、幾何結(jié)構(gòu)與紋理特征的表達(dá)變得更加豐富、顯著,使得傳統(tǒng)遙感影像細(xì)節(jié)表達(dá)不足的問(wèn)題迎刃而解。另一方面,分辨率的提升導(dǎo)致了數(shù)據(jù)量的成倍增加,對(duì)于算法的高效性也提出了新的難題。高分辨率遙感影像細(xì)節(jié)豐富,直接加大了類(lèi)內(nèi)混合像元及陰影等因素的影響,同類(lèi)地物在影像上的形態(tài)與特征可能大相徑庭;再加上建筑物和各色道路、公園、停車(chē)場(chǎng)等設(shè)施通常分布緊密,使得高分辨率遙感影像雖然增大了目標(biāo)地物的類(lèi)內(nèi)差異、減小了類(lèi)間差異,但是“同物異譜,同譜異物”的現(xiàn)象卻變得更加普遍、明顯。因此,運(yùn)用傳統(tǒng)遙感影像分類(lèi)技術(shù)進(jìn)行分類(lèi)常常會(huì)導(dǎo)致提取精度過(guò)低、邊界不完整等問(wèn)題。
基于像元的分類(lèi)方法的前提是需要遙感影像擁有極其豐富的光譜信息,并且影像中地物需具有異類(lèi)地物光譜差異較為明顯,而同類(lèi)地物差異不大的特點(diǎn)才能保證分類(lèi)的產(chǎn)品滿(mǎn)足遙感工作需要。因此基于像元的分類(lèi)方法并不適用于光譜信息不足(波段較少),且“同物異譜,同譜異物”現(xiàn)象明顯的高分辨率遙感影像。若僅靠像元信息進(jìn)行分類(lèi),忽略地物的紋理結(jié)構(gòu)等信息,勢(shì)必會(huì)導(dǎo)致分類(lèi)精度降低,分類(lèi)邊緣不完整的結(jié)果。此外,基于像元的影像分類(lèi)法運(yùn)算速度較慢,且極易產(chǎn)生噪聲。這進(jìn)一步證明了基于像元的傳統(tǒng)分類(lèi)方法并不適用于高分辨率遙感影像的分割處理。效果如圖1所示。
圖1 原始影像與最大似然分類(lèi)法效果對(duì)比
圖1(b)為最大似然法對(duì)圖1(a)高分辨率遙感影像的分割效果,其中紅色部分為分割出的建筑物。從圖中的分割結(jié)果可以看出,建筑物與周邊地物混淆現(xiàn)象十分明顯。因此,基于像元的分類(lèi)方法已無(wú)法適用于分割高分辨率遙感影像的工作。
面向?qū)ο蠓诸?lèi)方法中的關(guān)鍵是影像分割。較為廣泛使用的分割方法有區(qū)域分割法、多尺度分割法和基于紋理的分割法等。影像分割質(zhì)量的優(yōu)劣與分割方法及分割參數(shù)的選擇密不可分,這也直接決定了分割對(duì)象的形狀、數(shù)量等指標(biāo),進(jìn)而對(duì)后續(xù)的分類(lèi)結(jié)果產(chǎn)生影響。然而,目前并沒(méi)有一套通用的方法來(lái)確定分割參數(shù)。若將研究重點(diǎn)放在影像對(duì)象的特征表達(dá)上,越充分的特征表達(dá)就越需要人工的參與,如此一來(lái)就增加了分類(lèi)的復(fù)雜程度。影像分類(lèi)是利用分類(lèi)器對(duì)提取的特征進(jìn)行分類(lèi)的步驟。較為有效的機(jī)器學(xué)習(xí)算法的分類(lèi)過(guò)程中,只有有限的線(xiàn)性組合或非線(xiàn)性變換組合,不能充分學(xué)習(xí)特征向量的復(fù)雜結(jié)構(gòu)信息,用于復(fù)雜、數(shù)據(jù)量大的樣本時(shí)會(huì)直接導(dǎo)致分類(lèi)精度不高的問(wèn)題。雖然也有如基于歸一化切割法(normalized cut,N-Cut)演變而來(lái)的Grab Cut算法仍被現(xiàn)代圖像處理工作使用,其作為一種迭代式語(yǔ)義分割算法,利用圖像中的紋理及顏色信息和邊界反差信息,運(yùn)用少量的人機(jī)交互操作,即可得到前后背景分割效果。但該算法仍是根據(jù)圖像像素自身的低階視覺(jué)信息進(jìn)行的圖像分割,沒(méi)有訓(xùn)練過(guò)程,會(huì)導(dǎo)致在對(duì)較復(fù)雜的影像進(jìn)行分割時(shí),產(chǎn)生地物提取邊界不完整的問(wèn)題[8],效果如圖2所示。
圖2 原始影像與Grab Cut法效果對(duì)比
圖2(b)為Grab Cut法對(duì)圖1(a)高分辨率遙感影像的分割效果,其中,彩色區(qū)域?yàn)楸环指畛龅慕ㄖ?。Grab Cut法雖然可以?xún)H介入少量的人工干預(yù),利用圖像中的像元間差異提取建筑物,但從分割效果可以看出,其依然沒(méi)能擺脫周?chē)匚飳?duì)分割效果的影響,分割效果仍不理想;且僅僅可以分割單一對(duì)象,雖可以通過(guò)編程解決多個(gè)對(duì)象的分割需求,但多個(gè)對(duì)象的分割就意味著更多人工的介入。因此可以得出結(jié)論,傳統(tǒng)的面向?qū)ο蟮姆诸?lèi)方法也已經(jīng)無(wú)法適用于高分辨率遙感影像的地物分割工作。
上述傳統(tǒng)建筑物目標(biāo)提取方法中存在的問(wèn)題充分說(shuō)明,對(duì)于高分辨率光學(xué)遙感影像這種波段較少,分辨率高,地物類(lèi)間、類(lèi)內(nèi)差距均易產(chǎn)生混淆的數(shù)據(jù),處理的關(guān)鍵在于如何高效地表達(dá)、學(xué)習(xí)地物特征。因此,高分辨率遙感影像有必要采取更加高效、準(zhǔn)確的方法進(jìn)行分類(lèi)。
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)中一種基于數(shù)據(jù)表征的學(xué)習(xí)方法,數(shù)據(jù)可以使用多種方式來(lái)表示,如圖像中每個(gè)像素強(qiáng)度值的向量,或者成一系列邊、特定形狀的區(qū)域等可用更抽象的方式來(lái)表示[9]。深度學(xué)習(xí)的優(yōu)勢(shì)是運(yùn)用半監(jiān)督式的特征學(xué)習(xí)和分層特征進(jìn)行提取,用高效的算法來(lái)替代手工獲取的過(guò)程,節(jié)省了人力和時(shí)間,使得遙感高分辨率影像的處理變得更加高效。
深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)[10]與全卷積網(wǎng)絡(luò)(fully convolutional networks,F(xiàn)CN)[11]分別存在會(huì)丟失像素位置信息,只能輸入固定圖像尺寸[12],跳躍層結(jié)構(gòu)存在較少分割結(jié)果模糊、訓(xùn)練耗時(shí)較長(zhǎng)的問(wèn)題。
U-net神經(jīng)網(wǎng)絡(luò)是由FCN演變而來(lái)的一個(gè)語(yǔ)義分割網(wǎng)絡(luò)。其既考慮到了圖像的全局信息,又考慮到了圖片的細(xì)節(jié)信息,這使得建筑物分割工作的精度大大提升,通過(guò)將編碼器的每層結(jié)果拼接到譯碼器中以得到更好的分割結(jié)果。但由于U-net神經(jīng)網(wǎng)絡(luò)采樣操作涉及反卷積層,雖可以將特征圖原始恢復(fù),但影像中的建筑物特征也因此損失,造成了建筑物邊緣模糊的問(wèn)題。
因此,本文引入了基于全連接條件隨機(jī)場(chǎng)(fully connected conditional random fields,CRFs)對(duì)U-net分割影像結(jié)果進(jìn)行后處理。全連接CRFs模型以像元間關(guān)系作為參考,進(jìn)一步優(yōu)化分類(lèi)結(jié)果,并消除攝影傾角導(dǎo)致的傾斜墻面影響。本文的技術(shù)路線(xiàn)如圖3所示。
圖3 本文技術(shù)路線(xiàn)
本文的重點(diǎn)研究?jī)?nèi)容在于:如何根據(jù)影像數(shù)據(jù)實(shí)現(xiàn)U-net神經(jīng)網(wǎng)絡(luò)分割圖像及全連接CRFs處理模型進(jìn)行分割后處理,并根據(jù)實(shí)驗(yàn)通過(guò)更改輸入數(shù)據(jù)及調(diào)試參數(shù)等操作嘗試優(yōu)化分割效果。
深度學(xué)習(xí)采用多個(gè)層次對(duì)來(lái)構(gòu)成神經(jīng)網(wǎng)絡(luò)。組成包括輸入層、隱含層、輸出層的多層網(wǎng)絡(luò)系統(tǒng),具有優(yōu)異的特征學(xué)習(xí)能力[13]。此外,基于深度學(xué)習(xí)的處理方法在模型結(jié)構(gòu)上往往有多層隱層節(jié)點(diǎn),相比傳統(tǒng)的分類(lèi)方法更注重于模型結(jié)構(gòu)的深度;在分類(lèi)思路上,深度學(xué)習(xí)更是把特征表示存儲(chǔ)到一個(gè)新的空間,通過(guò)逐層變換特征使得分類(lèi)更加容易實(shí)現(xiàn)。
U-net是一個(gè)沒(méi)有全連接層的全卷積神經(jīng)網(wǎng)絡(luò),其輸入和輸出均為圖像[14]。U-net神經(jīng)網(wǎng)絡(luò)是一種編碼器-譯碼器結(jié)構(gòu),只需一次訓(xùn)練就可以達(dá)到很好的分割效果,且因其延用了FCN的“淺層定位,深層分割”的特點(diǎn),可以保證像素位置信息不丟失。U-net共有23 個(gè)卷積層,包括3像素×3像素特征提取卷積、上采樣2像素×2像素卷積,及最終的映射1像素×1像素卷積,其處理流程如圖4所示。
圖4 U-net處理流程
本文采用的U-net模型沿用了與原作相同的結(jié)構(gòu)、核函數(shù)尺寸和激活函數(shù)的卷積層。程序中所涉及的keras庫(kù)是基于Thrano和TensorFlow演變而來(lái)的深度學(xué)習(xí)庫(kù),具有高度模塊化和可擴(kuò)充性等特點(diǎn),不僅支持簡(jiǎn)易和快速的程序設(shè)計(jì),而且支持CNN及其衍生網(wǎng)絡(luò)的實(shí)現(xiàn),且keras庫(kù)可以實(shí)現(xiàn)CPU與GPU的無(wú)縫切換。運(yùn)用GPU的高速圖像運(yùn)算能力,進(jìn)一步提升U-net神經(jīng)網(wǎng)絡(luò)的運(yùn)行速度。
采用keras庫(kù)中的fit_generator函數(shù)來(lái)進(jìn)行數(shù)據(jù)增強(qiáng)。本文嘗試了不同的訓(xùn)練樣本增強(qiáng)參數(shù),通過(guò)生成不同數(shù)量的增強(qiáng)訓(xùn)練樣本,來(lái)測(cè)試樣本集的大小對(duì)U-net神經(jīng)網(wǎng)絡(luò)分割效果的影響。
摘取幾組測(cè)試效果,如表1所示(效果圖中的紅色邊框?yàn)樵加跋裰袑?shí)際建筑物分布情況)。從圖中可以發(fā)現(xiàn),當(dāng)生成的增強(qiáng)圖像過(guò)少時(shí),分割效果由于過(guò)擬合的影響,受陰影和地面影響較大,導(dǎo)致建筑物的分割邊界不明顯;但當(dāng)生成的增強(qiáng)圖像過(guò)多時(shí),又導(dǎo)致過(guò)度分割,造成實(shí)際建筑物以外的地物也被分割成建筑物,降低了分割精準(zhǔn)度??梢园l(fā)現(xiàn),當(dāng)生成1 000×2張?jiān)鰪?qiáng)圖像(實(shí)際生成1 011×2張)并輸入至U-net神經(jīng)網(wǎng)絡(luò)時(shí),可以較為精準(zhǔn)地分割出建筑物,且可以得到清晰的建筑物邊緣,如表1所示。
表1 對(duì)于不同增強(qiáng)樣本量U-net網(wǎng)絡(luò)分割效果
全連接CRFs模型通過(guò)結(jié)合所有像素之間的關(guān)系,將相鄰像元之間進(jìn)行全連接建模,引入像元顏色信息作為參考依據(jù),并根據(jù)U-net分割的結(jié)果計(jì)算像元?dú)w類(lèi)概率。將計(jì)算概率分布圖作為一元?jiǎng)菽?,即?duì)每一個(gè)像素進(jìn)行分類(lèi)評(píng)估,并計(jì)算歸類(lèi)概率。與此同時(shí),輸入原始影像提供位置信息及色彩信息作為二元?jiǎng)菽?,最終使得預(yù)測(cè)類(lèi)的類(lèi)別能量縮小至最小值,以達(dá)到最終的優(yōu)化結(jié)果。其處理流程如圖5所示。
圖5 全連接CRFs模型處理過(guò)程
全連接 CRFs模型中最重要的一步就是運(yùn)用inference函數(shù)進(jìn)行推理運(yùn)算得到能量函數(shù)的數(shù)值,每增加一次推算都會(huì)將能量縮小,使分割結(jié)果更加貼近真實(shí)地物的色彩信息。然而,建筑物的色彩信息雖然可以提升建筑物的邊緣分割效果,但推算過(guò)度也很有可能導(dǎo)致分割結(jié)果因色彩信息干擾變大,從而造成過(guò)度分類(lèi)的情況發(fā)生。
本文分別實(shí)現(xiàn)了從0 次推算到7 次推算的實(shí)驗(yàn),以板式居民樓的分割優(yōu)化情況為例,效果如圖6、圖7所示。
圖6 原圖、推算0~1次優(yōu)化效果對(duì)比
圖7 推算2~4次優(yōu)化效果對(duì)比
至此,可以發(fā)現(xiàn)經(jīng)過(guò)4 次推算已經(jīng)可以達(dá)到較好的后處理效果,除U形樓的色彩信息較為復(fù)雜,南側(cè)分割效果較差以外,已經(jīng)根據(jù)一定量的色彩信息優(yōu)化了邊界的分割,較好地完成了分割后處理操作。
圖8為經(jīng)過(guò)5~7 次推算的優(yōu)化效果。可以發(fā)現(xiàn),圖像受到了較多色彩信息影響而產(chǎn)生了過(guò)度分割的效果。
圖8 推算5~7次優(yōu)化效果對(duì)比
因此,本文采用4 次推算的全連接CRFs模型對(duì)U-net神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化,以取得最佳后處理效果。
綜上所述,本文采用基于U-net神經(jīng)網(wǎng)絡(luò)的高分辨率光學(xué)遙感影像建筑物提取方法對(duì)建筑物進(jìn)行分割。其總數(shù)據(jù)庫(kù)為121張512像素×512像素的高分辨率遙感影像,按照3∶1的比率將其分為訓(xùn)練集和測(cè)試集,并在輸入U(xiǎn)-net前進(jìn)行數(shù)據(jù)增強(qiáng),通過(guò)進(jìn)行圖像扭曲,將數(shù)據(jù)集(包括圖像數(shù)據(jù)及標(biāo)記數(shù)據(jù))擴(kuò)充至1 011×2張。本文的實(shí)驗(yàn)結(jié)果證實(shí)了本方法,實(shí)現(xiàn)了建筑物的精確分割。
本文所使用的原始影像圖幅像素尺寸為3 072像素×3 072像素??紤]到計(jì)算機(jī)實(shí)際狀況,若將該圖像直接輸入模型中進(jìn)行訓(xùn)練會(huì)導(dǎo)致內(nèi)存溢出。根據(jù)U-net網(wǎng)絡(luò)分割狀況以及實(shí)驗(yàn)計(jì)算機(jī)的實(shí)際情況,采用像素尺寸為512像素×512像素的滑窗及相應(yīng)步長(zhǎng),以保證滑窗之間在有重疊部分為前提下遍歷整幅影像,充分利用圖像中的特征信息。用上述思路將圖像裁剪輸出,從中選出含有建筑物的圖幅當(dāng)做訓(xùn)練樣本,并運(yùn)用python中提供的labelme模塊標(biāo)注樣本庫(kù)。
標(biāo)注的過(guò)程中,由于攝影角度及遮擋等問(wèn)題,建筑的底邊輪廓無(wú)法作為準(zhǔn)確的識(shí)別特征。因此,本文以建筑物的屋頂作為采樣真值進(jìn)行標(biāo)注。
數(shù)據(jù)格式轉(zhuǎn)換也是非常重要的一步。由于原高分辨率遙感影像為標(biāo)簽圖像文件格式(tag image file format,TIFF),支持24~256 色位圖像,但其文件過(guò)大,影響程序運(yùn)行速度。無(wú)損壓縮的位圖圖形格式(portable network graphics,PNG)可以以很小的文件體積保存很多圖像細(xì)節(jié),因此本文將TIF圖像文件格式轉(zhuǎn)換為PNG文件,在保證數(shù)據(jù)量的同時(shí)降低空間使用,以更高的效率進(jìn)行數(shù)據(jù)分割。
由于在采集原始遙感影像數(shù)據(jù)時(shí)會(huì)存在來(lái)自傳感器、地形及大氣等影響,導(dǎo)致圖像像素明暗不均,容易影響結(jié)果輸出效果,所以需對(duì)訓(xùn)練樣本庫(kù)進(jìn)行輻射校正,包括輻射定標(biāo)、大氣校正等操作,使得整張圖像更加清晰,明暗分布更加符合實(shí)際情況。
labelme建立的樣本庫(kù)文件的存儲(chǔ)格式j(luò)son文件為列表以及字典格式數(shù)據(jù),無(wú)法直接當(dāng)作圖像文件輸入到U-net分割中。將json文件轉(zhuǎn)化為圖像文件的基本思路為:讀取json文件,提取json文件中點(diǎn)坐標(biāo)信息;根據(jù)所屬圖幅、所屬多邊形進(jìn)行存儲(chǔ),建立與原始樣本等大的空白圖像文件;依據(jù)點(diǎn)坐標(biāo)信息分圖幅、分圖形依次畫(huà)出掩膜,將掩膜以相應(yīng)格式保存。其轉(zhuǎn)換流程如圖9所示。
圖9 json文件數(shù)據(jù)集轉(zhuǎn)換流程
由于數(shù)據(jù)集的數(shù)量與質(zhì)量會(huì)直接影響到U-net神經(jīng)網(wǎng)絡(luò)的分割效果,數(shù)量過(guò)少會(huì)導(dǎo)致網(wǎng)絡(luò)訓(xùn)練過(guò)擬合,數(shù)量過(guò)多又會(huì)增加人工勞動(dòng)成本,因此,將數(shù)據(jù)輸入U(xiǎn)-net神經(jīng)網(wǎng)絡(luò)之前,需要將訓(xùn)練樣本集中的數(shù)據(jù)放入python的Image Data Generator函數(shù)中進(jìn)行圖像增強(qiáng)。在增強(qiáng)的過(guò)程中,以每次運(yùn)行2張的速率及256像素×256像素的圖像大小不斷產(chǎn)生基于原始影像及標(biāo)注影像扭曲增強(qiáng)后的數(shù)據(jù),防止過(guò)擬合及訓(xùn)練過(guò)程過(guò)于耗時(shí)費(fèi)力的問(wèn)題。在此過(guò)程中,通過(guò)圖像扭曲將數(shù)據(jù)集圖像數(shù)量(包括圖像數(shù)據(jù)及標(biāo)記數(shù)據(jù))增強(qiáng)至1 011×2張,其中,包括圖像數(shù)據(jù)增強(qiáng)1 011張,標(biāo)注數(shù)據(jù)增強(qiáng)1 011張。扭曲效果如圖10所示。
圖10 樣本扭曲效果
圖10展示了數(shù)據(jù)增強(qiáng)的方法,包括旋轉(zhuǎn)、縮小、放大及拉伸。
將訓(xùn)練好的1 011×2張訓(xùn)練集輸入至U-net神經(jīng)網(wǎng)絡(luò)中,經(jīng)上采樣及下采樣10 層卷積,完成特征提取工作。將30張測(cè)試集數(shù)據(jù)輸入網(wǎng)絡(luò)中進(jìn)行分割,輸出相應(yīng)的30張分割后影像。效果如圖11~圖14所示。可以發(fā)現(xiàn),對(duì)建筑物分割效果仍存在分割邊界模糊的問(wèn)題。
圖11 原始影像與U-net分割效果
圖12 板式居民樓分割效果
圖13 塔式居民樓分割效果
圖14 廠(chǎng)房分割效果
針對(duì)U-net分割效果的不足,引入全連接CRFs模型進(jìn)行分割結(jié)果優(yōu)化后處理操作。全連接CRFs模型的輸入圖像格式應(yīng)為:一張24 位的RGB彩色圖像,及一張24 位的掩膜圖像(通??梢詾椴噬?,一個(gè)顏色代表一個(gè)類(lèi)別。本文只對(duì)建筑物進(jìn)行分割,因此只有一類(lèi)掩膜代表建筑物)。
為U-net輸出的16 位分割圖像建立32位整數(shù)顏色矩陣映射,并計(jì)算出圖中類(lèi)數(shù)(本文中為2類(lèi):背景及建筑物)。將映射矩陣作為一元?jiǎng)菽茌斎?,即圖像中的像元?dú)w類(lèi)概率。將原圖的坐標(biāo)及顏色特征(x,y,r,g,b)作為二元?jiǎng)菽茌斎?,之后進(jìn)行4 次推理,并找出每個(gè)像素最可能的類(lèi)。效果如圖15~圖17所示。
圖15 板式居民樓分割效果
圖16 塔式居民樓分割效果
圖17 廠(chǎng)房分割效果
表2以板式居民樓、塔式居民樓以及廠(chǎng)房為例,展示了原始影像、傳統(tǒng)方法(以最大似然分類(lèi)法為例)的分割效果、U-net神經(jīng)網(wǎng)絡(luò)的分割效果與本文方法(U-net+全連接CRFs)的分割效果對(duì)比。
表2 原始影像與3種提取方法分割效果對(duì)比
本文采用總體精度(overall accuracy,OA)對(duì)表2所示的結(jié)果進(jìn)行分析。
表3展示了分別將2種方法與相應(yīng)測(cè)試集中地物分布的對(duì)比分析結(jié)果。表中最大似然法的分割精度為直接與實(shí)際地物分布情況進(jìn)行比對(duì)得出;本文方法的分割精度為分別對(duì)30張圖像的分割結(jié)果進(jìn)行精度分析后,將每張圖的分割精度取平均得出。
表3 本文方法與最大似然法精度對(duì)比
本文的測(cè)試集為30張圖像(圖號(hào)從0~29),測(cè)試集的分割精度分布情況如圖18所示。
圖18 30張訓(xùn)練樣本精度分布情況
通過(guò)分析數(shù)據(jù)結(jié)果可以得出,相比于傳統(tǒng)分割方法,本文的分割方法在高分辨率遙感影像的建筑物提取方面得到了極大的精度提升。充分表明了利用深度學(xué)習(xí)U-net神經(jīng)網(wǎng)絡(luò)與全連接CRFs后處理模型的建筑物提取方法在高分辨率光學(xué)遙感影像建筑物語(yǔ)義分割方面的優(yōu)勢(shì)。
對(duì)于傳統(tǒng)遙感影像的不足,本文從深度學(xué)習(xí)找到了突破口和解決方案,提出了基于深度學(xué)習(xí)的U-net神經(jīng)網(wǎng)絡(luò),通過(guò)調(diào)試圖像增強(qiáng)函數(shù)的參數(shù)找到了一種能使得本文數(shù)據(jù)達(dá)到最好分割效果的樣本增強(qiáng)量;并針對(duì)U-net神經(jīng)網(wǎng)絡(luò)分割效果的不足,提出了基于全連接CRFs模型的優(yōu)化方案,通過(guò)調(diào)試全連接CRFs模型的推算流程參數(shù),以實(shí)現(xiàn)高效且精準(zhǔn)的建筑物提取功能。
本文列出了相關(guān)的主要操作步驟,這些操作均有相應(yīng)的程序及理論依據(jù)支持。本文的測(cè)試集均得到了很好的分割效果,平均總體精度達(dá)到了87.64%。
本文所涉及的地物為建筑物,其在城市規(guī)劃中是首要被考慮的因素。相對(duì)于運(yùn)用傳統(tǒng)方法進(jìn)行分割的效果和僅僅運(yùn)用U-net神經(jīng)網(wǎng)絡(luò)進(jìn)行分割的效果,本文所提出的基于U-net神經(jīng)網(wǎng)絡(luò)與全連接CRFs模型的語(yǔ)義分割方法雖然在耗時(shí)上均多于前2種方法,但其在分割精度上有了極大的提升,分割邊緣也更加清晰。
基于本文所運(yùn)用到的核心方法以及實(shí)驗(yàn)效果,提出2點(diǎn)展望。第一,本文雖運(yùn)用了U-net神經(jīng)網(wǎng)絡(luò)進(jìn)對(duì)高分辨率遙感影像行了分割,但并沒(méi)有對(duì)原網(wǎng)絡(luò)的結(jié)構(gòu)進(jìn)行修改。高分辨率遙感影像若僅僅通過(guò)U-net神經(jīng)網(wǎng)絡(luò)進(jìn)行分割,會(huì)存在建筑物分割邊界模糊的問(wèn)題。如何進(jìn)一步優(yōu)化U-net的模型結(jié)構(gòu),從而使之能更好地反映地物特征,并測(cè)試其是否能達(dá)到更好的分割精度將作為下一步研究的方向。第二,對(duì)于全連接CRFs模型推算次數(shù)較少會(huì)導(dǎo)致邊界分割效果較差,推算次數(shù)過(guò)多會(huì)受到圖像色彩信息影響的問(wèn)題,可以繼續(xù)拓展思路。嘗試優(yōu)化并運(yùn)用其他后處理方法,如模糊聚類(lèi)算法(fuzzy clustering methods,F(xiàn)CM)、馬爾科夫隨機(jī)場(chǎng)模型(Markov random field,MRF)等,或?qū)ふ乙环N可以識(shí)別邊界并基于邊界進(jìn)行分割后處理的方法,以達(dá)到更精準(zhǔn)的分割效果。