亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合多種影像特征與CNN的城市建筑物提取

        2020-12-05 01:52:16謝躍輝李百壽劉聰娜
        遙感信息 2020年5期
        關(guān)鍵詞:紋理尺度建筑物

        謝躍輝,李百壽,2,劉聰娜

        (1.桂林理工大學(xué) 測(cè)繪地理信息學(xué)院,廣西 桂林 541004;2.廣西空間信息與測(cè)繪重點(diǎn)實(shí)驗(yàn)室,廣西 桂林 541004)

        0 引言

        城市建筑物信息對(duì)城市規(guī)劃與管理領(lǐng)域有著重要的應(yīng)用價(jià)值。在遙感影像建筑物信息提取方面,產(chǎn)生了諸如建筑物形態(tài)學(xué)指數(shù)、局部結(jié)構(gòu)(邊、線和角)等幾何約束及視覺(jué)機(jī)制、感知編組等諸多方法[1-5],通過(guò)上述方法可以很清晰地闡釋遙感圖像建筑物信息提取的全過(guò)程。但模型創(chuàng)建過(guò)程的復(fù)雜度較高,建模的人工成本也較高,有時(shí)針對(duì)特征選擇具有主觀性,無(wú)法快速選擇最優(yōu)特征,需要進(jìn)行多次優(yōu)選,才能發(fā)現(xiàn)對(duì)提取精度有較大影響的關(guān)鍵特征,且所設(shè)計(jì)的模型無(wú)法應(yīng)用于城市各種類型的建筑物提取,對(duì)不同形狀類型、不同語(yǔ)義干擾環(huán)境下的建筑物提取精度也會(huì)產(chǎn)生不同的影響。

        隨著卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNNs)精度和性能的逐步提高,近年逐漸成為國(guó)內(nèi)外圖像識(shí)別領(lǐng)域人員的關(guān)注重點(diǎn)和熱點(diǎn)。Long等[6]通過(guò)卷積層代替CNNs的全連接層,以端對(duì)端的方式直接學(xué)習(xí)從圖像像素到類別標(biāo)簽的映射,提高了圖像分類的精度。目前在網(wǎng)絡(luò)結(jié)構(gòu)[7-9]、分類策略[10-12]方面對(duì)標(biāo)準(zhǔn)數(shù)據(jù)集開(kāi)展了相關(guān)優(yōu)化研究,調(diào)節(jié)網(wǎng)絡(luò)深度和網(wǎng)絡(luò)結(jié)構(gòu)參數(shù),但對(duì)網(wǎng)絡(luò)輸入圖像的選擇,主要采用原始圖像旋轉(zhuǎn)、加噪等預(yù)處理,對(duì)原圖像變換和多特征提取后的重構(gòu)特征圖像對(duì)分類結(jié)果的影響開(kāi)展的工作較少。

        僅采用原始輸入光譜圖像無(wú)法進(jìn)一步提高建筑物提取的精度,可以采用多種特征描述作為卷積網(wǎng)絡(luò)的輸入數(shù)據(jù),如尺度特征與紋理特征、幾何形狀特征等。多特征可以增加地物類別之間的可分離性,如紋理特征的使用會(huì)產(chǎn)生理想的分類效果[13-16]。以局部二值模式(local binary patterns,LBP)特征為例,在一些研究中,紋理信息對(duì)提高提取精度至少有2%左右的幫助[15]。又如LBP紋理特征與光譜信息結(jié)合,比僅采用光譜信息,相對(duì)精度提高了6%~9%[16]。在多尺度特征提取方法中,高斯金字塔是一種常用且有效的特征提取方法[17-20],一些研究結(jié)果顯示也提高了分類精度。如周全等[17]通過(guò)引入高斯金字塔獲取多尺度遙感云圖,在采用相同算法與分類器的條件下,高斯金字塔的引入使得分類精度提高了2.73%。在車牌照?qǐng)D像提取方面,劉軍等[19]結(jié)合高斯金字塔與梯度方向直方圖的方法提取車牌漢字特征,在相同的樣本空間下,高斯金字塔的引入與傳統(tǒng)的K-L變換及HOG變換在精度上分別有著33.7%和19.4%的提升。根據(jù)上述規(guī)律,本文首先利用LBP紋理結(jié)合高斯金字塔尺度模型,獲取高分影像紋理特征以及多尺度特征,并以此為數(shù)據(jù)源構(gòu)建卷積網(wǎng)絡(luò)深度學(xué)習(xí)樣本集,結(jié)合SegNet卷積網(wǎng)絡(luò)對(duì)多特征影像進(jìn)行分類,采用條件隨機(jī)場(chǎng)模型對(duì)分類結(jié)果進(jìn)行優(yōu)化。

        1 多種影像特征與卷積網(wǎng)絡(luò)結(jié)合的城市建筑物提取方法

        1.1 方法步驟與原理

        首先,通過(guò)LBP對(duì)高分影像進(jìn)行紋理特征提取,并選取適當(dāng)尺度參數(shù)由高斯金字塔獲取影像多尺度特征,在此基礎(chǔ)上同原始影像共同構(gòu)建樣本數(shù)據(jù)集,增強(qiáng)網(wǎng)絡(luò)對(duì)于建筑物多尺度信息和紋理特征信息利用;其次,對(duì)含有影像光譜、紋理及多尺度等特征的數(shù)據(jù)集進(jìn)行卷積、池化等前向傳播計(jì)算,得到影像特征圖;然后,將影像特征圖進(jìn)行反向解碼,通過(guò)重復(fù)使用最大池化索引,改善邊界劃定,減少訓(xùn)練參數(shù),并通過(guò)標(biāo)簽數(shù)據(jù)反向傳播算法更新網(wǎng)絡(luò)權(quán)重;接著,將特征向量輸入Softmax進(jìn)行逐像素分類,輸出每個(gè)像素隸屬于各個(gè)類別的概率,完成建筑物粗提??;最后,通過(guò)條件隨機(jī)場(chǎng)(conditional random field,CRF)優(yōu)化邊界信息,完成建筑物的精細(xì)輪廓邊界提取。本文方法的具體流程如圖1所示。

        圖1 方法步驟原理框圖

        1.2 LBP紋理與多尺度特征提取

        將待處理像素與周圍8個(gè)像素進(jìn)行比較,若像素值比中心像素值大,賦值為1;若像素值比中心像素值小,則賦值為0,獲取二進(jìn)制序列。隨后對(duì)獲取的二進(jìn)制序列不斷地進(jìn)行旋轉(zhuǎn),獲得LBP旋轉(zhuǎn)不變模式特征,其計(jì)算如式(1)所示。

        (1)

        式中:(xc,yc)為中心像素;ic為灰度值;ip為相鄰像素的灰度值;s為符號(hào)函數(shù),采用式(2)計(jì)算。

        (2)

        高斯金字塔尺度-光譜特征生成過(guò)程包括:對(duì)原始光譜影像進(jìn)行高斯平滑濾波,平滑后對(duì)輸出影像進(jìn)行降采樣處理,獲得設(shè)定尺度因子下的尺度-光譜特征。其中尺度因子有著重要作用,決定了尺度-光譜特征影像的平滑程度。

        高斯金字塔多尺度特征提取方法如下:設(shè)原始二維影像表示為I(x,y),高斯函數(shù)表示為G(x,y,σ),通過(guò)式(3)、式(4)構(gòu)造高斯尺度空間L(x,y,σ)計(jì)算式。

        L(x,y,σ)=G(x,y,σ)?I(x,y)

        (3)

        (4)

        式中:(x,y)為空間坐標(biāo);?為卷積運(yùn)算符;σ為尺度因子。

        1.3 SegNet網(wǎng)絡(luò)模型與預(yù)測(cè)結(jié)果優(yōu)化

        SegNet網(wǎng)絡(luò)模型在每一個(gè)卷積層之后都緊跟一個(gè)批歸一化(batch normalization,BN)層。解碼器部分同F(xiàn)CN一樣,舍棄全連接層,取而代之的為一系列的卷積操作,并且每個(gè)編碼器層都與相應(yīng)的解碼器層對(duì)應(yīng),實(shí)現(xiàn)一個(gè)端到端架構(gòu)。在池化過(guò)程中引入最大池化索引信息,保存了最大特征值所在的位置。在解碼過(guò)程中,通過(guò)池化索引來(lái)實(shí)現(xiàn)非線性的上采樣,使得邊界信息得以保存。在解碼過(guò)程中重復(fù)使用最大池化索引,不僅改善了邊界的劃定,同時(shí)也減少了進(jìn)行端對(duì)端訓(xùn)練的參數(shù),是擁有較少參數(shù)的輕量級(jí)網(wǎng)絡(luò),有著存儲(chǔ)效率高和速度快等優(yōu)點(diǎn),非常適合本文的研究。

        在網(wǎng)絡(luò)輸出分類后,采用條件隨機(jī)場(chǎng)對(duì)網(wǎng)絡(luò)輸出進(jìn)行優(yōu)化。條件隨機(jī)場(chǎng)是由各像素之間的相關(guān)關(guān)系作為邊構(gòu)成,其中每個(gè)像素節(jié)點(diǎn)i具有對(duì)應(yīng)的類別標(biāo)簽xi,以及特征映射值yi。其滿足吉布斯分布,見(jiàn)式(5)。

        (5)

        式中:E(x|I)為能量函數(shù),如式(6)所示。

        (6)

        (7)

        2 方法實(shí)驗(yàn)設(shè)計(jì)與結(jié)果

        2.1 實(shí)驗(yàn)設(shè)計(jì)

        為深入研究多種影像特征及卷積神經(jīng)網(wǎng)絡(luò)對(duì)城市建筑物提取的影響,本文分別從紋理因素、尺度因素以及卷積網(wǎng)絡(luò)優(yōu)化因素(原始影像張數(shù)、樣本個(gè)數(shù)、迭代次數(shù))對(duì)實(shí)驗(yàn)進(jìn)行設(shè)計(jì)。以實(shí)驗(yàn)1作為基礎(chǔ)實(shí)驗(yàn)結(jié)果,并在此基礎(chǔ)上依次加入紋理特征或多尺度特征,構(gòu)建實(shí)驗(yàn)2與實(shí)驗(yàn)5的設(shè)計(jì)內(nèi)容。實(shí)驗(yàn)3、4、6分別考慮網(wǎng)絡(luò)優(yōu)化因素的影響,用于調(diào)節(jié)網(wǎng)絡(luò)模型。具體實(shí)驗(yàn)參數(shù)設(shè)計(jì)如表1所示。

        表1 實(shí)驗(yàn)參數(shù)設(shè)計(jì)

        為探究模型對(duì)相同數(shù)據(jù)源下不同研究區(qū)域的泛化能力以及同其他方法間的性能比較,本文以實(shí)驗(yàn)6訓(xùn)練所得模型對(duì)不同研究區(qū)進(jìn)行預(yù)測(cè),并同其他方法進(jìn)行對(duì)比分析。同時(shí),為進(jìn)一步探究本文所提出方法對(duì)不同數(shù)據(jù)源是否具有較好的泛化能力,對(duì)武漢大學(xué)的國(guó)內(nèi)航空影像也進(jìn)行預(yù)測(cè)分析。

        2.2 軟硬件環(huán)境

        實(shí)驗(yàn)運(yùn)行環(huán)境為Win7 64位操作系統(tǒng),以TensorFlow+Keras開(kāi)源深度學(xué)習(xí)框架作為開(kāi)發(fā)平臺(tái),利用基于Python的cv2、matplotlib等第三方庫(kù)進(jìn)行數(shù)據(jù)預(yù)處理及繪制等操作。硬件環(huán)境為因特爾Core i7-7700 K處理器,搭配NVIDIA GeForce GTX 1070顯卡,8 GB顯存,CUDA 9.0加速計(jì)算。

        2.3 實(shí)驗(yàn)數(shù)據(jù)選擇

        圖2 訓(xùn)練與測(cè)試影像選取

        本文采用的數(shù)據(jù)同文獻(xiàn)[21]中使用的馬薩諸塞州航空影像建筑物數(shù)據(jù)集(含地表真實(shí)標(biāo)簽數(shù)據(jù))。該數(shù)據(jù)集為1 m高分辨率影像,對(duì)高分辨率遙感影像來(lái)說(shuō)是具有代表性和典型性的,對(duì)于國(guó)內(nèi)的高分航空航天遙感影像具有啟發(fā)意義,且該數(shù)據(jù)集數(shù)據(jù)量較豐富,比較適合做探究。該數(shù)據(jù)集包括波士頓地區(qū)的151幅航空影像,每幅影像大小為1 500像素×1 500像素,覆蓋面積2.25 km2。影像集中小型建筑物邊長(zhǎng)為20~30像素,大型建筑物長(zhǎng)為150~250像素,寬為70~150像素。實(shí)驗(yàn)1~實(shí)驗(yàn)5從訓(xùn)練圖像中抽取1張影像進(jìn)行預(yù)處理,如圖2(a)所示。實(shí)驗(yàn)6在基礎(chǔ)實(shí)驗(yàn)上增加分類訓(xùn)練圖像數(shù)量到8張。測(cè)試集影像為3張,分別為不同區(qū)域下的馬薩諸塞州航空影像建筑物數(shù)據(jù),圖2(b)為其中一幅。

        1)紋理與多尺度特征提取??紤]到基于復(fù)雜場(chǎng)景下的建筑物往往存在大量的陰影,植被、復(fù)雜屋頂材料等因素交雜在一起,單獨(dú)依靠影像的光譜特征、空間特征進(jìn)行建筑物提取,效果往往不是很理想,本文方法利用LBP算法引入基礎(chǔ)視覺(jué)中的紋理特征,將提取的紋理特征加入訓(xùn)練集參與模型訓(xùn)練。同時(shí)基于高斯金字塔模型對(duì)原始訓(xùn)練影像進(jìn)行多尺度光譜特征提取,其中尺度因子平滑系數(shù)設(shè)置為0.5,獲取750×750和375×375 2個(gè)尺度的尺度-光譜特征圖像,如圖3所示。

        圖3 多特征影像

        2)訓(xùn)練樣本集制作。對(duì)樣本尺寸與建筑物尺寸關(guān)系研究后發(fā)現(xiàn),利用256像素×256像素的尺寸既滿足建筑物識(shí)別提取分辨率的需要,又可滿足本實(shí)驗(yàn)硬件環(huán)境下計(jì)算效率需求,因此采用OpenCV對(duì)原始訓(xùn)練影像隨機(jī)裁剪256像素×256像素大小樣本,形成樣本集。同時(shí)采用多角度旋轉(zhuǎn)(90°、180°、270°)、鏡像變換、亮度調(diào)整以及添加噪聲點(diǎn)等虛擬樣本增強(qiáng)操作擴(kuò)充樣本集,樣本集中訓(xùn)練集和驗(yàn)證集樣本數(shù)目比例設(shè)計(jì)為3∶1,測(cè)試集選取馬薩諸塞州航空影像建筑物數(shù)據(jù)集中未參與模型訓(xùn)練的3幅原始1 500像素×1 500像素大小的不同區(qū)域影像數(shù)據(jù)進(jìn)行預(yù)測(cè),以此來(lái)探究模型的泛化能力。

        圖4為光譜、紋理和光譜-多尺度特征圖像及其標(biāo)簽,圖4(a)~圖4(c)為光譜、光譜-尺度圖像標(biāo)簽,圖4(d)為紋理圖像標(biāo)簽。

        圖4 訓(xùn)練樣本及其標(biāo)簽

        2.4 模型訓(xùn)練與Softmax分類

        網(wǎng)絡(luò)由13個(gè)卷積層和5個(gè)池化層組成,卷積網(wǎng)絡(luò)采用大尺寸的卷積核可以獲得更大的感受野,但同時(shí)也增加了參數(shù)量。為獲得最優(yōu)感受野,本文將卷積核大小分為3×3、5×5、7×7 3種情況,在相同環(huán)境下進(jìn)行實(shí)驗(yàn)分析。通過(guò)對(duì)每種情況進(jìn)行3次實(shí)驗(yàn),獲取相對(duì)應(yīng)的精度及所需時(shí)間,求取3次平均值作為最終結(jié)果,如表2所示。實(shí)驗(yàn)表明,以3×3作為感受野能獲得較好召回率和F1評(píng)分,而時(shí)間成本上卻有著大幅度的縮減。因此,本文選擇以3×3作為本實(shí)驗(yàn)的最優(yōu)感受野進(jìn)行實(shí)驗(yàn)分析。

        表2 不同卷積核對(duì)比

        (8)

        式中:yi為第i個(gè)像素的真實(shí)值,yi=0表示該像素屬于背景區(qū)域,yi=1則表示該像素為建筑物區(qū)域;ai為預(yù)測(cè)值,取值范圍為(0,1)內(nèi),ai越趨近于1,則該像素屬于建筑物的概率就越高。訓(xùn)練過(guò)程采用隨機(jī)梯度下降(SGD)不斷調(diào)整網(wǎng)絡(luò)的權(quán)重參數(shù),通過(guò)反向傳播使得損失函數(shù)L達(dá)到最小。文中使用來(lái)自Vggnet的所有預(yù)先訓(xùn)練的卷積層權(quán)重作為預(yù)先訓(xùn)練的權(quán)重,其中學(xué)習(xí)率初始值為0.01,受限于計(jì)算機(jī)資源批次大小設(shè)置為4。在模型訓(xùn)練之前,數(shù)據(jù)標(biāo)準(zhǔn)化是必要的。本實(shí)驗(yàn)采用0均值歸一化方法將RGB影像[0,255]歸一化到[0,1],使得網(wǎng)絡(luò)輸入限制在一定范圍內(nèi),避免了訓(xùn)練樣本差異造成的訓(xùn)練過(guò)程不收斂,加速梯度下降優(yōu)化過(guò)程。以實(shí)驗(yàn)6為例,迭代20次之后,模型的損失率隨著訓(xùn)練數(shù)據(jù)的損失率的減少而逐漸收斂。

        Softmax分類器采用逐像素分類,通過(guò)分類概率最大值確定最終類別結(jié)果。采用Softmax分類器對(duì)實(shí)驗(yàn)1~實(shí)驗(yàn)6進(jìn)行建筑物分類提取,同時(shí)采用CRF法對(duì)實(shí)驗(yàn)6分類結(jié)果進(jìn)行優(yōu)化。

        為探究模型對(duì)相同數(shù)據(jù)源下不同研究區(qū)域的泛化能力以及同其他方法間的性能比較,本文以實(shí)驗(yàn)6訓(xùn)練所得模型對(duì)不同研究區(qū)進(jìn)行預(yù)測(cè),并同其他方法進(jìn)行對(duì)比分析。同時(shí),為進(jìn)一步探究本文所提出方法對(duì)不同數(shù)據(jù)源是否具有較好的泛化能力,對(duì)武漢大學(xué)的國(guó)內(nèi)航空影像也進(jìn)行預(yù)測(cè)分析。

        2.5 提取結(jié)果誤差分析與精度評(píng)價(jià)

        1)提取結(jié)果誤差分布分析。實(shí)驗(yàn)1~實(shí)驗(yàn)6提取結(jié)果如圖5(a)~圖5(f)所示;采用條件隨機(jī)場(chǎng)優(yōu)化結(jié)果如圖6所示;不同方法下馬薩諸塞州航空影像建筑物數(shù)據(jù)集不同研究區(qū)的提取結(jié)果如圖7所示;不同數(shù)據(jù)源下提取結(jié)果如圖8所示。利用ENVI軟件結(jié)合已知建筑物標(biāo)簽樣本,對(duì)建筑物提取結(jié)果中的誤差分布進(jìn)行標(biāo)記,紅色標(biāo)記為錯(cuò)分像元,藍(lán)色標(biāo)記為漏分像元,綠色顯示為正確提取像元。

        多特征因素影響分析。圖5(a)顯示加入多特征前提取結(jié)果包括很多錯(cuò)分和漏分像元;加入LBP紋理特征,建筑物提取精度有著顯著提高,錯(cuò)分像元減少。在對(duì)比紋理加入前后影像發(fā)現(xiàn),加入的紋理特征對(duì)于剔除與建筑物屋頂光譜產(chǎn)生混淆的水泥地面具有很好的作用,容易從水泥地面中提取出建筑物,如圖5(b)所示。在紋理特征的基礎(chǔ)上加入多尺度特征提取結(jié)果誤差分布如圖5(e)所示。

        圖5 不同實(shí)驗(yàn)設(shè)計(jì)的提取結(jié)果

        網(wǎng)絡(luò)參數(shù)對(duì)提取結(jié)果的影響。為獲取最優(yōu)網(wǎng)絡(luò)參數(shù),分別從迭代次數(shù)、樣本數(shù)量以及原始影像張數(shù)入手。由圖5中的(c)可以看到,在10 000個(gè)樣本數(shù)量、迭代次數(shù)為10的條件下,分割結(jié)果中存在大量的漏分像元;迭代次數(shù)增加有利于提高模型對(duì)于建筑物深層特征的學(xué)習(xí)效果,減少漏分現(xiàn)象(圖5(d));樣本數(shù)量的增加可以增加可學(xué)習(xí)的特征,進(jìn)而區(qū)分與背景易混淆的小尺度建筑物,進(jìn)一步減少漏分像元,提取結(jié)果如圖5(e)、圖5(f)所示。

        對(duì)圖5(a)~圖5(f)綜合分析發(fā)現(xiàn),紅色錯(cuò)分像元主要分布在建筑物的邊緣。建筑物被植被遮擋,較小的卷積核(3×3的卷積核)降低了網(wǎng)絡(luò)的感受視野,對(duì)像元鄰域信息利用不足是錯(cuò)分像元產(chǎn)生的主要原因。采用條件隨機(jī)場(chǎng)優(yōu)化結(jié)果如圖6所示,與圖5相比,增加了正確提取的建筑物像元個(gè)數(shù)。

        路基路面防水處理在設(shè)計(jì)階段和施工階段需要遵循的事項(xiàng)如下:(1)在設(shè)計(jì)階段,要降低或是阻隔可能影響公路路基路面整體穩(wěn)定性的地下水,必要情況下,可疏干地下水,將地下水引流至路基路面施工范圍以外,對(duì)于影響路基路面整體穩(wěn)定性的地面水,采取同樣的引流方式,可適當(dāng)攔截,防止地面水沿公路路面下滲;(2)在施工階段中,要對(duì)路基路面防水設(shè)計(jì)進(jìn)行核對(duì),根據(jù)施工現(xiàn)場(chǎng)實(shí)際情況對(duì)設(shè)計(jì)方案進(jìn)行必要的修改或是完善,確保后期施工穩(wěn)妥。在路基施工現(xiàn)場(chǎng)要預(yù)先設(shè)置臨時(shí)排水渠道。同時(shí)在后期的路基養(yǎng)護(hù)中要對(duì)排水設(shè)施進(jìn)行定期檢修,以保證沉降在路基路面的水能夠及時(shí)被導(dǎo)出并排除[1]。

        不同方法下不同研究區(qū)間的對(duì)比實(shí)驗(yàn)。為探究模型對(duì)相同數(shù)據(jù)源下不同研究區(qū)域的泛化能力,本文以實(shí)驗(yàn)6訓(xùn)練所得模型對(duì)不同研究區(qū)進(jìn)行預(yù)測(cè),并同其他方法進(jìn)行對(duì)比分析;通過(guò)與Lenet神經(jīng)網(wǎng)絡(luò)以及傳統(tǒng)監(jiān)督分類方法進(jìn)行對(duì)比實(shí)驗(yàn),驗(yàn)證本文提出方法的可行性。實(shí)驗(yàn)結(jié)果如圖7所示。對(duì)比本文模型在馬薩諸塞州3個(gè)不同區(qū)域的提取結(jié)果可以看出,相對(duì)于圖7(a)區(qū)域1來(lái)說(shuō),圖7(b)區(qū)域2與圖7(c)區(qū)域3存在較多的漏分,其原因主要在于,圖7(b)區(qū)域2與圖7(c)區(qū)域3位于鄉(xiāng)村與郊區(qū)地區(qū),植被茂密,存在較多的建筑物被植被覆蓋以及陰影的遮擋現(xiàn)象,導(dǎo)致漏分像元較多;另一方面由于個(gè)別標(biāo)簽中存在的建筑物在實(shí)際影像中未有與之對(duì)應(yīng)的建筑物,而造成漏分,進(jìn)而影響整體的精確率。

        圖6 實(shí)驗(yàn)6+CRF提取結(jié)果

        圖7 不同方法下不同研究區(qū)提取結(jié)果

        將本文方法與Lenet方法及傳統(tǒng)監(jiān)督分類方法中的最大似然法進(jìn)行對(duì)比可以發(fā)現(xiàn),在相同數(shù)據(jù)、相同實(shí)驗(yàn)環(huán)境下,只存在模型差異的2種卷積神經(jīng)網(wǎng)絡(luò)方法都能比較好地區(qū)分地物,進(jìn)而更好地提取建筑物。而相對(duì)于Lenet模型而言,本文所使用的SegNet模型對(duì)更為復(fù)雜的區(qū)域的提取效果優(yōu)于Lenet模型,如區(qū)域1,而對(duì)于道路與建筑物的區(qū)分度更強(qiáng),如區(qū)域3。對(duì)照最大似然法提取結(jié)果可以直觀看出,相對(duì)于卷積神經(jīng)網(wǎng)絡(luò)算法,最大似然分類算法很難有效地區(qū)分出建筑物與道路,造成大量的錯(cuò)分。

        不同數(shù)據(jù)源下模型泛化能力探究。為進(jìn)一步探究本文所提出方法對(duì)不同數(shù)據(jù)源是否具有較好的泛化能力,以實(shí)驗(yàn)6訓(xùn)練所得模型對(duì)武漢大學(xué)的航空影像進(jìn)行預(yù)測(cè),預(yù)測(cè)結(jié)果如圖8所示。從圖中可清晰地看出,針對(duì)國(guó)內(nèi)建筑物提取,直接利用已有的訓(xùn)練模型進(jìn)行提取效果不是很理想,存在比較多的漏分和錯(cuò)分現(xiàn)象。其中,漏分部分主要因素是建筑物屋頂被綠色植被覆蓋,以及一些建筑物差異性較大;而錯(cuò)分部分主要來(lái)源于建筑物周圍陰影的影響,以及河流中的船只被錯(cuò)分成建筑物。

        圖8 不同數(shù)據(jù)源下提取結(jié)果

        2)精度評(píng)價(jià)。為進(jìn)一步對(duì)本文所提方法的有效性進(jìn)行驗(yàn)證,對(duì)分類結(jié)果作進(jìn)一步分析,以精確率、召回率和F1評(píng)分3個(gè)指標(biāo)來(lái)定量評(píng)價(jià)模型預(yù)測(cè)的精度。

        加入特征后的精度情況。從表3中對(duì)比實(shí)驗(yàn)1與實(shí)驗(yàn)2的定量精度評(píng)價(jià)指標(biāo)可以看出,將紋理特征加入模型進(jìn)行訓(xùn)練確實(shí)能提高預(yù)測(cè)精度,精確率P、召回率R以及F1評(píng)分3個(gè)指標(biāo)分別提升了7.58%、2.83%和4.81%。對(duì)比實(shí)驗(yàn)2和實(shí)驗(yàn)5可以發(fā)現(xiàn),采用高斯影像金字塔構(gòu)建多尺度特征對(duì)模型的精度產(chǎn)生影響,其中精確率和F1評(píng)分分別提升了0.63%和0.17%。對(duì)比實(shí)驗(yàn)1與實(shí)驗(yàn)5可以發(fā)現(xiàn),基于紋理信息和多尺度特征增強(qiáng)下的建筑物提取精度取得了進(jìn)一步提升,3個(gè)指標(biāo)分別提高了8.01%、2.71%和4.98%。同時(shí)也顯示了2種特征對(duì)提升分類精度貢獻(xiàn)不同:提取大小2個(gè)尺度的特征光譜,分別表征高分影像的光譜多尺度特征,與紋理特征相比,對(duì)卷積網(wǎng)絡(luò)深度學(xué)習(xí)分類結(jié)果精度影響較小,對(duì)精度貢獻(xiàn)較小。

        表3 不同組實(shí)驗(yàn)精度對(duì)比 %

        網(wǎng)絡(luò)優(yōu)化后的精度情況。從實(shí)驗(yàn)3與實(shí)驗(yàn)4看,循環(huán)訓(xùn)練的次數(shù)在一定范圍上對(duì)模型訓(xùn)練的精度是有益的,不管是精確率、召回率,還是F1評(píng)分都有大幅度的提升,分別為4.10%、9.96%和9.64%。對(duì)于實(shí)驗(yàn)4與實(shí)驗(yàn)5來(lái)說(shuō),訓(xùn)練樣本的數(shù)目對(duì)模型的預(yù)測(cè)精度起到了決定作用,隨著樣本數(shù)據(jù)的增加,模型也得到質(zhì)的提升,3個(gè)指標(biāo)分別提高了4.79%、17.31%和13.81%。在實(shí)驗(yàn)6中,加入另外7張1 500像素×1 500像素的建筑物數(shù)據(jù)集,并通過(guò)LBP提取相應(yīng)的紋理特征,以及多尺度特征的提取,以此分割成100 000個(gè)樣本數(shù)據(jù)集進(jìn)行模型訓(xùn)練,精確率達(dá)到了80.35%,表明增加樣本數(shù)據(jù)的數(shù)量及特征對(duì)模型精度的提高有著很好的促進(jìn)作用。

        條件隨機(jī)場(chǎng)優(yōu)化后的精確率相較于優(yōu)化前有著大幅度的提升,精確率增加了12.38%, CRF對(duì)于邊緣正確提取精度有著較好的效果,但召回率下降了2.40%,F(xiàn)1評(píng)分整體增加了3.16%。

        不同方法下不同研究區(qū)間的精度情況。表4列出了本文方法、Lenet方法以及傳統(tǒng)監(jiān)督分類的最大似然法對(duì)馬薩諸塞州區(qū)域1、區(qū)域2與區(qū)域3(依次從上到下順序)共3個(gè)不同區(qū)域進(jìn)行的定量分析??梢钥闯觯瑢?duì)于精確率而言,存在一定的跳躍,即漏分像元數(shù)量存在較大差異。其原因與“提取結(jié)果誤差分布分析”中對(duì)應(yīng)部分相吻合。本文方法對(duì)區(qū)域1的精確率最高,達(dá)到80.35%。對(duì)于召回率以及F1評(píng)分而言,均較為穩(wěn)定,介于66%~77%之間。對(duì)比本文方法與其他2種方法可以看出,本文方法與Lenet卷積神經(jīng)網(wǎng)絡(luò)方法相對(duì)于傳統(tǒng)的監(jiān)督分類方法,能更好地區(qū)分不同地物,具體體現(xiàn)在召回率上,最大似然法的召回率最高只達(dá)到26.40%,而卷積神經(jīng)網(wǎng)絡(luò)方法平均有70%以上的召回率。而對(duì)比同為卷積神經(jīng)網(wǎng)絡(luò)且在完全相同的數(shù)據(jù)下的本文方法與Lenet卷積神經(jīng)網(wǎng)絡(luò)方法,在精確率上,本文方法3個(gè)區(qū)域的平均精確率比Lenet方法高1.36%,而在平均召回率上,僅有著0.19%的微小差距。

        表4 不同方法下不同研究區(qū)域?qū)嶒?yàn)精度表 %

        不同數(shù)據(jù)源下提取精度情況。從表5武漢大學(xué)國(guó)內(nèi)航空數(shù)據(jù)精度上可以看出,直接將本文訓(xùn)練所得模型應(yīng)用于不同數(shù)據(jù)源航空數(shù)據(jù),在精確率、召回率以及F1評(píng)分上也有著相對(duì)較好的精度,分別為43.00%、68.52%以及52.84%。

        表5 不同數(shù)據(jù)源實(shí)驗(yàn)精度表 %

        3 結(jié)束語(yǔ)

        本文通過(guò)建筑物提取理論和實(shí)驗(yàn)研究提出一種基于多種特征與卷積神經(jīng)網(wǎng)絡(luò)的城市建筑物提取方法,從數(shù)據(jù)增強(qiáng)的角度出發(fā),研究了紋理特征和尺度特征對(duì)CNN模型分類精度的影響研究。采用LBP和高斯金字塔來(lái)分別獲取高分影像的紋理特征和多尺度特征,并將其輸入卷積神經(jīng)網(wǎng)絡(luò)中參與建筑物提取。結(jié)果表明,紋理、尺度、光譜等多特征SegNet網(wǎng)絡(luò)模型方法實(shí)現(xiàn)的準(zhǔn)確率、召回率、F1評(píng)分分別為92.73%、65.39%、76.70%。將紋理特征和尺度特加入模型進(jìn)行訓(xùn)練可以提高預(yù)測(cè)精度,精確率、召回率以及F1評(píng)分3個(gè)指標(biāo)分別提升了8.01%、2.71%和4.98%。與紋理特征相比,尺度特征對(duì)精度貢獻(xiàn)較小,其中精確率和F1評(píng)分分別提高了0.63%和0.17%。網(wǎng)絡(luò)優(yōu)化結(jié)果表明:增加循環(huán)訓(xùn)練次數(shù)對(duì)模型訓(xùn)練的精度是有益的,不管是精確率、召回率還是F1評(píng)分都有著大幅度的提升,分別為4.10%、9.96%和9.64%;訓(xùn)練樣本的數(shù)目對(duì)模型的預(yù)測(cè)精度起到了決定作用,本文研究發(fā)現(xiàn)隨著樣本數(shù)據(jù)的增加,3個(gè)指標(biāo)分別提高了4.79%、17.31%和13.81%。條件隨機(jī)場(chǎng)優(yōu)化后的精確率相較于優(yōu)化前有著大幅度的提升,增加了正確提取建筑物像元的個(gè)數(shù),精確率增加了12.38%, CRF對(duì)于邊緣正確提取精度有著較好的效果,但召回率下降了2.40%,F(xiàn)1評(píng)分總體增加了3.16%。

        通過(guò)對(duì)比不同方法下不同研究區(qū)間的精度情況表明,基于本文方法所獲取的模型對(duì)相同數(shù)據(jù)源下不同研究區(qū)域的泛化能力較好,平均精確率68%以上,平均召回率在72%左右,相對(duì)于Lenet卷積神經(jīng)網(wǎng)絡(luò)精確率有著1.36%的提升;而對(duì)于傳統(tǒng)監(jiān)督分類算法在平均精確率、召回率以及F1評(píng)分上,分別有著6.96%、51.69%和39.33%的提高。

        對(duì)比不同數(shù)據(jù)源下提取精度情況表明,直接將本文訓(xùn)練所得模型應(yīng)用于不同數(shù)據(jù)源航空數(shù)據(jù)在精確率、召回率以及F1評(píng)分上也有著相對(duì)較好的精度,分別為43%、68.52%以及52.84%,但與直接應(yīng)用于相同數(shù)據(jù)源下的精度還存在較大上升空間。

        本文使用馬薩諸塞州1 m高分辨率影像建筑物數(shù)據(jù)集,對(duì)高分辨率航空航天影像而言具有代表性和典型性,對(duì)于國(guó)內(nèi)的高分航空航天遙感影像具有一定的啟發(fā)意義。為了進(jìn)一步研究提升結(jié)合多種特征和CNN方法的精度,將來(lái)可采用其他高分遙感標(biāo)準(zhǔn)化數(shù)據(jù)集做進(jìn)一步處理研究。針對(duì)不同數(shù)據(jù)源分類精度有待提高的問(wèn)題,可在已有的基礎(chǔ)上通過(guò)遷移學(xué)習(xí)做進(jìn)一步的研究,同時(shí)開(kāi)展更多特征融入卷積網(wǎng)絡(luò)的實(shí)驗(yàn)研究,例如形狀特征如何融入,目前尚未有很好的解決思路和研究。此外,研究中也發(fā)現(xiàn)通過(guò)條件隨機(jī)場(chǎng)方法對(duì)預(yù)測(cè)結(jié)果做進(jìn)一步精細(xì)化處理,可以提高建筑物提取的精確率和F1評(píng)分指標(biāo)值。

        猜你喜歡
        紋理尺度建筑物
        鄰近既有建筑物全套管回轉(zhuǎn)鉆機(jī)拔樁技術(shù)
        財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
        基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
        軟件(2020年3期)2020-04-20 01:45:18
        描寫建筑物的詞語(yǔ)
        使用紋理疊加添加藝術(shù)畫特效
        TEXTURE ON TEXTURE質(zhì)地上的紋理
        Coco薇(2017年8期)2017-08-03 15:23:38
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        消除凹凸紋理有妙招!
        Coco薇(2015年5期)2016-03-29 23:22:15
        火柴游戲
        9
        亚洲av成人片色在线观看高潮| 亚洲国产一区二区三区在观看| 国产乱老熟视频乱老熟女1| 人妻精品久久一区二区三区| 日本顶级metart裸体全部| 欧美成人免费全部| 亚洲国产精品自拍一区| 亚洲成a人片在线观看中| 国产精品自拍盗摄自拍| 一本色道久久88加勒比—综合| 97精品人妻一区二区三区香蕉| 中文字幕在线久热精品| 精品日本一区二区视频| 国产乱精品女同自线免费| 大地资源在线观看官网第三页| 区二区欧美性插b在线视频网站| 国产精品久久久久亚洲| 中文字幕一区乱码在线观看| 欧美日本精品一区二区三区| 人妻丰满熟妇av无码片| 在线免费欧美| 加勒比一区二区三区av| 亚洲欧洲av综合色无码| 欧美猛男军警gay自慰| 精品国产福利片在线观看| 国产成av人在线观看| 日韩av无码一区二区三区| 国产一女三男3p免费视频| 日本在线观看不卡| 亚洲一区二区日韩精品| 日日摸夜夜添夜夜添高潮喷水 | 在线观看国产视频你懂得| 东京热人妻无码一区二区av| 国产精品无码无片在线观看| 久久麻豆精亚洲av品国产蜜臀| 亚洲中文字幕精品乱码2021| 粉嫩虎白女毛片人体| 国产精品18久久久久网站| 91国内偷拍精品对白| 奇米影视7777久久精品| 久久精品国产9久久综合|