亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于UNet網(wǎng)絡(luò)的高分辨率遙感影像建筑物提取

        2023-07-10 13:45:55屠冉
        關(guān)鍵詞:深度學(xué)習(xí)

        關(guān)鍵詞:高分辨率遙感影像;深度學(xué)習(xí);建筑物提??;UNet網(wǎng)絡(luò)

        中圖法分類(lèi)號(hào):P237 文獻(xiàn)標(biāo)識(shí)碼:A

        高分辨率遙感影像覆蓋范圍大、信息量大、更新速度快,對(duì)于地面信息的獲取十分重要。目前對(duì)高分辨率遙感影像建筑物的有效提取是城市遙感影像的主要研究方向,一方面,對(duì)建筑物的精確提取有利于城市變化監(jiān)測(cè)、三維建模、智慧城市建設(shè)等領(lǐng)域的深入應(yīng)用和擴(kuò)展,以及在城市空間數(shù)據(jù)庫(kù)的建設(shè)方面都具有重要價(jià)值;另一方面,對(duì)高分辨率遙感影像建筑物的提取可以為其他圖像的語(yǔ)義分割和目標(biāo)檢測(cè)方面提供借鑒,具有重要意義和價(jià)值。

        利用遙感影像進(jìn)行建筑物提取根據(jù)自動(dòng)化程度分為人工提取、半自動(dòng)化提取和自動(dòng)化提取3個(gè)階段。文獻(xiàn)[5]針對(duì)高分辨率遙感影像自動(dòng)化解譯技術(shù)難度大、適用性差等問(wèn)題,提出人工目視解譯為遙感影像解譯的主要方法,但目視解譯需耗費(fèi)大量時(shí)間和精力,且精度難以達(dá)到要求。此后引入半自動(dòng)化提取方法,如SVM算法、K-means聚類(lèi)算法等。如今,深度學(xué)習(xí)成為圖像識(shí)別、提取中效果最好的方法。本文以高分辨率遙感影像為數(shù)據(jù)源,提出基于UNet網(wǎng)絡(luò)模型進(jìn)行建筑物提取,此模型延續(xù)了CNN卷積網(wǎng)絡(luò)的特征,能夠有效把握局部特征信息。采用公開(kāi)建筑物數(shù)據(jù)集——馬薩諸塞州建筑物數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)驗(yàn)證本文方法的適用性。

        1方法

        1.1 UNet網(wǎng)絡(luò)

        UNet網(wǎng)絡(luò)如圖1所示,UNet網(wǎng)絡(luò)結(jié)構(gòu)由編碼器和解碼器2部分組成。編碼器部分采用CNN卷積神經(jīng)網(wǎng)絡(luò),用于圖像的下采樣過(guò)程,采用5個(gè)池化層,在不斷的下采樣過(guò)程中不斷地降低分辨率,以獲得不同尺度的圖像信息,完成特征提取。解碼器部分對(duì)應(yīng)的是特征圖上采樣過(guò)程,進(jìn)行目標(biāo)對(duì)象的定位,上采樣過(guò)程先進(jìn)行一次反卷積操作,使特征圖的維數(shù)變?yōu)樵瓉?lái)的1/2,然后通過(guò)跳躍連接將下采樣過(guò)程中得到的特征圖進(jìn)行拼接,重新組成新的特征圖,新特征圖是原來(lái)的2倍,最后再采用2個(gè)卷積層進(jìn)行對(duì)特征圖進(jìn)行特征提取。

        CNN因?yàn)槭芨惺芤暗挠绊?,不能很好地利用全局信息,需要很多層后才能得到抽象的全局信息。因此,將UNet網(wǎng)絡(luò)應(yīng)用于背景復(fù)雜的高分辨率的遙感影像建筑物提取任務(wù)中,可以有效對(duì)全局信息和局部的細(xì)節(jié)信息進(jìn)行提取。本文提出把UNet方法用于高分辨率的遙感影像建筑物提取。

        2實(shí)驗(yàn)數(shù)據(jù)

        2.1數(shù)據(jù)介紹

        本文選取的數(shù)據(jù)集為馬薩諸塞州建筑物數(shù)據(jù)集,地面分辨率降采樣為0.3 m,選取的馬薩諸塞州地區(qū)大約有2.2萬(wàn)棟獨(dú)立建筑物。

        2.2數(shù)據(jù)處理

        對(duì)獲取的數(shù)據(jù)集進(jìn)行數(shù)據(jù)擴(kuò)充處理,以便提高樣本質(zhì)量,使訓(xùn)練出來(lái)的模型效果更好。把擴(kuò)充后的數(shù)據(jù)集按精度高低篩選最優(yōu)的數(shù)據(jù)集,共4 000幅影像,并劃分為訓(xùn)練集(2800幅)、驗(yàn)證集(600幅)和測(cè)試集(600幅)3個(gè)部分。

        3實(shí)驗(yàn)與算法評(píng)價(jià)

        3.1硬件配置和參數(shù)設(shè)置

        本文UNet模型的建筑物提取實(shí)驗(yàn)基于Pytorch框架進(jìn)行,硬件配置采用NVIDIA Geforce RTX2060,網(wǎng)絡(luò)優(yōu)化器采用Adam,學(xué)習(xí)率設(shè)為0.0001,每個(gè)網(wǎng)絡(luò)模型訓(xùn)練50次迭代,batch size值設(shè)為16。UNet模型的損失收斂函數(shù)與精度曲線變化如圖2所示??煽闯鲈谀P陀?xùn)練過(guò)程中,訓(xùn)練精度和測(cè)試精度隨著迭代次數(shù)的增加在逐步上升,約在第15次以后ACC趨于穩(wěn)定,維持在96. 85%左右;Loss值也在不斷下降,最終穩(wěn)定在0.016左右。

        3.2評(píng)價(jià)指標(biāo)

        本文選擇總體精度(OA),F(xiàn)l-score,m,loU,Recall作為分割效果的評(píng)估標(biāo)準(zhǔn)。OA在文中為圖像中預(yù)測(cè)正確的建筑物和背景像元占所有像元的比例:Fl-score是精確率:mloU在文中計(jì)算的是真實(shí)建筑物標(biāo)簽與模型提取的建筑物之間的交并比:Recall計(jì)算的是真實(shí)建筑物標(biāo)簽與模型提取的建筑物之間的交并比。各評(píng)估標(biāo)準(zhǔn)公式為:

        其中,TTP為輸入圖像中含有標(biāo)簽信息的部分被正確識(shí)別為相對(duì)應(yīng)的標(biāo)簽信息,本文指提取到實(shí)際建筑物的個(gè)數(shù);TTN為輸入圖像中含有背景信息的部分被正確識(shí)別為相對(duì)應(yīng)的背景信息;FFP為輸入圖像中含有背景信息的部分被錯(cuò)誤識(shí)別為標(biāo)簽信息;FFN為輸入圖像中含有標(biāo)簽信息的部分被錯(cuò)誤識(shí)別為背景信息。

        4實(shí)驗(yàn)結(jié)果與分析

        4.1可視化結(jié)果分析

        幾種提取方法在2種建筑物數(shù)據(jù)集上的邊緣提取效果對(duì)比如圖3所示。對(duì)于SVM算法,其在2種建筑物數(shù)據(jù)集上的提取表現(xiàn)均不理想,提取結(jié)果存在大量噪聲,細(xì)碎斑點(diǎn)較多,且對(duì)于一些復(fù)雜的地物劃分不明確等問(wèn)題。FCN和CNN方法在2棟相連建筑物的邊緣部分提取上邊緣未分離,出現(xiàn)了連接,圖3的邊緣提取不夠清晰。而本文方法在圖3中較好地識(shí)別了連接部分,對(duì)相鄰2棟建筑物較好地完成了分離。圖3中傳統(tǒng)方法在建筑物提取上出現(xiàn)漏檢的問(wèn)題,而本文方法在小型建筑物提取上表現(xiàn)更出色。

        總體來(lái)說(shuō),UNet方法與傳統(tǒng)提取方法相比,在影像邊緣細(xì)節(jié)的分類(lèi)效果上更優(yōu),對(duì)建筑物的邊緣把控得更好,輪廓更清晰。

        4.2精度分析

        以O(shè)OA,MmIoU,RRecall和FF1值作為評(píng)估標(biāo)準(zhǔn)對(duì)馬薩諸塞州數(shù)據(jù)集建筑物提取結(jié)果進(jìn)行定量化分析,結(jié)果如表1所列。結(jié)果表明,SVM決策樹(shù)算法在高空間分辨率遙感影像建筑物的提取方面總體精度較低,提取效果不理想。與SVM決策樹(shù)算法相比,深度學(xué)習(xí)方法——FCN和CNN方法的各個(gè)指標(biāo)值遠(yuǎn)優(yōu)于SVM決策樹(shù)算法,但仍存在部分細(xì)微建筑物被忽略的問(wèn)題。本文方法相較于SVM決策樹(shù)算法和FCN,CNN方法在各項(xiàng)指標(biāo)上均有所提高,其表現(xiàn)在對(duì)建筑物邊緣及細(xì)小建筑物提取方面的改進(jìn),對(duì)細(xì)小建筑物的提取以及對(duì)邊緣細(xì)節(jié)處理更加完善。

        5結(jié)束語(yǔ)

        本文提出一種基于UNet網(wǎng)絡(luò)模型的高分辨率遙感影像建筑自動(dòng)提取方法,使用數(shù)據(jù)集為馬薩諸塞州建筑物數(shù)據(jù)集,完成數(shù)據(jù)集的擴(kuò)充和篩選、UNet模型訓(xùn)練、建筑物提取以及精度評(píng)估,通過(guò)實(shí)驗(yàn)證明了本文方法可以有效地實(shí)現(xiàn)高分辨率遙感影像建筑物提取。

        本文提出的UNet方法以及FCN和CNN三種分類(lèi)算法對(duì)高分辨率遙感影像進(jìn)行建筑物分類(lèi)提取的結(jié)果中,總體準(zhǔn)確率超過(guò)90%,相比之下本文方法提取的結(jié)果在邊緣細(xì)節(jié)的把控上效果更優(yōu),漏檢的小型建筑物也大幅減少。綜上所述,通過(guò)對(duì)以上4種分類(lèi)算法所得到的結(jié)果進(jìn)行定性和定量分析,基于UNet網(wǎng)絡(luò)對(duì)建筑物的提取效果更好、精度更高,具有一定的可行性和有效性。目前,基于UNet網(wǎng)絡(luò)建筑物提取方法有時(shí)在面對(duì)遙感影像建筑物提取時(shí)魯棒性不夠強(qiáng),且模型訓(xùn)練時(shí)間較長(zhǎng),后續(xù)研究中將對(duì)該處理步驟進(jìn)行進(jìn)一步的研究和優(yōu)化。

        作者簡(jiǎn)介:

        屠冉(1981—),碩士,研究方向:電子信息工程。

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類(lèi)器的圖書(shū)館亂架圖書(shū)檢測(cè)
        搭建深度學(xué)習(xí)的三級(jí)階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        亚洲精华国产精华液的福利| 国产视频激情在线观看| 看大陆男女真人草逼视频| 亚洲综合一区二区三区久久| 风流熟女一区二区三区| 久久理论片午夜琪琪电影网| 国模无码一区二区三区| 欧美精品偷自拍另类在线观看| 亚洲AV成人片色在线观看高潮| 成人国产在线观看高清不卡| 国产少妇露脸精品自拍网站| 亚洲成av人片在线观看| 欧美金发尤物大战黑人| 少妇精品久久久一区二区三区| 亚洲AV秘 无码一区二p区三区| 亚洲日本一区二区在线观看| 国产爽快片一区二区三区| 精品福利一区二区三区免费视频| 亚洲av中文无码乱人伦在线播放| 黄色视频免费在线观看| 国产一区二区精品久久凹凸| 国产一区二区精品av| 亚洲色图在线免费视频| а天堂中文最新一区二区三区| 香蕉久久夜色精品国产2020| 久久久久久久妓女精品免费影院| 日韩人妻免费一区二区三区| 情爱偷拍视频一区二区| 天天鲁一鲁摸一摸爽一爽| 久久久久国产亚洲AV麻豆| 一道本加勒比在线观看| 精品久久久少妇一区二区| 成人免费无码视频在线网站| 3d动漫精品啪啪一区二区下载| 亚洲电影一区二区三区 | 日本视频中文字幕一区在线| av在线网站一区二区| 无码精品国产一区二区三区免费| 67194熟妇在线永久免费观看| 正在播放亚洲一区| 色婷婷亚洲一区二区在线|