亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的光學(xué)遙感影像道路提取方法研究進(jìn)展

        2024-06-03 00:00:00林雨準(zhǔn)劉智王淑香芮杰金飛
        關(guān)鍵詞:特征方法

        林雨準(zhǔn),劉智,王淑香,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的光學(xué)遙感影像道路提取方法研究進(jìn)展. 吉林大學(xué)學(xué)報(bào)(地球科學(xué)版),2024,54(3):10681080. doi:10.13278/j.cnki.jjuese.20230078.

        Lin Yuzhun, Liu Zhi, Wang Shuxiang, et al. Research Progress of Road Extraction Method for Optical Remote Sensing Images Based on Convolutional Neural Network. Journal of Jilin University (Earth Science Edition), 2024, 54 (3): 10681080. doi:10.13278/ j.cnki.jjuese.20230078.

        摘要:

        隨著光學(xué)遙感影像空間分辨率的提升和獲取渠道的豐富,利用光學(xué)遙感影像實(shí)現(xiàn)地物智能解譯已成為高效的技術(shù)路徑。由于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)強(qiáng)大的特征提取能力以及道路信息在多個(gè)領(lǐng)域的應(yīng)用需求,基于CNN的道路提取方法成為了當(dāng)前的研究熱點(diǎn)。鑒于此,本文根據(jù)近年來的相關(guān)研究文獻(xiàn),對基于CNN的道路提取方法從基于形狀特征的改進(jìn)、基于連通性的改進(jìn)、基于多尺度特征的改進(jìn)和基于提取策略的改進(jìn)四個(gè)方面進(jìn)行歸納總結(jié),然后描述典型道路遮擋案例,并利用經(jīng)典CNN從樣本標(biāo)簽的局限性層面對當(dāng)前的技術(shù)難點(diǎn)進(jìn)行分析與驗(yàn)證,最后從多源數(shù)據(jù)協(xié)同、樣本庫建設(shè)、弱監(jiān)督模型和域適應(yīng)學(xué)習(xí)四個(gè)方面對遙感影像道路提取的發(fā)展趨勢進(jìn)行評估和展望。

        關(guān)鍵詞:

        卷積神經(jīng)網(wǎng)絡(luò);光學(xué);遙感影像;道路提??;智能解譯

        doi:10.13278/j.cnki.jjuese.20230078

        中圖分類號:P237

        文獻(xiàn)標(biāo)志碼:A

        收稿日期:20230402

        作者簡介:林雨準(zhǔn)(1993—), 男," 博士研究生, 講師, 主要從事遙感數(shù)據(jù)智能解譯, E-mail: lyz120218@163.com

        通信作者:金飛(1984—), 男, 副教授, 博士, 主要從事遙感數(shù)據(jù)智能處理與分析, E-mail: jf371@sina.com

        基金項(xiàng)目:國家自然科學(xué)基金項(xiàng)目(42201443)

        Supported by the National Natural Science Foundation of China (42201443)

        Research Progress of Road Extraction Method for Optical Remote Sensing Images Based on Convolutional Neural Network

        Lin Yuzhun, Liu Zhi, Wang Shuxiang, Rui Jie, Jin Fei

        Institute of Geospatial Information, PLA Strategic Support Force Information Engineering University, Zhengzhou 450001, China

        Abstract:

        With the improvement of spatial resolution of optical remote sensing images and the enrichment of acquisition channels, optical remote sensing images has become an efficient technological method to achieve intelligent interpretation of land features. Due to the powerful feature extraction ability of convolutional neural networks (CNN) and the demand of road information in many fields, road extraction methods based on CNN have become a current research hotspot. In view of this, this paper summarizes the road extraction method based on CNN from four aspects: Improvement of shape features, improvement of connectivity, improvement of multi-scale features and improvement of extraction strategy according to the relevant research literature in recent years. Then, we describe typical road occlusion cases and use classical CNNs to analyze and validate the current technical difficulties at the level of limitations of sample labels. Finally, the development trends of road extraction from remote sensing images are outlooked from four aspects, namely, multi-source data synergy, sample library construction, weakly supervised modeling and domain-adaptive learning.

        Key words:

        convolutional neural network; optical; remote sensing image; road extraction; intelligent interpretation

        0" 引言

        智能化、自動化、實(shí)時(shí)化的道路提取技術(shù)在地圖更新、自動駕駛、城市規(guī)劃、車輛導(dǎo)航和應(yīng)急響應(yīng)等領(lǐng)域均具有重要作用。光學(xué)遙感影像(后簡稱為“影像”)作為非接觸信息獲取技術(shù)的產(chǎn)品,其傳播過程的電磁波信息可與地物類別形成規(guī)律的映射關(guān)系,且當(dāng)前影像的空間分辨率、光譜分辨率和時(shí)間分辨率不斷提升,使其在宏觀性、直觀性、實(shí)時(shí)性等方面的優(yōu)勢進(jìn)一步突顯。此外,道路作為核心的交通設(shè)施,由于其現(xiàn)實(shí)空間位置的表層化,使其往往可以在影像中展現(xiàn)光譜信息、紋理規(guī)律、形狀特征和拓?fù)浣Y(jié)構(gòu)。因此,影像可以為大范圍的道路提取提供有效的數(shù)據(jù)支持。

        關(guān)于影像的道路提取方法,根據(jù)其發(fā)展過程主要可以分為傳統(tǒng)方法和深度學(xué)習(xí)方法。傳統(tǒng)方法主要包括模板匹配法[13]、知識驅(qū)動法[45]和面向?qū)ο蠓ǎ?7]等,該類方法主要是依托道路在影像上呈現(xiàn)的形狀特征、光譜特征、紋理特征以及人為設(shè)計(jì)的淺層組合特征展開的;但是隨著影像空間分辨率的不斷提升,道路在淺層特征空間中往往不夠聚集并且與其他地物存在交集,導(dǎo)致該類方法構(gòu)建的道路提取模型無法匹配道路特征的復(fù)雜性和不確定性。關(guān)于該類方法的研究現(xiàn)狀在文獻(xiàn)[811]中均有論述(本文不再詳細(xì)介紹),本文將著重對深度學(xué)習(xí)方法展開討論。

        近年來,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)不斷發(fā)展,在目標(biāo)檢測[12]、數(shù)據(jù)去噪[13]等領(lǐng)域的應(yīng)用愈發(fā)廣泛,利用卷積、池化、歸一化、非線性激活等操作提取的深層特征相比淺層特征在相應(yīng)特征空間內(nèi),區(qū)分地物類別的依據(jù)更加明確和清晰,有效提升了計(jì)算機(jī)影像智能處理與解譯的穩(wěn)定度、準(zhǔn)確性和效率。尤其諸如FCN(fully convolutional networks)[14]、U-Net[15]、SegNet[16]和DeepLab系列[1720]等經(jīng)典語義分割網(wǎng)絡(luò)的誕生,使得端到端CNN在像素級智能解譯中得到了廣泛應(yīng)用,相關(guān)技術(shù)在道路提?。ǘ嫡Z義分割)中也不斷地探索進(jìn)步。比如早期文獻(xiàn)[2123]通過在特征提取階段引入殘差模塊[24]、在損失函數(shù)計(jì)算階段引入正負(fù)樣本平衡機(jī)制等方式提升道路提取結(jié)果的穩(wěn)定性和精度,但對道路本身的屬性特征挖掘有限。目前,考慮到道路提取面向的困難以及道路的形狀和尺度規(guī)律等,學(xué)者們主要在典型語義分割網(wǎng)絡(luò)框架的基礎(chǔ)上圍繞道路的形狀、連通性、尺度和整體的提取策略實(shí)施改進(jìn),故本文將對上述改進(jìn)進(jìn)行總結(jié)歸納,并對當(dāng)前的技術(shù)難點(diǎn)和發(fā)展趨勢進(jìn)行評估和展望。

        1" 研究現(xiàn)狀

        基于CNN的道路提取基本流程如圖1所示,主要包括訓(xùn)練和測試兩個(gè)階段。在訓(xùn)練階段,首先進(jìn)行前向傳播,即將影像(訓(xùn)練集)送入CNN獲得預(yù)測結(jié)果;然后通過損失函數(shù)計(jì)算預(yù)測結(jié)果和道路標(biāo)簽的相似程度或者差異程度,接著本著差異最小原則,通過后向傳播對CNN模型的參數(shù)進(jìn)行更新;最后不斷地重復(fù)前三個(gè)步驟,直到重復(fù)次數(shù)達(dá)到設(shè)定閾值,或預(yù)測結(jié)果和標(biāo)簽的差異不再減小。這個(gè)階段總體來說就是通過訓(xùn)練集的影像和對應(yīng)的道路標(biāo)簽對CNN模型的參數(shù)進(jìn)行更新,使得預(yù)測結(jié)果盡可能接近真值。第二個(gè)階段是測試,即將待提取道路的影像輸入到已訓(xùn)練好(模型參數(shù)已更新)的CNN模型中,通過生產(chǎn)預(yù)測(前向傳播)的路線完成道路提取。因此,基于CNN的道路提取技術(shù)涉及的核心要素就是CNN模型,該模型的設(shè)計(jì)也是影

        像語義分割的關(guān)鍵??紤]到道路形狀、提取結(jié)果面向的應(yīng)用需求等特殊性,針對影像道路提取問題,當(dāng)前學(xué)者在典型語義分割網(wǎng)絡(luò)的框架下不斷進(jìn)行了改進(jìn),主要包括基于形狀特征的改進(jìn)、基于連通性的改進(jìn)、基于多尺度特征的改進(jìn)以及基于提取策略的改進(jìn)。

        1.1" 基于形狀特征的改進(jìn)

        不同于建筑物、植被或湖泊等地形要素,道路在影像上往往呈現(xiàn)條狀,這樣的規(guī)律在道路提取中可以作為輔助條件,提升道路提取結(jié)果的可靠性。目前,依據(jù)道路形狀的改進(jìn)主要包括卷積核和標(biāo)簽數(shù)據(jù)兩個(gè)方面。關(guān)于卷積核,主要是設(shè)計(jì)與道路形狀相適應(yīng)的卷積窗口,從而對特征提取的方向和空間進(jìn)行約束,如文獻(xiàn)[2527]在CNN模型的上采樣中均采用0°、45°、90°和135°四個(gè)方向的條狀卷積進(jìn)行特征提取。從形狀匹配度來看,上述文獻(xiàn)設(shè)計(jì)的條狀卷積核比常規(guī)的方形卷積核更適合道路提取。方形卷積核對周圍各方向的像素均有涉及,雖然卷積核的參數(shù)可以根據(jù)相關(guān)程度進(jìn)行調(diào)整,但不可避免地會較多地吸收相鄰像素的無關(guān)信息;而條狀卷積核沿著空間方向的長條形狀來捕獲道路的相關(guān)信息,在形狀特征層面防止了不相關(guān)像素的干擾。

        關(guān)于標(biāo)簽數(shù)據(jù)方面,主要是根據(jù)已有的道路標(biāo)簽為目標(biāo)賦予相應(yīng)的方向?qū)傩?,生成方向?biāo)簽。如Batra等[28]基于道路的形狀提出了“方向?qū)W習(xí)”的概念,具體操作是給圖像中的每個(gè)道路像素賦予真實(shí)走向的矢量信息,通過真值矢量和道路標(biāo)簽共同監(jiān)督道路提取模型的學(xué)習(xí)。Zhou等[29]將道路的方向平均分成36個(gè)等份,每一部分為10°,因此每個(gè)像素在方向?qū)W習(xí)的這條路線上輸出36維的有效結(jié)果,即同一個(gè)位置的不同通道表示屬于對應(yīng)方向的概率。上述兩篇文獻(xiàn)的方向?qū)W習(xí)都是基于矢量形式獲取監(jiān)督信息的,文獻(xiàn)[30]直接基于柵格數(shù)據(jù)展開方向?qū)W習(xí),以像素級的道路提取結(jié)果為基準(zhǔn),首先判斷像素是否屬于道路,若不屬于道路則不賦予方向?qū)傩?,若屬于道路則在一定圓形緩沖區(qū)內(nèi)確定每個(gè)方向上屬于道路的像素?cái)?shù)目,最后將數(shù)目最多的方向作為該像素的方向標(biāo)簽,其核心思想為獲取二值圖像的主方向。

        形狀特征模塊充分考慮了道路在影像上呈現(xiàn)的態(tài)勢規(guī)律,將常規(guī)的特征提取或者標(biāo)簽數(shù)據(jù)在重點(diǎn)方向、重點(diǎn)區(qū)域進(jìn)行聚焦,相關(guān)文獻(xiàn)[2530]證明了該改進(jìn)對條狀類目標(biāo)的適用性,其提取結(jié)果在像素級和連通性方面均有一定提升。

        1.2" 基于連通性的改進(jìn)

        道路作為重要的交通運(yùn)輸設(shè)施,其連通性的準(zhǔn)確率對實(shí)施方法能否滿足應(yīng)用需求是至關(guān)重要的。對于道路而言,正確的連通性代表著正確的路線,一旦路線錯(cuò)誤會導(dǎo)致更長的行駛時(shí)間,或者進(jìn)入限制區(qū)域,甚至帶來交通事故等一系列問題。目前關(guān)于道路連通性的改進(jìn)主要包括標(biāo)簽數(shù)據(jù)和損失函數(shù)兩個(gè)方面。關(guān)于標(biāo)簽數(shù)據(jù),主要是以像素級標(biāo)簽為基礎(chǔ),構(gòu)建體現(xiàn)道路拓?fù)浣Y(jié)構(gòu)的連通性標(biāo)簽。如Mei等[26]基于像素級的道路真值,對當(dāng)前點(diǎn)八個(gè)方向的鄰域依次進(jìn)行判斷。判斷的內(nèi)容為當(dāng)前點(diǎn)和鄰域點(diǎn)是否均為道路,若符合條件,則將當(dāng)前點(diǎn)在對應(yīng)方向的連通性標(biāo)簽上作為前景,否則作為背景。以此類推,逐像素逐方向地遍歷所有待判斷點(diǎn)位,最終生成八通道的連通性標(biāo)簽。另外,Li等[31]也采取了類似的策略生成連通性標(biāo)簽,不同之處在于標(biāo)簽的數(shù)值表示的是八鄰域空間內(nèi)屬于道路的像素總數(shù)目,故經(jīng)過此過程后將分類問題轉(zhuǎn)換為回歸問題。

        除了連通性標(biāo)簽外,部分學(xué)者從損失函數(shù)的角度對提升道路的連通性展開了研究,關(guān)于損失函數(shù)對影像道路提取的影響,在文獻(xiàn)[32]中有相關(guān)論述??紤]到道路提取屬于二分類問題,常用的交叉熵?fù)p失函數(shù)等雖然可以反映提取結(jié)果與真實(shí)結(jié)果的差異,但計(jì)算差異的過程大多是將道路視作點(diǎn)目標(biāo)或者一定范圍的面目標(biāo),沒有考慮線狀地物本身的連通關(guān)系,故上述方式計(jì)算的損失值很難體現(xiàn)道路拓?fù)浣Y(jié)構(gòu)的恢復(fù)程度,造成道路提取結(jié)果與真實(shí)的應(yīng)用場景需求差距較大?;谏鲜龇治?,Mosinska等[33]利用在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練好的VGG 19模型[34]對預(yù)測結(jié)果和道路標(biāo)簽分別進(jìn)行深層特征提取,然后基于深層特征進(jìn)行損失函數(shù)計(jì)算,通過實(shí)驗(yàn)證明了這樣的損失函數(shù)突出了線性結(jié)構(gòu)在深層視覺特征中的差異。另外,Oner等[35]利用背景區(qū)域之間產(chǎn)生的分裂來表達(dá)道路的連通性,即設(shè)計(jì)損失函數(shù)防止背景區(qū)域之間的不必要連接,從而縮小預(yù)測道路與真實(shí)道路在拓?fù)浣Y(jié)構(gòu)上的差異。

        連通性作為道路的重要屬性,其規(guī)律在影像中主要體現(xiàn)在鄰域信息內(nèi),相關(guān)文獻(xiàn)[26, 3133, 35]分別從標(biāo)簽數(shù)據(jù)和損失函數(shù)兩個(gè)層面進(jìn)行了鄰域范圍的關(guān)聯(lián),實(shí)際上是高分辨率影像處理單元從像素到對象的體現(xiàn),符合影像本身的發(fā)展規(guī)律。

        1.3" 基于多尺度特征的改進(jìn)

        在地形圖中,道路(公路)包括高速公路、普通公路和簡易公路等,不同等級的道路在影像上體現(xiàn)的大小特征往往存在差異。因此,對影像進(jìn)行道路提取時(shí),需要同時(shí)面對尺度不一的對象。CNN統(tǒng)一從小范圍的局部特征逐漸擴(kuò)展到大范圍的局部特征,但是在特征逐漸深入、感受野不斷擴(kuò)大的過程中,對關(guān)注目標(biāo)始終是按照統(tǒng)一尺度的處理單元具體實(shí)施的,無法兼顧目標(biāo)的尺度差異。為使模型能同時(shí)捕獲多尺度特征,學(xué)者們展開了相關(guān)研究。如Guo等[36]在編碼層中提出了多尺度卷積注意力,在經(jīng)過5×5卷積后分成了四個(gè)分支,第一個(gè)分支不作任何處理,第二個(gè)至第四個(gè)分支分別由長度為7、11、21的水平條狀卷積核和垂直條狀卷積核進(jìn)行不同尺度的特征提取,然后將四個(gè)分支的結(jié)果相加實(shí)現(xiàn)多尺度特征融合。Gao等[37]則對常規(guī)的殘差卷積模塊進(jìn)行改進(jìn),即在1×1卷積核之后進(jìn)行通道分離,然后依次進(jìn)行3×3卷積,由于疊加的3×3卷積將擴(kuò)大感受野,即可借此實(shí)現(xiàn)不同尺度的特征提取。

        除了特征提取的尺度差異外,考慮到CNN在全局特征捕獲上的劣勢,部分研究從兼顧全局特征和局部特征的角度實(shí)現(xiàn)了多尺度的特征融合。如Zhou等[38]在編碼層和解碼層之間引入了圖神經(jīng)網(wǎng)絡(luò),有效地結(jié)合了CNN在局部特征提取以及圖神經(jīng)網(wǎng)絡(luò)在全局特征提取中的優(yōu)勢;又如文獻(xiàn)[3940]在編碼層和解碼層之間引入了多尺度空洞卷積,實(shí)現(xiàn)了不同尺度的特征提取。此外,文獻(xiàn)[41]為進(jìn)一步突出空間和通道的有效區(qū)域,將多尺度空洞卷積和空間通道注意力機(jī)制[42]相結(jié)合,文獻(xiàn)[26, 43]則利用了空洞空間卷積池化金字塔[19],其目的均在于網(wǎng)絡(luò)模型能夠兼顧局部和全局兩種層次的特征。

        大尺度道路是交通網(wǎng)絡(luò)的骨干核心,小尺度道路是交通網(wǎng)絡(luò)保持完整性的必備要素。因此,無差別的提取能力是道路提取方法是否有效的重要評價(jià)指標(biāo)。相關(guān)文獻(xiàn)[26, 3643]從卷積核的尺寸以及利用圖神經(jīng)網(wǎng)絡(luò)、多尺度空洞卷積等角度進(jìn)行了探索,取得了一定成效。

        1.4" 基于提取策略的改進(jìn)

        在語義分割中,網(wǎng)絡(luò)模型一般采取“編碼—解碼”的基本框架,但是單一的流水線式網(wǎng)絡(luò)框架的穩(wěn)定性和適用性往往有限。因此,學(xué)者們從提取策略的角度對方法進(jìn)行了改進(jìn),主要包括三個(gè)方面:一是多任務(wù)的提取策略,二是由粗到精的提取策略,三是多方法的提取策略。

        多任務(wù)的提取策略主要是在像素標(biāo)簽的基礎(chǔ)上引入其他標(biāo)簽數(shù)據(jù)對網(wǎng)絡(luò)共同進(jìn)行監(jiān)督,如文獻(xiàn)[31, 4446]都是采取了這種策略。以文獻(xiàn)[44]為例,所提方法一共包括三個(gè)子網(wǎng)絡(luò)和兩個(gè)階段:第一個(gè)階段構(gòu)建的子網(wǎng)絡(luò)利用像素級標(biāo)簽進(jìn)行監(jiān)督;第二個(gè)階段是在第一個(gè)階段完成后進(jìn)行的,兩個(gè)分支的子網(wǎng)絡(luò)結(jié)構(gòu)相同,輸入數(shù)據(jù)均是原始影像和第一個(gè)階段預(yù)測結(jié)果的疊加(與由粗到精的提取策略相似),監(jiān)督數(shù)據(jù)分別是道路邊緣標(biāo)簽和道路中心線標(biāo)簽,從而充分利用道路邊緣和中心線在輪廓范圍和拓?fù)浣Y(jié)構(gòu)上的約束優(yōu)化最終的道路提取結(jié)果。

        由粗到精的提取策略是采用兩個(gè)網(wǎng)絡(luò)先后對影像進(jìn)行道路提取,其中粗提取的輸出一般會作為精提取的輸入,從而有效疊加不同網(wǎng)絡(luò)的提取效果。如Ding等[30]在粗提取階段將原始影像輸入網(wǎng)絡(luò),經(jīng)過結(jié)構(gòu)標(biāo)簽、方向標(biāo)簽和像素級標(biāo)簽共同監(jiān)督生成粗提取結(jié)果;在精提取階段,將粗提取結(jié)果產(chǎn)生的概率圖輸入至相應(yīng)網(wǎng)絡(luò),直接由像素級標(biāo)簽獲得精提取結(jié)果。Zhou等[29]的策略與Ding等[30]基本一致,除去網(wǎng)絡(luò)結(jié)構(gòu)本身的差異外,精提取的輸入不僅包含粗提取結(jié)果,同時(shí)還包括粗提取在編碼過程中產(chǎn)生的淺層特征。

        多方法的提取策略主要是將CNN與其他方法相結(jié)合,比如Zhou等[38]聯(lián)合CNN與圖神經(jīng)網(wǎng)絡(luò)就是應(yīng)用案例之一。另外,文獻(xiàn)[40, 4748]也都采取了多方法的提取策略,其中:文獻(xiàn)[47]的整體思想是將強(qiáng)化學(xué)習(xí)與CNN相結(jié)合,實(shí)施的形式是強(qiáng)化學(xué)習(xí)策略,即利用節(jié)點(diǎn)跟蹤進(jìn)行道路提取,而決策的過程是借助CNN完成的;文獻(xiàn)[40, 48]則將文獻(xiàn)[47]的方法和CNN進(jìn)行結(jié)果級融合,進(jìn)一步提升了提取結(jié)果的可靠性。

        多任務(wù)、多方法或者由粗到精等提取策略的目的在于彌補(bǔ)單一手段在道路提取中可能存在的不足,與多源數(shù)據(jù)類似,是結(jié)合各方面的優(yōu)勢,提升道路提取結(jié)果在各類情形下的魯棒性。這樣的技術(shù)方法也是解決道路所處環(huán)境存在的目標(biāo)復(fù)雜度大、區(qū)域差異性大等困難的手段之一。

        1.5" 方法小節(jié)

        基于CNN的道路提取方法憑借卷積、池化、非線性激活等基本操作實(shí)現(xiàn)道路與非道路的特征空間分離。基于CNN的道路提取方法和傳統(tǒng)方法的總體性能比較情況如表1所示??梢钥吹剑瑐鹘y(tǒng)方法的模型復(fù)雜度較低、預(yù)處理時(shí)間較短、對硬件的要求不高,但是對復(fù)雜背景的適應(yīng)能力和應(yīng)用時(shí)效性較差,處理過程需要過多人為干預(yù),故該方法在智能解譯的自動化層面相對滯后。尤其隨著當(dāng)前影像空間分辨率來到亞米級時(shí)代,其對地物的細(xì)節(jié)還原能力日益突出,傳統(tǒng)方法的發(fā)展受到了較大影響。但是,傳統(tǒng)方法的邏輯基礎(chǔ)和理論知識與基于CNN的道路提取方法存在一定的共通性,故對傳統(tǒng)方法的學(xué)習(xí)將有助于理解道路在影像上的特征表現(xiàn)規(guī)律和不同層次特征之間的關(guān)系。

        CNN的四種改進(jìn)是學(xué)者們根據(jù)道路在影像中的表現(xiàn)規(guī)律以及提取結(jié)果的應(yīng)用需求展開的。若從CNN的具體流程出發(fā),四種改進(jìn)類型又可以分為網(wǎng)絡(luò)組成單元的改進(jìn)、網(wǎng)絡(luò)結(jié)構(gòu)框架的改進(jìn)和損失函數(shù)的改進(jìn),其中網(wǎng)絡(luò)組成單元與結(jié)構(gòu)框架的改進(jìn)會充分考慮道路的自身屬性,但也會增加網(wǎng)絡(luò)復(fù)雜度,降低整體效率;而損失函數(shù)的改進(jìn)擺脫了訓(xùn)練的推理過程,故可以在不同的網(wǎng)絡(luò)模型間直接套用??傮w來說,為最大程度地適應(yīng)道路的形狀、尺度和連通性特征及其在高分辨率影像上的表現(xiàn)規(guī)律,目前的方法大多會同時(shí)進(jìn)行多個(gè)方面的改進(jìn),以期實(shí)現(xiàn)精度、效率和穩(wěn)定性的全面提升。

        2" 技術(shù)難點(diǎn)

        目前,隨著計(jì)算機(jī)硬件和網(wǎng)絡(luò)模型的不斷進(jìn)步,基于CNN的道路提取方法在時(shí)效性和智能化程度上有了顯著的進(jìn)步,但距離實(shí)際應(yīng)用仍具有一定差距,具體主要體現(xiàn)在影像數(shù)據(jù)和樣本標(biāo)簽兩個(gè)方面。

        2.1" 影像數(shù)據(jù)的局限性

        影像數(shù)據(jù)的局限性主要是由可見光范圍內(nèi)的電磁波穿透能力不足,以及地物分布規(guī)律的復(fù)雜性等因素造成的。如圖2所示,在影像中的道路,會因?yàn)楦叽竽繕?biāo)的遮擋造成道路反射的電磁波信息無法被遙感器接收從而形成陰影,衛(wèi)星姿態(tài)和光線入射角度造成高大建筑物的頂部信息出現(xiàn)在道路表面從而

        形成遮擋,以及植被、車輛甚至是不同方向、不同等級的道路在空間上重合從而形成壓蓋。上述原因均會導(dǎo)致影像中應(yīng)屬于道路的像素表現(xiàn)形式變?yōu)槠渌匚?,從而造成道路提取結(jié)果的不完整、不連續(xù)和拓?fù)浣Y(jié)構(gòu)的不準(zhǔn)確等問題。

        此外,地物分布規(guī)律的復(fù)雜性體現(xiàn)在道路(公路)與鐵路、溝渠、河流的相似性,道路尺度的多樣性,道路在高分辨率影像中的車道線、交通標(biāo)示線,以及道路表面的材質(zhì)差異等引起的噪聲等。以上問題在基于CNN的方法中往往會造成模型的欠擬合,或者對某地區(qū)的道路過擬合等問題。

        2.2" 樣本標(biāo)簽的局限性

        目前,隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展和智能化應(yīng)用需求的不斷推進(jìn),基于深度學(xué)習(xí)的影像道路數(shù)據(jù)集也越來越豐富。表2為當(dāng)前幾種典型影像道路提取數(shù)據(jù)集的基本情況,可以看到目前數(shù)據(jù)集涵蓋

        的區(qū)域和場景較為多樣,并且空間分辨率基本都達(dá)到了米級、亞米級,這為實(shí)現(xiàn)多地區(qū)多類型的道路自動智能提取提供了很好的訓(xùn)練樣本。

        然而,部分?jǐn)?shù)據(jù)集提供的參考標(biāo)準(zhǔn)本身存在一定的干擾。如圖3所示,以Massachusetts數(shù)據(jù)集和CHN6-CUG數(shù)據(jù)集為例:Massachusetts數(shù)據(jù)集發(fā)布者對訓(xùn)練集中的部分影像隨機(jī)刪除了部分區(qū)域的光譜信息,使之成為了干擾項(xiàng),這也考驗(yàn)了網(wǎng)絡(luò)模型的泛化能力;CHN6-CUG數(shù)據(jù)集的部分標(biāo)簽數(shù)據(jù)存在鋸齒和間接性中斷現(xiàn)象,但通過人眼觀察可以發(fā)現(xiàn),上述現(xiàn)象覆蓋的區(qū)域由于投影誤差等原因造成了影像同一位置的地物疊加問題,這也是影像數(shù)據(jù)局限性有待解決的技術(shù)難點(diǎn)。

        此外,目前道路樣本的豐富度還無法匹配道路在全球范圍內(nèi)的復(fù)雜度,且常規(guī)的深度學(xué)習(xí)模型在樣本集與測試集之間的跨域能力還不夠理想。以U-Net[15]、D-LinkNet[39]和DeepLabv3+[20]在DeepGlobe和Massachusetts兩個(gè)數(shù)據(jù)集的提取實(shí)驗(yàn)為例,DeepGlobe數(shù)據(jù)集涵蓋區(qū)域的場景類型相對豐富,空間分辨率也更高(表2)。表3是兩種數(shù)據(jù)集交叉訓(xùn)練測試的精度統(tǒng)計(jì)結(jié)果,五個(gè)評價(jià)指標(biāo)正確率(P)、召回率(R)、F1分?jǐn)?shù)、總體精度(Ao)

        和交并比(rIoU)的計(jì)算公式如下:

        P=NTPNTP+NFP;R=NTPNTP+NFN;

        F1=2P·RP+R;Ao=NTP+NTNNTP+NFP+NTN+NFN;

        rIoU=NTPNTP+NFP+NFN。

        式中,NTP、NFP、NTN、NFN分別為正確提取正樣本、錯(cuò)誤提取正樣本、正確提取負(fù)樣本和錯(cuò)誤提取負(fù)樣本的數(shù)量。通過表3可以看到,當(dāng)訓(xùn)練集和測試集是同一個(gè)數(shù)據(jù)集時(shí)各項(xiàng)精度指標(biāo)明顯更高;說明即使CNN可以進(jìn)行深層特征的挖掘,但道路在不同的區(qū)域和場景下,仍無法在相應(yīng)的特征空間有效聚集。因此,要想借助CNN實(shí)現(xiàn)某一地區(qū)的高質(zhì)量道路提取,樣本的選擇對提取效果會有明顯影響。其次,當(dāng)訓(xùn)練集是Massachusetts數(shù)據(jù)集、測試集是DeepGlobe數(shù)據(jù)集時(shí)的精度指標(biāo)R幾乎為0,結(jié)合圖4可以發(fā)現(xiàn),此時(shí)道路提取能力很低。同時(shí),通過圖4可以看到,DM的道路提取效果明顯優(yōu)于MD,通過分析兩種數(shù)據(jù)集不難發(fā)現(xiàn),Massachusetts數(shù)據(jù)集范圍集中在同一區(qū)域,影像的地物分布,尤其是道路的影像特征相對單一,故其構(gòu)

        MD表示訓(xùn)練集是Massachusetts、測試集是DeepGlobe;MM、DM、DD類似。

        建的模型參數(shù)更容易出現(xiàn)過擬合問題,導(dǎo)致網(wǎng)絡(luò)模型的適應(yīng)能力較弱。綜上所述,樣本的質(zhì)量對構(gòu)建模型的適用性是至關(guān)重要的,但像素級的道路標(biāo)簽需要消耗大量的時(shí)間和人力,其成本與智能化的目的相違背。

        除樣本數(shù)據(jù)的跨越問題外,樣本的數(shù)量同樣對常規(guī)網(wǎng)絡(luò)模型的有效性有重要影響。以U-Net、D-LinkNet和DeepLabv3+在DeepGlobe數(shù)據(jù)集上的提取實(shí)驗(yàn)為例,分別在樣本數(shù)量為8 000、6 000、4 000、2 000、1 000的條件下進(jìn)行道路提取,其中為保證實(shí)驗(yàn)結(jié)果不受訓(xùn)練影像本身特征的影響,確定訓(xùn)練集時(shí)依次從相鄰更大數(shù)量的訓(xùn)練集中隨機(jī)抽取(如數(shù)量為4 000的訓(xùn)練集從數(shù)量為6 000的訓(xùn)練集中抽取,數(shù)量為8 000的訓(xùn)練集從原始數(shù)據(jù)集中抽?。?。五種樣本數(shù)量下的道路提取結(jié)果精度統(tǒng)計(jì)如表4所示,提取結(jié)果示例如圖5所示。結(jié)合表4和圖5可以看到,隨著樣本數(shù)量的降低,各項(xiàng)精度指標(biāo)逐漸下降,并且下降的速度在樣本數(shù)量較小時(shí)更加明顯,最終的提取結(jié)果在道路漏提取上更加顯著,尤其當(dāng)樣本數(shù)量為1 000、2 000時(shí),道路的提取結(jié)果與真實(shí)情況差異很大。然而,樣本如果是通過人工標(biāo)注獲得,其數(shù)量越大往往意味著樣本庫建立涉及的人工干預(yù)越多。因此,如何在小樣本條件

        下保持道路提取結(jié)果的精度也是當(dāng)前的技術(shù)難點(diǎn)。

        3" 展望

        影像道路提取技術(shù)的發(fā)展趨勢基本是圍繞著影像數(shù)據(jù)的局限性和樣本標(biāo)簽的局限性兩個(gè)技術(shù)難點(diǎn)展開的。關(guān)于具體的發(fā)展趨勢本文主要從以下四點(diǎn)進(jìn)行展望。

        1)多源數(shù)據(jù)協(xié)同的道路提取技術(shù):影像的單視角在信息維度上是存在缺陷的,故引入多源數(shù)據(jù)進(jìn)行特征維度的擴(kuò)充是目前的發(fā)展趨勢,如Li等[54]將影像和軌跡數(shù)據(jù)的特征圖疊加共同作為CNN 模型的輸入,從而在特征層次將影像的靜態(tài)光譜信息和軌跡數(shù)據(jù)的動態(tài)先驗(yàn)知識有效結(jié)合,進(jìn)一步增加了道路與非道路之間的區(qū)別度。另外,街景圖像[55]、點(diǎn)云數(shù)據(jù)[56]等不同層次的協(xié)同作業(yè)將有助于道路在不同維度的特征提取,推動道路提取方法由理論研究走向?qū)嵺`應(yīng)用。

        2)歷史數(shù)據(jù)驅(qū)動的道路樣本庫:依托人工作業(yè)進(jìn)行逐像素或逐區(qū)域的樣本標(biāo)記顯然與道路提取的智能化發(fā)展相矛盾,故借助歷史數(shù)據(jù)有效解決監(jiān)督類地物提取中面臨的樣本壓力是全面實(shí)現(xiàn)道路提取自動化的關(guān)鍵步驟。事實(shí)上,道路作為地形要素的核心,在社會的生產(chǎn)作業(yè)中往往會留下痕跡,比如浮動車軌跡數(shù)據(jù)[5758]、歷史地形圖矢量數(shù)據(jù)等,這些數(shù)據(jù)的處理分析將有助于實(shí)現(xiàn)道路樣本的自動獲取。

        3)稀疏樣本條件下的弱監(jiān)督模型:由于數(shù)據(jù)本身的質(zhì)量差異及其與影像的匹配精度,以及樣本在監(jiān)督學(xué)習(xí)中的數(shù)量和質(zhì)量要求,自動獲取的樣本往往無法直接滿足其應(yīng)用需求。因此,從技術(shù)手段方面來說,目前主流的發(fā)展趨勢是弱監(jiān)督學(xué)習(xí)[5960]的思想,如利用線注釋、點(diǎn)注釋等稀疏樣本標(biāo)簽直接進(jìn)行網(wǎng)絡(luò)訓(xùn)練。另外,生成對抗網(wǎng)絡(luò)也是解決樣本質(zhì)量問題的技術(shù)手段。

        4)域適應(yīng)支持下的遷移學(xué)習(xí)能力:CNN作為監(jiān)督學(xué)習(xí)的一種形式,是一種數(shù)據(jù)驅(qū)動技術(shù),其泛化性能受到訓(xùn)練樣本的約束。常規(guī)模型的遷移學(xué)習(xí)能力有限,而不同地區(qū)的道路結(jié)構(gòu)、建設(shè)布局以及獲取影像的光照條件和傳感器性能差異都會對常規(guī)模型的推廣應(yīng)用帶來挑戰(zhàn)。域適應(yīng)作為不同數(shù)據(jù)集之間的連接工具,有助于提升網(wǎng)絡(luò)模型的泛化能力,也是道路提取技術(shù)擺脫樣本庫約束的有效手段。因此,提升模型的遷移學(xué)習(xí)能力有助于道路提取技術(shù)的普及和應(yīng)用范圍的擴(kuò)大。

        4" 結(jié)語

        本文以卷積神經(jīng)網(wǎng)絡(luò)為技術(shù)核心,針對光學(xué)遙感影像道路提取方法的研究現(xiàn)狀展開了系統(tǒng)梳理與分析,并圍繞影像數(shù)據(jù)局限性和樣本標(biāo)簽局限性進(jìn)行了經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)的定量精度評價(jià)與定性效果分析,從而引出未來的發(fā)展趨勢??傮w而言,與其他遙感影像智能解譯任務(wù)相似,針對道路本身的特征挖掘手段已相對豐富,但如何充分利用現(xiàn)有的數(shù)據(jù)優(yōu)勢,建立多源數(shù)據(jù)統(tǒng)籌的道路提取范式是接下來的研究重點(diǎn)和技術(shù)趨勢。

        參考文獻(xiàn)(References):

        [1]" Leninisha S, Vani K. Water Flow Based Geometric Active Deformable Model for Road Network[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2015, 102: 140147.

        [2]" Fu G, Zhao H R, Li C, et al. Road Detection from Optical Remote Sensing Imagery Using Circular Projection Matching and Tracking Strategy[J]. Journal of the Indian Society of Remote Sensing, 2013, 41(4): 819831.

        [3]" 林祥國, 張繼賢, 李海濤,等. 基于T型模板匹配半自動提取高分辨率遙感影像帶狀道路[J]. 武漢大學(xué)學(xué)報(bào)(信息科學(xué)版), 2009, 34(3): 293296.

        Lin Xiangguo, Zhang Jixian, Li Haitao, et al.Semi-Automatic Extraction of Ribbon Road from High Resolution Remotely Sensed Imagery by a T-Shaped Template Matching[J]. Geomatics and Information Science of Wuhan University, 2009, 34(3): 293296.

        [4]" Shao Y Z, Guo B X, Hu X Y, et al. Application of a Fast Linear Feature Detector to Road Extraction from Remotely Sensed Imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2010, 4(3): 626631.

        [5]" Treash K, Amaratunga K. Automatic Road Detection in Grayscale Aerial Images[J]. Journal of Computing in Civil Engineering, 2000, 14(1): 6069.

        [6]" Miao Z L, Shi W Z, Gamba P, et al. An Object-Based Method for Road Network Extraction in VHR Satellite Images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(10): 48534862.

        [7]" Maboudi M, Amini J, Hahn M, et al. Road Network Extraction from VHR Satellite Images Using Context Aware Object Feature Integration and Tensor Voting[J]. Remote Sensing, 2016, 8(8): 637.

        [8]" 戴激光, 王楊, 杜陽, 等. 光學(xué)遙感影像道路提取的方法綜述[J]. 遙感學(xué)報(bào), 2020, 24(7): 804823.

        Dai Jiguang, Wang Yang, Du Yang, et al. Development and Prospect of Road Extraction Method for Optical Remote Sensing Image[J]. Journal of Remote Sensing, 2020, 24(7):804823.

        [9]" 楊曉亮, 文貢堅(jiān). 高分辨率遙感影像中提取道路網(wǎng)方法綜述[J]. 遙感技術(shù)與應(yīng)用, 2012, 27(3): 465471.

        Yang Xiaoliang, Wen Gongjian. Review on the Methods for Road Network Extraction from High Resolution Remote Sensing Images[J]. Remote Sensing Technology and Application, 2012, 27(3): 465471.

        [10]" 馮鵬, 高峰. 高分遙感影像中道路信息提取方法綜述[J]. 現(xiàn)代電子技術(shù), 2015, 38(17): 5357.

        Feng Peng, Gao Feng. Method of Road Information Extraction in High Resolution Remote Sensing Images[J]. Modern Electronics Technique, 2015, 38(7): 5357.

        [11]" Chen Z Y, Deng L A, Luo Y H, et al. Road Extraction in Remote Sensing Data: A Survey[J]. International Journal of Applied Earth Observation and Geoinformation, 2022, 112: 102833.

        [12]" 李美霖,芮杰,金飛,等. 基于改進(jìn)YOLOX的遙感影像目標(biāo)檢測算法[J]. 吉林大學(xué)學(xué)報(bào)(地球科學(xué)版),2023,53(4):13131322.

        Li Meilin, Rui Jie, Jin Fei, et al.Remote Sensing Image Target Detection Algorithm Based on Improved YOLOX[J]. Journal of Jilin University (Earth Science Edition), 2023, 53(4): 13131322.

        [13]" 劉霞,孫英杰. 基于融合殘差注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)地震信號去噪[J]. 吉林大學(xué)學(xué)報(bào)(地球科學(xué)版),2023,53(2):609621.

        Liu Xia, Sun Yingjie. Seismic Signal Denoising Based on Convolutional Neural Network with Residual and Attention Mechanism[J]. Journal of Jilin University (Earth Science Edition), 2023, 53(2): 609621.

        [14]" Long J, Shelhamer E, Darrell T. Fully Convolutional Networks for Semantic Segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Boston: [s. n.], 2015: 34313440.

        [15]" Ronneberger O, Fischer P, Brox T. U-Net: Convolutional Networks for Biomedical Image Segmentation[C]//Proceedings of the Medical Image Computing and Computer Assisted Intervention Society. Cham: [s. n.], 2015: 234–241.

        [16]" Badrinarayanan V, Kendall A, Cipolla R. SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481–2495.

        [17]" Chen L C, Papandreou G, Kokkinos I, et al. Semantic Image Segmentation with Deep Convolutional Nets and Fully Connected CRFs[EB/OL]. (20160607) [20230117]. https://doi.org/10.48550/arXiv.1412.7062.

        [18]" Chen L C, Papandreou G, Kokkinos I, et al. Deeplab: SemanticImage Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 40(4): 834848.

        [19]" Chen L C, Papandreou G, Schroff F, et al.Rethinking Atrous Convolution for Semantic Image Segmentation[EB/OL]. (20171205) [20230212]. https: //doi.org/10.48550/arXiv.1706.05587.

        [20]" Chen L C, Zhu Y, Papandreou G, et al. Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation[C]//Proceedings of the European Conference on Computer Vision. Munich: [s. n.], 2018: 801818.

        [21]" Zhang Z X, Liu Q J, Wang Y H. Road Extraction by Deep Residual U-Net[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(5): 749753.

        [22]" Wei Y N, Wang Z L, Xu M. Road Structure Refined CNN for Road Extraction in Aerial Image[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(5): 709713.

        [23]" 賀浩, 王仕成, 楊東方, 等. 基于Encoder-Decoder網(wǎng)絡(luò)的遙感影像道路提取方法[J]. 測繪學(xué)報(bào),2019,48(3): 330338.

        He Hao, Wang Shicheng, Yang Dongfang, et al. An Road Extraction Method for Remote Sensing Image Based on Encoder-Decoder Network[J]. Acta Geodaetical et Cartographical Sinica, 2019, 48(3): 330338.

        [24]" He K M, Zhang X Y, Ren S Q, et al. Deep Residual Learning for Image Recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: [s. n.], 2016: 770778.

        [25]" Sun T, Di Z L, Che P Y, et al. Leveraging Crowdsourced GPS Data for Road Extraction from Aerial Imagery[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: [s. n.], 2019: 75097518.

        [26]" Mei J, Li R J, Gao W, et al.CoANet: Connectivity Attention Network for Road Extraction from Satellite Imagery[J]. IEEE Transactions on Image Processing, 2021, 30: 85408552.

        [27]" Wang C W, Xu R T, Xu S B, et al. DA-Net: Dual Branch Transformer and Adaptive Strip Upsampling for Retinal Vessels Segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Singapore: Springer, 2022: 528538.

        [28]" Batra A, Singh S, Pang G, et al. Improved Road Connectivity by Joint Learning of Orientation and Segmentation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: [s. n.], 2019: 1038510393.

        [29]" Zhou M T, Sui H G, Chen S X, et al. Large-Scale Road Extraction from High-Resolution Remote Sensing Images based on a Weakly-Supervised Structural and Orientational Consistency Constraint Network[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2022, 193: 234251.

        [30]" Ding L, Bruzzone L. DiResNet: Direction-Aware Residual Network for Road Extraction in VHR Remote Sensing Images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 59(12): 1024310254.

        [31]" Li X G, Wang Y B, Zhang L Q, et al. Topology-Enhanced Urban Road Extraction via a Geographic Feature-Enhanced Network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 58(12): 88198830.

        [32]" Xu H, He H, Zhang Y, et al. A Comparative Study of Loss Functions for Road Segmentation in Remotely Sensed Road Datasets[J]. International Journal of Applied Earth Observation and Geoinformation, 2023, 116: 103159.

        [33]" Mosinska A, Marquez-Neila P, Koziński M, et al. Beyond the Pixel-Wise Loss for Topology-Aware Delineation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City: [s. n.], 2018: 31363145.

        [34]" Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[EB/OL]. (20150410) [20230210]. https://doi.org/10.48550/arXiv. 1409.1556.

        [35]" Oner D, Koziński M, Citraro L, et al.Promoting Connectivity of Network-Like Structures by Enforcing Region Separation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 44(9): 54015413.

        [36]" Guo M H, Lu C Z, Hou Q, et al. SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation[EB/OL]. (20220918) [20230212]. https: //doi.org/10.48550/arXiv.2209.08575.

        [37]" Gao S H, Cheng M M, Zhao K, et al. Res2net: A New Multi-Scale Backbone Architecture[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2019, 43(2): 652662.

        [38]" Zhou G D, Chen W T, Gui Q S, et al. Split Depth-Wise Separable Graph-Convolution Network for Road Extraction in Complex Environments from High-Resolution Remote-Sensing Images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 60: 115.

        [39]" Zhou L C, Zhang C, Wu M. D-LinkNet: LinkNet with Pretrained Encoder and Dilated Convolution for High Resolution Satellite Imagery Road Extraction[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. Salt Lake City: [s. n.], 2018: 182186.

        [40]" Wei Y, Zhang K, Ji S P. Simultaneous Road Surface and Centerline Extraction from Large-Scale Remote Sensing Images Using CNN-Based Segmentation and Tracing[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 58(12): 89198931.

        [41]" Wang Y, Peng Y X, Li W, et al. Ddu-Net: Dual-Decoder-U-Net for Road Extraction Using High-Resolution Remote Sensing Images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 112.

        [42]" Woo S, Park J, Lee J Y, et al. Cbam: Convolutional Block Attention Module[C]//Proceedings of the European Conference on Computer Vision (ECCV). Munich: [s. n.], 2018: 319.

        [43]" Wei Y, Ji S P. Scribble-Based Weakly Supervised Deep Learning for Road Surface Extraction from Remote Sensing Images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 60: 112.

        [44]" Liu Y H, Yao J, Lu X H, et al. RoadNet: Learning to Comprehensively Analyze Road Networks in Complex Urban Scenes from High-Resolution Remotely Sensed Images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 57(4): 20432056.

        [45]" Lu X Y, Zhong Y F, Zheng Z, et al. Cascaded Multi-Task Road Extraction Network for Road Surface, Centerline, and Edge Extraction[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 114.

        [46]" Chen X, Sun Q, Guo W Y, et al. GA-Net: A Geometry Prior Assisted Neural Network for Road Extraction[J]. International Journal of Applied Earth Observation and Geoinformation, 2022, 114: 103004.

        [47]" Bastani F, He S, Abbar S, et al. Roadtracer: Automatic Extraction of Road Networks from Aerial Images[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City: [s. n.], 2018: 47204728.

        [48]" Mosinska A, Koziński M, Fua P. Joint Segmentation and Path Classification of Curvilinear Structures[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2019, 42(6): 15151521.

        [49]" Demir I, Koperski K, Lindenbaum D, et al.A Challenge to Parse the Earth Through Satellite Images[EB/OL]. (20180517) [20230220]. https://doi.org/10.48550/arXiv. 1805.06561.

        [50]" Mnih V. Machine Learning for Aerial Image Labeling[D]. Toronto: University of Toronto, 2013.

        [51]" Van Etten A, Lindenbaum D, Bacastow T M. Spacenet: A Remote Sensing Dataset and Challenge Series[EB/OL]. (20190715) [20230222]. https://doi.org/10.48550/arXiv. 1807.01232.

        [52]" Zhu Q Q, Zhang Y N, Wang L Z, et al. A Global Context-Aware and Batch-Independent Network for Road Extraction from VHR Satellite Imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2021, 175: 353365.

        [53]" Chen Z Y, Wang C, Li J, et al. Reconstruction Bias U-Net for Road Extraction from Optical Remote Sensing Images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 22842294.

        [54]" Li Y L, Xiang L G, Zhang C L, et al. Fusing Taxi Trajectories and RS Images to Build Road Map via DCNN[J]. IEEE Access, 2019, 7: 161487161498.

        [55]" Grillo A, Krylov V A, Moser G, et al. Road Extraction and Road Width Estimation via Fusion of Aerial Optical Imagery, Geospatial Data, and Street-Level Images[C]//2021 IEEE International Geoscience and Remote Sensing Symposium IGARSS. Brussels: IEEE, 2021: 24132416.

        [56]" Liang J, Homayounfar N, Ma W C, et al. Convolutional Recurrent Network for Road Boundary Extraction[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: [s. n.], 2019: 95129521.

        [57]" Li P L, He X H, Qiao M J, et al. Exploring Multiple Crowdsourced Data to Learn Deep Convolutional Neural Networks for Road Extraction[J]. International Journal of Applied Earth Observation and Geoinformation, 2021, 104: 102544.

        [58]" Zhang J, Hu Q W, Li J Y, et al. Learning from GPS Trajectories of Floating Car for CNN-Based Urban Road Extraction with High-Resolution Satellite Imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 59(3): 18361847.

        [59]" Liang Z Y, Wang T C, Zhang X Y, et al. Tree Energy Loss: Towards Sparsely Annotated Semantic Segmentation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans: [s. n.], 2022: 1690716916.

        [60]" Pan Z Y, Jiang P, Wang Y H, et al. Scribble-Supervised Semantic Segmentation by Uncertainty Reduction on Neural Representation and Self-Supervision on Neural Eigenspace[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Nashville: [s. n.], 2021: 74167425.

        [61]" Chen H, Li Z H, Wu J J, et al. SemiRoad ExNet: A Semi-Supervised Network for Road Extraction from Remote Sensing Imagery via Adversarial Learning[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2023, 198: 169183.

        [62]" Wang M, Deng W H. Deep Visual Domain Adaptation: A Survey[J]. Neurocomputing, 2018, 312: 135153.

        [63]" 王舒洋, 慕曉冬, 賀浩, 等. 航拍圖像跨數(shù)據(jù)域特征遷移道路提取方法[J]. 測繪學(xué)報(bào),2020,49(5): 611621.

        Wang Shuyang, Mu Xiaodong, He Hao, et al. Feature-Representation-Transfer Based Road Extraction Method for Cross-Domain Aerial Images[J]. Acta Geodaetical et Cartographical Sinica, 2020, 49(5): 611621.

        猜你喜歡
        特征方法
        抓住特征巧觀察
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        學(xué)習(xí)方法
        抓住特征巧觀察
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        在线中文字幕一区二区| 久久AⅤ无码精品为人妻系列| 99热精品国产三级在线观看| 啪啪视频免费看一区二区| 人妻精品人妻一区二区三区四区 | 亚洲一区二区三区av色婷婷| 亚洲熟女一区二区三区250p| 好紧好爽免费午夜视频| 无码人妻精品一区二区三区在线 | 日本熟妇高潮爽视频在线观看| 日韩精品在线观看在线| 中文天堂国产最新| 性夜夜春夜夜爽aa片a| 在线无码免费看黄网站| 一二三四在线观看视频韩国| 欧美人与禽z0zo牲伦交| 久久人妻公开中文字幕| 加勒比精品一区二区三区| 91九色中文视频在线观看| а√天堂资源官网在线资源| 亚洲AV成人无码久久精品老人| 在线一区二区三区视频观看| 熟女一区二区中文字幕| 亚洲av无码精品蜜桃| 在线欧美精品二区三区| 色婷婷一区二区三区77| 欧美老妇牲交videos| 夜夜欢性恔免费视频| 亚洲精品国产老熟女久久| 亚洲精品一区二区三区新线路| 三级做a全过程在线观看| 人妻人人澡人人添人人爽人人玩| 99精品国产成人一区二区在线| 女同精品一区二区久久| 国产成人精品电影在线观看| 日韩成人无码v清免费| 麻豆视频黄片在线免费观看| 国产无夜激无码av毛片| 五月天激情综合网| 亚洲一区久久久狠婷婷| 国语自产精品视频在线看|