亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于EDRNet 模型的高分辨率遙感影像道路提取

        2021-09-15 07:36:48赫曉慧李代棟李盼樂胡紹凱陳明揚田智慧周廣勝
        計算機工程 2021年9期
        關鍵詞:編碼器損失像素

        赫曉慧,李代棟,李盼樂,胡紹凱,陳明揚,田智慧,周廣勝

        (1.鄭州大學 地球科學與技術學院,鄭州 450001;2.鄭州大學 信息工程學院,鄭州 450001;3.中國氣象科學研究院鄭州大學生態(tài)氣象聯(lián)合實驗室,鄭州 450052)

        0 概述

        隨著遙感技術的飛速發(fā)展,高分辨率遙感影像為地表地物分析提供了更龐大的信息量。道路信息作為典型的地物要素,在城市規(guī)劃、數(shù)字地圖、構(gòu)建實時地理信息系統(tǒng)等方面具有廣泛的應用價值。通過人工方式對遙感影像進行標注,需要耗費大量的人力和物力[1-2],而傳統(tǒng)的道路提取算法通過捕獲道路的顏色、紋理和邊界等[3-5]信息,再利用閾值或機器學習分類器[6]等進行分類,但該類算法僅在有限的應用場合下發(fā)揮積極作用。因此,如何利用大量的高分辨率遙感影像完整且準確地提取道路信息,成為該領域的研究熱點。

        深度學習(Deep Learning,DL)作為人工智能領域的新興技術,能夠通過其深度多層次的結(jié)構(gòu)來分析和處理數(shù)據(jù),在道路提取領域得到了快速發(fā)展和廣泛應用。文獻[7-9]利用深度卷積神經(jīng)網(wǎng)絡(Convolutional Netural Network,CNN)[10]對馬薩 諸塞州道路和建筑物的標注和分割進行了大量研究。相比傳統(tǒng)CNN,全卷積網(wǎng)絡(Fully Convolutional Network,F(xiàn)CN)[11]將全連接層替換為卷積層,通過僅一次正向傳播就能完成整個圖像的語義分割,從而大幅提高了效率。ZHONG 等[12]將FCN 應用于道路提取任務中,并在結(jié)構(gòu)化輸出中探索道路提取的二維空間相關性。如U-Net[13]和SegNet[14]的編碼器-解碼器(Encoder-Decoder)網(wǎng)絡通過連接不同級別的特征圖,解決FCN 在分割細節(jié)方面表現(xiàn)不佳的問題,且具有易改造性強、訓練速度快、提取精度高等優(yōu)點。MOSINSKA 等[15]在U-Net 的基礎上提出深度學習分割框架,并通過預訓練的VGG19[16]來捕獲線性結(jié)構(gòu)的高階拓撲特征,減少出現(xiàn)斷裂或空洞現(xiàn)象。PANBOONYUEN 等[17]利用SegNet 的網(wǎng)絡結(jié)構(gòu)和指數(shù)線性單元(Exponential Linear Unit,ELU)激活單元,通過有效的數(shù)據(jù)擴增,進一步提升道路提取的完整度。QIN 等[18]針對提取邊界質(zhì)量差的問題,構(gòu)建由兩個編碼器-解碼器模型組成的分割框架,分別負責顯著性預測和特征優(yōu)化,能夠用準確且清晰的邊界預測其結(jié)構(gòu),在局部的細節(jié)分割效果更加優(yōu)異。但遙感影像中各種信息復雜多樣,且道路區(qū)域所占比例較低,通過顯著性預測進行道路提取質(zhì)量較差。盡管已經(jīng)提出許多基于深度學習的道路提取方法,但現(xiàn)有方法大多采用交叉熵作為損失函數(shù)[11-14,17],往往會錯過精細的道路結(jié)構(gòu)或在其邊界存在大量模棱兩可的預測。

        為進一步提高道路提取質(zhì)量,本文設計了基于編碼器-解碼器道路網(wǎng)絡(Encoder-Decoder Road Network,EDRNet)的道路提取方法。采用編碼器-解碼器的網(wǎng)絡結(jié)構(gòu),結(jié)合殘差網(wǎng)絡和跳躍連接,構(gòu)建EDR1 道路提取模型。為保留道路主體結(jié)構(gòu)以及進一步精細目標邊界,EDR2 模型利用已提取到的道路拓撲特征,增加側(cè)向輸出融合淺層空間信息與深層語義信息。在此基礎上,引入混合損失函數(shù),對模型進行監(jiān)督訓練,分別提高道路提取的完整度與精確度。

        1 EDRNet 模型

        本文提出的EDRNet 道路提取模型由EDR1 道路提取模型和EDR2 優(yōu)化模型構(gòu)成,其提取流程如圖1所示。在EDRNet 模型的訓練過程中,先對EDR1 模型進行訓練,訓練完成后對原訓練數(shù)據(jù)和驗證數(shù)據(jù)進行預測。篩選數(shù)據(jù)制作EDR2 模型所需的數(shù)據(jù)集,并利用新數(shù)據(jù)集訓練EDR2 模型。測試圖像則通過EDR1模型預測道路區(qū)域,利用EDR2 模型優(yōu)化道路整體輪廓,得到最終道路提取結(jié)果。

        圖1 EDRNet 模型提取流程Fig.1 Extraction procedure of EDRNet model

        1.1 EDR1 模型提取

        1.1.1 ResNet 編碼器

        在編碼器-解碼器的網(wǎng)絡結(jié)構(gòu)中,編碼器對輸入影像進行多階段的卷積和池化操作,從抽象的高維特征圖中捕捉影像的上下文信息;與之相對應的解碼器則利用反卷積進行相同次數(shù)的上采樣,生成相應尺寸的特征圖,對影像中道路目標區(qū)域進行精準定位。編碼器對道路的細節(jié)特征進行提取,但小面積、線形且呈網(wǎng)狀分布的道路結(jié)構(gòu)細節(jié)信息豐富且提取困難。簡單的加深網(wǎng)絡易導致梯度分散或梯度爆炸,深層的網(wǎng)絡權(quán)重參數(shù)過多,在訓練集較小的情況下,訓練過深的特征提取網(wǎng)絡容易過擬合。文獻[19]通過構(gòu)建殘差神經(jīng)網(wǎng)絡(Residual Neural Network,ResNet)解決了退化問題,能夠保護信息的完整性并簡化訓練難度,其性能優(yōu)于VGG 網(wǎng)絡。ResNet 網(wǎng)絡結(jié)構(gòu)如圖2 所示,主要由殘差塊組成。

        圖2 ResNet 網(wǎng)絡結(jié)構(gòu)Fig.2 Structure of ResNet network

        在圖2(a)中,x為殘差塊輸入,經(jīng)過第一次激活函數(shù)后輸出為F(x),如式(1)所示:

        其中:σ為Relu 非線性函數(shù);W1與W2分別為各層的權(quán)值。殘差塊將F(x,{Wi})與輸入x相加,得到最終的輸出y,如式(2)所示:

        基于以上研究,EDR1 模型采用圖2(b)中的殘差模塊加深網(wǎng)絡,構(gòu)建ResNet-34 殘差網(wǎng)絡編碼器。該編碼器能提取更豐富的道路特征,保留細節(jié)信息并減少網(wǎng)絡訓練時間。

        1.1.2 EDR1 模型設計

        U-Net 網(wǎng)絡由捕獲上下文的編碼器、對稱的解碼器和跳躍連接組成。其中豐富的跳躍連接允許信息直接從低級到高級特征映射流動,能同時獲取高等級的全局信息和低等級的細節(jié)信息,無需進行替換,進一步提高了定位精確度并加快收斂速度[20]。

        EDR1 模型是基于殘差網(wǎng)絡構(gòu)建的特征編碼器,并借鑒U-Net 網(wǎng)絡跳躍連接設計道路提取模型。該模型包含4 個編碼器塊和4 個解碼器塊,將ResNet-34的4 個卷積塊作為其編碼器部分,通過跳躍連接分別與相應的解碼器塊相連。該網(wǎng)絡設計充分利用ResNet-34 的特征提取能力、編碼器-解碼器結(jié)構(gòu)和跳躍連接的優(yōu)勢,不僅能夠獲取更加豐富的道路特征信息,而且更容易訓練,大幅提升了模型的訓練速度。

        1.2 EDR2 模型優(yōu)化

        道路提取結(jié)果的優(yōu)化與普通提取任務有明顯區(qū)別。首先道路輪廓優(yōu)化與已提取的道路區(qū)域具有明顯的相關性,且需優(yōu)化區(qū)域占比小、背景單一,特征提取難度較低,過于復雜的模型易陷入過擬合。其次為保留道路主體結(jié)構(gòu),需要充分利用多尺度、多層次的特征,獲取從低層次到高層次的道路結(jié)構(gòu)信息。最后為引導模型學習正確的道路信息、優(yōu)化道路提取結(jié)果,需要對優(yōu)化結(jié)果進行深度監(jiān)控。

        因此,為充分利用EDR1 模型的提取結(jié)果,保留已提取到的道路主體結(jié)構(gòu),同時消除道路邊緣的噪聲干擾,EDR2 模型設計主要是:1)在編碼器部分放棄較EDR1 模型中復雜的Res 模塊,采用原U-Net 網(wǎng)絡的特征編碼器;2)在每個解碼器塊增加側(cè)向輸出,每個解碼器的最后都使用卷積核大小為1×1,窗口滑動步距為1的卷積層,降低特征圖的維度為1;由于不同解碼器塊上降維后的特征圖大小不一致,分別通過反卷積(deconvolutional)的方式,將其恢復至原始影像尺寸;3)不同于EDR1 模型僅利用最后一層預測道路,EDR2 模型對所有解碼塊的采樣特征圖進行融合,經(jīng)過3×3 卷積和1×1 卷積,輸出單通道的優(yōu)化結(jié)果。EDR2 模型結(jié)構(gòu)如圖3 所示。

        圖3 EDR2 模型結(jié)構(gòu)Fig.3 Structure of EDR2 model

        1.3 損失函數(shù)

        道路提取是區(qū)分道路及背景的二分類問題,采用二分類交叉熵損失函數(shù)[21]對深度學習模型進行訓練,如式(3)所示:

        其中:n為像素個數(shù);yi為第i個像素的標簽真實值,該值為0 時代表該像素屬于背景區(qū)域,為1 則代表該像素屬于道路區(qū)域;ai為第i個像素的預測值,其值為0~1,ai值越高則屬于道路的概率越大。由式(3)中L的定義可知,交叉熵損失沒有考慮精細的道路結(jié)構(gòu),對不同像素的損失分配了相同的權(quán)重,因此交叉熵損失不適合分割小面積、線性結(jié)構(gòu)的道路區(qū)域。

        本文提出的EDRNet 道路提取模型中,EDR1模型進行道路提取,EDR2 模型基于EDR1 模型的提取結(jié)果進行優(yōu)化。若EDR1 模型提取結(jié)果召回率較低,則道路結(jié)構(gòu)缺損嚴重。EDR2 模型能夠有效利用道路結(jié)構(gòu)信息的不足,影響優(yōu)化結(jié)果。因此,EDR1 模型得到道路結(jié)構(gòu)較為完整的提取結(jié)果,并通過EDR2 模型保留道路結(jié)構(gòu)并消除噪聲影響。

        在對模型改進的基礎上,根據(jù)各模型特點,本文利用Tversky 系數(shù)[22]和Focal損失函數(shù)[23],構(gòu)建EDR1 損失函數(shù)L1和EDR2 模型損失函數(shù)L2。利用L1損失函數(shù)提升道路提取的完整度,利用L2損失函數(shù)進一步優(yōu)化整體提取結(jié)果。

        1.3.1 EDR1 損失函數(shù)L1

        Tversky 系數(shù)是Dice 系數(shù)和Jaccard 系數(shù)的一種廣義系數(shù),其定義如式(4)所示:

        其中:A為預測值;B為 真實標簽;α和β為0~1 的系數(shù)。由式(4)可知,設置α=β=0.5 時,Tversky 系數(shù)為Dice 系數(shù);設置α=β=1 時,為Jaccard 系數(shù)。其中|A?B|代表FP(標簽為負,預測為正),而|B?A|代表FN(標簽為正,預測為負)。因此,在EDR1 模型的訓練過程中,利用Tversky 系數(shù)作為損失函數(shù),通過調(diào)整α和β值,能夠調(diào)節(jié)提取結(jié)果中精確度與召回率所占權(quán)重。根據(jù)遙感影像道路提取二分類的特點,EDR1損失函數(shù)L1如式(5)所示:

        其中:ε為固定值。本文設計了特征提取能力更強的EDR1 模型,并利用L1損失函數(shù)對其進行訓練。通過調(diào)節(jié)L1損失函數(shù)的相關參數(shù),使模型在訓練過程中能獲取完整的道路結(jié)構(gòu),得到召回率較高但精確度較低的提取結(jié)果。更完整的道路提取結(jié)果有利于EDR2 模型的優(yōu)化。

        1.3.2 EDR2 損失函數(shù)L2

        由于EDR2 模型的輸入是EDR1 的預測結(jié)果,其中絕大部分都是背景,而在整張遙感影像中道路所占比例較低,且能優(yōu)化道路輪廓或噪聲信息部分所占比例更低。若利用交叉熵損失函數(shù)訓練EDR2 模型,很難從中學習到有用信息。而Focal 損失函數(shù)利用γ權(quán)重減少了易分類樣本的損失,更關注于錯分的樣本,并通過增加θ權(quán)重來平衡正負樣本比例不均的問題,更適應于道路提取結(jié)果的優(yōu)化。其定義如式(6)所示:

        其中:θ為0~1 的系數(shù);γ為大于0 的權(quán)重系數(shù)。LF損失函數(shù)能逐漸降低背景及主體道路結(jié)構(gòu)的權(quán)重,專注于道路邊緣及離散斑點等需要優(yōu)化的部分,有效提升EDR2 模型的優(yōu)化能力。而通過改變L1損失函數(shù)相關系數(shù),也能夠增加精確度所占權(quán)重,利于提升EDR2 模型的優(yōu)化能力。因此,設計EDR2 模型的損失函數(shù)L2由L1和LF構(gòu)成,如式(7)所示:

        其中:φ和ω的值為0~1 的系數(shù),能調(diào)節(jié)各損失函數(shù)所占權(quán)重。通過調(diào)節(jié)L1和LF損失函數(shù)所占權(quán)重,在EDR2 模型訓練過程中減少已提取的道路主體結(jié)構(gòu)與背景的損失,專注于優(yōu)化道路提取結(jié)果。

        2 實驗分析

        為驗證算法對遙感影像道路提取的有效性,使用EDR1 和EDR2 數(shù)據(jù)集對網(wǎng)絡進行訓練、測試與驗證。實驗基于Tensorflow 深度學習框架設計,運行環(huán)境為 CPU Inter Core i7-8700 4.6 GHz,GPU NVIDIA Tesla P100 16 GB。

        2.1 實驗數(shù)據(jù)

        采用馬薩諸塞州道路數(shù)據(jù)集作為實驗數(shù)據(jù)。該數(shù)據(jù)集為美國馬薩諸塞州的衛(wèi)星影像,共涵蓋1 171 張3 通道影像和對應分割標簽。影像空間分辨率為1 m,尺寸為1 500 像素×1 500 像素。分割標簽為二值化圖像,道路像素值為1,背景像素值為0。在EDRNet 提取方法中共需要2 個數(shù)據(jù)集,分別為EDR1 數(shù)據(jù)集和EDR2 數(shù)據(jù)集,其中EDR1 數(shù)據(jù)集由馬薩諸塞州道路中獲得,EDR2 數(shù)據(jù)集在實驗中通過EDR1 模型得到。

        2.1.1 EDR1 數(shù)據(jù)

        由于構(gòu)建的EDR1 網(wǎng)絡輸入影像尺寸為128 像素×128 像素,為了避免歸一化帶來的影響,首先將馬薩諸塞州道路每張影像及標簽裁剪成121 張尺寸為128 像素×128 像素的圖像,裁剪后的圖像沒有重疊區(qū)域,并采用多種方法數(shù)據(jù)集進行增強。然后通過人工篩選方式去除數(shù)據(jù)集中不對應的影像和標簽,共獲取12 003 張影像與標簽。最后將道路數(shù)據(jù)集按7∶2∶1 劃分為訓練集、測試集和驗證集。

        2.1.2 EDR2 數(shù)據(jù)

        利用訓練完成的EDR1 模型對EDR1 數(shù)據(jù)的訓練集和驗證集進行預測,經(jīng)過數(shù)據(jù)篩選,剔除部分提取完整度較差的影像,并將其提取結(jié)果和對應的標簽裁剪為128 像素×128 像素尺寸的圖像,符合要求的訓練集和驗證集及其相對應的標簽制成EDR2 數(shù)據(jù)集。EDR2 部分數(shù)據(jù)如圖4 所示。

        圖4 EDR2 部分數(shù)據(jù)Fig.4 EDR2 partial datas

        2.1.3 數(shù)據(jù)擴增

        深度學習是一種數(shù)據(jù)驅(qū)動技術,充足的數(shù)據(jù)量是訓練深度網(wǎng)絡的基礎,但目前標準的遙感影像道路數(shù)據(jù)還不能滿足需求。在數(shù)據(jù)不足的情況下,通過對影像進行旋轉(zhuǎn)和變換來擴充訓練數(shù)據(jù)容量。本文借鑒文獻[24]中數(shù)據(jù)擴增的方法,在其基礎上增加兩種映射方式。對原始影像及標簽隨機進行旋轉(zhuǎn)或水平、垂直的鏡像映射,將訓練數(shù)據(jù)量擴充為原來的8 倍,基本能滿足EDRNet 網(wǎng)絡訓練的需求。數(shù)據(jù)擴增結(jié)果如圖5 所示。

        圖5 數(shù)據(jù)擴增結(jié)果Fig.5 Results of data amplification

        2.2 實驗參數(shù)

        在模型的訓練過程中,根據(jù)實際情況,設置迭代批量batch_size 為2,動量參數(shù)Momentum 為0.9,配置基礎學習率在前20 000次迭代中為10-6,隨后迭代逐步降為5×10-7。EDR1模型訓練過程中,L1損失函數(shù)相關系數(shù)設置為α=0.7,β=0.3;EDR2 模型訓練時,L2損失函數(shù)中相關系數(shù)分別為α=0.5,β=0.5,γ=2,θ=0.25。

        2.3 評價指標

        為實現(xiàn)對遙感影像道路提取方法的客觀評價,道路提取結(jié)果采用語義分割常用的評價方法,即精確率(P),召回率(R)和F1-score 等。其定義分別為式(8)~式(10)所示:

        其中:TP(true-positive)代表標簽為正,預測也為正;FP(false-positive)代表標簽為負,預測為正;FN(falsenegative)代表標簽為正,預測為負。

        2.4 實驗結(jié)果與分析

        為驗證本文所提出方法的有效性,選取了特征提取能力較強、道路網(wǎng)結(jié)構(gòu)提取比較完整的模型進行對比實驗。分別將U-Net 模型、文獻[17,19]模型、EDR1 模型和EDR1(L1)模型,在馬薩諸塞州道路數(shù)據(jù)集下進行驗證測試,提取結(jié)果如表1 所示。

        表1 不同模型道路提取結(jié)果對比Table 1 Comparison of road extraction results between different models

        從表1 可以看出,U-Net 雖然可用于遙感影像道路目標的分割,但測試精確率較差,影響整體的測試結(jié)果,其模型結(jié)構(gòu)設計并不能完全適應復雜的遙感影像道路提取任務。文獻[17]在U-Net 基礎上,利用預訓練的VGG19 來捕獲線性結(jié)構(gòu)的高階拓撲特征,F(xiàn)1-score 提高了約7 個百分點;但在訓練過程中將所有提取結(jié)果未加篩選進行訓練,導致模型保留了部分類似道路區(qū)域的特征,其結(jié)果中存在一些被誤檢測為道路的區(qū)域。文獻[19]中的ELU-SegNet-R采用更先進的網(wǎng)絡結(jié)構(gòu)和激活函數(shù),召回率、F1-score 分別為84.7%和81.2%,但其直接利用了適合于街景分割的SegNet 基本架構(gòu),設計損失函數(shù)時沒有考慮道路邊緣噪聲影響,因而限制其提取道路網(wǎng)絡的性能。本文基于U-Net 改進的EDR1 模型,將原編碼部分替換為特征提取能力更強的Res 模塊,提高了對道路目標特征的提取能力,相比原始U-Net的召回率提升了約11 個百分點。利用L1損失函數(shù)進行訓練的EDR1 模型,在此基礎上進一步提升了道路提取的完整度,其召回率值達到了93.1%,絕大多數(shù)的目標道路區(qū)域能夠被提取到。由于側(cè)重提升對道路目標特征信息提取,其精確率與F1-score 指標略低。不同模型提取結(jié)果如圖6 所示。

        圖6 不同模型提取結(jié)果Fig.6 Extraction results of different models

        從圖6 可以看出,相比U-Net、文獻[17,19]模型,EDR1 模型提取到了更多的道路目標區(qū)域,但仍存在部分道路中斷以及未檢測到的情況,不利于EDR2 模型進行優(yōu)化。相比其他模型,利用L1損失函數(shù)進行訓練的EDR1 模型,道路提取完整程度高,但同時道路邊緣及背景也存在部分噪聲干擾等問題,影響整體的提取效果。

        為驗證本文所提EDR2 模型的改進效果,分別選取對特征提取能力強、道路網(wǎng)結(jié)構(gòu)提取完整的模型U-Net、文獻[17,19]模型、EDR1 模型和EDR1(L1)模型,并結(jié)合EDR2 模型進行驗證測試,實驗結(jié)果如表2 所示。

        表2 EDR2 模型優(yōu)化結(jié)果Table 2 Optimization results of EDR2 model

        從表2 可以看出,利用EDR2 模型對上述方法進行優(yōu)化的結(jié)果中,精確率指標分別提升了1.0、1.6、2.9 和8.6 個百分點,而召回率僅下降了0.8、1.1、1.9和5.9 個百分點,最終在指標F1-score 有所提升。通過調(diào)節(jié)L1損失函數(shù)的相關參數(shù),EDR1 模型在訓練過程中更關注獲取完整的道路結(jié)構(gòu),得到一個召回率較高但精確率較低的提取結(jié)果。實驗對比表明,召回率較高的提取結(jié)果經(jīng)過EDR2 模型改進優(yōu)化,最終道路提取結(jié)果能更好地實現(xiàn)召回率和精確率均衡。利用L1損失函數(shù)進行訓練的EDR1 模型,經(jīng)過EDR2 模型優(yōu)化后精確度和F1-score 指標提升效果顯著,但其精確率和召回率相差較大,仍存在一定的優(yōu)化空間。因此,為了使EDR2 模型獲得更充足的道路結(jié)構(gòu)信息,本文設計了特征提取能力更強的EDR1 模型,并利用L1損失函數(shù)對其進行訓練。EDR2(L2)模型的優(yōu)化結(jié)果如表3 所示。

        表3 EDR2(L2)模型優(yōu)化結(jié)果Table 3 Optimization results of EDR2(L2)model

        從表3 可以看出,利用EDR2 模型+L2損失函數(shù)對上述方法的提取結(jié)果進行優(yōu)化后,召回率降低幅度較低,而精確率得到了有效提升,召回率和精確度之間的差也進一步縮小。在實驗結(jié)果中,EDR1(L1)+EDR2(L2)與其他原始或改進后方法的結(jié)果相比,其精確率、召回率以及F1-score 都取得更加優(yōu)異的表現(xiàn),尤其是精確率提升方面。各模型優(yōu)化結(jié)果如圖7 所示。從圖7 可以看出,經(jīng)過EDR2 模型+L2損失函數(shù)的優(yōu)化,文獻[17,19]模型的提取結(jié)果,在保留主體道路結(jié)構(gòu)的同時提升了其精確率,能夠消除部分噪聲的影響;但由于上述網(wǎng)絡的特征提取能力較弱,部分道路未被提取到,通過EDR2 模型進行優(yōu)化提升的空間有限,限制其最終提取完整度的表現(xiàn)。EDR2 模型+L2損失函數(shù)對EDR1 模型的優(yōu)化結(jié)果較明顯,但僅通過改進模型結(jié)構(gòu),仍然有部分道路未被有效提取,影響了整體的優(yōu)化效果。而本文方法通過優(yōu)化EDR1 模型+L1損失函數(shù)的道路提取結(jié)果,能夠較完整保留道路主體結(jié)構(gòu),同時消除大部分毛刺或離散斑點的噪聲干擾。最終提取結(jié)果與標簽圖像達到更高的相似度,整體道路提取結(jié)果更優(yōu)異。

        圖7 不同模型優(yōu)化結(jié)果Fig.7 Optimization results of different models

        3 結(jié)束語

        本文提出基于EDRNet 模型的遙感影像道路提取方法。EDR1 模型通過替換性能更優(yōu)異的殘差模塊,提取完整的目標道路區(qū)域。在特征解碼階段,EDR2 模型對多層次、多尺度的道路結(jié)構(gòu)特征進行融合。在此基礎上,利用混合損失函數(shù)和數(shù)據(jù)增強的方法,提升各模型特性。實驗結(jié)果表明,EDRNet 道路提取方法的各項性能指標表現(xiàn)優(yōu)異,能夠從復雜的遙感影像中獲得完整且準確的路網(wǎng)結(jié)構(gòu)。下一步工作是擴大EDRNet 方法的適用范圍,使其能更廣泛地應用在建筑物、河流和車輛等影像提取任務中。

        猜你喜歡
        編碼器損失像素
        趙運哲作品
        藝術家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        少問一句,損失千金
        胖胖損失了多少元
        “像素”仙人掌
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        基于FPGA的同步機軸角編碼器
        基于PRBS檢測的8B/IOB編碼器設計
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        JESD204B接口協(xié)議中的8B10B編碼器設計
        電子器件(2015年5期)2015-12-29 08:42:24
        杨幂Av一区二区三区| 啦啦啦www播放日本观看| 亚洲av本道一本二本三区| 亚洲中文字幕一区高清在线| 亚洲av综合色区久久精品| 亚洲国产线茬精品成av| 亚洲综合av一区在线| 国产成人av三级三级三级在线| 国产3p一区二区三区精品| 高清在线有码日韩中文字幕 | 国产午夜成人久久无码一区二区| 久久中文字幕无码一区二区| 亚洲精品亚洲人成在线下载| 天天干夜夜躁| 无码专区亚洲avl| 精品国产又大又黄又粗av| 日本久久精品国产精品| 青青草视频免费在线播放| 蜜桃传媒免费在线观看| 国产av一级黄一区二区三区| 美女下蹲露大唇无遮挡| 欧洲美女黑人粗性暴交视频| 成人精品一区二区三区电影 | 精品亚洲aⅴ在线观看| 欧美日本免费一区二| 成人免费无码视频在线网站| 美女福利视频在线观看网址| 精品人妻少妇av中文字幕| 久久久久九九精品影院| 老师露出两个奶球让我吃奶头| 777亚洲精品乱码久久久久久| 国产女人精品视频国产灰线 | 人妻少妇精品无码专区二区 | 亚洲av色香蕉一区二区蜜桃| 免费人成网站在线播放| 久久红精品一区二区三区| 大陆国产乱人伦| 亚洲av永久无码精品网站在线观看| 国产成人一区二区三区影院动漫| 国产香蕉97碰碰视频va碰碰看| 亚洲电影一区二区三区|