亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的農(nóng)業(yè)大棚檢測(cè)

        2023-11-06 11:07:52王月紅孟凡效丁樂樂
        地理空間信息 2023年10期
        關(guān)鍵詞:正確率特征提取分辨率

        王月紅,孟凡效,丁樂樂

        (1.天津市自然資源調(diào)查與登記中心,天津 300000;2.天津市勘察設(shè)計(jì)院集團(tuán)有限公司,天津 300000)

        隨著深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域的成熟應(yīng)用,深度學(xué)習(xí)在遙感影像解譯領(lǐng)域獲得廣泛關(guān)注[1-3],并被應(yīng)用于大棚檢測(cè)[4-6]。針對(duì)大棚提取任務(wù),本文對(duì)比分析了深度學(xué)習(xí)模型FCN[7],UNet[8]和HRNet[9]在高分辨率遙感影像大棚檢測(cè)任務(wù)上的性能,對(duì)多種模型在大棚檢測(cè)方面的效果進(jìn)行定量和定性分析。

        1 基于深度學(xué)習(xí)的農(nóng)業(yè)大棚檢測(cè)

        本文提出的方法主要包括3個(gè)部分,即高分影像預(yù)處理、深度特征提取和農(nóng)業(yè)大棚識(shí)別3個(gè)部分,對(duì)于給定高分影像,首先對(duì)其進(jìn)行歸一化、數(shù)據(jù)增強(qiáng)等預(yù)處理,然后輸入深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行深度特征提取,最后利用分類器對(duì)提取得到的特征進(jìn)行識(shí)別。在訓(xùn)練階段,根據(jù)真實(shí)標(biāo)準(zhǔn)值和識(shí)別的結(jié)果計(jì)算損失函數(shù),計(jì)算參數(shù)的偏導(dǎo)數(shù),更新網(wǎng)絡(luò)參數(shù)。

        1.1 數(shù)據(jù)預(yù)處理與深度特征提取

        1.1.1 數(shù)據(jù)預(yù)處理

        設(shè)輸入影像為I?RH×W×3及其對(duì)應(yīng)的標(biāo)注影像Y?RH×W×2,其中H,W分別表示影像的行、列。考慮到訓(xùn)練過程中顯存的限制,本文將H,W設(shè)置為512。即訓(xùn)練階段將影像裁剪成規(guī)格為512×512 的數(shù)據(jù)用于訓(xùn)練模型。為增加模型的魯棒性和泛化能力,本文首先對(duì)數(shù)據(jù)進(jìn)行隨機(jī)旋轉(zhuǎn)、拉伸、平移等預(yù)處理操作:

        式中,RandomRot(?)、RandomScale(?)、RandomShift(?)分別為隨機(jī)旋轉(zhuǎn)、拉伸和平移操作。

        在經(jīng)過預(yù)處理操作后,將得到的數(shù)據(jù)輸入深度網(wǎng)絡(luò)中進(jìn)行深度特征提取。在本文中,分別利用FCN,UNet,和HRNet等3個(gè)網(wǎng)絡(luò)進(jìn)行深度特征提取。

        1.1.2 深度特征提取

        FCN和UNet是典型的語義分割網(wǎng)絡(luò),其通過對(duì)輸入數(shù)據(jù)進(jìn)行編碼和解碼得到深度特征,其中在編碼的過程中,F(xiàn)CN和UNet逐步降低輸入數(shù)據(jù)的分辨率,然后在解碼中通過反卷積等上采樣算子恢復(fù)特征的分辨率,而且為利用多尺度特征,F(xiàn)CN和UNet將編碼層和解碼層特征進(jìn)行融和。雖然UNet 和FCN 網(wǎng)絡(luò)通過編碼—解碼這一結(jié)構(gòu)來提取特征和保持分辨率,然而這一結(jié)構(gòu)在特征編碼時(shí)仍將喪失圖像細(xì)節(jié)信息,針對(duì)這一問題,HRNet 網(wǎng)絡(luò)設(shè)計(jì)為4 分支網(wǎng)絡(luò),并令第一分支網(wǎng)絡(luò)空間分辨率不變,在提取的過程中4 分支網(wǎng)絡(luò)交互傳遞信息。

        FCN:FCN 為用于影像語義分割的經(jīng)典網(wǎng)絡(luò),在本文中,使用ResNet-50[12]作為FCN 的backbone 用于特征提取。在ResNet-50中,基本邏輯構(gòu)成單位為Basic Block,Basic Block 含有跨層連接,便于信息的直接流通和梯度傳遞,若干個(gè)Basic Block 堆疊形成Stage Block。4個(gè)Stage Block 構(gòu) 成ResNet-50深度網(wǎng)絡(luò)。本文中選用第4個(gè)Stage Block 的輸出特征同于大棚檢測(cè)。由于在進(jìn)行深度特征的提取過程中,影像空間分辨率會(huì)下降,因此本文采用線性差值將提取得到的特征圖拉伸到和原圖像一樣大小,則特征圖上每一個(gè)位置(x,y)的通道被作為該處像元的特征向量。

        UNet:為彌補(bǔ)深度特征提取過程中空間分辨降低,細(xì)節(jié)信息丟失的問題,UNet將低層的高分辨特征和高層的低分辨率特征進(jìn)行疊加融合,在本文中,同樣使用ResNet-50作為UNet的backbone。

        HRNet:為在提取特征的過程中保持空間細(xì)節(jié)信息,HRNet 采用4個(gè)網(wǎng)絡(luò)分支用于提取不同尺度的特征,不同尺度的分支之間相互傳遞信息,進(jìn)行多尺度融合。

        在本文中將深度特征提取過程用函數(shù)Net(?),則深度特征提取表示為:

        式中,Net(?)可取值為FCN,UNet以及HRNet,x?RH×W×C為提取得到特征圖,C為提取的特征圖通道數(shù)。

        1.2 農(nóng)業(yè)大棚識(shí)別

        對(duì)于得到的深度特征圖x,將其輸入分類器Soft-Max獲得識(shí)別結(jié)果:

        式中,p(t|Ij)為像素Ij屬于類別t的概率;n為總的類別個(gè)數(shù),在本文中取值為2,即分類為農(nóng)業(yè)大棚和非農(nóng)業(yè)大棚兩類;xj為像素Ij的深度特征向量;wcls為分類器SoftMax中的參數(shù)矩陣w?Rn×n的第cls行。

        在訓(xùn)練階段,根據(jù)最大似然估計(jì)方法,計(jì)算交叉熵?fù)p失函數(shù),使得樣本被正確分類的概率最大:

        式中,Yj?R2為像素Ij的one-hot 類別編碼;*為向量內(nèi)積運(yùn)算。根據(jù)鏈?zhǔn)椒▌t計(jì)算網(wǎng)絡(luò)損失函數(shù)J對(duì)參數(shù)的偏導(dǎo)數(shù)并更新參數(shù):

        式中,par 為網(wǎng)絡(luò)參數(shù);lr為學(xué)習(xí)率。

        2 實(shí)驗(yàn)結(jié)果分析

        本文實(shí)驗(yàn)數(shù)據(jù)包括800 張高分影像,單張影像大小2 000×2 000,圖像分辨率為0.5 m,其中隨機(jī)抽取400 張影像用于訓(xùn)練,剩余400 張影像用于測(cè)試。訓(xùn)練學(xué)習(xí)率為0.000 03,訓(xùn)練迭代次數(shù)為15 000。本文使用正確率Acc以及交并比IOU作為評(píng)價(jià)指標(biāo):

        式中,Acci和IOUi為類i的正確率和IOU;TPi為i樣本被正確分類的樣本數(shù)、FNi為i樣本被錯(cuò)誤分類的樣本數(shù);Numi為類i樣本的總個(gè)數(shù);FPi為被錯(cuò)誤分為類i的樣本數(shù)。

        表1 給出了FCN,UNet 和HRNet 在測(cè)試數(shù)據(jù)集上的識(shí)別精度。從表1可以看出,F(xiàn)CN,UNet和HRNet 3個(gè)網(wǎng)絡(luò)對(duì)大棚的識(shí)別正確率都可以達(dá)到91%以上,IOU 精度高于86%。相比于UNet,F(xiàn)CN 對(duì)于農(nóng)業(yè)大棚的識(shí)別正確率和IOU 略高,分別有0.4%和0.39%的提升。在3個(gè)網(wǎng)絡(luò)中,由于HRNet 在細(xì)節(jié)信息保持方面更具優(yōu)勢(shì),因此在測(cè)試數(shù)據(jù)集上取得最優(yōu)的提取精度。

        表1 FCN,UNet和HRNet在測(cè)試數(shù)據(jù)集上的識(shí)別精度

        圖1 給出了3個(gè)網(wǎng)絡(luò)模型在其中一張測(cè)試數(shù)據(jù)上的識(shí)別結(jié)果圖。從圖1 可以看出,F(xiàn)CN,UNet 和HRNet 3個(gè)網(wǎng)絡(luò)的提取結(jié)果從視覺上來看與人工標(biāo)注的結(jié)果并無太大差異。其中圖中區(qū)域1 為人工遺漏標(biāo)記的大棚,F(xiàn)CN沒有正確將其檢測(cè)出來,UNet識(shí)別出部分區(qū)域,而HRNet將其成功的提取出來。對(duì)于區(qū)域2,雖然3個(gè)網(wǎng)絡(luò)都能將其范圍內(nèi)的大棚正確識(shí)別,然而,F(xiàn)CN網(wǎng)絡(luò)由于丟失細(xì)節(jié)信息較UNet和HRNet較為嚴(yán)重,因此在大棚之間的區(qū)域,在FCN中也被錯(cuò)誤地識(shí)別為大棚,而UNet和HRNet都可以將這些間隔區(qū)域正確識(shí)別。

        圖1 深度學(xué)習(xí)模型大棚提取結(jié)果

        3 結(jié)語

        作為重要的農(nóng)業(yè)基礎(chǔ)設(shè)施,及時(shí)獲得大棚的空間分布信息為相關(guān)農(nóng)業(yè)部門提供農(nóng)業(yè)管理和資源分配的依據(jù),具有重要意義。針對(duì)這一任務(wù),本文分析對(duì)比了深度學(xué)習(xí)模型FCN,UNet 和HRNet 在大棚檢測(cè)上的精度。在所用數(shù)據(jù)中,3個(gè)網(wǎng)絡(luò)都可達(dá)到90%以上的正確率,IOU 可達(dá)到85%以上,其中HRNet 由于其網(wǎng)絡(luò)可以更好地保留空間細(xì)節(jié)信息,識(shí)別精度最高,正確率和IOU分別達(dá)到92.79%和87.32%。實(shí)驗(yàn)表明,基于深度學(xué)習(xí)的大棚檢測(cè)方法可為快速精確獲取大棚分布信息提供技術(shù)支撐,具有實(shí)用價(jià)值。

        猜你喜歡
        正確率特征提取分辨率
        門診分診服務(wù)態(tài)度與正確率對(duì)護(hù)患關(guān)系的影響
        EM算法的參數(shù)分辨率
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        原生VS最大那些混淆視聽的“分辨率”概念
        基于深度特征學(xué)習(xí)的圖像超分辨率重建
        Bagging RCSP腦電特征提取算法
        一種改進(jìn)的基于邊緣加強(qiáng)超分辨率算法
        生意
        品管圈活動(dòng)在提高介入手術(shù)安全核查正確率中的應(yīng)用
        生意
        白丝兔女郎m开腿sm调教室| av免费在线免费观看| 国产乱淫h侵犯在线观看| 亚洲国产女性内射第一区二区| 一二三区无线乱码中文在线| 肉色丝袜足j视频国产| 岛国av无码免费无禁网站| 久久综合九色综合97欧美| 男女爱爱好爽视频免费看| 亚洲人成亚洲精品| 色窝窝在线无码中文| 国产高潮刺激叫喊视频| 久久综合五月天| 亚洲三区二区一区视频| 亚洲AV专区一专区二专区三 | 国产一区二区三区涩涩| 色视频不卡一区二区三区| 中文字幕乱码亚洲无限码| 无码人妻久久一区二区三区app| 中文字幕有码无码av| 欧美激情在线不卡视频网站| 欧美日韩国产在线成人网| 国产肥熟女视频一区二区三区| 国产又湿又爽又猛的视频 | 午夜精品久久久久久久久久久久| 国产亚洲日韩欧美久久一区二区| 98国产精品永久在线观看| 精品一区二区三区女同免费| av天堂亚洲另类色图在线播放| 欧美精品videosse精子| 一个人看的www免费视频中文| 中文字幕不卡高清免费| 中文字幕亚洲区第一页| 国产一区二区三区18p| 日韩精品专区在线观看| 欧美人与物videos另类 | 无遮挡中文毛片免费观看| 日本二区视频在线观看| 永久中文字幕av在线免费| 午夜人妻久久久久久久久| 国产成人精品久久一区二区三区 |