亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的農(nóng)業(yè)大棚檢測(cè)

        2023-11-06 11:07:52王月紅孟凡效丁樂樂
        地理空間信息 2023年10期
        關(guān)鍵詞:正確率特征提取分辨率

        王月紅,孟凡效,丁樂樂

        (1.天津市自然資源調(diào)查與登記中心,天津 300000;2.天津市勘察設(shè)計(jì)院集團(tuán)有限公司,天津 300000)

        隨著深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域的成熟應(yīng)用,深度學(xué)習(xí)在遙感影像解譯領(lǐng)域獲得廣泛關(guān)注[1-3],并被應(yīng)用于大棚檢測(cè)[4-6]。針對(duì)大棚提取任務(wù),本文對(duì)比分析了深度學(xué)習(xí)模型FCN[7],UNet[8]和HRNet[9]在高分辨率遙感影像大棚檢測(cè)任務(wù)上的性能,對(duì)多種模型在大棚檢測(cè)方面的效果進(jìn)行定量和定性分析。

        1 基于深度學(xué)習(xí)的農(nóng)業(yè)大棚檢測(cè)

        本文提出的方法主要包括3個(gè)部分,即高分影像預(yù)處理、深度特征提取和農(nóng)業(yè)大棚識(shí)別3個(gè)部分,對(duì)于給定高分影像,首先對(duì)其進(jìn)行歸一化、數(shù)據(jù)增強(qiáng)等預(yù)處理,然后輸入深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行深度特征提取,最后利用分類器對(duì)提取得到的特征進(jìn)行識(shí)別。在訓(xùn)練階段,根據(jù)真實(shí)標(biāo)準(zhǔn)值和識(shí)別的結(jié)果計(jì)算損失函數(shù),計(jì)算參數(shù)的偏導(dǎo)數(shù),更新網(wǎng)絡(luò)參數(shù)。

        1.1 數(shù)據(jù)預(yù)處理與深度特征提取

        1.1.1 數(shù)據(jù)預(yù)處理

        設(shè)輸入影像為I?RH×W×3及其對(duì)應(yīng)的標(biāo)注影像Y?RH×W×2,其中H,W分別表示影像的行、列。考慮到訓(xùn)練過程中顯存的限制,本文將H,W設(shè)置為512。即訓(xùn)練階段將影像裁剪成規(guī)格為512×512 的數(shù)據(jù)用于訓(xùn)練模型。為增加模型的魯棒性和泛化能力,本文首先對(duì)數(shù)據(jù)進(jìn)行隨機(jī)旋轉(zhuǎn)、拉伸、平移等預(yù)處理操作:

        式中,RandomRot(?)、RandomScale(?)、RandomShift(?)分別為隨機(jī)旋轉(zhuǎn)、拉伸和平移操作。

        在經(jīng)過預(yù)處理操作后,將得到的數(shù)據(jù)輸入深度網(wǎng)絡(luò)中進(jìn)行深度特征提取。在本文中,分別利用FCN,UNet,和HRNet等3個(gè)網(wǎng)絡(luò)進(jìn)行深度特征提取。

        1.1.2 深度特征提取

        FCN和UNet是典型的語義分割網(wǎng)絡(luò),其通過對(duì)輸入數(shù)據(jù)進(jìn)行編碼和解碼得到深度特征,其中在編碼的過程中,F(xiàn)CN和UNet逐步降低輸入數(shù)據(jù)的分辨率,然后在解碼中通過反卷積等上采樣算子恢復(fù)特征的分辨率,而且為利用多尺度特征,F(xiàn)CN和UNet將編碼層和解碼層特征進(jìn)行融和。雖然UNet 和FCN 網(wǎng)絡(luò)通過編碼—解碼這一結(jié)構(gòu)來提取特征和保持分辨率,然而這一結(jié)構(gòu)在特征編碼時(shí)仍將喪失圖像細(xì)節(jié)信息,針對(duì)這一問題,HRNet 網(wǎng)絡(luò)設(shè)計(jì)為4 分支網(wǎng)絡(luò),并令第一分支網(wǎng)絡(luò)空間分辨率不變,在提取的過程中4 分支網(wǎng)絡(luò)交互傳遞信息。

        FCN:FCN 為用于影像語義分割的經(jīng)典網(wǎng)絡(luò),在本文中,使用ResNet-50[12]作為FCN 的backbone 用于特征提取。在ResNet-50中,基本邏輯構(gòu)成單位為Basic Block,Basic Block 含有跨層連接,便于信息的直接流通和梯度傳遞,若干個(gè)Basic Block 堆疊形成Stage Block。4個(gè)Stage Block 構(gòu) 成ResNet-50深度網(wǎng)絡(luò)。本文中選用第4個(gè)Stage Block 的輸出特征同于大棚檢測(cè)。由于在進(jìn)行深度特征的提取過程中,影像空間分辨率會(huì)下降,因此本文采用線性差值將提取得到的特征圖拉伸到和原圖像一樣大小,則特征圖上每一個(gè)位置(x,y)的通道被作為該處像元的特征向量。

        UNet:為彌補(bǔ)深度特征提取過程中空間分辨降低,細(xì)節(jié)信息丟失的問題,UNet將低層的高分辨特征和高層的低分辨率特征進(jìn)行疊加融合,在本文中,同樣使用ResNet-50作為UNet的backbone。

        HRNet:為在提取特征的過程中保持空間細(xì)節(jié)信息,HRNet 采用4個(gè)網(wǎng)絡(luò)分支用于提取不同尺度的特征,不同尺度的分支之間相互傳遞信息,進(jìn)行多尺度融合。

        在本文中將深度特征提取過程用函數(shù)Net(?),則深度特征提取表示為:

        式中,Net(?)可取值為FCN,UNet以及HRNet,x?RH×W×C為提取得到特征圖,C為提取的特征圖通道數(shù)。

        1.2 農(nóng)業(yè)大棚識(shí)別

        對(duì)于得到的深度特征圖x,將其輸入分類器Soft-Max獲得識(shí)別結(jié)果:

        式中,p(t|Ij)為像素Ij屬于類別t的概率;n為總的類別個(gè)數(shù),在本文中取值為2,即分類為農(nóng)業(yè)大棚和非農(nóng)業(yè)大棚兩類;xj為像素Ij的深度特征向量;wcls為分類器SoftMax中的參數(shù)矩陣w?Rn×n的第cls行。

        在訓(xùn)練階段,根據(jù)最大似然估計(jì)方法,計(jì)算交叉熵?fù)p失函數(shù),使得樣本被正確分類的概率最大:

        式中,Yj?R2為像素Ij的one-hot 類別編碼;*為向量內(nèi)積運(yùn)算。根據(jù)鏈?zhǔn)椒▌t計(jì)算網(wǎng)絡(luò)損失函數(shù)J對(duì)參數(shù)的偏導(dǎo)數(shù)并更新參數(shù):

        式中,par 為網(wǎng)絡(luò)參數(shù);lr為學(xué)習(xí)率。

        2 實(shí)驗(yàn)結(jié)果分析

        本文實(shí)驗(yàn)數(shù)據(jù)包括800 張高分影像,單張影像大小2 000×2 000,圖像分辨率為0.5 m,其中隨機(jī)抽取400 張影像用于訓(xùn)練,剩余400 張影像用于測(cè)試。訓(xùn)練學(xué)習(xí)率為0.000 03,訓(xùn)練迭代次數(shù)為15 000。本文使用正確率Acc以及交并比IOU作為評(píng)價(jià)指標(biāo):

        式中,Acci和IOUi為類i的正確率和IOU;TPi為i樣本被正確分類的樣本數(shù)、FNi為i樣本被錯(cuò)誤分類的樣本數(shù);Numi為類i樣本的總個(gè)數(shù);FPi為被錯(cuò)誤分為類i的樣本數(shù)。

        表1 給出了FCN,UNet 和HRNet 在測(cè)試數(shù)據(jù)集上的識(shí)別精度。從表1可以看出,F(xiàn)CN,UNet和HRNet 3個(gè)網(wǎng)絡(luò)對(duì)大棚的識(shí)別正確率都可以達(dá)到91%以上,IOU 精度高于86%。相比于UNet,F(xiàn)CN 對(duì)于農(nóng)業(yè)大棚的識(shí)別正確率和IOU 略高,分別有0.4%和0.39%的提升。在3個(gè)網(wǎng)絡(luò)中,由于HRNet 在細(xì)節(jié)信息保持方面更具優(yōu)勢(shì),因此在測(cè)試數(shù)據(jù)集上取得最優(yōu)的提取精度。

        表1 FCN,UNet和HRNet在測(cè)試數(shù)據(jù)集上的識(shí)別精度

        圖1 給出了3個(gè)網(wǎng)絡(luò)模型在其中一張測(cè)試數(shù)據(jù)上的識(shí)別結(jié)果圖。從圖1 可以看出,F(xiàn)CN,UNet 和HRNet 3個(gè)網(wǎng)絡(luò)的提取結(jié)果從視覺上來看與人工標(biāo)注的結(jié)果并無太大差異。其中圖中區(qū)域1 為人工遺漏標(biāo)記的大棚,F(xiàn)CN沒有正確將其檢測(cè)出來,UNet識(shí)別出部分區(qū)域,而HRNet將其成功的提取出來。對(duì)于區(qū)域2,雖然3個(gè)網(wǎng)絡(luò)都能將其范圍內(nèi)的大棚正確識(shí)別,然而,F(xiàn)CN網(wǎng)絡(luò)由于丟失細(xì)節(jié)信息較UNet和HRNet較為嚴(yán)重,因此在大棚之間的區(qū)域,在FCN中也被錯(cuò)誤地識(shí)別為大棚,而UNet和HRNet都可以將這些間隔區(qū)域正確識(shí)別。

        圖1 深度學(xué)習(xí)模型大棚提取結(jié)果

        3 結(jié)語

        作為重要的農(nóng)業(yè)基礎(chǔ)設(shè)施,及時(shí)獲得大棚的空間分布信息為相關(guān)農(nóng)業(yè)部門提供農(nóng)業(yè)管理和資源分配的依據(jù),具有重要意義。針對(duì)這一任務(wù),本文分析對(duì)比了深度學(xué)習(xí)模型FCN,UNet 和HRNet 在大棚檢測(cè)上的精度。在所用數(shù)據(jù)中,3個(gè)網(wǎng)絡(luò)都可達(dá)到90%以上的正確率,IOU 可達(dá)到85%以上,其中HRNet 由于其網(wǎng)絡(luò)可以更好地保留空間細(xì)節(jié)信息,識(shí)別精度最高,正確率和IOU分別達(dá)到92.79%和87.32%。實(shí)驗(yàn)表明,基于深度學(xué)習(xí)的大棚檢測(cè)方法可為快速精確獲取大棚分布信息提供技術(shù)支撐,具有實(shí)用價(jià)值。

        猜你喜歡
        正確率特征提取分辨率
        門診分診服務(wù)態(tài)度與正確率對(duì)護(hù)患關(guān)系的影響
        EM算法的參數(shù)分辨率
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        原生VS最大那些混淆視聽的“分辨率”概念
        基于深度特征學(xué)習(xí)的圖像超分辨率重建
        Bagging RCSP腦電特征提取算法
        一種改進(jìn)的基于邊緣加強(qiáng)超分辨率算法
        生意
        品管圈活動(dòng)在提高介入手術(shù)安全核查正確率中的應(yīng)用
        生意
        亚洲成a人片在线网站| 亚洲高清三区二区一区| 精品精品国产高清a毛片| 亚洲性爱视频| 国产夫妻av| 亚洲av永久无码国产精品久久| 国产精品亚洲欧美天海翼| 国产精品性一区二区三区| 亚洲日本中文字幕高清在线| 在办公室被c到呻吟的动态图| 久久久久国产一区二区三区| 美女自卫慰黄网站| 亚洲电影久久久久久久9999| 国产一区二区三区高清视频| 日韩av免费一区二区| 国产视频自拍一区在线观看| av无码精品一区二区三区宅噜噜| 四虎4545www国产精品| 国产不卡一区在线视频| 精品国产亚洲级一区二区| 久久精品国产色蜜蜜麻豆 | 国产精品第一区亚洲精品| 99国产精品久久99久久久| 天天做天天爱天天爽综合网| 国产乱沈阳女人高潮乱叫老| 国产精品无码久久久久免费AV| 亚洲日韩AV无码美腿丝袜| 国产美腿丝袜一区二区| 娜娜麻豆国产电影| 激情综合欧美| 日本女优中文字幕四季视频网站| 一区二区三区美女免费视频 | 中文字幕亚洲精品久久| 边做边流奶水的人妻| 国产中出视频| 国产精品很黄很色很爽的网站 | 欧美成人午夜免费影院手机在线看| 亚洲欧洲中文日韩久久av乱码| 国产精品福利小视频| 亚洲最黄视频一区二区| 东京热加勒比久久精品|