亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度語義分割的無人機遙感影像水體提取研究

        2022-10-11 03:00:54江沛原
        現(xiàn)代計算機 2022年15期
        關(guān)鍵詞:語義特征模型

        江沛原

        (西南民族大學(xué)電子信息學(xué)院,成都 610041)

        0 引言

        語義分割任務(wù)也可以看作是特殊的分類任務(wù),密集像素級分類任務(wù)。深度學(xué)習方法在場景復(fù)雜的遙感影像中,能夠自適應(yīng)地提取淺層的低級特征和深層的高級特征,經(jīng)過特征融合高效挖掘豐富的語義信息。并且無人機遙感具有機動性好、環(huán)境影響小、空間分辨率高等優(yōu)點。因此,高分辨率的遙感影像與深度學(xué)習技術(shù)的結(jié)合在遙感影像語義分割領(lǐng)域具有重要的現(xiàn)實意義,為無人機遙感影像的水體提取提供了新手段。地球表面由各種復(fù)雜類型的水和非水地貌組成,具體而言,地表水類型包括河流、湖泊、水庫和海洋,它們具有不同的形狀和光譜;非水類型包括陰影、柏油路和建筑物,它們具有相似的光譜和空間特征,容易與地表水混淆。因此,地表水測繪通常在精度上受到限制。通過地表水面積的大小和水的深淺程度可以監(jiān)測遙感影像中的水體信息,為了充分地了解水體的變化情況,最行之有效的方法是對遙感影像中的水體信息進行提取。與提取遙感影像中的森林植被、城市道路、建筑物等其他類型地物相比,從遙感影像上提取水體的研究更為常見。隨著空間探測技術(shù)的發(fā)展,基于遙感衛(wèi)星的對地觀測遙感數(shù)據(jù)為大范圍水體提取提供了新的數(shù)據(jù)基礎(chǔ),同時也對現(xiàn)有的遙感數(shù)據(jù)分析方法提出了極大的挑戰(zhàn)。

        隨著深度學(xué)習在圖像分類、目標檢測、語義分割等圖像處理任務(wù)中展現(xiàn)出來的優(yōu)異性能,近些年,使用深度學(xué)習方法進行水體提取的研究 越 來 越 多。Yang等利 用 傳 統(tǒng) 的NDWI、NDVI、NDBI等指數(shù)人工構(gòu)建特征作為網(wǎng)絡(luò)的輸入,然后使用稀疏自動編碼器進行水體檢測,能夠在有限標簽樣本的情況下學(xué)習水體特征;Isikdogan等采用基于深度學(xué)習的方法,提出了從數(shù)據(jù)中學(xué)習水體特征的Deep Water Map模型,可有效區(qū)分水與土地、雪、冰、云和及陰影區(qū)。Li等利用FCN從高分辨率遙感影像中提取城市水體,并對比分析了輸入特征、訓(xùn)練數(shù)據(jù)、遷移學(xué)習和數(shù)據(jù)增廣四個因素對實驗結(jié)果的影響,利用最優(yōu)模型獲得了較高的提取準確率。Wang等將深度學(xué)習方法應(yīng)用到高分辨率遙感影像的水體識別與提取中,通過構(gòu)建深度神經(jīng)網(wǎng)絡(luò)模型來提高遙感影像水體識別的精度,研究結(jié)果表明,所選用的深度卷積神經(jīng)網(wǎng)絡(luò)模型的識別效果都顯著優(yōu)于傳統(tǒng)的水體指數(shù)法,驗證了神經(jīng)網(wǎng)絡(luò)應(yīng)用于遙感影像水體提取的可行性。Li等提出了一種基于無人機高分辨率遙感影像的復(fù)雜環(huán)境下水體識別的快速準確方法。與現(xiàn)有方法相比,該方法在準確率上取得了顯著提高,可獲得城市區(qū)域內(nèi)明顯的水邊界,為城市水矢量制圖提供數(shù)據(jù)。

        針對水體提取的研究,如何減少遙感影像的噪聲干擾仍是水體信息提取的難點,且水體流動反光,建筑物和陰影的遮蓋等因素也會增加提取的難度。另外,現(xiàn)有研究多是針對衛(wèi)星遙感影像的水體提取,識別精度較低。衛(wèi)星遙感觀測的信息不但宏觀、綜合,還可以長期連續(xù)觀測,形成時序信息。由于無人機近地面的緣故,總體上分辨率高、時效性好,數(shù)據(jù)處理也比衛(wèi)星遙感復(fù)雜。因此,本研究構(gòu)建無人機遙感影像數(shù)據(jù)集,旨在提高其水體識別精度,采用基于OCRNet語義分割模型結(jié)合HRNet的方法進行水體提取。實驗結(jié)果表明,該網(wǎng)絡(luò)在分割準確率上效果較優(yōu),得到不錯的結(jié)果,驗證了該方法的可靠性。

        1 無人機遙感影像數(shù)據(jù)集

        1.1 數(shù)據(jù)集介紹

        無人駕駛飛機(UAV)通常被稱為無人機,無人機平臺可搭載多種微傳感器來獲取不同質(zhì)量的無人機遙感影像,從而構(gòu)成無人機遙感系統(tǒng)。無人機遙感由遙感探測技術(shù)、導(dǎo)航定位技術(shù)、無線通信技術(shù)及飛行技術(shù)于一體,是一個系統(tǒng)而復(fù)雜的工程,在管理地理空間信息方面高效且方便。在深度學(xué)習的神經(jīng)網(wǎng)絡(luò)語義分割任務(wù)中,數(shù)據(jù)集由訓(xùn)練數(shù)據(jù)集(train dataset)、驗證數(shù)據(jù)集(validation dataset)和測試數(shù)據(jù)集(test dataset)三部分組成。其中,訓(xùn)練集用于模型構(gòu)建,計算訓(xùn)練誤差的梯度和更新訓(xùn)練的權(quán)重參數(shù);驗證集用于調(diào)整模型的超參數(shù)和避免訓(xùn)練過程出現(xiàn)過擬合現(xiàn)象,用于輔助模型構(gòu)建;測試集用于提高模型訓(xùn)練的準確度和最終模型的泛化能力,用于評估模型的準確率。

        圖1所示為初始無人機影像分布(共200張,像素6000×4000,格式為.JPG),通過ENVI 5.3軟件對數(shù)據(jù)進行預(yù)處理裁剪,制作得到水體提取數(shù)據(jù)集(共4800張,像素512×512,格式為.PNG)。UAV_DATASET數(shù)據(jù)集包含三個文件夾:Annotation、JPEGImages和val_big_img。其中,Annotations文件夾保存的是各原圖的像素級別的二值圖真值信息;JPEGImages文件夾包含無人機影像的原圖,命名方式相同;val_big_img文件夾包含隨機選取的二十張大圖,用于放入驗證集中,此外還包含兩個文本:val_list和train_list,分別記錄訓(xùn)練數(shù)據(jù)集(3888張,占81%,格式為.PNG)和驗證數(shù)據(jù)集(912張,占19%,格式為.PNG)。val_list文本存儲的信息是val_big_img中的大圖圖片名構(gòu)成驗證集,而train_list則是剩下的圖片構(gòu)成訓(xùn)練集。

        圖1 數(shù)據(jù)集類別分布圖

        數(shù)據(jù)集的部分樣本原圖如圖2所示,考慮到構(gòu)建數(shù)據(jù)集的多樣性,分別選取了無水體原圖、不規(guī)則形狀水體原圖、包含水體范圍較廣等具有代表性的圖片,增加了數(shù)據(jù)集的魯棒性。在構(gòu)建數(shù)據(jù)集的過程中,由于無人機影像原圖為三通道RGB圖像,而輸入到Annotations文件夾內(nèi),只需要原圖對應(yīng)的二值圖,因此還需要將RGB圖像灰度化的操作,使之位深度由24降為8。

        圖2 數(shù)據(jù)集的部分樣本原圖

        與圖2對應(yīng)的數(shù)據(jù)集的部分樣本真值如圖3所示,數(shù)據(jù)預(yù)處理后得到的二值圖呈黑白圖像,包含非水體(0)與水體(1),非水體表現(xiàn)為黑色,水體表現(xiàn)為白色。類別數(shù)為2,因此無人機影像的水體提取任務(wù)可以看作是一個二分類問題。

        圖3 數(shù)據(jù)集的部分樣本真值

        1.2 數(shù)據(jù)集圖像裁剪制作

        將遙感影像根據(jù)感興趣區(qū)域(region of interest,ROI)范圍大小對被裁剪影像進行裁剪,采用ROI方法裁剪無人機遙感影像得到數(shù)據(jù)集。數(shù)據(jù)集制作技術(shù)方案如圖4所示,包括以下三個主要步驟:

        圖4 數(shù)據(jù)集制作技術(shù)方案圖

        (1)收集研究區(qū)無人機遙感影像,標記(水體與非水體)和裁剪無人機影像以獲得512×512像素的樣本圖像,用于生成訓(xùn)練數(shù)據(jù)集和驗證數(shù)據(jù)集;

        (2)構(gòu)建語義分割網(wǎng)絡(luò),并使用訓(xùn)練數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò);

        (3)最后通過使用測試區(qū)域的真實標簽和分類結(jié)果來評估分割結(jié)果,分類結(jié)果由測試數(shù)據(jù)集的預(yù)測結(jié)果拼接而成,評估模型精度。

        數(shù)據(jù)集的裁剪采用滑動窗口預(yù)測方法,并將關(guān)聯(lián)預(yù)測結(jié)果拼接,確定漁網(wǎng)(256×256)左上角和右下角中心像素坐標,據(jù)此確定需要填充的四至距離,預(yù)測圖在填充圖坐標系下的位置,并摳取需要預(yù)測的小圖,將預(yù)測圖有效區(qū)域添加到全0填充圖上。

        2 實驗方法

        2.1 語義分割模型OCRNet

        語義分割是一項密集像素預(yù)測任務(wù),研究重點在于解決逐漸衰減的特征圖尺寸和需要原圖尺寸的預(yù)測之間的矛盾,因此圖像中每個像素的上下文信息是極其重要的。物體的上下文信息旨在顯式增強物體信息,通過計算一組物體的區(qū)域特征表示,并根據(jù)物體區(qū)域特征表示與像素特征表示之間的相似度將這些物體區(qū)域特征表示傳播給每一個像素。將像素的標簽看作是像素所在物體的標簽,通過對應(yīng)的物體區(qū)域來表示以此加強像素的表征,于是OCRNet語義分割模型被提出,其主要思想是像素的類別標簽由其所在目標決定,使用目標區(qū)域表示來增強其像素表示。

        2.2 骨干網(wǎng)HRNet

        HRNet能夠全程保持高分辨率的特征圖,得到更為精準的空間信息,其多尺度融合策略可以得到更為豐富的高分辨率表征,使預(yù)測的熱點圖(heatmap)更為準確。HRNet總體結(jié)構(gòu)按照順序可分為三部分:stem net、HRNet stages和segment head。stem net從圖像到1/4大小的feature map,得到此尺寸的特征圖后HRNet始終保持此尺寸的圖片;HRNet stages是由HighResolutionModule組成的模型,其中,每個藍色底色為1個階段,每個stage產(chǎn)生的multiscale特征圖的具體配置見表1(以hrnet_48為例)。stage的連接處有transition結(jié)構(gòu),用于不同stage之間的連接,完成channels及feature map大小對應(yīng);segment head將stages輸出的4種scale特 征concat到 一 起,加 上num_channels到num_classes層,得到分割結(jié)果。

        表1 多尺度特征圖的具體配置

        HRNet的head頭多樣化,支持不同的輸出模式,對應(yīng)V1,V2,V3三種版本,如圖5所示,分別為a,b,c三種形式。

        圖5 HRNet的head輸出形式

        (a)輸出內(nèi)容僅包含最后輸出的高分辨率特征;

        (b)輸出內(nèi)容在最后也進行了跨分辨率融合,再輸出高分辨率特征;

        (c)語義信息較豐富,先進行融合后輸出高分辨的特征,再進行下采樣得到多個sacle的輸出,并且(b)和(c)的特征融合是通過沿通道方向拼接的方式拼接融合的。

        2.3 語義分割網(wǎng)絡(luò)OCRNet結(jié)合HRNet骨干網(wǎng)

        來自于NVIDIA的研究團隊采用OCRNet+HRNet作為主干網(wǎng)絡(luò)結(jié)構(gòu)并且設(shè)計了一種更高效的多尺度融合方法,取得了更好的精度效果。本文結(jié)合OCRNet模型設(shè)置三種不同輪次、兩種不同實驗方法:HRNet_w18和HRNet_w48分別在10 epoch、30 epoch、60 epoch運行。其中,HRNet_w18方法中的18代表模型最后三級高分辨率子網(wǎng)絡(luò)的寬度。OCRNet利用物體信息增強像素的上下文信息,HRNet保持主干網(wǎng)的高分辨率并且提供強語義信息與精準位置信息,它們的組合具有有效性,能夠較好地對無人機影像中的水體信息進行提取。

        2.4 網(wǎng)絡(luò)模型的參數(shù)設(shè)置

        常規(guī)優(yōu)化器是單一的,在本研究的訓(xùn)練過程中,在優(yōu)化器的基礎(chǔ)上添加動量,使用隨機梯度下降(stochastic gradient descent,SGD)算法進行優(yōu)化,SGD算法的動量參數(shù)(momentum)和權(quán)重衰減參數(shù)(weight_decay)分別設(shè)置為0.9和4.0e-05,使用權(quán)重衰減的目的是防止過擬合。根據(jù)GPU的計算能力、顯存大小、圖像像素大小和樣本數(shù),將實驗數(shù)據(jù)批量大小設(shè)置為8,batch_size的值為迭代一次送入網(wǎng)絡(luò)的圖片數(shù)量,一般顯卡顯存越大,批量值就可以越大。學(xué)習率是指模型訓(xùn)練的權(quán)重參數(shù)在逆梯度方向上調(diào)節(jié)的步長,為了保證訓(xùn)練過程順利進行,采用了變化學(xué)習率策略,通過多項式衰減的策略將學(xué)習率值從初始設(shè)置為0.01的learning_rate,逐步衰減到end_lr為0的最終學(xué)習率,power即衰減率這一參數(shù)設(shè)置為0.9,類型為PolynomialDecay。

        水體像素級別分類任務(wù)通過Softmax函數(shù)將每一個像素點值映射為一個概率值,來確定每一個像素值是否屬于水體類,達到像素級別的預(yù)測損失函數(shù)的選擇也是非常關(guān)鍵的,它是BP算法的核心部分,用來衡量預(yù)測值和標簽值之間的差異。損失函數(shù)包括常規(guī)損失函數(shù)和多損失函數(shù),前者單一且固定,本文采用的是通過coef連接CrossEntropyLoss和LovasSoftmaxLoss的多損失函數(shù),該混合損失函數(shù)可用來監(jiān)督像素和對象級別的訓(xùn)練過程。其中,Lovasz-Softmax loss是一種針對mIoU優(yōu)化功能的損失,它基于子模損失的凸Lovasz擴展。在圖像分割任務(wù)中,經(jīng)常出現(xiàn)類別分布不均勻的情況,因此本文引入LSLoss以提高OCRNet中對象區(qū)域表示的準確性,并在對象級別優(yōu)化最終分割結(jié)果。語義分割只關(guān)注像素級分類,缺乏對象級分類的優(yōu)化。通過計算誤差,將得到的誤差進行反向傳播。網(wǎng)絡(luò)模型在訓(xùn)練過程中使用交叉熵作為損失函數(shù),它可有效地對模型進行預(yù)測。

        3 實驗結(jié)果與分析

        3.1 實驗環(huán)境

        本研究基于Ubuntu 18.04操作系統(tǒng),使用的開發(fā)環(huán)境、編程語言和深度學(xué)習框架依次為Anaconda3、Python3.7.4和Pytorch,編 譯 器 為PyCharm。模型訓(xùn)練、驗證和測試均在一個NVIDIA GTX 1080Ti GPU上進行。

        3.2 評價指標

        評價指標用來評估不同算法在某一方面的效果是否最佳,可對算法進行不同程度的優(yōu)化。為定量分析圖像語義分割精度,在圖像分割領(lǐng)域中,評估模型質(zhì)量主要是通過準確率(Acc)、Kappa系數(shù)以及語義分割評價指標均交并比(mean intersection over union,mIOU)這三個指標對4800幅影像的水體提取模型進行評定。

        準確率是最常見的評價指標,表示被正確分類的數(shù)量在所有預(yù)測該類的數(shù)量中的占比,準確率越高表明模型質(zhì)量越高。準確率由該類所有被正確分類的樣本數(shù)除以模型預(yù)測中屬于該類的總數(shù)得到。準確率的計算如式(1)所示:

        式中:表示的是預(yù)測結(jié)果為正例,標簽為正例的像素數(shù)量;表示的是預(yù)測的結(jié)果為負例,標簽的結(jié)果為負例的像素數(shù)量;表示的是預(yù)測結(jié)果為正例,標簽為負例的像素數(shù)量;表示的是預(yù)測結(jié)果為負例,標簽為正例的像素數(shù)量。

        Kappa系數(shù)是用于一致性檢驗的指標,可用來衡量分類的結(jié)果。取值范圍是[-1,1],通常大于0,將其分為五組來表示不同級別的一致性:0.0~0.2極低的一致性(slight);0.21~0.40一般的一致性(fair);0.41~0.60中等的一致性(moderate);0.61~0.80高度的一致性(substantial);0.81~1幾乎完全一致(almost perfect)?;诨煜仃嚨腒appa系數(shù)計算如式(2)所示:

        式中:代表每一類中正確分類像元素,即;代表所有類別對應(yīng)的實際與預(yù)測數(shù)量的成績的總和除以樣本總數(shù)的平方,如式(3)所示:

        mIOU為語義分割的標準度量對每個類別數(shù)據(jù)集單獨進行推理計算,計算出的預(yù)測區(qū)域和實際區(qū)域交集除以預(yù)測區(qū)域和實際區(qū)域的并集,然后將所有類別得到的結(jié)果取平均。在圖像分割中,就是真實值(ground truth)和預(yù)測值兩個集合。先計算每個類別的交并比,然后計算均值,如式(4)所示:

        3.3 結(jié)果分析

        表2列出了OCRNet網(wǎng)絡(luò)結(jié)合HRNet_w18骨干網(wǎng)在不同輪次下在訓(xùn)練集上的評價指標。從實驗分析可得,10 epoch和60 epoch訓(xùn)練輪次數(shù)下的各評價指標效果不及30 epoch訓(xùn)練輪次,后者的評價效果最佳:Acc可達99.30%,Kappa系數(shù)(KC)為0.9231,mIoU為0.9281。此時最佳驗證迭代數(shù)為13122。

        表2 OCRNet+HRNet_w18不同輪次的評價指標

        表3列出了OCRNet網(wǎng)絡(luò)結(jié)合HRNet_w48骨干網(wǎng)在不同輪次下在訓(xùn)練集上的評價指標,從實驗分析可得,隨著訓(xùn)練輪次的增加,各項評價指標也有一定的提高,在60 epoch時達到最佳:Acc可達99.24%,Kappa系數(shù)(KC)為0.9136,mIoU為0.9199。此時最佳驗證迭代數(shù)為23814。

        表3 OCRNet+HRNet_w48不同輪次的評價指標

        值得一提的是,當OCRNet網(wǎng)絡(luò)結(jié)合HRNet_w18骨干網(wǎng)的輪次達到60 epoch時,各精度卻有一定程度的下降,可見并不是訓(xùn)練輪次越多精度越高。迭代輪數(shù)過少可能欠擬合,而過多則可能過擬合,需要在訓(xùn)練中不斷摸索找到大致合適的范圍,或者可采用提前終止策略等??傮w來看,語義分割模型OCRNet結(jié)合HRNet_w18骨干網(wǎng)在30 epoch輪次時,效果最好。

        3.4 預(yù)測效果

        在語義分割模型中輸入6000×4000分辨率的遙感影像(水平分辨率和垂直分辨率均為350 dpi),預(yù)測其水體提取效果。如圖6所示,左側(cè)為原圖,右側(cè)為偽彩色預(yù)測結(jié)果圖片,可直接查看各個類別的預(yù)測效果。對無人機遙感影像水體提取這一任務(wù)來說,總體精度較高,但對于圖中誤檢測以及由于陰影遮擋等原因未識別到的水體部分,后續(xù)的工作仍需調(diào)整超參數(shù)來改進模型。

        圖6 水體的預(yù)測效果圖

        4 結(jié)語

        語義分割任務(wù)旨在獲取輸入圖像中每個像素的類標簽,而無人機遙感影像水體提取任務(wù)旨在獲取輸入圖像中的每個像素,這兩個任務(wù)概念上有一定的一致性,因此可以將遙感影像提取任務(wù)轉(zhuǎn)化為語義分割任務(wù)。本研究根據(jù)無人機遙感影像在復(fù)雜環(huán)境下采用OCRNet語義分割模型結(jié)合HRNet骨干網(wǎng)進行水體提取,擴充后的數(shù)據(jù)集涵蓋水體信息更為豐富,也進一步提高了其魯棒性,通過設(shè)置不同的實驗,選取最優(yōu)模型的神經(jīng)網(wǎng)絡(luò)完成水體數(shù)據(jù)集的提取。

        猜你喜歡
        語義特征模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        語言與語義
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        3D打印中的模型分割與打包
        “上”與“下”語義的不對稱性及其認知闡釋
        認知范疇模糊與語義模糊
        亚洲精品黑牛一区二区三区| 国产精品国产三级国产专区不| 2019nv天堂香蕉在线观看| 开心激情视频亚洲老熟女| 国产精品视频一区二区三区不卡| 一本大道无码av天堂| 亚洲成a人网站在线看| 国产另类av一区二区三区| 免费成人电影在线观看| 免费无码午夜福利片69| 99精品视频69v精品视频免费| 国产在线精品观看一区二区三区| 成人欧美一区二区三区在线观看| 最近中文字幕完整版| 偷拍熟女亚洲另类| 91九色国产老熟女视频| 热久久国产欧美一区二区精品| 久久精品国产亚洲av瑜伽| 日韩高清av一区二区| 人妻少妇被猛烈进入中文字幕 | 少妇太爽了在线观看免费| 色欲色香天天天综合网www| 特级做a爰片毛片免费看108| 亚洲欧美日韩国产一区二区精品 | 精品国产一区二区三区久久女人| 国产精品国产三级国产an不卡| 偷拍夫妻视频一区二区| 亚洲日韩一区二区三区| 亚洲精品成AV无在线观看| 91人妻一区二区三区蜜臀| 又黄又爽又无遮挡免费的网站| 欧美白人最猛性xxxxx| 元码人妻精品一区二区三区9| 亚洲精品第一页在线观看| 四虎影视永久地址www成人| 中文字幕亚洲无线码高清| 亚洲av少妇一区二区在线观看| 男人边做边吃奶头视频| 精品人妻无码视频中文字幕一区二区三区 | 国产无遮挡又爽又刺激的视频老师| 亚洲男人精品|