亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)DeeplabV3+的無(wú)人機(jī)影像土地利用分類
        ——以岳城水庫(kù)附近居民區(qū)為研究區(qū)

        2023-01-02 12:07:06劉粉粉王賀封張安兵李家駒馬鵬飛
        軟件導(dǎo)刊 2022年11期
        關(guān)鍵詞:語(yǔ)義實(shí)驗(yàn)信息

        劉粉粉,王賀封,張安兵,李家駒,馬鵬飛

        (1.河北工程大學(xué)地球科學(xué)與工程學(xué)院;2.河北工程大學(xué)礦業(yè)與測(cè)繪工程學(xué)院;3.邯鄲市自然資源空間信息重點(diǎn)實(shí)驗(yàn)室,河北邯鄲 056038)

        0 引言

        隨著社會(huì)經(jīng)濟(jì)快速發(fā)展和城市化進(jìn)程不斷加快,我國(guó)土地利用狀況不斷發(fā)生改變[1]。掌握實(shí)時(shí)可靠的土地利用變化信息,對(duì)科學(xué)的土地利用規(guī)劃具有重要現(xiàn)實(shí)意義。在土地利用變化研究數(shù)據(jù)獲取方面,目前常采用遙感衛(wèi)星方式,該方式適用于大區(qū)域、多時(shí)相地面信息監(jiān)測(cè),但由于衛(wèi)星傳感器數(shù)據(jù)采集受時(shí)間、空間分辨率及數(shù)據(jù)質(zhì)量限制,往往無(wú)法及時(shí)、精細(xì)獲取指定區(qū)域用地變化信息。近年來(lái),無(wú)人機(jī)(Unmanned Aerial Vehicle,UAV)低空技術(shù)快速發(fā)展,因其易操作、成本低、獲取數(shù)據(jù)快、分辨率高等特點(diǎn),逐漸被應(yīng)用于土地利用分類、精準(zhǔn)農(nóng)業(yè)和國(guó)土資源監(jiān)測(cè)等領(lǐng)域,成為獲取高分辨影像的重要手段之一[2-3]。在信息提取模型研究方面,基于影像數(shù)據(jù)的土地分類方法逐漸發(fā)展成熟[4-5],主要包括監(jiān)督分類、非監(jiān)督分類兩大類型,最大似然法、人工神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)等不同的分類模型,在土地利用、國(guó)土監(jiān)測(cè)、植被覆蓋變化等多個(gè)領(lǐng)域取得了較好應(yīng)用效果[6-8]。

        近年來(lái),隨著深度學(xué)習(xí)的快速發(fā)展,語(yǔ)義分割技術(shù)的出現(xiàn)為高分辨率影像分類提供了新的更優(yōu)的解決思路[9]。Long 等[10]提出全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN),該模型使用反卷積層替代全連接層,將語(yǔ)義分割精度推向新的高度。Ronnenerger 等[11]提出用于醫(yī)學(xué)影像分割的U-net 模型,該模型一經(jīng)問(wèn)世就在醫(yī)學(xué)影像領(lǐng)域取得顯著效果。Chen 等[12-15]提出Deeplab 系列語(yǔ)義分割模型,先后采用條件隨機(jī)場(chǎng)(Conditional Random Field,CRF)、金字塔池化模塊(Atrous Spatial Pyramid Pooling,ASPP),在保證不改變分辨率的條件下擴(kuò)大感受野,提高了分割目標(biāo)的邊界效果。DeeplabV3+將編碼器—解碼器(Encoder-Dncoder)結(jié)構(gòu)與ASPP 相結(jié)合,在多個(gè)公開(kāi)圖像數(shù)據(jù)集上取得較好分割效果,成為當(dāng)前綜合性能優(yōu)秀的語(yǔ)義分割算法之一。但該模型是由DeeplabV1-3 發(fā)展而來(lái),繼承了DeeplabV1-3模型的一些缺陷,如模型復(fù)雜、訓(xùn)練速度慢、分割精度低等。針對(duì)上述問(wèn)題,學(xué)者們進(jìn)行了相關(guān)研究。劉文萍等[16]提出基于改進(jìn)的DeeplabV3+模型進(jìn)行無(wú)人機(jī)影像土地利用分類,結(jié)果表明該方法有較好的分類精度。孟俊熙等[17]以DeeplabV3+為基礎(chǔ)構(gòu)建了N-DeeplabV3+模型,結(jié)果表明改進(jìn)后的模型有效提高了小尺度目標(biāo)的關(guān)注度,緩解了目標(biāo)誤分及分割不完全問(wèn)題,提高了分割精度。王紅軍等[18]提出一種基于SENet 優(yōu)化后的DeeplabV3+淡水魚(yú)頭、腹、鰭的語(yǔ)義分割算法,實(shí)驗(yàn)發(fā)現(xiàn)改進(jìn)后的網(wǎng)絡(luò)有效克服了細(xì)節(jié)信息丟失問(wèn)題,達(dá)到了準(zhǔn)確定位目的。但由于上述研究主要針對(duì)DeeplabV3+模型的某一缺陷進(jìn)行改進(jìn),未能從全局性對(duì)網(wǎng)絡(luò)進(jìn)行統(tǒng)一改進(jìn),因此細(xì)節(jié)信息丟失、分割不完全及參數(shù)量大等問(wèn)題仍然十分突出。

        基于此,本文以DeeplabV3+網(wǎng)絡(luò)為基礎(chǔ),提出應(yīng)用MobileNetV2 替換原始DeeplabV3+模型的主干特征提取網(wǎng)絡(luò)的思路,并將CA 注意力加入MobileNetV2 網(wǎng)絡(luò),發(fā)揮各模塊算法優(yōu)勢(shì),以期增強(qiáng)位置信息和空間信息的關(guān)系,在保證模型分割精度的同時(shí),大幅度減少模型參數(shù)量,降低模型復(fù)雜度,提高模型計(jì)算速度。

        1 相關(guān)網(wǎng)絡(luò)基礎(chǔ)

        1.1 DeeplabV3+網(wǎng)絡(luò)結(jié)構(gòu)

        DeeplabV3+是谷歌公司在DeeplabV1-3 基礎(chǔ)上將金字塔池化模塊(ASPP)與編碼器—解碼器結(jié)構(gòu)相結(jié)合而提出的一種新的語(yǔ)義分割模型,是現(xiàn)階段最優(yōu)秀的語(yǔ)義分割算法之一[13]。DeeplabV3+網(wǎng)絡(luò)以DeeplabV3 作為編碼器(Encoder),同時(shí)又添加解碼器(Decoder),該模型采用ResNet101[19]作為主干特征提取網(wǎng)絡(luò),后連接帶空洞卷積(Atrous Convolution)的金字塔池化模塊(ASPP)進(jìn)行多尺度信息提取。ASPP 模塊包括一個(gè)1×1 卷積、3 個(gè)采用不同空洞率(分別為6、12、18)的3×3 空洞卷積和一個(gè)全局平均池化操作,在減少下采樣操作和不增加網(wǎng)絡(luò)參數(shù)的基礎(chǔ)上保證了空間分辨率,增大了感受野,獲取多尺度信息并進(jìn)行特征融合以更好地實(shí)現(xiàn)對(duì)多尺度目標(biāo)分割;然后通過(guò)1×1 卷積對(duì)通道進(jìn)行降維處理并將降維后的特征圖利用雙線性插值方法進(jìn)行4 倍上采樣后傳入Dncoder 中,在Dncoder內(nèi)與主干特征提取網(wǎng)絡(luò)提取的低層次特征融合,恢復(fù)目標(biāo)的邊界信息;最后利用3×3 卷積恢復(fù)空間信息和4 倍雙線性插值上采樣獲取圖像的語(yǔ)義分割結(jié)果。通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),使用DeeplabV3+網(wǎng)絡(luò)對(duì)無(wú)人機(jī)影像進(jìn)行分割,存在邊緣粗糙、分割不完全等問(wèn)題。

        1.2 改進(jìn)的DeeplaV3+網(wǎng)絡(luò)

        1.3 MobileNetV2

        Fig.1 Improved DeeplabV3+network圖1 改進(jìn)的DeeplabV3+網(wǎng)絡(luò)

        MobileNetV1 是谷歌公司推出的一種輕量級(jí)計(jì)算機(jī)視覺(jué)神經(jīng)網(wǎng)絡(luò),與其他網(wǎng)絡(luò)模型相比,該網(wǎng)絡(luò)降低了模型參數(shù)量,這一優(yōu)勢(shì)得益于該網(wǎng)絡(luò)采用了深度可分離卷積(Depthwise separable convolution)[21]。深度可分離卷積是一種分步式卷積,第一層為通道卷積:對(duì)每個(gè)輸入通道應(yīng)用單通道的輕量級(jí)濾波器;第二層稱為逐點(diǎn)卷積:負(fù)責(zé)計(jì)算輸入通道的線性組合,構(gòu)建新特征。MobileNetV2 是在MobileNetV1 網(wǎng)絡(luò)基礎(chǔ)上改進(jìn)而來(lái),MobileNetV1 網(wǎng)絡(luò)主要思想是將深度可分離卷積進(jìn)行堆疊,而MobileNetV2 中除了繼續(xù)使用可分離卷積結(jié)構(gòu)外,還做了線性瓶頸和反向殘差改進(jìn)。反向殘差[22]結(jié)構(gòu)先通過(guò)擴(kuò)展層擴(kuò)展維度,再使用深度可分離卷積提取特征,最后使用投影層壓縮數(shù)據(jù),使網(wǎng)絡(luò)重新變小,整個(gè)網(wǎng)絡(luò)中間胖、兩頭窄,呈沙漏形狀。反向殘差結(jié)構(gòu)由原始的先做深度卷積再做點(diǎn)卷積變?yōu)橄茸鳇c(diǎn)卷積再做深度卷積,最后再做一次點(diǎn)卷積的運(yùn)算方式,這種操作使得網(wǎng)絡(luò)能夠較好地提取信息且不會(huì)增加過(guò)多計(jì)算量。線性瓶頸是用在反殘差塊最后一次點(diǎn)卷積中,使用線性卷積代替原始卷積與ReLU 函數(shù)的組合,有助于信息保留,并且將通道卷積和點(diǎn)卷積的激活函數(shù)也調(diào)整為ReLU6。

        1.4 注意力機(jī)制模型

        近年來(lái),注意力機(jī)制被廣泛應(yīng)用于深度學(xué)習(xí)的各個(gè)方面,尤其是在圖像分割和目標(biāo)識(shí)別領(lǐng)域。一般認(rèn)為,特征圖的每個(gè)通道都同等重要,并沒(méi)有區(qū)分各通道的優(yōu)先級(jí)和重要程度。SENet[23]注意力機(jī)制通過(guò)對(duì)不同的通道賦予不同的權(quán)重,達(dá)到對(duì)重要特征進(jìn)行強(qiáng)化學(xué)習(xí)的目的,但SENet在賦予通道權(quán)重時(shí)忽略了位置信息,而位置信息對(duì)空間選擇性的Attention Map 十分重要。為此,本文選擇了CA(Coordinate Attention)注意力機(jī)制,它不僅考慮了通道之間的關(guān)系,還考慮了特征空間的位置信息。

        CA[24]是一種具有輕量級(jí)屬性的注意力方法,它有效捕獲了位置信息和通道信息的關(guān)系。CA 可以被看作一個(gè)旨在增強(qiáng)網(wǎng)絡(luò)學(xué)習(xí)特征表達(dá)力的計(jì)量單位,它可以對(duì)網(wǎng)絡(luò)中的任意特征向量X=[x1,x2,.....,xc] ∈RH×W×C進(jìn)行轉(zhuǎn)化變換,輸出與X 大小相同的具有增強(qiáng)表示的變換張量Y=[y1,y2,......,yc] ∈RH×W×C。CA 注意力通過(guò)精確的位置信息對(duì)通道關(guān)系和長(zhǎng)期依賴性進(jìn)行編碼,其具體操作可分為Coordinate 信息嵌入和Coordinate Attention 生成。為了獲取圖像寬度和高度上的注意力并對(duì)精確位置信息進(jìn)行編碼,分別從寬度和高度兩個(gè)方向上對(duì)特征圖進(jìn)行加強(qiáng),獲得兩個(gè)方向上的特征圖。Coordinate Attention 結(jié)構(gòu)如圖2所示。

        Fig.2 Structure of Coordinate Attention圖2 Coordinate Attention結(jié)構(gòu)

        (1)Coordinate 信息嵌入。為了獲取圖像寬度和高度上的注意力并對(duì)精確位置信息進(jìn)行編碼,先將輸入特征圖分別按照寬度和高度兩個(gè)方向分別進(jìn)行全局平局池化,分別獲得在寬度和高度兩個(gè)方向上的特征圖。具體而言,給定輸入X,首先采用(H,1)和(1,W)的池化核分別沿著水平和垂直方向?qū)γ總€(gè)通道進(jìn)行編碼操作。因此,第c通道的高度為h的輸出可以表示為:

        在進(jìn)行照片創(chuàng)意時(shí),她最為在意的是最終成品的可控性與操作性——“是”與“像”之間、真實(shí)與人造之間的矛盾。斯各格蘭德認(rèn)為,向自然意象轉(zhuǎn)型尋求靈感,這一點(diǎn)似乎深深根植于美國(guó)文化中。

        上述兩種變換分別從兩個(gè)空間方向?qū)μ卣鬟M(jìn)行聚合,得到一對(duì)方向感知特征圖。這與SENet中產(chǎn)生單一特征向量的SE block不同。這兩種轉(zhuǎn)換允許注意力模塊捕捉沿著一個(gè)空間方向的長(zhǎng)期依賴關(guān)系,并保存沿著另一個(gè)空間方向的精確位置信息,有助于模型更好地定位感興趣目標(biāo)。

        (2)Coordinate Attention 生成。通過(guò)式(1)、式(2),可以很好地獲得全局感受野并對(duì)精確位置信息進(jìn)行編碼。為了利用由此產(chǎn)生的特征,通過(guò)信息嵌入中的變換后,將式(1)和式(2)產(chǎn)生的聚合特征圖進(jìn)行拼接操作,然后使用1×1 卷積變換函數(shù)F1對(duì)其進(jìn)行變換操作,此過(guò)程稱為Coordinate Attention 生成。

        其中,[]是沿空間維度的拼接操作,δ為非線性激活函數(shù),f∈RC/r×(H+W)是在水平方向和垂直方向?qū)臻g信息進(jìn)行編碼的中間特征圖,r是用來(lái)控制SE block 大小的縮減率。沿著空間維度將f分解為2 個(gè)獨(dú)立的張量f h∈RC/r×H和f w∈RC/r×W,再利用另外兩個(gè)1×1 卷積變換Fh和Fw分別將fh和fw變換為具有相同通道數(shù)的張量到輸入X,得到:

        其中,δ是Sigmoid 激活函數(shù)。為了降低模型復(fù)雜性和計(jì)算開(kāi)銷,通常使用適當(dāng)?shù)目s減比r來(lái)縮小f的通道數(shù),然后對(duì)輸出gh和gw進(jìn)行擴(kuò)展,分別作為注意力權(quán)重。最后Coordinate Attention 塊的輸出Y=[y1,y2,...yc]可以寫(xiě)成:

        2 實(shí)驗(yàn)與分析

        2.1 數(shù)據(jù)采集與實(shí)驗(yàn)數(shù)據(jù)集構(gòu)建

        本次實(shí)驗(yàn)的研究區(qū)為岳城水庫(kù)附近的居民區(qū),位于河北省磁縣,其地理坐標(biāo)位于114.07°~114.22°E、36.25°~36.35°N 之間,如圖3所示,考慮到地物類型豐富程度,經(jīng)數(shù)據(jù)篩選處理后,在研究區(qū)內(nèi)選取3 塊地物類型不盡相同的實(shí)驗(yàn)區(qū)。

        采用型號(hào)為安爾康姆“md4-1000”四旋翼無(wú)人機(jī),搭載索尼“A6000”相機(jī)進(jìn)行數(shù)據(jù)采集;使用mdCockpit3.5 軟件進(jìn)行航線設(shè)計(jì),無(wú)人機(jī)飛行高度為150~200 m,航向重疊率度為80%,旁向重疊度為70%,布設(shè)像控點(diǎn)并進(jìn)行測(cè)量;在確保天氣和啟航條件滿足要求時(shí)進(jìn)行外業(yè)航攝;基于獲取的無(wú)人機(jī)照片、pos 信息及像控點(diǎn)坐標(biāo),采用Pix4DMapper軟件進(jìn)行數(shù)據(jù)處理,得到研究區(qū)域正射影像。

        Fig.3 Schematic diagram of the study area圖3 研究區(qū)域示意圖

        考慮到計(jì)算機(jī)負(fù)荷及訓(xùn)練時(shí)間,參考公共遙感數(shù)據(jù)集,對(duì)無(wú)人機(jī)影像進(jìn)行重采樣。為了快速制作出符合實(shí)驗(yàn)要求的切片,借助相關(guān)軟件進(jìn)行快速裁剪,將無(wú)人機(jī)影像裁剪為512 pixel×512 pixel,并將原始圖像按7∶3 隨機(jī)分為訓(xùn)練集和測(cè)試集。結(jié)合目視解譯和實(shí)地調(diào)查,利用EISeg軟件對(duì)無(wú)人機(jī)數(shù)據(jù)集進(jìn)行標(biāo)注,如圖4 土地利用分類標(biāo)注示例,制作成滿足訓(xùn)練條件的岳城水庫(kù)居民區(qū)土地利用分類信息數(shù)據(jù)集。數(shù)據(jù)集共包含建筑物、水體、道路、農(nóng)業(yè)用地、林地、其他用地等6 種類型,各用地類型所占像素百分比分別為24%、1%、9%、31%、28%和7%。為了得到泛化能力更強(qiáng)的模型,提高分類精度,防止因數(shù)據(jù)集過(guò)小而導(dǎo)致的過(guò)擬合問(wèn)題,本文模型及對(duì)比模型均采用五折交叉驗(yàn)證的方式,最后使用測(cè)試集對(duì)最優(yōu)模型進(jìn)行測(cè)試。采取隨機(jī)旋轉(zhuǎn)、平移、模糊、加噪等方法對(duì)訓(xùn)練集進(jìn)行增強(qiáng),增強(qiáng)后的圖片共有1 521 張,其中訓(xùn)練集1 400 張,測(cè)試集121張。

        2.2 實(shí)驗(yàn)過(guò)程

        Fig.4 Schematic diagram of land use classification annotation圖4 土地利用分類標(biāo)注示示意圖

        實(shí)驗(yàn)環(huán)境為64 位Windows 操作系統(tǒng),CPU 為Intel Core i7-9700K,內(nèi)存為3.6GHz @128G,顯卡為RTX 2080Ti 12G,硬盤(pán)為Samsung SSD 2TB,使用的深度學(xué)習(xí)框架為Pytorch。訓(xùn)練過(guò)程中設(shè)置批大?。╞atch_size)為6,迭代次數(shù)為300 個(gè)周期(epoch),學(xué)習(xí)率初始化為0.000 5,weight_decay 為0.000 1,使用Adam 優(yōu)化器進(jìn)行迭代更新參數(shù),Adam可動(dòng)態(tài)調(diào)節(jié)學(xué)習(xí)率,使學(xué)習(xí)率更貼近當(dāng)前參數(shù)更新?tīng)顟B(tài),從而讓模型更好地收斂。

        2.3 模型評(píng)價(jià)指標(biāo)

        為了衡量網(wǎng)絡(luò)性能,采用像素準(zhǔn)確度(Pixel Accuracy,PA)、平均像素準(zhǔn)確率(Mean Pixel Accuracy,MPA)、交并比(Intersection over Union,IoU)和平均交并比(mean Intersection over Union,mIoU)作為圖像語(yǔ)義分割性能的評(píng)價(jià)指標(biāo)。其中,PA 表示預(yù)測(cè)正確的像素點(diǎn)與總像素點(diǎn)的比值,MPA表示計(jì)算每個(gè)類被正確分類的像素總數(shù)與每個(gè)類別總數(shù)比率求和得到的均值,其計(jì)算公式分別為:

        作為語(yǔ)義分割性能的評(píng)價(jià)指標(biāo),IoU 是衡量模型性能的常用評(píng)價(jià)指標(biāo),交并比用于計(jì)算某一類別真實(shí)值和預(yù)測(cè)值兩個(gè)集合的交集與并集的比值;mIoU 是對(duì)IoU 的進(jìn)一步提升,為計(jì)算得到的每個(gè)類別IoU 的平均值,其計(jì)算公式分別為:

        其中,k表示標(biāo)簽的類別;k+1 表示包含空類或背景的總類別;pij表示本屬于i類但預(yù)測(cè)為j類的像素點(diǎn)總數(shù);pii表示真正例,即模型預(yù)測(cè)為正例,實(shí)際為正例;pij表示假正例,即模型預(yù)測(cè)為正例,實(shí)際為反例;pji表示本屬于j類但預(yù)測(cè)為i類的像素點(diǎn)總數(shù)。mIoU 的值越大,說(shuō)明預(yù)測(cè)的分割結(jié)果越準(zhǔn)確。

        2.4 實(shí)驗(yàn)過(guò)程

        2.4.1 網(wǎng)絡(luò)驗(yàn)證實(shí)驗(yàn)

        為了驗(yàn)證輕量級(jí)MobileNeV2 網(wǎng)絡(luò)在DeeplabV3+模型中的匹配性和表現(xiàn)效果,分別采用ResNet101 和Mobile-NetV2 作為DeeplabV3+模型的特征骨干提取網(wǎng)絡(luò)(MN_DeeplabV3+)在岳城水庫(kù)數(shù)據(jù)集上進(jìn)行比較實(shí)驗(yàn),以mIoU、MPA、模型參數(shù)量作為評(píng)價(jià)指標(biāo),實(shí)驗(yàn)結(jié)果如表1 所示。采用ResNet101 作為DeeplabV3+模型的特征骨干提取網(wǎng)絡(luò),評(píng)價(jià)指標(biāo)mIoU 為65.10%,MPA 為76.31%,參數(shù)量為226.38MB,而將DeeplabV3+的主干特征提取網(wǎng)絡(luò)替換成MobileNetV2 后,mIoU 為66.31%,MPA 為78.28%,參數(shù)量為22.90MB。結(jié)果表明,替換主干特征提取網(wǎng)絡(luò)后的模型,分割平均像素準(zhǔn)確率和平均交并比均比采用Resnet101 網(wǎng)絡(luò)略有提升,同時(shí)模型參數(shù)量相比于原始DeeplabV3+模型呈現(xiàn)大幅度減少。因此,使用MobileNetV2 作為主干特征提取網(wǎng)絡(luò)具有一定優(yōu)勢(shì),不僅提高了模型分割精度和速度,而且參數(shù)量?jī)H為原始網(wǎng)絡(luò)的1/10,降低203.48MB。

        Table 1 Comparison results of different trunk feature extraction networks表1 不同主干特征提取網(wǎng)絡(luò)比較結(jié)果

        2.4.2 模型比較實(shí)驗(yàn)與分析

        為了驗(yàn)證CA 注意力機(jī)制的有效性,在保持實(shí)驗(yàn)環(huán)境和數(shù)據(jù)集不變的條件下,將加入CA 注意力機(jī)制的MN_DeeplabV3+模型(MNCA_DeeplabV3+)與DeeplabV3+、SE_DeeplabV3+、MN_DeeplabV3+進(jìn)行實(shí)驗(yàn)比較。由表2 可知,在平均交并比方面(mIoU),傳統(tǒng)DeeplabV3+模型的平均交并比為65.10%,SE_DeeplabV3+的平均交并比為66.46%,MN_DeeplabV3+的平均交并比為66.31%,而MNCA_DeeplabV3+的平均交并比為70.36%,較傳統(tǒng)的DeeplabV3+算法、SE_DeeplabV3+、MN_DeeplabV3+模型分別提高5.26 個(gè)百分點(diǎn)、3.9 個(gè)百分點(diǎn)、4.05 個(gè)百分點(diǎn);在平均像素準(zhǔn)確度方面(MPA),傳統(tǒng)DeeplabV3+模型的平均像素準(zhǔn)確度為76.31%,SE_DeeplabV3+的平均像素準(zhǔn)確度為77.45%,MN_DeeplabV3+的平均像素準(zhǔn)確度為78.28%,而MNCA_DeeplabV3+的平均像素準(zhǔn)確度為80.41%,較傳統(tǒng)的DeeplabV3+模型、MN_DeeplabV3+模型分別提高4.10 個(gè)百分點(diǎn)、2.96 個(gè)百分點(diǎn)、2.13 個(gè)百分點(diǎn)。此外,從不同用地類別的分割精度看(見(jiàn)表2),4 種網(wǎng)絡(luò)對(duì)于建筑物、農(nóng)業(yè)用地、林地等用地類型均具有較高的分割精度。原因在于,這幾種用地類型目標(biāo)在數(shù)據(jù)集中所占像素比例較高,能夠取得較好的分割精度,而其他用地類型,所占像素比例較小,且語(yǔ)義特征不明顯,分割精度相對(duì)較低。實(shí)驗(yàn)數(shù)據(jù)表明,在MNCA_DeeplabV3+加入CA 注意力機(jī)制提高了模型的特征提取能力,對(duì)地物的分割精度更高。

        Table 2 IoU and PA results of different land use classification表2 不同用地類別的IoU和PA結(jié)果

        在常見(jiàn)的圖像語(yǔ)義分割模型中,一般模型層數(shù)越多,模型涉及參數(shù)量越大,模型越復(fù)雜,模型訓(xùn)練難度就越大。由表3 可知,相較于傳統(tǒng)DeeplabV3+模型,MNCA_DeeplabV3+模型參數(shù)量降低202.5MB,僅為傳統(tǒng)模型的1/10;相較于SE_DeeplabV3+模型降低185.42MB;相較于MN_DeeplabV3+模型雖然有所增加,但僅為0.98MB,這是由于加入CA 注意力,分割效率受到影響。綜合分析可知,同時(shí)兼顧分割精度和分割效率的模型改進(jìn)難度較大,MNCA_DeeplabV3+模型以較小的檢測(cè)速度為代價(jià),換來(lái)分割精度的顯著提升,較好地平衡了分割精度和效率,體現(xiàn)了該模型的優(yōu)越性。

        為了驗(yàn)證改進(jìn)模型的優(yōu)越性,將相同的測(cè)試圖片傳入到訓(xùn)練好的不同模型中,得到各模型分割結(jié)果如圖5所示。

        Table 3 Comparative experimental results of different models表3 不同模型比較實(shí)驗(yàn)結(jié)果

        Fig.5 Segmentation and comparison of different network models圖5 不同網(wǎng)絡(luò)模型分割比較

        比較第一行和第四行圖片,DeeplabV3+、SE_ DeeplabV3+和MN_DeeplabV3+對(duì)林地和其他用地分割效果較差,不能真實(shí)地反映地物類型,其他用地被錯(cuò)分為林地,林地被錯(cuò)分為農(nóng)業(yè)用地;相比較而言,MNCA_DeeplabV3+模型分割結(jié)果未出現(xiàn)上述不足,分割效果有所提高,預(yù)測(cè)結(jié)果更加準(zhǔn)確。對(duì)于用地類別較少的圖像(第1 行),4 種網(wǎng)絡(luò)分割效果差異較小,但對(duì)于含有地物類別比較豐富的圖像,以上4 種網(wǎng)絡(luò)差異比較明顯。對(duì)比第2、3、4 行發(fā)現(xiàn),對(duì)于地物類別比較豐富的圖像,DeeplabV3+模型分割結(jié)果最差,道路和建筑物誤分現(xiàn)象嚴(yán)重,存在嚴(yán)重的道路分割不連續(xù)現(xiàn)象,林地和水體也出現(xiàn)少數(shù)錯(cuò)分現(xiàn)象;MC_DeeplabV3+、SE_ DeeplabV3+模型雖然提高了模型分割精度,改善了錯(cuò)分及道路分割不連續(xù)問(wèn)題,但效果并不理想,農(nóng)業(yè)用地和林地仍存在誤分或分割不完全現(xiàn)象且有明顯毛邊問(wèn)題;MNCA_DeeplabV3+網(wǎng)絡(luò)的分割效果明顯優(yōu)于其他3 個(gè)網(wǎng)絡(luò),該網(wǎng)絡(luò)對(duì)土地利用類型的分割更加精確,能準(zhǔn)確識(shí)別出圖像細(xì)節(jié)信息,邊緣預(yù)測(cè)更為清晰,主要表現(xiàn)在道路不連續(xù)現(xiàn)象較少,建筑物輪廓相對(duì)規(guī)則,誤分和不完全分割現(xiàn)象相對(duì)較少。實(shí)驗(yàn)結(jié)果表明,以上4 種模型在分割水體和建筑物方面均表現(xiàn)出優(yōu)越的性能,并且對(duì)于類別越少的影像其性能越突出;但對(duì)于用地類型較多的影像,MNCA_DeeplabV3+網(wǎng)絡(luò)更具有優(yōu)越性和有效性,能較好地識(shí)別真實(shí)的用地類型。此外,MNCA_DeeplabV3+模型在降低模型參數(shù)量的同時(shí)有效解決了道路斷連和分割不完全等問(wèn)題,細(xì)化了目標(biāo)地物的邊界,提高了目標(biāo)地物的分割精度,具有更好的地物辨別能力。

        3 研究結(jié)論

        為了降低模型的參數(shù)量、提高地物分類精度和提取效果,本文以DeeplabV3+模型為基礎(chǔ),提出了一種改進(jìn)的輕量級(jí)網(wǎng)絡(luò)模型MNCA_DeeplabV3+,并在自制無(wú)人機(jī)數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果表明:

        (1)MNCA_DeeplabV3+模型采用MobilenetV2 作為主干特征提取網(wǎng)絡(luò),在很大程度上降低模型參數(shù)量,提高了模型計(jì)算速度;CA 注意力機(jī)制加入MobilenetV2 網(wǎng)絡(luò)提升了捕獲空間位置信息能力。通過(guò)模型比較實(shí)驗(yàn)表明,注意力機(jī)制可以改善模型中存在的分割不完全、道路斷連、邊緣細(xì)節(jié)丟失等問(wèn)題,進(jìn)一步驗(yàn)證了MNCA_DeeplabV3+模型優(yōu)越性。

        (2)與原始網(wǎng)絡(luò)相比,MNCA_DeeplabV3+在選定區(qū)域無(wú)人機(jī)數(shù)據(jù)信息提取方面表現(xiàn)良好,mIoU、MPA 分別達(dá)到70.36%,80.41%,且模型參數(shù)量降至原始網(wǎng)絡(luò)的1/10。實(shí)驗(yàn)結(jié)果證實(shí),改進(jìn)后的MNCA_DeeplabV3+模型對(duì)該數(shù)據(jù)集具有一定的適用性。

        語(yǔ)義分割被廣泛應(yīng)用于國(guó)土監(jiān)測(cè)、精準(zhǔn)農(nóng)業(yè)等多個(gè)領(lǐng)域,進(jìn)行諸如建筑物、道路提取、土地利用分類等工作。從實(shí)驗(yàn)流程和實(shí)驗(yàn)結(jié)果看,本文仍存在以下問(wèn)題需深入研究:①無(wú)人機(jī)數(shù)據(jù)集標(biāo)注工作量大,耗時(shí)耗力,后續(xù)將研究采用無(wú)監(jiān)督學(xué)習(xí)等方法解決數(shù)據(jù)集標(biāo)注問(wèn)題;②本文實(shí)驗(yàn)區(qū)為高密度人類活動(dòng)區(qū),考慮人工標(biāo)注成本和無(wú)人機(jī)航線多等問(wèn)題,實(shí)驗(yàn)時(shí)僅選取地物類型較豐富的3 塊實(shí)驗(yàn)區(qū)進(jìn)行土地利用分類研究,代表性不足,未來(lái)將進(jìn)一步豐富無(wú)人機(jī)影像數(shù)據(jù)集,測(cè)試MNCA_DeeplabV3+模型在完整區(qū)域的土地利用分類結(jié)果。

        猜你喜歡
        語(yǔ)義實(shí)驗(yàn)信息
        記一次有趣的實(shí)驗(yàn)
        語(yǔ)言與語(yǔ)義
        做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
        實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
        太空探索(2016年5期)2016-07-12 15:17:55
        “上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
        認(rèn)知范疇模糊與語(yǔ)義模糊
        展會(huì)信息
        語(yǔ)義分析與漢俄副名組合
        大香蕉青青草视频在线| 国产nv精品你懂得| 不卡a v无码在线| 中文字幕视频一区懂色| 精品久久久久久综合日本| 亚洲国产另类精品| 热久久这里只有| 日韩成精品视频在线观看| 免费av网站大全亚洲一区| 伊人久久大香线蕉综合影院首页 | 日出水了特别黄的视频| 国内精品一区二区2021在线| 白白白色视频在线观看播放| 极品嫩模大尺度av在线播放| 亚洲精品乱码久久久久久金桔影视| 一级二级中文字幕在线视频| 日本av在线精品视频| 亚洲人成网站色在线入口口| 国产l精品国产亚洲区久久| 伊人网视频在线观看| 日韩精品中文字幕免费人妻| 精品亚洲国产成人av色哟哟| 在线观看免费人成视频| 国产农村三片免费网站| 国产女主播福利一区二区| 高清毛茸茸的中国少妇| aaaaaa级特色特黄的毛片| 丰满人妻AV无码一区二区三区| 蜜桃视频羞羞在线观看| 亚洲av美国av产亚洲av图片| 成人免费xxxxx在线视频| 福利视频自拍偷拍视频| 亚洲中文字幕av天堂自拍| 骚小妹影院| 国产传媒在线视频| 国产三级精品av在线| 天天爽天天爽夜夜爽毛片| 国产精品一区二区韩国AV| 中文无字幕一本码专区| 国产国语亲子伦亲子| 国产精品亚洲日韩欧美色窝窝色欲 |