亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進DeepLabv3+的輕量化作物雜草識別方法

        2024-03-28 11:31:54曲福恒李金狀楊勇康鎮(zhèn)南嚴興旺

        曲福恒 李金狀 楊勇 康鎮(zhèn)南 嚴興旺

        摘要:為在存儲資源與計算能力有限的設備上實現田間作物和雜草的識別,本文提出一種基于改進DeepLabv3+的輕量化語義分割網絡。首先,以MobileNet v2作為DeepLabv3+的特征提取骨干網絡,提出雙分支殘差模塊替換倒殘差模塊,并刪除后兩層卷積以降低模型參數量。其次,在空洞空間金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模塊中引入分組逐點卷積,使用深度擴張卷積替換標準卷積,并將卷積后的特征圖進行多尺度特征融合增強對作物和雜草深層特征的提取能力。最后,將原有的非線性激活函數替換為Leaky ReLU激活函數來提升分割精度。實驗結果表明:改進后網絡的mIOU達到86.75%,參數量僅為0.69M,FPS達到了98,與原始DeepLabv3+以及3個典型輕量化語義分割網絡的相比,參數量最小,在對比的輕量化網絡中具有最高的分割精度。

        關鍵詞:作物和雜草識別;輕量化;語義分割;DeepLabv3+;MobileNet v2;多尺度特征融合

        中圖分類號:中圖分類號S451;TP391.41文獻標志碼:A文獻標識碼

        Lightweight crop and weed recognition method based on imporved DeepLabv3+

        QU? Fuheng1,LI Jinzhuang1, YANG Yong1,2*, KANG Zhennan1, YAN Xingwang1

        (1 College of Computer Science and Technoloy, Changchun University of Science and Technology,Changchun,Jilin 130022, China;

        2 College of Education, Changchun Normal University,Changchun,Jilin 130032, China)

        Abstract: To achieve field crop and weed recognition on devices with limited storage resources and computational capabilities, a lightweight semantic segmentation network based on improved DeepLabv3+ is proposed. Firstly, MobileNet v2 is used as the feature extraction backbone for DeepLabv3+, where the residual modules are replaced with dual-branch residual modules and the last two convolutional layers are removed to reduce the model parameters. Secondly, group-wise pointwise convolution is introduced in the Atrous Spatial Pyramid Pooling module, replacing standard convolutions with depthwise dilated convolutions, and performing multi-scale feature fusion on the convolved feature maps to enhance the extraction of deep features for crops and weeds. Lastly, the original non-linear activation functions are replaced with the Leaky ReLU activation function to improve segmentation accuracy. Experimental results show that the improved DeepLabv3+ achieves an mIOU (Mean Intersection over Union) of 86.75% with only 0.69M parameters, and achieves an FPS (Frames Per Second) of 98. Compared to the original DeepLabv3+ and three typical lightweight semantic segmentation networks, it has the lowest parameter count and the highest segmentation accuracy among the compared lightweight networks.

        Key words: crop and weed identification;lightweight;semantic segmentation;Deeplabv3+;MobileNet v2;multi-scale feature fusion

        田間雜草與農作物競爭水、養(yǎng)分和空間等資源,影響農作物的生長和產量[1],去除田間雜草十分重要。使用無人機等智能設備進行大范圍農藥噴灑可以大幅度提高除草效率[2],節(jié)約人力成本。但是,大范圍噴灑不僅會造成土壤污染,也會導致農作物中存在大量的農藥殘留。采用計算機視覺技術對田間的作物和雜草進行識別、監(jiān)測,對于降低農業(yè)生產成本、保護生態(tài)環(huán)境具有重要意義。

        目前,國內外學者提出了多種基于計算機視覺技術識別雜草的方法[3-5]。雖然傳統(tǒng)機器學習算法對雜草進行識別有一定的效果,但是特定的特征需要手動選擇和校準。這就使傳統(tǒng)機器學習算法在處理復雜的田間環(huán)境時存在抗干擾能力弱,適用性較差等問題。與傳統(tǒng)機器學習算法相比,深度學習算法無須手動選擇和校準,能夠自動學習數據的淺層特征與深層特征,抗干擾能力強。Kim等[6]提出了一種單階段訓練的語義分割模型MTS-CNN,在作物雜草田間數據集(CWFID)[7]、水稻苗和雜草數據集[8]上,平均交并比(mIOU)分別達到了83.72%和82.6%。Zou等[9]使用改進U-Net模型對雜草進行分割,使用預訓練和微調2種方法進行訓練,訓練后雜草的交并比(IOU)為92.91%。Wang等[10]提出了一種雙注意力網絡,基于編碼階段的分支注意力塊和解碼階段的空間注意力塊以彌合高級特征和低級特征,在雜草分割數據集上優(yōu)于ExFuse[11]、DeepLabv3+[12]和PSPNet[13]。

        上述深度學習模型主是對作物和雜草識別精度的提升,但是參數量大、復雜度高、識別速度慢,不適合存儲資源和計算能力有限的設備,采用的輕量化網絡雖然參數量減少,但識別精度不高。因此,本文對經典的DeepLabv3+網絡進行改進,使用改進后的MobileNet v2作為特征提取骨干網絡降低參數量;其次,在ASPP[12]中引入分組逐點卷積、將標準卷積替換為帶有不同擴張率的深度擴張卷積[15-16],對卷積后的特征圖進行多尺度特征融合,改進后的ASPP模塊能夠在降低參數量的同時提升對作物和雜草深層特征的提取能力;最后,使用Leaky ReLU激活函數替換ReLU激活函數,提高分割的準確性。

        1 資料與方法

        1.1 數據獲取與處理

        1.1.1 數據獲取

        為實現農作物與雜草的識別,需要采集相關圖? 像數據,建立作物及其雜草數據集。實驗數據于2020年6月—7月采集自吉林省長春市吉林農業(yè)大學試驗田內,使用大疆無人機進行拍攝,無人機飛行高度為30~50 m,拍攝的圖像尺寸為4 000 px×3 000 px,分辨率為72 dpi,采集后的圖像以JPG格式保存。無人機拍攝的有大豆作物及其伴生雜草,雜草為禾本科雜草和闊葉型雜草2種,其余部分是土地,采集圖像如圖 1所示。

        1.1.2 數據處理

        為使模型充分學習圖像中作物和雜草的語義特征并減小輸入模型中圖像的尺寸,實驗將無人機采集的圖像切分成200 px×200 px,切分后刪除部分冗余圖像。然后,采用開源標注工具LabelMe對切分后的圖像進行語義標注,建立標準的語義標注數據集,使切分后的圖像與標注圖像一一對應,如圖2所示。

        同時,為提高模型的泛化能力,采用圖像翻轉、旋轉等方法擴充數據。擴充后的數據集共有4 435張圖像,以9∶1的比例分為訓練集和測試集。標記數據共有4類有效標簽類別,分別是大豆作物、禾本科雜草、闊葉型雜草和土地。

        1.2 構建輕量化的語義分割模型

        1.2.1 改進DeepLabv3+網絡

        改進后的輕量化網絡結構如圖3所示,由編碼層和解碼層構成。首先,為防止多倍下采樣導致特征圖尺寸過小,影響網絡對作物與雜草的邊界信息提取,將MobileNet v2網絡由下采樣32倍降低為16倍。由于本文數據集分割的種類與Pascal VOC等數據集相比較少,為避免通道數過多導致卷積運算產生冗余的特征信息,對MobileNet v2網絡進行通道剪枝,去除后兩層卷積。此外,提出一種雙分支殘差(Dual-branch Residuals)模塊替換MobileNev2中的倒殘差(Inverted residual)模塊,在保持類似特征提取效果的同時降低網絡的參數量,使用改進后的MobileNet v2網絡作為特征提取骨干網絡。雖然改進后的MobileNet v2網絡減少了參數數量,但仍然主要關注淺層特征的提取,需要進一步增強對深層語義信息的提取能力,以提高作物和雜草分割的準確度。

        原始的空間金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模塊參數量大,并且對于輸入的特征進行直接卷積融合不利于區(qū)分作物和雜草的差異特征。因此,本文對ASPP模塊進行改進,在ASPP模塊中引入分組逐點卷積,對特征提取骨干網絡輸入的特征圖的通道數量采取先降低維度再升高維度的策略,使用帶有擴張率的深度可擴張卷積替換標準卷積,并將卷積后產生的特征圖進行多尺度特征融合區(qū)分作物和雜草的特征差異,在降低模塊參數量的同時提升作物與雜草深層語義信息的提取效果。最后,為防止反向傳播過程中部分特征消失影響分割精度,采用Leaky ReLU激活函數替換ReLU激活函數。

        1.2.2 改進MobileNet v2網絡

        1.2.2.1 深度擴張可分離卷積

        傳統(tǒng)的卷積神經網絡往往使用大尺寸的卷積核用于獲取廣泛的感受野,但是這種方法大大增加了網絡的參數量。與傳統(tǒng)卷積不同,深度可分離卷積(Depthwise Separable Convolution)[15-16]通常采用3×3的小卷積核,將傳統(tǒng)卷積的一次卷積拆分為深度卷積(Depthwise Convolution)和逐點卷積(Pointwise Convolution)2個獨立操作,同時考慮通道和空間兩個維度的變化,極大的降低了網絡的參數量,深度卷積和逐點卷積如圖4所示。

        假設輸入特征映射的大小為Dk,特征映射通道數為M,卷積核的大小為DF,共有N個,則深度可分離卷積與傳統(tǒng)卷積的計算量之比為:

        (DK·DK)·(M·DF·DF)+M·(N·DF·DF)(DK·DK·M)·(N·DF·DF)=

        1N+1D2K。(1)

        由公式(1)可知,在使用3×3的卷積核時,深度可分離卷積的參數量僅為標準卷積的19~18,減少了模型需要訓練的參數量,提高了模型的訓練效率。

        雖然,使用深度可分離卷積有效降低了網絡的參數量,然而,小卷積核意味著較小的感受野,這導致每個卷積操作生成的像素點在輸入特征圖上的映射范圍減小,不利于網絡學習不同類別的特征。為了不增加模型的參數量的同時提升對作物和雜草特征的提取能力,本文在深度可分離卷積中引入了擴張卷積(Dilation Convolution),如圖5所示。

        擴張卷積引入了一個稱為擴張系數(Dilation Rate)的超參數,該參數定義了卷積核與輸入特征圖中像素點運算時的間距。假設d為擴張系數、k為原始卷積核大小,則加入擴張卷積后的卷積核大小與原始卷積核大小之間關系的公式如下所示:

        K=k+(k-1)(d-1)。(2)

        從圖 5中可以看出,在使用3×3大小的卷積核時,感受野的范圍與使用7×7大小的卷積核相同,擴張卷積感受野計算公式如下所示:

        Fi+1=(2i+2-1)(2i+2-1)。(3)

        其中,i+1表示擴張系數,Fi+1為計算后感受野的大小。

        1.2.2.2 雙分支殘差模塊(Dual-branch Residuals)

        為了在減少模型參數量的同時保持相似的特征提取能力,本文借鑒了ShuffleNet 網絡[14]的思想,對MobileNet v2中的倒殘差模塊進行改進,提出了一種雙分支殘差模塊,模塊結構如圖6所示。

        在MobileNet v2的倒殘差模塊中引入了通道劃分(Channel Split)與通道重排(Channel Shuffle)。首先,將單分支改為雙分支,每個分支的通道數量為輸入通道數量的一半。然后,在進行深度卷積之前,通過逐點卷積將輸入的通道數量升高為原來數量的6倍。隨后,使用帶有擴張率的深度可分離卷積,在不增加模塊參數量的同時增強對作物與雜草特征信息的提取能力。2個分支的卷積輸出結果采用疊加的方式實現多尺度特征融合。最后,使用通道重排對特征通道重洗,實現2個分支間的信息流動。

        1.2.3 分組卷積

        分組卷積將輸入的特征圖分成多個組,然后每組分別進行卷積運算。分組卷積最早使用在AlexNet網絡,由于當時的硬件資源有限,AlexNet網絡的卷積操作無法全部放在單個GPU上完成,因此使用2個GPU進行分布式訓練,最后將它們的訓練結果融合。與標準卷積相比,分組卷積可以減少計算成本和參數數量,并且保持類似或稍好的性能,如圖7所示。

        假設輸入特征圖的大小為Dk,通道數為M,卷積核的大小為DF,共有N個卷積核,分組數為g,則分組卷積的計算量為:

        DK×DK×M×N×DF×DF×1g。(4)

        與標準卷積相比,分組卷積所需的參數量僅為標準卷積的1g。

        1.2.4 GMASPP(ASPP with grouping convolution and multi-scale feature fusion)

        由于作物與雜草的特征相似度高,為了提高ASPP模塊的輕量化和高效性,更有效地捕捉作物和雜草之間的差異信息,并消除因使用不同擴張率引起的特征提取不連續(xù)等問題,對ASPP模塊進行改進,改進后的模塊如圖8所示。

        在第一個分支中使用擴張率為2的1×1卷積,將輸入的特征圖進行升維。在ASPP模塊的第二至第五分支前引入分組逐點卷積,將特征骨干網絡輸入的通道數為96的特征圖分為4組,分組后的每個分支特征圖的通道數量為16。各分支將原始的3×3擴張卷積替換為帶有不同擴張率的深度擴張卷積,以減少模塊的參數量并學習深層特征。為了更好的區(qū)分作物和雜草的差異特征,消除擴張卷積造成的特征提取信息不連續(xù)問題,對使用不同擴張率的深度擴張可分離卷積產生的特征圖進行多尺度特征融合,融合后的特征圖使用分組逐點卷積進行升維。為了在多尺度特征融合中實現特征對齊,采用深度擴張卷積以確保通道對齊,卷積后的特征圖具有相同的尺寸。在最后一個分支中使用全局平均池化提取特征。實現了減少模塊參數量的同時提高模塊對深層特征的提取能力。

        1.2.5 Leaky ReLU激活函數

        與ReLU、ReLU6不同,Leaky ReLU激活函數具有一個小的線性斜率(一般設置為0.01),在輸入小于0時,會有一個比較小的輸出值,在反向傳播過程中具有微小的梯度,避免了神經元”死亡”問題。

        數學公式如式(5)所示:

        f(x)=max(αx,x)。(5)

        2 結果與分析

        2.1 實驗環(huán)境及參數配置

        軟件環(huán)境:Ubuntu 14.04.5 LTS 64位操作系統(tǒng),基于PyTorch 1.12.1,使用的開發(fā)軟件為PyCharm。硬件環(huán)境:CPU型號為Intel CoreTM i7-4790,計算內存32 GB;GPU型號為NVIDIA GeForce GTX 1080,8GB顯存。參數配置:采用動量為0.9的隨機梯度下降(Stochastic Gradient Descent,SGD)算法優(yōu)化,初始學習率為0.01,權重衰減為0.0001,使用Poly策略調整學習率,以8張圖像為一個批次進行200個周期迭代,使用交叉熵作為損失函數。

        2.2 評價指標

        實驗從分割效果、參數量、復雜度、識別速度4個方面對模型性能進行評價。實驗結果通過混淆矩陣計算了2個語義分割網絡中常用的評價指標,分別各類別交并比(Intersection over Union,IOU)和平均交并比(Mean Intersection over Union,mIOU),數學表達式如式(6)、式(7)所示,其中TP表示真的正例,FP表示假的正例,FN表示假的負例,TN表示真的負例。使用參數量(Params)評價模型的大小;使用浮點運算數(Floating-Point Operations,FLOPs)衡量模型的復雜度;使用平均幀數(Frames Per Seconds,FPS)衡量模型的識別速度。

        交并比是指預測類別的標簽與真實類別標簽之間的交集和它們之間并集的比值,數學表達式如下:

        IOU=TPTP+FP+FN。(6)

        平均交并比是對所有類別的交并比的結果求和,然后平均,數學表達式如下:

        mIOU=∑NiIOUiN。(7)

        2.3 消融實驗

        為驗證本文采用的數據增強方法對模型泛化能力的影響,使用改進后的輕量級DeepLabv3+在原始數據和增強后的數據上進行實驗,實驗結果如表1所示。

        實驗結果表明,通過對數據進行增強擴充,與原始數據相比,測試數據集上的各項指標都有所提高。具體而言,大豆的交并比提高了1.08%,禾本科雜草的交并比提高了2.45%,闊葉型雜草的交并比提高了4.24%,土地的交并比提高了1.13%,平均交并比提高了1.72%。

        為驗證改進的MobileNet v2在DeepLabv3+網絡上的有效性,使用Xception、MobileNet v2、ShuffleNet v2、GhostNet和改進后的MobileNet v2作為特征提取骨干網絡進行對比,實驗結果如表2所示。

        實驗結果表明,與使用Xception作為特征提取骨干網絡相比,改進后的MobieNetv2網絡的mIOU相差僅為2.37%,參數量大幅降低;與使用MobieNetv2作為特征提取骨干網絡相比,改進后的MobieNetv2網絡的mIOU相差僅為1.34% ,參數量降低了約55%。與2個輕量級網絡ShuffleNet v2和

        GhostNet相比,使用本文改進后的MobileNet v2參數量最小,mIOU和FPS最高。其中,對大豆和禾本科采草的分割精度均優(yōu)于這2個輕量級網絡,對闊葉型雜草高于ShuffleNet v2,略低于GhostNet。

        為評估改進后的GMASPP模塊在輕量化語義分割網絡中的有效性,本文使用改進后的MobileNet v2作為特征提取骨干網絡,分別添加ASPP、文獻[17]改進的ASPP模塊、CSASPP模塊和GMASPP模塊進行對比,計算了交并比、平均交并比、參數量、計算復雜度4個評價指標,實驗結果如表3所示。

        從表3中可以看出,使用本文的GMASPP模塊與ASPP、文獻[17]和CSASPP[18]相比,在分割效果、模塊參數量和復雜度上均更具優(yōu)勢。與原始的ASPP相比,大豆的分割精度提升了0.31%,與文獻[17]相比,提升了1.25%,比使用CSASPP提升了0.62%。對雜草的分割精度均高于原始的ASPP,mIOU相比于ASPP提升了0.79%,相比于文獻[17]提升了0.17%,相比于CSASPP提高了0.24%。在使用同一特征提取骨干網絡時,與ASPP、文獻[17]和CSASPP相比,參數量均大幅降低。

        表4比較了使用不同激活函數對作物和雜草分割精度的影響??梢钥闯?,改進后的算法在使用原始的ReLU6激活函數和ReLU激活函數時,對大豆的分割效果較好,但在闊葉型雜草的分割上效果不佳,mIOU較小。在逐步替換為LeakyReLU激活函數時,闊葉型雜草的分割精度逐步提升,在完全替換為LeakyReLU激活函后,mIOU提升了0.72%。與ELU[19]、Noisy ReLU[20]、PReLU[21]3種激活函數相比,使用Leaky ReLU的效果最好,證明了LeakyReLU激活函數可以提升改進后模型分割的準確性。

        2.4 不同算法對比

        為了更全面的評估本文改進的輕量化語義分割網絡對作物和雜草的分割效果,采用相同的訓練參數和訓練環(huán)境,與不同語義分割算法進行實驗對比,實驗結果如表5所示。

        表5展示了不同語義分割算法對作物和雜草識別的評價指標。可以看出,DeepLabv3+(Xception)[12]、DeepLabv3+(MobileNet v2)[12]、BiSeNetv2[22]、Fast-SCNN[23]、U-Net Xception-Style[24]和本文改進后的模型參數量分別為36.92M、5.81M、3.62M、1.13M、1.13M、0.69M;mIOU分別為87.91%、86.88%、85.62%、84.67%、85.56%、86.75%。與DeepLabv3+(Xception)和DeepLabv3+ (MobileNet v2)相比,本文模型的mIOU差距較小,但是參數量極大減少。

        與輕量化語義分割算法BiSeNetv2、Fast-SCNN相比,本文模型的參數量僅為BiSeNetv2與Fast-SCNN的21%、61%,并且mIOU分別提升了1.13%、2.08%。與U-Net Xception-Style相比,本文算法對大豆及其雜草的分割精度更高,并且參數量降低了約50%。與BiSeNetv2相比,對禾本科雜草的分割差別不大,但對大豆作物和闊葉型雜草的分割具有優(yōu)勢。與Fast-SCNN相比,本文算法對大豆作物、和本科雜草與闊葉型雜草的識別均優(yōu)于Fast-SCNN。

        此外,在分割速度上,本文模型優(yōu)于以Xception為特征提取骨干網絡的DeepLabv3+。相比于原始的DeepLabv3+實現了模型在參數量、分割精度和速度間的平衡。各個網絡的分割效果如圖9所示。

        3 結 論

        傳統(tǒng)語義分割模型參數量大、計算復雜度高,不適應用于存儲量小、計算能力有限的設備上,為降低模型的參數量與復雜度,本文提出了一種基于DeepLabv3+的輕量化語義分割模型。首先,采用本文提出的雙分支殘差模塊替換MobileNet v2的倒殘差模塊,并去除后兩層卷積,實驗結果表明,mIOU相差僅為1.34% ,參數量降低了約55%;其次,在ASPP模塊使用分組逐點卷積、深度擴張卷積,并對卷積后的特征圖進行多尺度特征融合,提升了對作物與雜草差異特征的提取能力,實驗結果表明,mIOU提升了0.79%,網絡參數量降低了約26%;最后,采用LeakyReLU激活函數,避免了特征圖中小于零的部分在反向傳播中梯度消失,mIOU提升了0.72%。通過與原始的DeepLabv3+和3個輕量化語義分割模型對比表明,本文提出的輕量化語義分割模型的參數量最小,僅有0.69M,并且對作物和雜草的分割精度均高于對比的輕量化語義分割模型。

        參考文獻(References)

        [1] 博文靜,郭立月,李靜,等. 不同耕作與施肥方式對有機玉米田雜草群落和作物產量的影響[J]. 植物學報,2012,47(6):637-644.

        BO W J,GUO L Y,LI J,et al. Impact of different tillages and fertilization patterns on weed community and corn yield in an organic farmland[J]. Chinese Bulletin of Botany,2012,47(6):637-644.

        [2] 范明洪,蘭玉彬,趙德楠,等. 植保無人機低容量噴霧防除玉米田雜草的霧滴沉積特性及除草效果[J]. 植物保護,2022,48(5):304-309.

        FAN M H,LAN Y S,ZHAO D N,et al. Droplets deposition of herbicide in low volume spraying by UAV in weeds and control effect in maize field[J]. Plant Protection, 2022,48(5):304-309.

        [3] 疏雅麗,張國偉,王博,等. 基于深層連接注意力機制的田間雜草識別方法[J]. 計算機工程與應用,2022,58(6):271-277.

        SHU Y L,ZHANG G W,WANG B,et al. Field weed identification method based on deep connection attention mechanism[J]. Computer Engineering and Applications,2022,58(6):271-277.

        [4] JIN X J,CHE J,CHEN Y. Weed identification using deep learning and image processing in vegetable plantation[J]. IEEE Access,2021,9:10940-10950.

        [5] KHAN A,IIYAS T,UMRAIZ M,et al. Ced-net:crops and weeds segmentation for smart farming using a small cascaded encoder-decoder architecture[J].? Electronics,2020,9(10):1602.

        [6] KIM Y,PARK K. MTS-CNN:Multi-task semantic segmentation-convolutional neural network for detecting crops and weeds[J]. Computers and Electronics in Agriculture,2022,199:107146.

        [7] HAUG S,OSTERMANN J. A crop/weed field image dataset for the evaluation of computer vision based precision agriculture tasks[C]. In Computer Vision-ECCV,2014:105-116.

        [8] MA X,DENG X,QI L,et al. Fully convolutional network for rice seedling and weed image segmentation at the seedling stage in paddy fields[J]. Plos One,2019,14(4):e0215676.

        [9] ZOU K,CHEN X,WANG Y,et al. A modified U-Net with a specific data argumentation method for semantic segmentation of weed images in the field[J]. Computers and Electronics in Agriculture,2021,187:106242.

        [10] WANG H,SONG H,WU H,et al. Multilayer feature fusion and attention-based network for crops and weeds segmentation[J]. Journal of Plant Diseases and Protection,2022,129(6):1475-89.

        [11] ZHANG Z,ZHANG X,PENG C,et al. Exfuse:enhancing feature fusion for semantic segmentation[C]. In Proceedings of the European Conference on Computer Vision (ECCV),2018:269-284.

        [12] CHEN L C,ZHU Y,PAPANDREOU G,et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]. In Proceedings of the European conference on computer vision (ECCV),2018:801-818.

        [13] ZHAO H,SHI J,QI X,et al. Pyramid scene parsing network[C]. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:2881-2890.

        [14] MA N,ZHANG X,ZHENG HT,et al. Shufflenet v2:practical guidelines for efficient cnn architecture design[C]. In Proceedings of the European conference on Computer Vision (ECCV),2018:116-131.

        [15] CHOLLET F. Xception:Deep learning with depthwise separable convolutions[C]. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:1251-1258.

        [16] HOWARD A G,ZHU M,CHEN B,et al. Mobilenets:efficient convolutional neural networks for mobile vision applications[J]. arXiv:1704.04861,2017.

        [17] 鐘旭輝,譚海,梁雪瑩,等. 基于改進DeeplabV3+模型的云檢測[J]. 遙感信息,2023,38(3):106-113.

        ZHONG X H,TAN H,LIANG X Y,el al. Cloud detection based on improved DeeplabV3+ model[J]. Remote Sensing Information,2023,38(3) :106-113.

        [18] 周華平,鄧彬. 融合多層次特征的deeplabV3+輕量級圖像分割算法[J/OL]. 計算機工程與應用,https:∥link.cnki.net.urlid/11.2127.TP.20230831.1205.012.

        ZHOU H P,DENG S. DeeplabV3+ lightweight image segmentation algorithm based on multilevel feature fusion[J]. Computer Engineering and Applications,https:∥link.cnki.net.urlid/11.2127.TP.20230831.1205.012.

        [19] CLEVERT D A,UNTERTHINER T,HOCHREITER S. Fast and accurate deep network learning by exponential linear units (elus)[J]. arXiv:1511.07289,2016.

        [20] GULCEHRE C,MOCZULSKI M,DENIL M,et al. Noisy activation functions[C]. In International Conference on Machine Learning,2016:3059-3068.

        [21] HE K,ZHANG X,REN S,et al. Delving deep into rectifiers:surpassing human-level performance on imagenet classification[C]. In Proceedings of the IEEE International Conference on Computer Vision,2015:1026-1034.

        [22] YU C,GAO C,WANG J,et al. Bisenet v2:bilateral network with guided aggregation for real-time semantic segmentation[J]. International Journal of Computer Vision,2021,129:3051-3068.

        [23] POUDEL R,LIWICKI S,CIPOLLA R. Fast-scnn:fast semantic segmentation network[J]. arXiv:1902.04502,2019.

        [24] GUTIRREZ-LAZCANO L,CAMACHO-BELLO C,CORNEJO-VELAZQUEZ E,et al. Cuscuta spp. segmentation based onunmanned aerial vehicles (UAVs) and orthomasaics using a U-Net Xception-Style model[J]. Remote Sensing,2022,14(17):4315-4327.

        (責任編輯:編輯郭蕓婕)

        亚洲国产精品久久久久秋霞1| 又湿又紧又大又爽a视频国产| 日本免费a级毛一片| 丝袜AV在线一区二区三区| 亚洲日韩国产精品不卡一区在线| h视频在线免费观看视频| 午夜成人理论福利片| 欧美性猛交内射兽交老熟妇| 免费精品美女久久久久久久久久| 亚洲天堂一二三四区在线| 国产在线视频一区二区天美蜜桃 | 初尝人妻少妇中文字幕在线| 蜜桃传媒网站在线观看| 色天使综合婷婷国产日韩av| 伊人久久成人成综合网222| 国产日产亚洲系列av| 按摩师玩弄少妇到高潮av| 亚洲色成人网站www永久| 亚洲人成网站77777在线观看| 国产人妖赵恩静在线视频| 国产亚洲av成人噜噜噜他| 精品久久香蕉国产线看观看亚洲| 麻豆91免费视频| 一区二区三区精品偷拍| 五月激情综合婷婷六月久久| 国产无人区码一码二码三mba| 日韩亚洲制服丝袜中文字幕| 最新国产精品国产三级国产av| 国产午夜免费高清久久影院| 日日噜噜夜夜爽爽| 亚洲无码vr| 国产精品亚洲av高清二区| 色综合久久88色综合天天| 激情五月天伊人久久| 一区二区国产视频在线| 国产熟妇疯狂4p交在线播放| 亚洲精品国偷拍自产在线观看蜜臀 | 欧洲女人性开放免费网站| 二区久久国产乱子伦免费精品| 蜜桃在线视频一区二区| 小辣椒福利视频导航|