亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        DFNet:高效的無解碼語義分割方法

        2024-03-05 08:15:20劉臘梅杜寶昌黃惠玲章永鑒韓軍
        液晶與顯示 2024年2期
        關(guān)鍵詞:模型

        劉臘梅, 杜寶昌,, 黃惠玲, 章永鑒,3, 韓軍*

        (1.遼寧工程技術(shù)大學(xué) 軟件學(xué)院, 遼寧 葫蘆島 125000;2.中國科學(xué)院 海西研究院 泉州裝備制造研究中心, 福建 泉州 362000;3.廈門理工學(xué)院 電氣工程與自動(dòng)化學(xué)院, 福建 廈門 361024)

        1 引言

        語義分割是計(jì)算機(jī)視覺領(lǐng)域的關(guān)鍵任務(wù)之一,是對圖像像素級的識(shí)別和理解。得益于卷積神經(jīng)網(wǎng)絡(luò)的特征提取能力以及深度學(xué)習(xí)技術(shù)的迅速發(fā)展,分割方法層出不窮[1-3]。然而,在不同的分割方法下,卻都有著相似的“編碼器-解碼器”結(jié)構(gòu)。

        在“編碼器-解碼器”結(jié)構(gòu)的分割網(wǎng)絡(luò)中,分割任務(wù)大致劃分為兩個(gè)階段:編碼階段——圖像經(jīng)神經(jīng)網(wǎng)絡(luò)編碼以及下采樣獲得深層次語義信息;解碼階段——深層語義信息上采樣獲得與輸入圖像同等大小的分割掩碼。Long[4]等人所提出的全卷積網(wǎng)絡(luò)FCN是編解碼結(jié)構(gòu)的最早典型,其將原分類網(wǎng)絡(luò)的全連接修改為全卷積,通過轉(zhuǎn)置卷積聯(lián)合低級特征上采樣實(shí)現(xiàn)像素級預(yù)測。Ronneberger[5]等人針對FCN缺乏空間一致性等問題提出的“U”型分割網(wǎng)絡(luò)U-Net以及Badrinarayanan[6]等人針對道路分割問題提出的分割網(wǎng)絡(luò)SegNet,這兩種更為典型的編解碼分割網(wǎng)絡(luò)都是采用與編碼器完全對稱的擴(kuò)張路徑作為解碼器,然后聯(lián)合對稱位置編碼特征上采樣補(bǔ)充空間信息,從而獲得高精度分割掩碼。最新的基于Transformer[7]的分割模型,如Zheng[8]等人提出的序列到序列分割模型SETR、Xie[9]等人提出的基于金字塔結(jié)構(gòu)的分割模型SegFormer和Wang[10-11]等人提出的輕量分割模型PVT,普遍也是采用編解碼的結(jié)構(gòu)形式。此外,在目前性能較優(yōu)的分割模型中,在保留“編碼器-解碼器”結(jié)構(gòu)的基礎(chǔ)上還會(huì)引入一種新的解碼器后端,如Zhao[12]等人提出的分割網(wǎng)絡(luò)PSPNet和Chen[13]等人提出的分割網(wǎng)絡(luò)DeepLabv3+,這兩種方法都是在保證編解碼結(jié)構(gòu)的基礎(chǔ)上引入一種新的解碼器后端(池化金字塔),從而取得比全局信息更有代表性的多比例上下文信息,提高模型分割精度。

        然而,“編碼器-解碼器”結(jié)構(gòu)雖能夠保證模型分割精度,但仍然存在一些問題。首先,編碼器的編碼特征通常具有較大的通道數(shù)和較小的寬、高,這會(huì)導(dǎo)致解碼器的結(jié)構(gòu)引入大量的參數(shù),從而增加了計(jì)算量。其次,在解碼器的轉(zhuǎn)置卷積和上采樣過程中,語義信息和細(xì)節(jié)很容易丟失,并且在一定程度上會(huì)傳播噪聲,從而嚴(yán)重影響解碼過程的重構(gòu)效率。最后,對于二值分割任務(wù),由于其分割樣本相比常規(guī)分割任務(wù)相對簡單,因此復(fù)雜的解碼結(jié)構(gòu)可能并不能提高分割精度,反而會(huì)增加計(jì)算量,從而影響分割的速度。Shubhra[14]等首先針對上述問題提出D2SNet模型,并相應(yīng)取得了較好的效果,但是由于算法的復(fù)雜低效以及模型本身的冗余,使得D2SNet模型應(yīng)用嚴(yán)重受限。

        為解決上述編解碼結(jié)構(gòu)以及現(xiàn)有分割網(wǎng)絡(luò)所存在的問題,本文提出了一種基于ResNet50的高效無解碼的二值分割網(wǎng)絡(luò)DFNet(Decoder-free Net)。該模型摒棄了現(xiàn)存主流分割網(wǎng)絡(luò)中的各式跳躍連接和復(fù)雜解碼結(jié)構(gòu),轉(zhuǎn)而采用卷積重塑上采樣模塊(Convolution Remolding Upsampling,CRU)直接重塑最終編碼特征生成分割掩碼,從而簡化分割模型結(jié)構(gòu),減少可學(xué)習(xí)參數(shù),提高模型分割檢測速度。又因CRU模塊需要利用信道和空間信息,因此在編碼器中進(jìn)一步融合輕量雙重注意力模塊EC&SA提高信道以及空間信息交互,增強(qiáng)網(wǎng)絡(luò)編碼能力。最后再引入損失系數(shù)可根據(jù)任務(wù)特性動(dòng)態(tài)調(diào)整的擾動(dòng)交叉熵?fù)p失PolyCE,使得損失系數(shù)根據(jù)當(dāng)前任務(wù)自適應(yīng)達(dá)到最優(yōu),有效解決二值分割正負(fù)樣本不均衡問題,提高像素分割預(yù)測準(zhǔn)確率。

        2 模型結(jié)構(gòu)

        DFNet模型整體結(jié)構(gòu)較為精簡,Input在經(jīng)過網(wǎng)絡(luò)編碼以及卷積重塑上采樣CRU模塊后,直接得到分割掩碼,如圖1所示。其中,模型詳細(xì)流程如下:首先使用融合EC&SA注意力的ResNet50編碼網(wǎng)絡(luò)對輸入圖像提取特征,得到C×H/s×W/s大小的特征編碼,s為編碼網(wǎng)絡(luò)下采樣倍數(shù);其次通過卷積重塑上采樣模塊CRU,得到2×W×H大小的分割掩碼;最后按照通道方向進(jìn)行最大值索引,從而得到H×W大小的最終分割結(jié)果Output。

        圖1 DFNet網(wǎng)絡(luò)模型結(jié)構(gòu)Fig.1 Structure of DFNet network

        2.1 卷積重塑上采樣CRU

        在語義分割算法中,雙線性插值和反卷積是上采樣操作以及生成分割掩碼中最常用的方法。但雙線性插值不具有可學(xué)習(xí)參數(shù),且忽略了標(biāo)簽像素點(diǎn)之間的關(guān)系,對每個(gè)像素的精確恢復(fù)能力較弱;反卷積網(wǎng)絡(luò)雖引入了可學(xué)習(xí)參數(shù),但在解碼階段會(huì)引入大量無效信息,并且容易導(dǎo)致網(wǎng)格效應(yīng),不利于梯度優(yōu)化。本文引入卷積重塑上采樣CRU模塊,將特征編碼經(jīng)1×1卷積通道調(diào)整后,重塑通道和空間信息補(bǔ)充分割細(xì)節(jié)以生成分割結(jié)果,提高模型效率。

        CRU模塊是以低分辨率h×w大小的特征圖作為輸入,生成H×W大小的標(biāo)簽圖。假設(shè)輸入特征圖的維數(shù)為C×h×w,通過1×1卷積運(yùn)算后輸出特征圖維度變?yōu)椋–×s2)×h×w,然后再利用周期篩選[15](Periodic Shuffling,PS)將上述調(diào)整通道后的特征圖重塑成C×H×W大小的分割掩碼,從而簡化了分割網(wǎng)絡(luò)的解碼結(jié)構(gòu),提高模型的運(yùn)行效率。圖2(a)以單通道圖像為例,描述了C=1,s=2時(shí)的CRU模塊結(jié)構(gòu);圖2(b)則描繪了常規(guī)情況下的CRU模塊結(jié)構(gòu)。從圖2也可看出,CRU模塊利用特征編碼通道間的相鄰像素信息直接重塑為最終結(jié)果,其中h=H/s,w=W/s,s是下采樣因子。

        圖2 卷積重塑上采樣模塊Fig.2 Convolutional reshaping upsampling module

        在本文的二值分割任務(wù)中,s=32,C=2。首先輸入圖像經(jīng)過網(wǎng)絡(luò)編碼器,生成一個(gè)大小為c×h×w的特征編碼,生成的特征編碼再經(jīng)過1×1卷積將通道調(diào)整為c×s2,從而特征編碼維度變?yōu)椋╟×s2)×h×w,再通過周期篩選后生成大小為C×H×W的分割掩碼。

        周期篩選的數(shù)學(xué)過程如式(1)所示,其中F為輸入特征編碼,r為上采樣倍數(shù),PS(F)(x,y,c)為坐標(biāo)(x,y,c)上的輸出特征像素,λ默認(rèn)為1。從公式可看出,周期篩選是直接按照一定規(guī)則重塑特征編碼像素位置實(shí)現(xiàn)快速上采樣,在不引入額外參數(shù)的前提下,減小模型計(jì)算量,從而提高網(wǎng)絡(luò)分割效率。

        2.2 輕量雙重注意力EC&SA

        ResNet50[16]殘差網(wǎng)絡(luò)是何凱明等人提出的,其主要思想是在網(wǎng)絡(luò)中添加跳躍連接形成殘差結(jié)構(gòu),從而允許原始的特征信息可以直接傳遞給深層網(wǎng)絡(luò),有效避免信息的損失,簡化學(xué)習(xí)的目標(biāo)和難度,并在一定程度上解決了反向傳播中梯度消失和梯度爆炸的問題。然而,單純依靠編碼器ResNet50的自身特征提取能力是不夠的,因?yàn)镃RU模塊會(huì)重塑特征編碼像素位置來實(shí)現(xiàn)快速上采樣,因此需要特征編碼通道和空間信息完善分割掩碼細(xì)節(jié)。此時(shí)采用一個(gè)合適的注意力機(jī)制可以有效地提高網(wǎng)絡(luò)性能。

        ECA[17]注意力模塊主要是對SE[18]注意力模塊進(jìn)行改進(jìn),提出的一種不降維的跨通道交互策略。該模塊避免了通道壓縮降維帶來的影響,采用一維卷積替代共享全連接層,增加少量參數(shù),實(shí)現(xiàn)跨通道信息交互,提高模型精度。ECA結(jié)構(gòu)如圖3所示,其中為卷積核大小為K的一維卷積。

        圖3 ECA結(jié)構(gòu)圖Fig.3 ECA structure diagram

        但單純的通道信息交互不足以滿足CRU模塊空間信息需求,本文在不引入大量計(jì)算參數(shù)下添加輕量空間注意力算子ESA(Efficient Spatial Attention Operator),使其提高空間信息的交互。如圖4所示,ESA由通道池化、3×3空洞卷積以及S激活函數(shù)3部分組成。將特征編碼按照通道方向分別做最大和均值池化,獲得2×H×W大小的通道池化矩陣;再進(jìn)行空洞卷積運(yùn)算,綜合空間信息;最后經(jīng)S激活函數(shù)獲得空間權(quán)重系數(shù)掩碼。對于ESA中的卷積,本文采用大小為3、空洞率為2的空洞卷積替代常規(guī)卷積,從而實(shí)現(xiàn)在引入極少參數(shù)的同時(shí)有效地?cái)U(kuò)大感受野且保障空間信息連續(xù),提高像素間信息交互[19]。

        圖4 ESA空間注意力算子Fig.4 Efficient spatial attention operator

        EC&SA模塊最終結(jié)構(gòu)如圖5所示??梢钥闯觯珽C&SA模塊保留了高效通道注意力模塊原始的通道增強(qiáng)運(yùn)算,因此中間層的特征編碼首先通過高效通道注意力ECA模塊獲得通道權(quán)重系數(shù)進(jìn)行通道增強(qiáng),其次再次通過ESA獲得空間權(quán)重系數(shù)來增加像素間的空間信息交互。

        圖5 輕量雙重注意力EC&SAFig.5 Lightweight dual attention EC&SA

        EC&SA在引入少量參數(shù)下增強(qiáng)了編碼網(wǎng)絡(luò)對通道信息和空間信息整合能力,提高了相鄰像素間的信息交互,因此將EC&SA加入編碼網(wǎng)絡(luò)ResNet50的殘差結(jié)構(gòu)中,能有效提升網(wǎng)絡(luò)特征提取能力。改進(jìn)后的ResNet50殘差結(jié)構(gòu)如圖6所示。

        圖6 改進(jìn)后的殘差結(jié)構(gòu)Fig.6 Improved residual structure

        2.3 擾動(dòng)交叉熵?fù)p失PolyCE

        對于二值分割任務(wù)而言,分割前景所占真實(shí)標(biāo)簽整體的比例通常較小,因此會(huì)存在嚴(yán)重的正負(fù)樣本不平衡,從而容易導(dǎo)致分割掩碼偏向于背景類別,導(dǎo)致模型分割精度降低。在分割任務(wù)常用的損失中,如CE Loss和Focal Loss等,也都存在一個(gè)關(guān)鍵問題:回歸項(xiàng)前的系數(shù)對于所有的模型和任務(wù)來說都是固定的,但不一定是最優(yōu)的。為解決上述問題,本文引入擾動(dòng)交叉熵?fù)p失[20]PolyCE。

        擾動(dòng)交叉熵?fù)p失PolyCE的靈感來源于交叉熵?fù)p失CE Loss等損失的泰勒展開(式(2)),其主要是通過泰勒展開式來逼近目標(biāo)函數(shù),對損失的表示提供了與回歸的直觀聯(lián)系,使CE Loss在一定程度上可以解釋為預(yù)測值到真實(shí)值距離的j次冪的加權(quán)集合。如式(3)所示,PolyCE損失將損失函數(shù)看成多項(xiàng)式函數(shù)的線性組合并添加動(dòng)態(tài)調(diào)整系數(shù)εj,使多項(xiàng)式基的重要性很容易地根據(jù)目標(biāo)任務(wù)和數(shù)據(jù)進(jìn)行調(diào)整,進(jìn)而提高模型精度,其中Pt代表預(yù)測概率。

        本文使用PolyCE損失函數(shù)替代常用的交叉熵?fù)p失CE Loss,使二值分割能根據(jù)分割任務(wù)特點(diǎn)動(dòng)態(tài)調(diào)整為最優(yōu)損失系數(shù),有效解決正負(fù)樣本不均衡問題,提高各類像素分類準(zhǔn)確率,從而提高模型最終分割精度。其中本文所采用的是N=1的情形。

        3 實(shí)驗(yàn)準(zhǔn)備

        3.1 數(shù)據(jù)選取

        為驗(yàn)證模型二值分割任務(wù)的泛化性,本文主要使用部分常見的二值分割任務(wù)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),如遙感分割數(shù)據(jù)集DeepGlobe[21]、Mas Roads[22]以及缺陷檢測數(shù)據(jù)集CrackForest[23]、FALeather進(jìn)行驗(yàn)證,其中FALeather由本實(shí)驗(yàn)室與相關(guān)企業(yè)聯(lián)合采集制作。

        DeepGlobe和Mass Roads同為道路分割數(shù)據(jù)集,其中DeepGlobe包含6 226張分辨率為1 024像素×1 024的訓(xùn)練圖像,Mass Roads包含1 171張分辨率為1 500像素×1 500像素的訓(xùn)練圖像。為使數(shù)據(jù)適用于模型,通過重疊為256像素的512×512滑動(dòng)窗口將每幅圖像劃分為同分辨率圖像,并且去除無用數(shù)據(jù),然后再將截取劃分后的數(shù)據(jù)按8∶2的比例劃分訓(xùn)練和測試集,即DeepGlobe訓(xùn)練集44 827張和測試集11 027張,和Mass Roads訓(xùn)練集12 732和測試集3 138張,劃分后的訓(xùn)練集和驗(yàn)證集重合。CrackForest包含11 298張448像素×448像素的訓(xùn)練圖像,F(xiàn)ALeather包含1 940張512像素×512像素皮革圖像。同按8∶2劃分,即CrackForest訓(xùn)練集9 038張和測試集2 260張,F(xiàn)ALeather訓(xùn)練集1 552張和測試集388張。

        3.2 參數(shù)設(shè)定

        DFNet模型代碼基于Pytorch 1.9.0深度學(xué)習(xí)框架編寫。采用Ubantu18.06操作系統(tǒng),CPU型號(hào)為Intel i9-10900X@3.70 GHz×20,顯卡型號(hào)為NVIDIA GeForce RTX 3090 24 GB,系統(tǒng)內(nèi)存128G。實(shí)驗(yàn)參數(shù):輸入圖像大小為512像素×512像素的彩色圖片,batch_size大小為32,編碼器采用預(yù)訓(xùn)練模型,CUR中的1×1卷積采用初始化且無偏置,初始化學(xué)習(xí)率為1e-4,學(xué)習(xí)率調(diào)整策略為前200 Epochs固定學(xué)習(xí)率,后100 Epochs學(xué)習(xí)率斷崖式衰減,采用Adam優(yōu)化器,優(yōu)化器運(yùn)行平均值的系數(shù)為betas=(0.9,0.999)。

        3.3 評價(jià)指標(biāo)

        在二值分割任務(wù)中,將分割圖像的像素分為真陽性(TP)、假陽性(FP)、真陰性(TN)和假陰性(FN),并與對應(yīng)真實(shí)標(biāo)簽進(jìn)行比較。根據(jù)二值分割任務(wù)的特點(diǎn),最終選擇以F1-Score和IOU作為主要評價(jià)指標(biāo),TPE和FPS作為輔助評價(jià)指標(biāo),如表1所示。

        表1 評價(jià)指標(biāo)Tab.1 Evaluation index

        TPE(Time for Per Epoch)是本文自定義評價(jià)指標(biāo),指模型在一定的訓(xùn)練數(shù)據(jù)集下完全前向傳播一次所需的時(shí)間(單位s)。FPS是指模型單位時(shí)間內(nèi)處理圖像的數(shù)量。

        4 實(shí)驗(yàn)結(jié)果分析

        通過消融實(shí)驗(yàn)驗(yàn)證模型及改進(jìn)方案對于分割精度和速度的有效性。選取FCN[4]、U-Net[5]、PSPNet[12]、D2SNet[14]、EANet[24]和DeepLabv3+[13]六種主流分割模型與本文模型進(jìn)行對比實(shí)驗(yàn),驗(yàn)證模型分割效果,并圍繞實(shí)驗(yàn)結(jié)果對模型進(jìn)行定量和定性分析。

        4.1 消融實(shí)驗(yàn)

        為驗(yàn)證卷積重塑上采樣模塊CRU、輕量雙重注意力EC&SA、擾動(dòng)交叉熵?fù)p失PolyCE三處改進(jìn)的有效性,本文在ResNet50作為模型編碼器且不采用復(fù)雜解碼結(jié)構(gòu)和跳躍連接的基礎(chǔ)之上,將其分為4種情況進(jìn)行消融實(shí)驗(yàn):(1)僅采用CRU模塊,并為驗(yàn)證該模塊作為分割頭(Head)的有效性,加入FCN和DeepLabv3+分割頭進(jìn)行對比;(2)在以CRU模塊作為分割頭的基礎(chǔ)上,采用EC&SA注意力,并為驗(yàn)證該注意力機(jī)制的有效性,加入其他以及改進(jìn)前的注意力機(jī)制進(jìn)行對比;(3)在以CRU模塊作為分割頭的基礎(chǔ)上,采用Poly1CE損失;(4)CRU模塊、EC&SA注意力和PolylCE損失全部采用。4種實(shí)驗(yàn)均在本文實(shí)驗(yàn)所采用的二值分割數(shù)據(jù)上進(jìn)行,消融實(shí)驗(yàn)結(jié)果見表2。

        表2 消融結(jié)果Tab.2 Ablation results %

        從表2可以看出,在模型采用CRU模塊作為分割頭時(shí),其分割精度要高出FCN和Deep-Labv3+分割頭約5%。DeepLabv3+分割頭雖然在FCN分割頭的基礎(chǔ)上引入了空洞空間卷積池化金字塔(ASPP)模塊,擴(kuò)大了感受野,但是因?yàn)镽esNet50下采樣倍數(shù)較大,并且同F(xiàn)CN分割頭使用卷積壓縮高維通道,使通道數(shù)變?yōu)?,之后再使用雙線性插值上采樣到原圖大小以實(shí)現(xiàn)分割,因此容易丟失大量高維信息細(xì)節(jié),導(dǎo)致分割精度不佳。CUR模塊則不同于上述兩個(gè)分割頭,直接通過對ResNet50的特征編碼進(jìn)行通道升維,補(bǔ)充周期篩選后的分割掩碼空間信息細(xì)節(jié),以提高模型精度和速度。在CRU作為分割頭的基礎(chǔ)上,僅引入EC&SA注意力機(jī)制可使F1-Score和IoU提升約1%~2%,比其他通道注意力機(jī)制所帶來的性能提升更為明顯,如SE注意力模塊只帶來約0.3%~1%的提升,原始的ECA也只是帶來些許提升,從而說明本文針對模型需求改進(jìn)注意力模塊的有效性。在CRU作為分割頭的基礎(chǔ)上,若只引入Poly1CE損失,則F1-Score和IoU均能高約1%~2%;當(dāng)全部采用時(shí),其效果的提升要優(yōu)于僅采用其中一種,從而可使模型精度得到更進(jìn)一步的提升。

        綜上,通過實(shí)驗(yàn)精度的對比,本文提出的3處優(yōu)化均可顯著提高模型的實(shí)驗(yàn)結(jié)果,從而有效證明了這3處優(yōu)化的有效性,也證明了針對二值分割任務(wù)特點(diǎn)進(jìn)行優(yōu)化的正確性。

        4.2 定量分析

        各個(gè)模型在不同數(shù)據(jù)集的分割精度對比結(jié)果見表3。從表3中各模型所示分割精度可以看出,本文模型在本文所采用的分割數(shù)據(jù)集上,基本都能取得與主流編解碼語義分割模型相當(dāng)?shù)姆指罹龋踔吝€超出部分分割模型。從Deep-Globe和Mas Roads的數(shù)據(jù)分割結(jié)果可知,相對于FCN和D2SNet,雖具有更為復(fù)雜解碼結(jié)構(gòu)以及新型解碼后端的DeepLabv3+和EANet的分割會(huì)更高,但兩者實(shí)際差異并不明顯,特別是對于背景更為簡單的FALeather數(shù)據(jù),各模型精度基本在同一范圍內(nèi)持平。但對于本文模型,雖未采用解碼結(jié)構(gòu)以及跳躍連接,卻取得了更優(yōu)的分割結(jié)果,從而說明對于簡單的分割任務(wù),輸入圖像經(jīng)編碼器編碼后,其自身已包含足夠的通道及空間信息,無需額外結(jié)構(gòu)進(jìn)行補(bǔ)充。

        表3 模型精度對比Tab.3 Comparison of model accuracy %

        在模型參數(shù)、推理速度和綜合精度方面,本模型與主流分割模型對比結(jié)果見表4。相對于主流分割模型,首先從表中參數(shù)和推理速度可以看出,在同等條件下,本模型在減少參數(shù)的同時(shí),理論推理速度達(dá)到了94 FPS,遠(yuǎn)高出主流分割網(wǎng)絡(luò);其次從表中TPE指標(biāo)也可看出,本模型在同批次數(shù)據(jù)上所需的訓(xùn)練時(shí)間也明顯減少,比參數(shù)接近的D2SNet減少1/3,比U-Net減少近4倍,從而有效降低了網(wǎng)絡(luò)訓(xùn)練成本;最后從模型在各數(shù)據(jù)集上的平均精度F1m(F1 mean)和IoUm(IoU mean)可以看出,對于二值分割任務(wù),本模型具有更高的普適性。

        表4 模型參數(shù)對比Tab.4 Comparison of model parameters

        綜上,本模型無論在推理速度上,還是在綜合分割精度上,都遠(yuǎn)高出主流分割模型,有效提高了分割任務(wù)效率,減少了網(wǎng)絡(luò)訓(xùn)練投入成本。

        4.3 定性分析

        我們在各個(gè)數(shù)據(jù)集上對分割模型FCN、Unet、PSPNet、D2SNet、EANet、DeepLabv3+(DLv3+)以及本文分割模型DFNet的預(yù)測結(jié)果進(jìn)行了可視化,可視化結(jié)果見圖7。圖7中的紅色框突出顯示了本文模型分割表現(xiàn)優(yōu)于主流分割模型的區(qū)域;圖7中的藍(lán)色虛線框突出顯示了上述7種分割網(wǎng)絡(luò)分割效果較差的區(qū)域。其中,藍(lán)色方框區(qū)域具有較大爭議性,如圖7(b)所示。通過觀察和比較輸入圖像,其自身也難以分辨是否真實(shí)包含分割目標(biāo),因此無法明確判斷分割是否正確,CrackForest分割結(jié)果中的藍(lán)色方框區(qū)域則是完全的分割錯(cuò)誤,從而不確定性較大。因此,本文將其統(tǒng)稱為分割效果不佳以方便對比。

        圖7 結(jié)果的可視化Fig.7 Visualization of results

        從圖7的紅色方框標(biāo)注區(qū)域可以看出,雖然本文分割模型并未采用復(fù)雜的解碼結(jié)構(gòu)以及跳躍連接,但是對于不同數(shù)據(jù)的細(xì)節(jié)把控卻要優(yōu)于其他分割模型。如圖7(a)中道路分割結(jié)果所示,本文分割模型不僅能夠精確地分辨出道路之間的聯(lián)系,而且能夠精確地分割出道路的形狀和輪廓,從而使分割的結(jié)果更接近于真實(shí)標(biāo)簽。從圖7的藍(lán)色方框標(biāo)注區(qū)域也可看出,主流分割模型分割不佳的情況要遠(yuǎn)大于本文網(wǎng)絡(luò),甚至在D2SNet中出現(xiàn)完全分割失敗的情況。D2SNet出現(xiàn)上述情況的原因,很可能是因?yàn)樵诰矸e過程中采用了過多的二維隨機(jī)失活,這樣會(huì)導(dǎo)致網(wǎng)絡(luò)難以學(xué)習(xí)樣本特征,從而導(dǎo)致分割效果不佳。

        綜上,對比不同模型的分割結(jié)果可知,本文模型能夠滿足二值分割任務(wù)需求,并且在某些方面還要遠(yuǎn)優(yōu)于主流模型。對比實(shí)驗(yàn)也進(jìn)一步說明,對于簡單的二值分割任務(wù),編碼器的最終編碼特征本身就已具有足夠的細(xì)節(jié)信息,而無需額外的操作補(bǔ)充細(xì)節(jié)信息,聯(lián)合上采樣生成最終分割結(jié)果。

        5 結(jié)論

        本文提出了一種無解碼器的高效實(shí)用的二值語義分割模型。該模型簡化了主流分割模型結(jié)構(gòu),去除了分割網(wǎng)絡(luò)中常用的復(fù)雜解碼結(jié)構(gòu)和跳躍連接,轉(zhuǎn)而采用卷積重塑上采樣模塊CRU完成最終特征編碼上采樣生成分割掩碼,從而在很大程度上減少了模型運(yùn)算,提高了模型分割速度。融入改進(jìn)后的輕量雙重注意力機(jī)制EC&SA,因其引入了輕量空間注意力算子ESA,從而使其在原有的注意力機(jī)制ECA提高特征信道交互的同時(shí)增添了特征的空間交互,從而提高了編碼特征相鄰像素間的信息交互能力,使網(wǎng)絡(luò)精度在原有的基礎(chǔ)上提升1%~2%,高于改進(jìn)前所帶來的性能提升。采用擾動(dòng)交叉熵?fù)p失PolyCE替代常規(guī)損失,使原有損失系數(shù)從固定變?yōu)樽赃m應(yīng),從而通過訓(xùn)練和實(shí)現(xiàn)得到與本文模型最為適合的損失系數(shù),從而有效提高模型的像素分割精度。最終模型的理論分割速度最高可達(dá)94 FPS,在多個(gè)數(shù)據(jù)集上的F1和IoU的分割精度平均值更是達(dá)到了84.69%和73.95%,與主流網(wǎng)絡(luò)相當(dāng),極大提高了模型分割任務(wù)效率。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點(diǎn)
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        国产不卡一区二区av| 中文日韩亚洲欧美制服| 亚洲aⅴ无码成人网站国产app| 国产一区二区三区4区| 中文字幕av一区二区三区诱惑| 东北女人一级内射黄片| 久久久精品人妻无码专区不卡 | 99久久精品国产一区色| 中国一级黄色片久久久| 最近中文字幕大全在线电影视频| 日韩AV无码免费二三区| 日韩国产有码精品一区二在线| 久久久精品人妻一区二区三区妖精| 精品人妻午夜一区二区三区四区| 日子2020一区二区免费视频| 日韩精品国产一区在线| 人妻免费一区二区三区免费| 最近中文字幕完整版免费| 欧美一级人与嘼视频免费播放| 亚洲国产av中文字幕| 国产高清乱码又大又圆| 美女又色又爽视频免费| 91亚洲人成手机在线观看| 成人在线观看视频免费播放| 波多野结衣av一区二区全免费观看| 一本一道波多野结衣一区| 亚洲AV秘 无套一区二区三区| 手机在线免费观看av不卡网站 | 亚洲高潮喷水无码av电影| 日韩在线视精品在亚洲| 国产精品自拍视频在线| 午夜福利理论片在线观看| 成人区人妻精品一区二区不卡网站| 素人系列免费在线观看| 男女真人后进式猛烈视频网站| 精品国产人成亚洲区| 青草青草伊人精品视频| 久久亚洲乱码中文字幕熟女| 一本久久a久久精品vr综合| 国产免费一级高清淫日本片| 白浆高潮国产免费一区二区三区|