亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進ExfuseNet模型的街景語義分割

        2022-06-16 14:29:30陳勁宏
        電子科技 2022年6期
        關(guān)鍵詞:語義特征模型

        陳勁宏,陳 瑋,尹 鐘

        (上海理工大學 光電信息與計算機工程學院,上海 200093)

        在深度學習被應(yīng)用在語義分割領(lǐng)域之前,受當時計算機硬件條件的限制,人們使用人工設(shè)計或者由數(shù)據(jù)統(tǒng)計得到的特征來解決分割問題。這種傳統(tǒng)方法不僅費時,而且在分割精度上也缺乏魯棒性。隨著應(yīng)用場景的變化,使用傳統(tǒng)方法得到的效果將會急劇下降。隨著計算機硬件設(shè)備的快速發(fā)展,基于深度學習的深度卷積神經(jīng)網(wǎng)絡(luò)逐漸在語義分割領(lǐng)域得到廣泛運用。這種由數(shù)據(jù)驅(qū)動的卷積網(wǎng)絡(luò)不論是從速度還是精度上來看,都明顯超過了傳統(tǒng)方法。

        街景語義分割是計算機視覺分支中的一支。近年來,無人車駕駛技術(shù)的發(fā)展越發(fā)深入,對街景語義分割技術(shù)的要求也越來越高,該領(lǐng)域得到了快速發(fā)展。目前,語義分割已經(jīng)發(fā)展到像素級分割任務(wù)級別,它要求輸入圖像中的每個像素都盡可能被正確分類,這跟模型性能指標優(yōu)劣有直接關(guān)系。

        語義分割領(lǐng)域進入端到端像素級預(yù)測階段是從卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolution Networks,F(xiàn)CN)[1]開始的。FCN首先將超分辨率測試序列(Visual Geometry Group,VGG16)[2]去掉全連接層,再把VGG16剩余部分作為它的下采樣模塊,然后再經(jīng)過反卷積上采樣模塊實現(xiàn)了端到端的像素級預(yù)測。FCN將分類網(wǎng)絡(luò)改編為全卷積神經(jīng)網(wǎng)絡(luò),使用跳躍結(jié)構(gòu)使得語義信息可以和表征信息相結(jié)合,產(chǎn)生準確而精細的分割。文獻[3]提出的SegNet模型在進行上采樣(解碼)的過程中直接利用編碼階段中經(jīng)過最大池化時保留的最大池化索引,達到非線性上采樣的目的,提高了目標邊緣的平滑度。文獻[4]提出的UNet模型采用了U型結(jié)構(gòu)的編解碼結(jié)構(gòu),將編碼器和解碼器在特征圖層次上進行融合,然后再輸入到下一個解碼器里。該網(wǎng)絡(luò)可以用較少的圖片進行端到端訓練,處理速度也較快,適用于數(shù)量少且分辨率高的數(shù)據(jù)集。文獻[5]提出了DeepLab V3模型,并在模型中使用了空洞金字塔池化模塊,從而能提取到不同尺度的語義信息,提升了整個模型的分割性能。該方法通過并行不同空洞率的帶孔卷積來提取不同尺度的特征,然后再進行融合,推動了語義分割的發(fā)展。文獻[6]提出的全局池化網(wǎng)絡(luò)(Golobal Convolution Network,GCN)模型繼AlexNet[7]、LeNet[8]之后可在可分離卷積的基礎(chǔ)上使用大卷積核,提高了感受野,抑制了深度堆疊卷積容易出現(xiàn)的不可控因素。文獻[9]提出的ExfuseNet模型延續(xù)了GCN的思想。不同的是,ExfuseNet模型加入了多監(jiān)督模塊進行深度語義監(jiān)督,并通過語義嵌入模塊進行特征互補融合,ExfuseNet模型則通過自身末尾的密集鄰域預(yù)測模塊(Densely Adjacent Prediction,DAP)來優(yōu)化自身的最終效果。

        盡管上述模型能夠從不同角度出發(fā)來提升模型的最終分割性能,但是當遇到面積占比低且低密度的感興趣目標(例如Camvid中的Pole類)時,上述模型將會錯誤地把它們忽略從而導致錯誤分類,并最終阻止模型性能進一步提升。針對這類問題,本文提出了一種改進的ExfuseNet模型:一方面,棄用基礎(chǔ)模型中的全局池化和全連接層,改用帶孔卷積來同時增大感受野并減少模型參數(shù);另一方面,在DAP模塊之后引入了通道和空間的注意力機制來進一步提升對感興趣對象的捕捉效率。損失函數(shù)采用FocalLoss[10]函數(shù)和NLLLoss函數(shù)進行加權(quán)相加,從而提高模型性能。

        1 研究過程和方法

        1.1 數(shù)據(jù)集

        本文所使用的街景圖像來源于公開數(shù)據(jù)集Camvid,圖片是從駕駛汽車的角度拍攝的。該數(shù)據(jù)集的訓練集由367張360×480像素的彩色圖片組成,驗證集為101張360×480像素的彩色圖片。訓練集的作用是更新模型參數(shù),驗證集的功能為驗證更新參數(shù)后模型的性能表現(xiàn),訓練集和驗證集之間沒有交集。該數(shù)據(jù)集提供12類 Ground Truth語義標簽,將每個像素與語義類別之一相關(guān)聯(lián)。該數(shù)據(jù)庫解決了對實驗數(shù)據(jù)的需求,以定量評估新興算法。

        1.2 圖像預(yù)處理和數(shù)據(jù)增強

        本文所用的模型參數(shù)盡管比ExfuseNet模型參數(shù)少,但其參數(shù)數(shù)量仍然較多。一個魯棒性高的模型需要大量的訓練數(shù)據(jù)來訓練模型參數(shù)。由于所用的訓練集圖片數(shù)量偏少,所以在進行模型訓練前進行了數(shù)據(jù)增強的操作。數(shù)據(jù)增強的部分結(jié)果如圖1所示:圖1(a)為中心裁剪后尺寸為352×480像素的原始圖;圖1(b)為圖1(a)的垂直翻轉(zhuǎn)圖;圖1(c)為圖1(a)的水平翻轉(zhuǎn)圖;圖1(d)為圖1(a)先做垂直翻轉(zhuǎn)然后再做水平翻轉(zhuǎn)后的結(jié)果圖。經(jīng)過這樣的操作,數(shù)據(jù)集的圖像數(shù)量擴增了3倍,可提高模型的泛化力。

        圖1 數(shù)據(jù)增強結(jié)果圖

        在深度學習訓練的反向傳播[11]過程中,采用梯度下降法。如果數(shù)據(jù)是經(jīng)過歸一化操作的話,梯度收斂的速度會被加快,因此在街景圖片輸入到模型之前還要進行圖像歸一化,部分結(jié)果如圖2所示。圖2(b)為圖2(a)歸一化后的結(jié)果,圖2(d)為圖2(c)歸一化后的結(jié)果。圖像歸一化計算如式(1)和式(2)所示。

        (1)

        (2)

        式中,x表示圖像矩陣;μ表示圖像的均值;δ表示標準方差;N表示圖像的像素數(shù)量(168 960個像素值)。

        圖2 圖像標準化結(jié)果圖

        1.3 改進的ExfuseNet模型

        現(xiàn)有的ExfuseNet模型在實際使用中面臨著街景圖像背景復(fù)雜而造成的類不均衡的問題。該問題會導致面積占比低且分布密度小的感興趣目標類無法被正確分類,最終導致模型性能降低。誘發(fā)該問題的主要原因為:(1)ExfuseNet模型的多監(jiān)督模塊使得從編碼器出來的特征圖片的分辨率進一步降低,導致小目標邊界模糊乃至消失;(2)主輸出模塊特征融合后直接輸出,該步驟會導致模型在有限的計算資源下無法對感興趣目標類的深度語義信息進行高效率采樣;(3)ExfuseNet模型缺失了隨機丟棄層,可能會導致模型泛化力不足。以上不利因素阻止了ExfuseNet模型的進一步提升。

        為了解決這些問題,本文對ExfuseNet模型結(jié)構(gòu)進行改進。在細致解剖ExfuseNet模型結(jié)構(gòu)后發(fā)現(xiàn),原多監(jiān)督模塊不僅使用了全局池化層,還使用了全連接層,這將導致下采樣得到的特征圖分辨率進一步下降,并大幅度增加模型的參數(shù)量。為了解決原多監(jiān)督模塊存在的弊端,本文在丟棄全局池化層和全連接層的基礎(chǔ)上,改用了不同卷積率的帶孔卷積,在保證分辨率的前提下增大了感受野,減少了模型參數(shù)量的引進,使得邊緣分割更加平滑。為了使主輸出部分和多監(jiān)督部分的權(quán)重之比為9∶1,本文中,多監(jiān)督模塊輸出的Pediction 0~3各占總預(yù)測的2.5%。實驗中發(fā)現(xiàn),在語義嵌入模塊后的輸出張量擁有過多通道數(shù),若不降低通道數(shù),則會增加模型的計算負擔并降低模型的泛化力,于是在這些模塊后面加入了隨機丟棄層[12],這樣既降低了模型計算參數(shù),也提高了泛化力。此外,原主輸出模塊直接將特征融合后的結(jié)果進行輸出的方法并不理想。本文實驗中,在主輸出模塊后添加了由通道和空間串聯(lián)起來的注意力機制模塊[13],從而能夠更高效地對感興趣目標類的深度語義信息進行采樣提取。這里主輸出模塊的輸出占總預(yù)測的90%。改進的ExfuseNet整體結(jié)構(gòu)如圖3所示。改進的多監(jiān)督模塊(SS+)如圖4所示。

        圖3 改進的ExfuseNetFigure 3. The improved ExfuseNet

        圖4 改進的多監(jiān)督模塊(SS+)Figure 4. The improved multi-supervision module (SS+)

        1.4 CBAM注意力機制模塊

        文獻[14]在下采樣操作之后(模塊頭部)使用全局注意力機制來消除圖像背景噪聲所產(chǎn)生的干擾,提高對邊緣的感知性能。改進后的模型在模塊尾部采用CBAM注意力機制,更高效地采樣到感興趣目標類的深度語義信息,提升了模型分類性能。卷積模塊的注意力機制模塊如圖5所示,是一種結(jié)合了空間和通道的注意力機制模塊。通道注意力機制模塊如圖6所示,將輸入特征圖分別輸入到基于寬度和長度的全局最大池化層和全局平均池化層;然后再一起輸入到多層感知器里(Multilayer Perceptron,MLP),將MLP輸出的特征進行基于逐個像素相加(Elementwise加法)操作,再經(jīng)過Sigmoid激活操作,生成通道注意力特征圖;最后將該通道注意力特征圖和輸入特征圖做Elementwise乘法操作,生成空間注意力模塊需要的輸入特征。圖7表示空間注意力機制模塊,本文將通道注意力模塊輸出的特征圖作為空間注意力模塊的輸入特征圖。首先做基于通道的全局最大池化和全局平均池化,然后將這兩個結(jié)果基于通道做Concat操作;然后經(jīng)過一個卷積操作,降維為1個通道,再經(jīng)過Sigmoid激活生成空間注意力特征圖;最后將該空間注意力特征圖和該模塊的輸入通道注意力特征圖做逐個像素相乘的操作(Elementwise乘法)。

        圖5 卷環(huán)模塊的注意力機制模塊Figure 5. Convolutional bock attention module

        圖6 通道注意力機制模塊Figure 6. Channel attention module

        圖7 空間注意力機制模塊Figure 7. Spatial attention module

        1.5 Focal Loss

        Focal Loss最初被應(yīng)用在目標檢測任務(wù)上,目的是為了解決類之間不平衡問題。鑒于語義分割和目標檢測任務(wù)有相似之處,因此,本文將該方法運用到文中提出的模型中。Focal Loss的計算如式(3)所示

        FL(pt)=-α(1-pt×pgroundtruth)γlog(pt)

        (3)

        式中,pt為該類在模型中的預(yù)測結(jié)果;pgroundtruth為該類的像素點總數(shù)與圖像中所有類像素點總數(shù)的比例;實驗中α取0.25,γ取2。

        2 實驗描述

        從以往的經(jīng)典模型實驗結(jié)果中可知,由于Pole類在Camvid數(shù)據(jù)集中面積占比小且密度低,故容易造成類不平衡,因此Pole類的分類準確度最低。隨著Pole類分類準確度提高,對應(yīng)模型的最終分割性能也會隨之提高。為了提高研究效率,本文實驗中選取Camvid數(shù)據(jù)集中12個感興趣類中最難分割的Pole類作為重點關(guān)注對象來進行研究。

        本文提出的模型是在Pytorch1.7.0框架上搭建的,采用NVIDIA GeForce RTX3080(10 GB)、因特爾酷睿i7十代處理器、32 GB運行內(nèi)存,操作系統(tǒng)為Windows 10,編程語言為Python3.6。優(yōu)化器使用的是Adam函數(shù),學習率為0.000 1,動量參數(shù)為0.9,權(quán)值衰減系數(shù)為0.000 2,Batchsize設(shè)置為6,一共訓練100個epoch,即迭代100次。一個epoch指代所有數(shù)據(jù)送入網(wǎng)絡(luò)后完成一次前向傳播及反向傳播的過程。

        2.1 評價標準

        在進行街景圖像分割時,需將圖像中每一個像素逐個分類,再將模型得到的預(yù)測圖跟標簽圖做像素級的對比計算。為了客觀地評價提出的模型的性能,采用兩個評價標準作為衡量模型性能的指標,分別為Pole類像素精度(Class_Pole _ACC)和均交并比(Mean Intersection Over Union,MIOU)。其中,均交并比是這類任務(wù)中最重要的指標,可以客觀地反映出模型的性能優(yōu)劣能。兩種指標的計算式如式(4)和式(5)所示。

        (4)

        (5)

        式中,在本實驗重新制作的class_dict文件里,Pole屬于第3個類別,故式(4)中K取2;Pij表示本屬于類i但被預(yù)測為類j的像素數(shù)量,即Pii表示真正的數(shù)量,而Pij和Pji則分別被解釋為假正或假負;由于Camvid數(shù)據(jù)集共有12類,故在式(5)中K取11。

        2.2 主觀分析

        圖8展示了改進模型與ExfuseNet模型的部分圖像的分割結(jié)果對比圖,其中圖8(a)為原始圖,圖8(b)為人工標注的標簽,圖8(c)為ExfuseNet模型分割結(jié)果圖,圖8(d)為改進后模型的分割結(jié)果圖。在圖8中,改進模型前后需要重點對比的區(qū)域已用不同形狀的外框進行了突顯,可以很直觀地看到圖8(c)中矩形框內(nèi)Pole類區(qū)域預(yù)測結(jié)果并不精確,而圓框和三角框內(nèi)邊緣則不夠平滑。圖8(d)則顯示這些瑕疵得到了部分改善。上述結(jié)果表明:(1)本模型更容易學習到那些低面積占比且密度低的感興趣目標的深度語義特征;(2)邊緣分割更加平滑;(3)本模型具備了一定的類平衡功能;(4)本模型對光線強度有一定的泛化能力。

        (a) (b) (c) (d)圖8 分割結(jié)果對比圖(a)原始圖 (b)人工標注圖 (c)ExfuseNet分割結(jié)果 (d)改進后分割結(jié)果Figure 8. Comparison of segmentation results(a)Original image (b)Manually annotated image (c)Results of ExfuseNet (d)Segmentation results after improvement

        表1展示了確定模型的過程,實驗通過加減模塊來研究搭建出來的模型性能優(yōu)劣,一共有6個備選模型,從實驗得出的性能指標上來看的話,最終決定5號模型作為改進模型。

        2.3 客觀分析

        為了客觀評價改進的模型的性能,本文將改進的模型與國內(nèi)外不同文獻的Pole類分類方法的準確率、均交并比進行了對比。圖9和圖10分別為改進模型與外文文獻方法的對比結(jié)果,表2為改進的模型與國內(nèi)文獻方法的對比。從圖9和圖10中可以看出,相較國外ExfuseNet、SegNet、VGG_UNet、FCN、GCN來說,改進模型的收斂速度雖然較慢,但其Pole類分類準確率比上述模型有明顯優(yōu)勢。通過圖10可知,相較于改進前,改進后模型的性能指標得到了明顯提高。

        圖9 Pole類準確率對比圖Figure 9. Accuracy rate comparison chart of class Pole

        圖10 均交并比對比圖Figure 10. The diagram of MIOU comparison

        表1 搭建本文模型的過程

        由圖9、圖10和表2還可以看出,改進后的ExfuseNet模型在Pole類的分類準確率領(lǐng)先現(xiàn)有的部分國內(nèi)外模型。因此,從Pole低面積占比且低密度分布(最難類)的分類準確率可以判定模型在Camvid數(shù)據(jù)集中的整體表現(xiàn)優(yōu)劣。實驗結(jié)果表明Pole類分類準確率和模型最終的均交并比呈正相關(guān)關(guān)系,即在Pole類分類準確率上做提升可以使算法整體性能提升。如表3所示,相較ExfuseNet模型,改進后的模型的反應(yīng)速度提高了58%,表明模型改進后參數(shù)量有所減少。

        表2 本文模型與國內(nèi)模型性能數(shù)據(jù)對比

        表3 反應(yīng)時間對比

        3 結(jié)束語

        為改善ExfuseNet模型對街景圖中面積占比和像素密度較低的類別的分割表現(xiàn),并對其中具有代表性的Pole類的類準確率、分割平滑度、均交并比等分割指標進行提升。本文使用不同卷積率的帶孔卷積,在保證分辨率的前提下增大了感受野,提升了算法對于Pole類的定位能力以及對該類的邊緣處理能力;在主輸出后面加入了由通道和空間串聯(lián)起來的注意力機制模塊,從而更高效地采樣到Pole類的深度語義信息,提升了Pole類的分類能力;使用了Focal Loss類平衡函數(shù)改善數(shù)據(jù)集里Pole類不平衡的問題。實驗結(jié)果證明了改進后的模型的有效性。但從長遠發(fā)展來看,想要使自動駕駛技術(shù)能夠?qū)嶋H落地應(yīng)用,在相關(guān)性能指標上需要有更高的要求,對模型各方面的指標要求也應(yīng)更加嚴格。這意味著仍需對未來提出的模型在整體分割性能上進行提高。因此,從更有效的角度切入,并解決自動駕駛技術(shù)實際落地應(yīng)用的問題是現(xiàn)代街景語義分割研究領(lǐng)域里的首要任務(wù)。

        猜你喜歡
        語義特征模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        語言與語義
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        3D打印中的模型分割與打包
        “上”與“下”語義的不對稱性及其認知闡釋
        認知范疇模糊與語義模糊
        亚洲最大一区二区在线观看| 99精品一区二区三区免费视频| 久久亚洲av成人无码软件| 日本黄色特级一区二区三区| 亚洲天堂丰满人妻av| 性大毛片视频| 久久青草伊人精品| 国内自拍视频在线观看h| 漂亮丰满人妻被中出中文字幕| 亚洲精品无码久久久| 亚洲人成网站77777在线观看| 强d漂亮少妇高潮在线观看| 日韩人妻久久中文字幕| 精品国产一区二区三区av性色| 乱码午夜-极品国产内射| 巨臀精品无码AV在线播放| 亚洲一区二区三区重口另类| 国产无夜激无码av毛片| 两个黑人大战嫩白金发美女| 99精品国产成人一区二区在线| 青青草在线这里只有精品| 国产精品久久久久久久妇| 狠狠色噜噜狠狠狠97影音先锋| 日产精品一区二区在线| 国产青青草在线观看视频| 亚洲精品第一国产综合亚av| 国产亚洲精品日韩综合网| 亚洲av毛片在线播放| 亚洲成a人v欧美综合天堂 | 国产亚洲日韩一区二区三区| 亚洲乱色视频在线观看| 亚洲中文av中文字幕艳妇| 女人喷潮完整视频| 午夜无码一区二区三区在线| 按摩偷拍一区二区三区| 亚洲av无码一区二区三区网址| 学生妹亚洲一区二区| 国产精品成人久久一区二区| 不卡日韩av在线播放| 亚洲自偷自拍熟女另类| 3亚洲日韩在线精品区|