亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種輕量化非結(jié)構(gòu)化道路語(yǔ)義分割神經(jīng)網(wǎng)絡(luò)

        2023-04-29 13:02:59金汝寧趙波李洪平
        關(guān)鍵詞:池化空洞結(jié)構(gòu)化

        金汝寧 趙波 李洪平

        非結(jié)構(gòu)化道路由于沒有明顯車道線且道路特征多、地域差異大,現(xiàn)有的結(jié)構(gòu)化道路分割方法無法滿足非結(jié)構(gòu)化道路分割在實(shí)際應(yīng)用中的實(shí)時(shí)性與準(zhǔn)確性要求.為了解決上述難點(diǎn),本文基于DeepLabv3+網(wǎng)絡(luò)提出一種G-lite-DeepLabv3+網(wǎng)絡(luò)結(jié)構(gòu),使用Mobilenetv2網(wǎng)絡(luò)替換解碼器中的Xception特征提取網(wǎng)絡(luò),并通過在Mobilenetv2網(wǎng)絡(luò)與空洞空間金字塔池化模塊中使用分組卷積替換普通卷積,且有選擇地取舍批規(guī)范層來減少參數(shù)量,在不影響精度的同時(shí)提升分割效率.同時(shí)針對(duì)非結(jié)構(gòu)化道路在圖像里分布位置相對(duì)較固定的特點(diǎn),引入注意力機(jī)制對(duì)高級(jí)語(yǔ)義特征進(jìn)行處理,提升網(wǎng)絡(luò)對(duì)有用特征的敏感度與準(zhǔn)確性.選用與我國(guó)非結(jié)構(gòu)化道路路況相似的印度道路駕駛IDD進(jìn)行訓(xùn)練,并與其他經(jīng)典語(yǔ)義分割網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)對(duì)比,結(jié)果表明,相比于其他網(wǎng)絡(luò),本文提出的G-lite-DeepLabv3+準(zhǔn)確率與實(shí)時(shí)性均表現(xiàn)較好、誤分割與邊緣清晰度均好于對(duì)照網(wǎng)絡(luò);與經(jīng)典算法進(jìn)行對(duì)比,平均交并比mIoU提升1.3%,平均像素精度提升6.2%,幀率提升22.1%.

        語(yǔ)義分割; 非結(jié)構(gòu)化道路; 分組卷積; 注意力機(jī)制

        U461A2023.012003

        收稿日期: 2022-02-22

        基金項(xiàng)目: 四川省重大科技專項(xiàng)項(xiàng)目(2020YFSY0058)

        作者簡(jiǎn)介: 金汝寧(1998-), 男, 遼寧錦州人, 碩士研究生, 主要從事圖像處理研究. E-mail: 872995841@qq.com

        通訊作者: 趙波. E-mail: zhaobo@scu.edu.cn

        A lightweight unstructured road semantic segmentation neural network

        JIN Ru-Ning1, ZHAO Bo1,2,3, LI Hong-Ping1

        (1. School of Mechanical Engineering, Sichuan University, Chengdu 610065, China;

        2.State Key Laboratory of Mining Equipment and Intelligent Manufacturing, Taiyuan Heavy Machinery Group Co., Ltd, Taiyuan 030024, China;

        3. Sichuan Provincial Collaborative Innovation Center for Intelligent Agricultural Machinery in Hilly Areas, Deyang 618000, China)

        In unstructured roads, there is no obvious lane line, many road characteristics and large regional differences. As a result, the existing structured road segmentation methods can not meet the real-time and accuracy requirements of unstructured road segmentation in practical application.To solve these problems, a new neural network called G-lite-DeepLabv3+ is proposed based on the DeepLabv3+ network. Specifically, the Xception network is replaced by the Mbilenetv2 network in the decoder, the convolutions in Mobilenetv2 and ASPP are replaced by group convolution and the batchnorm layer is chosen selectively to reduce the amount of parameters, improving the segmentation efficiency without affecting the accuracy; at the same time, attention mechanism is introduced to deal with high-level semantic features to improve the sensitivity and accuracy of the network to useful features, considering relatively fixed distribution position of unstructured roads in the image. India driving dataset(IDD) is chosen to train the model taking into account that the roads included in the dataset are similar to the unstructured road in China. The established model is compared with other classical semantic segmentation networks, and the results show that the accuracy and real-time performance of g-lite-deeplabv3+ proposed in this paper are better than those of other networks. The proposed network also outperforms other networks on the indices of improper segmentation and edge clarity. Compared with the traditional network, the mean Intersection over Union(mIoU) is improved by 1.3%; the average pixel accuracy(mPA) is improved by 6.2% and the frame per second (FPS) is improved by 22.1%.

        Semantic segmentation; Unstructured road; Group convolution; Attention mechanism

        1 引 言

        目前,自動(dòng)駕駛技術(shù)發(fā)展迅速,其中最重要的核心技術(shù)之一就是對(duì)可通行區(qū)域的劃分.對(duì)于具有清晰的道路標(biāo)志線的結(jié)構(gòu)化道路的分割在現(xiàn)階段較為成熟,Lu等[1]利用結(jié)構(gòu)化交通環(huán)境中車道具有平行的線性邊緣作為可通行區(qū)域檢測(cè)的依據(jù),提出一種基于灰度特征的識(shí)別方法;為減輕光照變化和陰影對(duì)檢測(cè)結(jié)果的影響,Yuji等[2]利用大部分道路邊界存在朝向擴(kuò)張中心的邊緣點(diǎn)都位于道路邊界的特征,提出了一種基于車道標(biāo)志線的分割方法.但以上方法并不適用于非結(jié)構(gòu)化道路檢測(cè),原因是非結(jié)構(gòu)化道路缺乏可識(shí)別的車道線,沒有清晰的道路邊緣,背景差異性較大[3],難以完成檢測(cè)任務(wù).近年來,深度學(xué)習(xí)的出現(xiàn)為非結(jié)構(gòu)化道路檢測(cè)提供了新思路.語(yǔ)義分割作為一種熱門的研究方向,以準(zhǔn)確率較高,算法簡(jiǎn)便,魯棒性較好成為最適合可通行區(qū)域檢測(cè)的一種方法,其中全卷積網(wǎng)絡(luò)FCN(Fully Convolutional Networks)[4]實(shí)現(xiàn)了端到端的語(yǔ)義分割,大大提升了卷積神經(jīng)網(wǎng)絡(luò)的泛化能力.為了提升分割精度,學(xué)者們?cè)贔CN的基礎(chǔ)上進(jìn)行了一系列改進(jìn).SegNet[5]改進(jìn)了上采樣過程,使用記錄下來的最大池化的索引來對(duì)其做上采樣處理,使分割精度大大提高.DeepLabv1[6]通過使用條件隨機(jī)場(chǎng)CRF(Conditional Random Field)[7]處理FCN得到的分割結(jié)果,優(yōu)化邊界細(xì)節(jié).DeepLabv2[8]使用空洞卷積代替原Deeplabv1中的上采樣方法,并且提出空洞空間金字塔模塊(Atrous Spatial Pyramid Pooling,ASPP),在減少參數(shù)量的同時(shí)增加準(zhǔn)確率.DeepLabv3[9]對(duì)空洞空間金字塔模塊進(jìn)行了優(yōu)化,使其能夠更好的捕捉多尺度信息.DeepLabv3+[10]在DeepLabv3的基礎(chǔ)上引入了編碼器-解碼器結(jié)構(gòu),能夠更好地融合低級(jí)語(yǔ)義特征與高級(jí)語(yǔ)義特征.PSPNet[11]提出了金字塔池化模塊,能夠充分利用上下文信息.UNet[12]提出了U型結(jié)構(gòu),可在使用數(shù)量更少數(shù)據(jù)集的同時(shí),不降低分割精度.

        由于非結(jié)構(gòu)化道路具有特征多、分布范圍廣、地域差異大以及對(duì)環(huán)境因素敏感等特點(diǎn)[13],若想使用上述語(yǔ)義分割網(wǎng)絡(luò)進(jìn)行識(shí)別,不但需要大量、種類豐富的非結(jié)構(gòu)化道路數(shù)據(jù)集,而且對(duì)網(wǎng)絡(luò)結(jié)構(gòu)也需要做針對(duì)性修改,否則過深的網(wǎng)絡(luò)會(huì)導(dǎo)致實(shí)時(shí)性差和過擬合的現(xiàn)象.本文選擇分割精度較高,魯棒性較強(qiáng),結(jié)構(gòu)相對(duì)簡(jiǎn)潔的DeepLabv3+網(wǎng)絡(luò)進(jìn)行針對(duì)性改進(jìn),具體工作有:(1) 將DeepLabv3+網(wǎng)絡(luò)的backbone由Xception[14]替換為MobileNetv2[15],減輕網(wǎng)絡(luò)結(jié)構(gòu),提升特征提取速度,防止過擬合現(xiàn)象的發(fā)生;(2) 在MobileNetv2與空洞空間金字塔模塊中使用分組卷積[16]替換傳統(tǒng)卷積,并且刪除批規(guī)范層[17],在不影響精度的情況下減少參數(shù)量與計(jì)算量,提升分割效率;(3) 在空洞空間金字塔模塊后加入注意力模塊,提升網(wǎng)絡(luò)識(shí)別速度與精度.

        2 網(wǎng)絡(luò)結(jié)構(gòu)

        圖像可以看成是一種像素的合集,而語(yǔ)義分割的本質(zhì)是一種對(duì)屬于特定標(biāo)簽的每個(gè)像素進(jìn)行分類的任務(wù).目前在街景語(yǔ)義分割任務(wù)中效果比較好的結(jié)構(gòu)是編碼-解碼結(jié)構(gòu),其中編碼器的功能主要是提取特征,解碼過程主要是根據(jù)解碼器提取的特征對(duì)像素進(jìn)行分類.

        本文選取對(duì)街景語(yǔ)義分割較好,結(jié)構(gòu)較為簡(jiǎn)單,分割速度較快的DeepLabv3+網(wǎng)絡(luò)進(jìn)行針對(duì)性改進(jìn).因?yàn)樵鎎ackbone為Xception的網(wǎng)絡(luò)在進(jìn)行本文的任務(wù)時(shí)會(huì)出現(xiàn)過擬合現(xiàn)象,且速度達(dá)不到實(shí)時(shí)性要求,所以首先將backbone替換成經(jīng)過輕量化改造的MobileNetv2網(wǎng)絡(luò),在避免網(wǎng)絡(luò)過深出現(xiàn)過擬合現(xiàn)象的同時(shí),提升特征提取效率.為提升分割效率,對(duì)空洞空間金字塔池化結(jié)構(gòu)進(jìn)行輕量化改進(jìn).同時(shí),為了提升解碼器對(duì)目標(biāo)區(qū)域的敏感度,在編碼器的空洞空間金字塔池化結(jié)構(gòu)后引入注意力模塊,然后用解碼器融合高級(jí)、低級(jí)特征圖并對(duì)像素進(jìn)行分類.完整網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示.

        圖1 G-Lite-Deeplabv3+結(jié)構(gòu)

        Fig.1 The structure of G-Lite-Deeplabv3+

        2.1 分組卷積

        為了減少參數(shù)量,提高網(wǎng)絡(luò)效率,本文受文獻(xiàn)[16]啟發(fā),采用了分組卷積替換了MobileNetv2與空間金字塔結(jié)構(gòu)中的普通卷積操作.分組卷積操作是在對(duì)特征圖進(jìn)行卷積時(shí),先對(duì)特征圖分組后,再卷積,其原理如圖2所示.若一個(gè)未分組的網(wǎng)絡(luò)得輸入特征圖尺寸為C×W×H,卷積核的組數(shù)為N,卷積核尺寸為C×K×K,若想輸出N組特征圖,則需要學(xué)習(xí)C×K×K×N個(gè)參數(shù),若將特征圖分為G組,則只需要學(xué)習(xí) (C/G)×K×K×N 個(gè)參數(shù),總參數(shù)量降為原來的1/G.同時(shí),分組卷積也可以看作是對(duì)原來的特征圖進(jìn)行了一個(gè)dropout,有正則化的效果,避免出現(xiàn)過擬合現(xiàn)象.

        (a) 普通卷積 (b) 分組卷積

        圖2 分組卷積原理圖

        Fig.2 The schematic diagram of groups convolution

        2.2 輕量化backbone

        在本文中,新網(wǎng)絡(luò)的backbone采用了MobileNetv2網(wǎng)絡(luò)主要模型結(jié)構(gòu),具體結(jié)構(gòu)如表1所示.

        表1中,H2為輸入圖像的像素?cái)?shù)量;C為輸入通道數(shù);t為輸入通道的倍增系數(shù);n為此尺寸的Lite-bottleneck的重復(fù)次數(shù);s為各個(gè)Lite-bottleneck模塊第一次重復(fù)時(shí)的卷積步長(zhǎng).

        此結(jié)構(gòu)中,Lite-bottleneck是本文提出的一種對(duì)原bottleneck的輕量化改進(jìn).Lite-bottleneck與原bottleneck原理相同,可以分為“升維層”、“卷積層”、“降維層”.首先,使用升維層中的1×1卷積將特征圖的空間維度提升,再經(jīng)過卷積層3×3的深度可分離卷積提取每個(gè)通道特征圖的特征,最后經(jīng)過1×1卷積將其降維.其中,“升維層”和“卷基層”的激活函數(shù)為ReLU函數(shù),為了防止ReLU函數(shù)破壞壓縮后的特征,“降維層”后的激活函數(shù)使用Linear函數(shù),如圖3所示.不同的是,Lite-bottleneck將“升維層”和“降維層”中的普通卷積替換成了組數(shù)為2的分組卷積,減少參數(shù)量;同時(shí),因?yàn)榉纸M卷積可以在較淺網(wǎng)絡(luò)中防止過擬合現(xiàn)象的發(fā)生,所以將Lite-bottleneck中的批規(guī)范層刪除,減少計(jì)算量.在提取特征的過程中,將尺寸為1282×24的特征圖輸出作為低級(jí)語(yǔ)義特征輸入到解碼器中,將最后得到特征圖輸入空洞空間金字塔池化結(jié)構(gòu)中.網(wǎng)絡(luò)的具體算法如表2所示.若輸入圖像為X,bottleneck總共有N層,則有如下運(yùn)算過程.

        新結(jié)構(gòu)與DeepLabv3+的原主干網(wǎng)絡(luò)Xception相比,大大降低的網(wǎng)絡(luò)深度與參數(shù)量,更加適合本文的實(shí)時(shí)非結(jié)構(gòu)化道路檢測(cè)任務(wù).

        2.3 融合注意力機(jī)制的輕量化空洞空間金字塔池化模塊

        為了擴(kuò)大感受野,并提取多尺度特征圖,DeepLabv3+網(wǎng)絡(luò)中使用了空洞空間金字塔結(jié)構(gòu),其中采用了不同空洞率的空洞卷積,在參數(shù)量不變的情況下提取不同尺度大特征圖,可以更好地檢測(cè)類似道路這種大目標(biāo),同時(shí),可以捕獲多尺度上下文信息,更加精確地定位目標(biāo).圖片經(jīng)過空間金字塔池化后輸出維度統(tǒng)一且信息充足的特征圖[18].為了加速分割進(jìn)程,實(shí)現(xiàn)實(shí)時(shí)檢測(cè)的功能,本文提出了一種輕量化空洞空間金字塔池化模塊,將空洞卷積替換為組數(shù)為2的空洞分組卷積,在減少參數(shù)量的同時(shí)承擔(dān)批規(guī)范層的作用,再刪掉批規(guī)范層以減少計(jì)算量.將經(jīng)過輕量化空洞空間金字塔池化模塊的特征圖融合在一起,用1×1的卷積調(diào)整通道數(shù),再經(jīng)過注意力模塊.

        注意力模塊可以通過賦予像素不同的權(quán)重來達(dá)到將調(diào)整整個(gè)網(wǎng)絡(luò)關(guān)注重點(diǎn),提升識(shí)別效果與效率.本文中的注意力模塊由通道注意力模塊與空間注意力模塊串聯(lián)而成.通道注意力模塊可以關(guān)注輸入特征有意義的部分,空間注意力模塊則可以獲取場(chǎng)景中的全局信息[19,20].

        通道注意力模塊的結(jié)構(gòu)如圖4所示.輸入特征X首先經(jīng)過全局平均池化和全局最大池化,得到兩組尺寸為1×1的特征圖Xcavg、Xcmax,再將它們分別送入兩層全連接神經(jīng)網(wǎng)絡(luò),此兩層全連接神經(jīng)網(wǎng)絡(luò)對(duì)于兩組特征圖是共享參數(shù)的,然后將得到的兩組特征圖相加,通過Sigmoid函數(shù)得到0到1之間的權(quán)重系數(shù),將其與特征圖相乘得到優(yōu)化過的特征圖.用W0和W1分別表示共享網(wǎng)絡(luò)隱藏層(Shared MLP)的兩層參數(shù),用σ表示Sigmoid函數(shù),可以得到通道注意力計(jì)算公式如下式.

        Mc(X)=σ(MLP(AvgPool(X))+

        MLP(MaxPool(X)))=σ(W1(W0(Xcavg))+

        W1(W0(Xcmax)))(1)

        空間注意力模塊結(jié)構(gòu)如圖5所示.將經(jīng)過通道注意力模塊優(yōu)化的特征圖X輸入,首先分別經(jīng)過只有一個(gè)通道維度的最大池化和平均池化,將得到的兩個(gè)特征圖Xsavg、Xsmax拼接起來,再經(jīng)過一個(gè)卷積層,將為一個(gè)通道,采用7×7的卷積核進(jìn)行卷積操作,同時(shí)保持特征圖尺寸不變,將得到的特征圖通過Sigmoid函數(shù)生成空間權(quán)重系數(shù),將其與輸入的特征圖相乘得到最終的特征圖.計(jì)算公式如下式.

        Ms(X′)=σ(f 7×7([AvgPool(X′);

        MaxPool(X′)]))=σ(f7×7([Xsavg;Xsmax])) (2)

        2.4 解碼器

        首先將編碼器輸出的高級(jí)語(yǔ)義特征進(jìn)行4倍上采樣,將其尺寸恢復(fù)到與低級(jí)語(yǔ)義特征相同的124×124,然后將低級(jí)語(yǔ)義特征XLowLevel-Feature與高

        級(jí)語(yǔ)義特征XHighLevel-Feature串聯(lián)到一起,使用3×3的卷積細(xì)化特征,將其變?yōu)?個(gè)通道的特征圖,最后使用4倍上采樣完成解碼過程,得到預(yù)測(cè)結(jié)果.具體算法如表3所示.

        3 數(shù)據(jù)集

        非結(jié)構(gòu)化道路檢測(cè)任務(wù)不同于高速公路、城市干道等具有清晰道路標(biāo)志線的結(jié)構(gòu)化道路檢測(cè)任務(wù)可以把檢測(cè)任務(wù)簡(jiǎn)化為車道線或道路邊界檢測(cè),它沒有明顯的車道線與清晰的道路邊界,傳統(tǒng)城市街景語(yǔ)義分割數(shù)據(jù)集并不適用于非結(jié)構(gòu)化道路識(shí)別.經(jīng)過對(duì)比Cityscapes等其他街景語(yǔ)義分割數(shù)據(jù)集后,印度道路駕駛數(shù)據(jù)集(India Driving Dataset,IDD )更加適合訓(xùn)練非結(jié)構(gòu)化道路檢測(cè)的任務(wù).印度道路駕駛數(shù)據(jù)集包含34個(gè)類別,像素尺寸為1920×1080.經(jīng)過挑選,選出了6792張符合要求的街景圖片,如圖6所示.針對(duì)印度道路駕駛數(shù)據(jù)集涵蓋種類較多,對(duì)其進(jìn)行有針對(duì)性的改造,將road類與parking類劃分為可通行區(qū)域,其余32個(gè)類別劃分為不可通行區(qū)域.將篩選后的6792張圖片按8∶1∶1的比例隨機(jī)分為訓(xùn)練集、驗(yàn)證集與預(yù)測(cè)集.訓(xùn)練集用于訓(xùn)練網(wǎng)絡(luò)參數(shù),驗(yàn)證集用于反饋訓(xùn)練結(jié)果、及時(shí)調(diào)整網(wǎng)絡(luò)參數(shù),預(yù)測(cè)集用于評(píng)估訓(xùn)練得到的網(wǎng)絡(luò)的好壞.

        4 訓(xùn)練細(xì)節(jié)參數(shù)和損失函數(shù)

        4.1 網(wǎng)絡(luò)參數(shù)

        本文網(wǎng)絡(luò)的訓(xùn)練環(huán)境為:操作系統(tǒng):Windows 10專業(yè)版;CPU:Intel(R) Core(TM) i5-10400F;內(nèi)存:16 GB;GPU:Ge Force RTX 3060,顯存為12 GB.使用PyTorch 深度學(xué)習(xí)框架,采用名為Adam的一種自適應(yīng)學(xué)習(xí)率的算法更新神經(jīng)網(wǎng)絡(luò)的權(quán)重.在訓(xùn)練中,batchsize=8;圖片為jpg格式,標(biāo)簽為png格式.初始學(xué)習(xí)率為0.000 001,權(quán)重衰減為0.0005.

        4.2 損失函數(shù)

        損失函數(shù)通常被用來估計(jì)模型的預(yù)測(cè)值與真實(shí)值的擬合程度,它是一個(gè)非負(fù)的實(shí)值函數(shù),損失函數(shù)越小,模型的魯棒性就越強(qiáng).非結(jié)構(gòu)化道路屬于一種二分類任務(wù),通常所采用的交叉熵函數(shù)不能很好地處理類別不平衡的現(xiàn)象,不能有效地監(jiān)督網(wǎng)絡(luò),因此采用Dice系數(shù)差異函數(shù)(Dice-loss)[21]來表示訓(xùn)練中的語(yǔ)義分割效果,它可以懲罰低置信度的預(yù)測(cè),如果置信度較高,就會(huì)得到較小的Dice系數(shù)差異函數(shù).Dice系數(shù)是一種集合相似度的度量函數(shù),常被用于計(jì)算兩個(gè)矩陣的相似度.其計(jì)算方法如式(3)所示.

        s=2|X∩Y||X|+|Y|(3)

        就語(yǔ)義分割的問題而言,其中X為標(biāo)簽圖像;Y為預(yù)測(cè)輸出圖;|X∩Y|可以近似為將預(yù)測(cè)圖與分割圖之間的點(diǎn)乘,并將結(jié)果的元素結(jié)果相加的和.對(duì)于|X|和|Y|的量化計(jì)算則可以采用簡(jiǎn)單的元素相加.最終得到Dice系數(shù)差異函數(shù)如下式.

        LDice=1-2X∩YX+Y(4)

        5 實(shí)驗(yàn)結(jié)果與分析

        使用上述配置對(duì)挑選的印度道路駕駛數(shù)據(jù)集進(jìn)行訓(xùn)練,訓(xùn)練從第49個(gè)epoch開始收斂,訓(xùn)練集和驗(yàn)證集的Dice-loss分別穩(wěn)定在0.074與0.062.此外,在相同的訓(xùn)練配置與環(huán)境下,將本文網(wǎng)絡(luò)分別與文獻(xiàn)[13]、PSPNet、UNet和以Mobilenetv2為backbone的DeepLabv3+網(wǎng)絡(luò)進(jìn)行對(duì)比,對(duì)比結(jié)果如圖7所示.

        對(duì)比分割效果,可以看出,本文的算法最貼近于標(biāo)簽圖像,對(duì)于前三張圖的分割,文獻(xiàn)[13]雖然邊緣分割的比較好,但是容易出現(xiàn)誤分割,如第一張示例原圖與第二張示例原圖的分割結(jié)果所示,車輛上都出現(xiàn)了小塊誤分割,并且第二張示例原圖分割結(jié)果中的車輛下邊緣分割也并不十分精確,PSPNet雖然速度最快,但是分割精度比較差,邊緣細(xì)節(jié)丟失較多,無法準(zhǔn)確識(shí)別可通行區(qū)域與障礙物邊緣,UNet分割較為精準(zhǔn),但第二張示例原圖中的車輛下邊緣分割不準(zhǔn)確,而且分割速度較慢,對(duì)于第四張示例原圖,除了PSPNet,其余三種算法都可以勉強(qiáng)分割出左側(cè)土坑輪廓,但對(duì)于右側(cè)的路緣,文獻(xiàn)[13]、PSPNet和UNet都出現(xiàn)了不同程度的誤分割,而本文提出的G-lite-DeepLabv3+則沒有出現(xiàn)此情況.

        在同樣的環(huán)境與配置下使用挑選的印度道路駕駛數(shù)據(jù)集訓(xùn)練本文的G-lite-Deeplabv3+網(wǎng)絡(luò),并且與文獻(xiàn)[13]、PSPNet、UNet和以MobileNetv2為backbone的DeepLabv3+網(wǎng)絡(luò)進(jìn)行對(duì)比,對(duì)比標(biāo)準(zhǔn)有平均交并比(mIoU),可通行區(qū)域交并比(IoU),平均像素精度(mPA)和每秒幀數(shù)(FPS).由表4可知,由于融合了注意力機(jī)制并且再次進(jìn)行了輕量化,對(duì)比只使用MobileNetv2進(jìn)行輕量化后的DeepLabv3+網(wǎng)絡(luò),新網(wǎng)絡(luò)在平均交并比與可通行區(qū)域交并比的性能全面提升的情況下,平均像素精度提升6.2%,每秒幀數(shù)更是提升了22.1%,達(dá)到了39.4幀/s,滿足了非結(jié)構(gòu)化道路分割任務(wù)的實(shí)時(shí)性的要求.

        6 結(jié) 論

        為了更好地完成非結(jié)構(gòu)化道路識(shí)別的任務(wù),本文使用了經(jīng)過挑選的印度道路駕駛數(shù)據(jù)集,印度道路駕駛數(shù)據(jù)集與我國(guó)的非結(jié)構(gòu)化道路路況非常相似,經(jīng)過訓(xùn)練后,可以得到非常適合非結(jié)構(gòu)化道路路況的語(yǔ)義分割網(wǎng)絡(luò)模型.針對(duì)結(jié)構(gòu)化道路分割方法無法滿足非結(jié)構(gòu)化道路分割在實(shí)際應(yīng)用中所需的實(shí)時(shí)性與準(zhǔn)確性問題,本文提出了一種輕量化方法G-lite-DeepLabv3+.為了避免網(wǎng)絡(luò)過深產(chǎn)生過擬合現(xiàn)象且參數(shù)過多導(dǎo)致效率變低,文中使用MobileNetv2取代Xception作為特征提取網(wǎng)絡(luò),并在MobileNetv2與空洞空間金字塔池化模塊中使用分組卷積替換普通卷積并且合理取舍掉它們的批規(guī)范層,大大減少了網(wǎng)絡(luò)參數(shù)量,在不影響分割精度的同時(shí)提高了分割速度,滿足實(shí)時(shí)性的要求.同時(shí),為了放大非結(jié)構(gòu)化道路圖像分布的共同特性以提高分割精度,本文加入兩種串聯(lián)的注意力模塊處理空洞空間金字塔池化模塊輸出的高級(jí)圖像特征.實(shí)驗(yàn)表明,本文提出的G-lite-DeepLabv3+網(wǎng)絡(luò)在精度以及效率方面均優(yōu)于對(duì)照網(wǎng)絡(luò).為語(yǔ)義分割在非結(jié)構(gòu)化道路識(shí)別任務(wù)上的應(yīng)用提供了一定改進(jìn)依據(jù).

        參考文獻(xiàn):

        [1] Lu J Y, Yang M. Vision-based real-time road detection in urban traffic [J]. Physica A, 2002, 75:82.

        [2] Yuji O, Shoji M. Multitype lane markers recognition using local edge direction[C]//Proceedings of the IEEE Intelligent Vehicle Symposium. Changshu: Chinese Association of Automation, 2002.

        [3] 張凱航, 冀杰, 蔣駱, 等.基于 SegNet的非結(jié)構(gòu)道路可行駛區(qū)域語(yǔ)義分割[J].重慶大學(xué)學(xué)報(bào),2020,43: 79.

        [4] Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation [J]. IEEE T Pattern Anal, 2017, 39: 640.

        [5] Badrinarayanan V, Kendall A, Cipolla R. SegNet: a deep convolution encoder-decoder architecture for image segmentation[J]. IEEE T Pattern Anal, 2017, 39: 2481.

        [6] Chen L C, Papandreou G, Kokkinos I, et al. Semantic image segmentation with deep convolutional nets and fully connected CRFs [J]. Comput Sci, 2014, 4: 357.

        [7] Krhenbühl P, Koltun V. Efficient inference in fully connected CRFs with gaussian edge potentials [J].Adv Neural Inf Proc Syst, 2011, 2: 109.

        [8] Chen L C, Papandreou G, Kokkinos I, et al. Deeplab: semantic image segmentation with deep convolutional nets, atrousconvolution, and fully connected CRFs [J]. IEEE T Pattern Anal, 2018, 40: 834.

        [9] Chen L C, Papandreou G, Schroff F, et al. Rethinking atrous convolution for semantic image segmentation [J]. Computer Vision, 2017, 423: 438.

        [10] Chen L C, Zhu Y, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation [J]. Computer Vision, 2018, 833: 851.

        [11] Zhao H, Shi J, Qi X, et al. Pyramid scene parsing network [J]. IEEE Comt Socie, 2017, 211: 223.

        [12] Zhou Z, Siddiquee M M R, Tajbakhsh N, et al. UNet++: a nested U-Net architecture for medical image segmentation [J]. Comput Meth Prog Bio, 2018, 56: 64.

        [13] 龔志力, 谷玉海, 朱騰騰, 等.融合注意力機(jī)制與輕量化DeepLabv3+的非結(jié)構(gòu)化道路識(shí)別[J].微電子學(xué)與計(jì)算機(jī), 2022, 39: 26.

        [14] Chollet F. Xception: deep learning with depthwise separable convolutions[J].Ieice T Fund Electr, 2017, 32: 1952.

        [15] Sandler M, Howard A, Zhu M,et al. MobileNetv2: inverted residuals and linear bottlenecks [C]//Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE, 2018, 26: 1481.

        [16] Ioannou Y, Robertson D, Cipolla R,et al. Deep roots: improving CNN efficiency with hierarchical filter groups [J]. Ieice T Fund Electr, 2017, 35: 1542.

        [17] Ioffe S, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift [J].Ieice T Fund Electr, 2015, 21, 1054.

        [18] 王卜, 何揚(yáng). 基于改進(jìn)YOLOv3的交通標(biāo)志檢測(cè)[J]. 四川大學(xué)學(xué)報(bào): 自然科學(xué)版, 2022, 59: 012004.

        [19] 晉儒龍, 卿粼波, 文虹茜. 基于注意力機(jī)制多尺度網(wǎng)絡(luò)的自然場(chǎng)景情緒識(shí)別[J]. 四川大學(xué)學(xué)報(bào): 自然科學(xué)版, 2022, 59: 012003.

        [20] 蔡英鳳, 朱南楠, 邰康盛, 等. 基于注意力機(jī)制的車輛行為預(yù)測(cè)[J]. 江蘇大學(xué)學(xué)報(bào):自然科學(xué)版, 2020, 41: 125.

        [21] 田寶園, 程懌, 蔡葉華, 等. 基于改進(jìn)U- Net深度網(wǎng)絡(luò)的超聲正中神經(jīng)圖像分割[J]. 自動(dòng)化儀表, 2020, 41: 36.

        猜你喜歡
        池化空洞結(jié)構(gòu)化
        基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識(shí)別方法研究
        無線電工程(2024年8期)2024-09-16 00:00:00
        基于Sobel算子的池化算法設(shè)計(jì)
        卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
        促進(jìn)知識(shí)結(jié)構(gòu)化的主題式復(fù)習(xí)初探
        結(jié)構(gòu)化面試方法在研究生復(fù)試中的應(yīng)用
        基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
        空洞的眼神
        用事實(shí)說話勝過空洞的說教——以教育類報(bào)道為例
        新聞傳播(2015年20期)2015-07-18 11:06:46
        基于圖模型的通用半結(jié)構(gòu)化數(shù)據(jù)檢索
        基于軟信息的結(jié)構(gòu)化轉(zhuǎn)換
        免费日本一区二区三区视频| 中文字幕精品永久在线| 国产精品二区在线观看| 乱子伦av无码中文字幕| 国产精品自线在线播放| 亚洲高清av一区二区| av是男人的天堂免费| 亚洲国产av一区二区三区| 强开小婷嫩苞又嫩又紧视频| 国产乱子伦农村xxxx| av无码久久久久不卡网站下载| 美女视频一区| 亚洲人妻中文字幕在线视频| 日本在线一区二区三区视频| 亚洲人妻调教中文字幕| 亚洲日韩av无码一区二区三区人| 公粗挺进了我的密道在线播放贝壳| 午夜AV地址发布| 欧美精品久久久久久三级| 亚洲一区二区不卡日韩| 精品一区二区三区亚洲综合| 在线免费观看黄色国产强暴av| 国产精品videossex久久发布 | 97久久国产亚洲精品超碰热| 欧美一区二区三区久久综| ā片在线观看| 日本少妇按摩高潮玩弄| 又爽又猛又大又湿的视频| 伊人久久精品亚洲午夜| 国产97在线 | 中文| 在线免费毛片| 免费国人成人自拍视频| 91九色最新国产在线观看| 国产成人综合美国十次| 亚洲欧美激情精品一区二区| 在线观看欧美精品| 国产目拍亚洲精品一区二区| 在线女同免费观看网站| 极品嫩模大尺度av在线播放| 女女互揉吃奶揉到高潮视频| 麻豆成人在线视频|