亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)深度可分離卷積的SSD車型識(shí)別

        2021-06-24 08:33:38融,王芳,劉
        重慶大學(xué)學(xué)報(bào) 2021年6期
        關(guān)鍵詞:特征提取深度特征

        郭 融,王 芳,劉 偉

        (太原理工大學(xué) 電氣與動(dòng)力工程學(xué)院,太原 030024)

        隨著人民生活水平的提高,汽車成了生活中人們常見(jiàn)的代步工具,在方便人們生活的同時(shí),也造成了道路交通難以得到有效監(jiān)管的問(wèn)題。車型識(shí)別是電子不停車收費(fèi)系統(tǒng)(electronic toll collection,ETC)的關(guān)鍵技術(shù)之一[1],對(duì)道路上車輛的通暢行駛有重要的意義,在車輛違規(guī)行駛和被盜車輛追蹤等方面也有很高的應(yīng)用價(jià)值。

        傳統(tǒng)的車型識(shí)別方法依賴人工特征設(shè)計(jì),例如利用梯度方向直方圖特征進(jìn)行特征提取[2],提取車輛目標(biāo)后使用支持向量機(jī)分類器進(jìn)行分類,應(yīng)用場(chǎng)景單一且易受背景、光照等因素影響。深度學(xué)習(xí)作為一種特征學(xué)習(xí)方法,在經(jīng)過(guò)簡(jiǎn)單的非線性變換之后把原始數(shù)據(jù)變成更深層次、高語(yǔ)義的特征表達(dá)[3-4],其特征是可以根據(jù)不同對(duì)象進(jìn)行自適應(yīng)權(quán)值調(diào)節(jié),完成多種不同檢測(cè)任務(wù)。

        2015年,Ren等[5]提出基于區(qū)域建議網(wǎng)絡(luò)(region proposal networks,RPN)的Faster R-CNN目標(biāo)檢測(cè)算法,獲得了相較傳統(tǒng)方法更高的檢測(cè)精度,但其檢測(cè)速度較慢,只有5 fps。2016年,Redmon等[6]在CVPR會(huì)議上提出YOLO(you only look once)目標(biāo)檢測(cè)算法,同年,Liu等[7]在ECCV會(huì)議上提出了SSD目標(biāo)檢測(cè)算法。YOLO與SSD將預(yù)測(cè)邊框的任務(wù)變成回歸問(wèn)題,在檢測(cè)速度方面有明顯提升,基本滿足實(shí)時(shí)要求。深度學(xué)習(xí)目標(biāo)檢測(cè)算法已在車型識(shí)別領(lǐng)域有一定研究,文獻(xiàn)[8]將Faster-RCNN分別與ZF,VGG-16以及ResNet-101 3種卷積神經(jīng)網(wǎng)絡(luò)相融合,可以針對(duì)不同的數(shù)據(jù)集選用最佳網(wǎng)絡(luò)進(jìn)行車型識(shí)別。由于該方法對(duì)候選框進(jìn)行了預(yù)分類,雖然車型識(shí)別的精度有所提高,但是檢測(cè)速度較慢。文獻(xiàn)[9]融合循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)嵌入二級(jí)框架,增強(qiáng)了內(nèi)部特征信息的完整性,在對(duì)視頻監(jiān)控圖像中車型識(shí)別的精確性上表現(xiàn)良好,但是其存在模型過(guò)大、運(yùn)行時(shí)內(nèi)存占用高的問(wèn)題。

        SSD目標(biāo)檢測(cè)算法在檢測(cè)精度和速度方面綜合性能更好,但仍存在參數(shù)多導(dǎo)致模型臃腫的缺點(diǎn)[10]。結(jié)合上述研究,筆者提出使用改進(jìn)的深度可分離卷積作為SSD算法基礎(chǔ)網(wǎng)絡(luò),對(duì)特征提取過(guò)程進(jìn)行簡(jiǎn)化,重新設(shè)計(jì)區(qū)域候選框,減少了模型參數(shù)量,實(shí)現(xiàn)對(duì)車輛類型準(zhǔn)確的識(shí)別,并且提升了模型的檢測(cè)速度。

        1 經(jīng)典SSD模型

        經(jīng)典SSD深度模型用VGG16分類網(wǎng)絡(luò)作為特征提取器,并將VGG16后兩層全連接層FC6,F(xiàn)C7改為卷積層,隨后,SSD在一系列不同尺度的卷積層上做特征提取,其尺度分別為38×38,19×19,10×10,5×5,3×3和1×1。在融合不同尺度的特征信息后,對(duì)目標(biāo)的位置和類別進(jìn)行預(yù)測(cè)。

        目標(biāo)檢測(cè)損失函數(shù)由位置損失和分類損失加權(quán)求和獲得,如式(1)所示。

        (1)

        式中:N是匹配正樣本的總量;x表示默認(rèn)框與真實(shí)框的匹配結(jié)果,x=0表示匹配失敗,x=1表示匹配成功;c是softmax函數(shù)分別對(duì)任務(wù)中每一類別的置信度;l,g分別是預(yù)測(cè)框和真實(shí)框;α是位置損失的權(quán)重。

        2 改進(jìn)的SSD車型識(shí)別模型設(shè)計(jì)

        經(jīng)典SSD算法的模型參數(shù)運(yùn)算繁多,運(yùn)行時(shí)占用內(nèi)存大,為了在有限的計(jì)算資源平臺(tái)上完成圖像識(shí)別任務(wù)并做出及時(shí)的反應(yīng),對(duì)SSD算法進(jìn)行“減重”勢(shì)在必行。

        筆者提出改進(jìn)的深度可分離卷積網(wǎng)絡(luò)作為SSD前端特征提取的基礎(chǔ)網(wǎng)絡(luò),避免卷積運(yùn)算過(guò)程所帶來(lái)的過(guò)大消耗,降低算法運(yùn)算復(fù)雜度,適應(yīng)未來(lái)實(shí)時(shí)識(shí)別車型的應(yīng)用需求。

        2.1 深度可分離卷積

        深度可分離卷積(depthwise separable convolution,DSC)計(jì)算如式(2)所示。

        (2)

        式中:G為輸出特征圖;K為卷積核;F為輸入特征圖;i,j為特征圖像素位置;k,l為輸出特征圖分辨率;m為通道數(shù)。

        深度可分離卷積把卷積分為深度卷積DW(depthwise convolution)和點(diǎn)卷積PW(pointwise convolution)2個(gè)階段。DW是深度可分離卷積的濾波階段,每個(gè)通道對(duì)應(yīng)卷積核進(jìn)行卷積操作;PW是深度可分離卷積的組合階段,整合多個(gè)特征圖信息,串聯(lián)輸出。

        模型訓(xùn)練中,輸入M通道大小為DF×DF的圖像,經(jīng)過(guò)DK×DK大小的卷積核進(jìn)行卷積操作后,輸出大小為DI×DI的N通道特征圖。

        對(duì)于一般卷積來(lái)說(shuō),濾波器大小為DK×DK,輸入大小為DF×DF的M通道圖像,參數(shù)運(yùn)算量為DF×DF×DK×DK×M×N。而深度可分離卷積中特征提取只用了一個(gè)大小為DK×DK×1卷積核,運(yùn)算量為DF×DF×M×DK×DK,組合階段用了N個(gè)點(diǎn)卷積,運(yùn)算量為DF×DF×M×N,因此總計(jì)算量為DF×DF×M×N+DF×DF×M×DK×DK。

        深度可分離卷積與傳統(tǒng)卷積參數(shù)運(yùn)算量對(duì)比計(jì)算如式(3)所示。

        (3)

        式中深度可分離卷積使用3×3的卷積核,即DK取值為3。深度可分離卷積在準(zhǔn)確率較小下降的情況下運(yùn)算量減少1/8~1/9[11]。在對(duì)模型輕量化過(guò)程中,引入了寬度參數(shù)α,壓縮輸入輸出通道分別為αM,αN,α<1,計(jì)算量為DF×DF×αM×αN+DF×DF×αM×DK×DK。

        2.2 反殘差模塊

        寬度參數(shù)通過(guò)壓縮通道數(shù)進(jìn)一步減少模型參數(shù)量,但是也造成了特征壓縮的問(wèn)題。而修正線性單元(ReLU)對(duì)于負(fù)輸入,全部輸出為零,會(huì)導(dǎo)致更多的特征信息丟失,深度卷積DW無(wú)法改變輸入通道,這種情況下,特征提取效果不理想,會(huì)導(dǎo)致目標(biāo)檢測(cè)準(zhǔn)確率降低。

        研究在DW之前引入反殘差(inverted residuals,IR)[12]模塊,實(shí)現(xiàn)過(guò)程如圖1所示。

        圖1 反殘差模塊Fig. 1 Inverted residuals module

        圖1中,輸入為h×w的k維特征圖,將ReLU改為ReLU6以限制輸出范圍,輸出h/s×w/s的k′維特征圖。s是步長(zhǎng),t為擴(kuò)張系數(shù)。首先用一個(gè)大小為1×1的擴(kuò)展核把輸入的低維特征圖擴(kuò)展到高維,在高維空間進(jìn)行深度卷積,最后使用點(diǎn)卷積將特征提取結(jié)果降維映射到低維空間并用線性激活函數(shù)(linear)進(jìn)行輸出。對(duì)通道數(shù)擴(kuò)增之后再收縮,提高了模型特征提取的能力,有效防止由于通道數(shù)較小時(shí)因非線性激活導(dǎo)致特征信息丟失的情況,可以提高目標(biāo)檢測(cè)準(zhǔn)確率。結(jié)合反殘差模塊的深度可分離卷積SSD結(jié)構(gòu)如圖2所示。

        圖2 改進(jìn)SSD模型結(jié)構(gòu)圖Fig. 2 The model structure of improved SSD

        圖2中,特征提取部分除第1層之外全部為結(jié)合反殘差模塊的深度可分離卷積,擴(kuò)張系數(shù)t為6,并且在conv1,conv3,conv6,conv11中采用步長(zhǎng)s為2的卷積,在conv2,conv4,conv5,conv7,conv8,conv9,conv10中步長(zhǎng)s為1,進(jìn)行殘差信息傳遞。模型選取包括特征提取器后兩層在內(nèi)的6種不同尺度的特征圖,其尺度分別為19×19,10×10,5×5,3×3,2×2和1×1,并計(jì)算目標(biāo)的分類信息和位置信息。

        2.3 區(qū)域候選框重構(gòu)

        圖3為SSD多尺度特征圖及區(qū)域候選框示意圖,網(wǎng)絡(luò)的輸入為訓(xùn)練集所包含圖像及手工標(biāo)定的目標(biāo)的真實(shí)標(biāo)簽框,如圖(a)所示。在特征圖中的每一單位點(diǎn)處,預(yù)測(cè)多個(gè)具有不同尺度、不同寬高比的候選框,如圖(b)(c)所示,對(duì)候選框與真實(shí)框做匹配來(lái)進(jìn)行位置損失的計(jì)算。區(qū)域候選框與目標(biāo)真實(shí)位置交并比大小是區(qū)分正負(fù)樣本的條件,訓(xùn)練效果是由區(qū)域候選框決定的。

        圖3 多尺度特征圖及區(qū)域候選框示意圖Fig. 3 Sketch of multi-scale feature and regional candidate frame

        區(qū)域候選框參數(shù)計(jì)算如式(4)所示。

        (4)

        式中:Sk是第k個(gè)特征圖的minsize參數(shù);smin是設(shè)計(jì)好的最小歸一化尺寸,取值為0.2;smax為設(shè)計(jì)好的最大歸一化尺寸,取值為0.9;m是特征圖的總數(shù)。

        區(qū)域候選框與目標(biāo)真實(shí)位置框的匹配度是模型性能重要的指標(biāo)之一,而不同的區(qū)域候選框與真實(shí)框的匹配操作是十分復(fù)雜的。根據(jù)車輛的剛體特性,且圖像采集于固定角度,對(duì)區(qū)域候選框重新設(shè)計(jì),利用先驗(yàn)知識(shí)判定車輛寬高比在特定范圍,針對(duì)不同采樣角度、公路交通狀況可統(tǒng)分為ar>1或ar<1的不同類,在參數(shù)設(shè)定時(shí)刪除不需要的候選框,通過(guò)減少候選框匹配運(yùn)算,提升SSD深度學(xué)習(xí)網(wǎng)絡(luò)模型速度。實(shí)驗(yàn)車輛圖片為路面車輛正面俯視圖,寬高比參數(shù)ar<1,將區(qū)域候選框取值范圍選定為{1,1/2,1/3}。

        SSD采用6個(gè)特征層來(lái)生成不同尺寸大小的候選框,假設(shè)特征圖大小為n×n,在每單元點(diǎn)設(shè)置k個(gè)候選框,則單層特征圖生成候選框的個(gè)數(shù)為n×n×k。筆者在SSD中使用反殘差模塊的深度可分離卷積進(jìn)行特征提取,并且刪除了寬高比例為2和3的框。由表1可以看出,經(jīng)典SSD選取6個(gè)特征圖的k值分別為4,6,6,6,4和4,計(jì)算可以得到8 732個(gè)候選框;改進(jìn)后的SSD選取6個(gè)特征圖的k值均為4,計(jì)算可以得到候選框2 000個(gè),與原SSD的區(qū)域候選框生成總數(shù)相比減少了約3/4。

        表1 區(qū)域候選框重構(gòu)前后總數(shù)對(duì)比

        3 實(shí)驗(yàn)分析

        3.1 訓(xùn)練數(shù)據(jù)及平臺(tái)

        使用北京理工大學(xué)建立的BIT-Vehicle Dataset[13-14]數(shù)據(jù)集來(lái)驗(yàn)證改進(jìn)算法有效性,數(shù)據(jù)集中的所有車輛都被分為6類:Bus、Microbus,、Minivan、Sedan、SUV和Truck,每種車型分別有558,883,476,5 922,1 392和822輛。圖像分辨率為1 920×1 080和1 600×1 200。數(shù)據(jù)集按比例6∶ 2∶ 2分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。

        實(shí)驗(yàn)采用的軟件和硬件設(shè)備:Linux系統(tǒng)、GPU采用NVIDIA RTX 2060、Tensorflow、AMD Ryzen 52600型號(hào)的CPU,CUDA9.0加cuDNN7版本深度學(xué)習(xí)加速庫(kù),python版本為3.6.5。算法設(shè)置每批次訓(xùn)練樣本為32張,初始學(xué)習(xí)率設(shè)置為0.001,迭代80 000步后設(shè)置為0.000 1,在Loss變化差值基本不變,大概150 000步停止模型訓(xùn)練,得到車型識(shí)別模型。

        3.2 實(shí)驗(yàn)結(jié)果及分析

        實(shí)驗(yàn)選用imageNet[15]數(shù)據(jù)集上預(yù)訓(xùn)練的模型來(lái)初始化模型參數(shù),可以加速模型收斂,獲得更好的識(shí)別效果。筆者使用不同基礎(chǔ)網(wǎng)絡(luò)、不同區(qū)域候選框設(shè)計(jì)方法的目標(biāo)檢測(cè)算法進(jìn)行消融實(shí)驗(yàn),對(duì)比模型性能,驗(yàn)證改進(jìn)算法有效性,結(jié)果如表2所示。

        表2 不同實(shí)驗(yàn)算法模型性能對(duì)比

        對(duì)表2分析可知,F(xiàn)aster R-CNN分步目標(biāo)檢測(cè)算法精度較高,但其模型參數(shù)量大,平均檢測(cè)時(shí)間為0.635 s/幀,不滿足實(shí)時(shí)性要求。表中加粗部分為筆者提出的改進(jìn)深度可分離卷積的SSD車型識(shí)別方法所得結(jié)果,其識(shí)別精度達(dá)到96.12%,相較于原SSD算法有顯著提升,參數(shù)量減少472 MB,平均檢測(cè)時(shí)間由0.119 s/幀下降到0.078 s/幀。與區(qū)域候選框重構(gòu)前的模型相比,在識(shí)別精度僅下降0.21%的前提下,經(jīng)過(guò)區(qū)域候選框重構(gòu)后的模型參數(shù)量減少21.14%,平均檢測(cè)時(shí)間減少14.29%,綜合性能最優(yōu),可以實(shí)現(xiàn)對(duì)車型的實(shí)時(shí)識(shí)別。

        圖4為經(jīng)典SSD和改進(jìn)SSD的車型識(shí)別效果結(jié)果對(duì)比圖,其中,第1、第3列為經(jīng)典SSD車型識(shí)別結(jié)果,第2、第4列為改進(jìn)SSD車型識(shí)別結(jié)果。通過(guò)識(shí)別結(jié)果對(duì)比可以看出,算法改進(jìn)使得模型在邊框的回歸有更好的效果,準(zhǔn)確率相較于經(jīng)典深度模型也有一定的提升。

        4 結(jié) 語(yǔ)

        針對(duì)目前車型實(shí)時(shí)識(shí)別能力不足的問(wèn)題,筆者提出了基于改進(jìn)深度可分離卷積的SSD模型對(duì)道路車輛類型進(jìn)行識(shí)別。該算法大幅減少了模型參數(shù)量,識(shí)別精度達(dá)到96.12%,同時(shí)平均檢測(cè)時(shí)間達(dá)到0.078 s/幀,各項(xiàng)指標(biāo)均優(yōu)于原SSD模型,滿足車型實(shí)時(shí)識(shí)別要求,為交通場(chǎng)景中高速口繳費(fèi)、車輛追蹤及套牌檢查等應(yīng)用提供了參考。未來(lái)的研究方向是增加復(fù)雜場(chǎng)景道路圖像數(shù)據(jù),并對(duì)文中模型進(jìn)行網(wǎng)絡(luò)微調(diào),提高模型在不同場(chǎng)景下車型識(shí)別能力。

        猜你喜歡
        特征提取深度特征
        深度理解一元一次方程
        如何表達(dá)“特征”
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠(chéng)的四個(gè)特征
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        青春草在线视频精品| 亚洲一区二区三区无码久久| 伊人色综合视频一区二区三区| 亚洲小说图区综合在线| 免费啪啪av人妻一区二区| 亚洲国产精品久久婷婷| 天天狠天天添日日拍| 国内精品久久久久久久久齐齐| 丰满人妻一区二区乱码中文电影网| 亚洲国产精品日韩av专区| 国模冰莲极品自慰人体| 国产精品人妻一区夜夜爱| 国产v精品成人免费视频400条| 综合无码一区二区三区四区五区 | 日本不卡在线一区二区三区视频| 亚洲av网一区二区三区成人| 欧美国产激情二区三区| 亚洲粉嫩高潮的18p| 国产成人亚洲精品2020| 丝袜美腿制服诱惑一区二区| 国产乱妇无乱码大黄aa片| 1000部精品久久久久久久久 | 国产羞羞视频在线观看| 日本黑人人妻一区二区水多多| 亚洲国产精品一区二区毛片| 精品国产午夜理论片不卡| 97色偷偷色噜噜狠狠爱网站97| 日本加勒比一道本东京热| 国产av无码专区亚洲精品| 亚洲乱码国产一区三区| 操B小视频国产| 99久久99久久久精品蜜桃| 久久久国产精品黄毛片| av天堂精品久久久久| 中文字幕在线亚洲精品一区| 人妻少妇久久久久久97人妻| 全免费a级毛片免费看视频| 少妇极品熟妇人妻高清| 青青操视频手机在线免费观看 | 另类老妇奶性生bbwbbw| 免费高清日本中文|