亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        用于車輛識(shí)別的深度學(xué)習(xí)模型的優(yōu)化

        2019-03-25 05:54:06劉澤康孫華志姜麗芬馬春梅
        關(guān)鍵詞:像素點(diǎn)卷積尺寸

        劉澤康,孫華志,姜麗芬,馬春梅

        (天津師范大學(xué)計(jì)算機(jī)與信息工程學(xué)院,天津300387)

        隨著日常生活中汽車數(shù)量的增多,單純依靠人工識(shí)別已經(jīng)無(wú)法滿足需求,所以需要利用計(jì)算機(jī)識(shí)別代替人工.傳統(tǒng)的車輛識(shí)別方法一般可以分為3類:幀間差分法[1]、背景差分法[2]以及光流法[3].傳統(tǒng)方法雖然針對(duì)不同問(wèn)題提出了有效的解決辦法,但是由于模型結(jié)構(gòu)簡(jiǎn)單、訓(xùn)練不充分等問(wèn)題,依然存在實(shí)時(shí)檢測(cè)性差或過(guò)于依賴外部環(huán)境等缺陷[4-6].近些年用于車輛識(shí)別的深度學(xué)習(xí)理論迅速發(fā)展.文獻(xiàn)[7]結(jié)合手工特征和深度玻爾茲曼機(jī)方法,將方向梯度直方圖等3種手工設(shè)計(jì)的特征作為輸入,并通過(guò)學(xué)習(xí)融合各特征的優(yōu)點(diǎn),以提高識(shí)別精度.文獻(xiàn)[8]在深度置信網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,交替使用有監(jiān)督和無(wú)監(jiān)督過(guò)程訓(xùn)練,有效解決了梯度消失問(wèn)題.文獻(xiàn)[9]將提取的25種基線特征和局部紋理特征融合,進(jìn)行棧式自編碼器訓(xùn)練,簡(jiǎn)化了網(wǎng)絡(luò)結(jié)構(gòu),提高了識(shí)別精度.卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)理論的一個(gè)重要分支,在車輛識(shí)別方面有著突出的貢獻(xiàn).文獻(xiàn)[10]在CNN的基礎(chǔ)上使用Adaboost算法訓(xùn)練多個(gè)不同的弱分類器,再將弱分類器聯(lián)合起來(lái)進(jìn)行車輛識(shí)別.文獻(xiàn)[11]通過(guò)對(duì)遮擋物進(jìn)行處理,再利用卷積神經(jīng)網(wǎng)絡(luò),提高了有物體遮擋的汽車的識(shí)別精度.文獻(xiàn)[12]將基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢測(cè)用于正面碰撞預(yù)警.文獻(xiàn)[13]通過(guò)反復(fù)堆疊3×3的小型卷積核和2×2的最大池化層構(gòu)建了16層的卷積神經(jīng)網(wǎng)絡(luò)(VGG16).文獻(xiàn)[14]通過(guò)使用1×1、3×3、5× 5的卷積核尺寸對(duì)輸入數(shù)據(jù)進(jìn)行卷積,再將3個(gè)卷積的輸出結(jié)果組合起來(lái)構(gòu)成模型(GoogLeNet).雖然以上方法有較高的識(shí)別精度,但其對(duì)于深度學(xué)習(xí)網(wǎng)絡(luò)的改造大多是通過(guò)加深模型層數(shù)的方法實(shí)現(xiàn)的,而網(wǎng)絡(luò)層數(shù)和網(wǎng)絡(luò)參數(shù)的增加,會(huì)導(dǎo)致模型計(jì)算開(kāi)銷大、響應(yīng)時(shí)間慢,并且對(duì)硬件要求較高,所以這些方法不易于運(yùn)用到現(xiàn)實(shí)中的車輛識(shí)別中.本文通過(guò)參數(shù)優(yōu)化的方法,使模型以較小的網(wǎng)絡(luò)層數(shù)在短時(shí)間內(nèi)達(dá)到理想的精度.另外,本文選取真實(shí)拍攝場(chǎng)景中車輛的大小進(jìn)行建模,針對(duì)真實(shí)拍攝場(chǎng)景車輛尺寸較小的問(wèn)題,采用復(fù)制邊界的方法降低卷積過(guò)程中的信息損失,在特定的分辨率下對(duì)比分析了不同大小的卷積核對(duì)車輛識(shí)別精度的影響.利用公開(kāi)數(shù)據(jù)集ImageNet和PKUVD進(jìn)行實(shí)驗(yàn),結(jié)果表明,用于車輛識(shí)別的最佳卷積核尺寸分別為5×5、4×4、3×3,優(yōu)化后的模型識(shí)別精度可達(dá)99.74%,優(yōu)于CNN+Adaboost的97.02%和GoogLeNet-lite的99.35%.

        1 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

        1.1 基于原邊界保留的卷積神經(jīng)網(wǎng)絡(luò)模型構(gòu)建

        卷積神經(jīng)網(wǎng)絡(luò)模型包括各網(wǎng)絡(luò)層的構(gòu)建以及各網(wǎng)絡(luò)層參數(shù)的訓(xùn)練.本文卷積神經(jīng)網(wǎng)絡(luò)由5部分構(gòu)成,分別為輸入層、卷積層、池化層、全連接層和Softmax分類器.輸入層輸入像素大小為m×n的圖像.卷積層的計(jì)算公式為

        其中:al為第l卷積層的輸出;f(·)為卷積層的激活函數(shù),wl為卷積核,*代表卷積操作,bl為卷積層的偏置參數(shù).在傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)中,圖像通過(guò)卷積層后尺寸會(huì)減小.為盡量保留圖像中的像素點(diǎn),卷積層采用保留原邊界像素的方法,即在圖像邊界補(bǔ)零,使得圖像卷積后輸出的圖像尺寸與原圖像尺寸保持一致.池化層選用最大池化,最大池化的公式為

        其中:xl為池化層的輸出;g(·)為次抽樣層的激活函數(shù), down(·)為次抽樣函數(shù), βl為池化層權(quán)重, bl為池化層的偏置函數(shù).池化層選擇下采樣框中像素值最大的像素點(diǎn)進(jìn)行下采樣,提取主要特征,進(jìn)而簡(jiǎn)化網(wǎng)絡(luò)復(fù)雜度.全連接層連接所有特征圖共同做出決策,得到特征向量.全連接層得到的特征向量放入Softmax分類器中進(jìn)行二分類.圖1為大小64×64的圖像通過(guò)3×3的卷積核進(jìn)行卷積的過(guò)程.

        圖1 卷積神經(jīng)網(wǎng)絡(luò)搭建過(guò)程Fig.1 Construction process of CNN

        卷積神經(jīng)網(wǎng)絡(luò)通過(guò)訓(xùn)練自動(dòng)更新權(quán)重和偏置值,網(wǎng)絡(luò)參數(shù)訓(xùn)練分為2個(gè)階段:正向傳播階段輸入圖像,經(jīng)過(guò)各層過(guò)濾,最后由分類器輸出分類結(jié)果;反向訓(xùn)練階段由分類器輸出結(jié)果計(jì)算出誤差值,反向傳播訓(xùn)練各層參數(shù).

        1.2 圖像預(yù)處理

        由于卷積神經(jīng)網(wǎng)絡(luò)要求輸入層輸入圖像的大小要保持一致,而通過(guò)攝像頭等方式采集到的樣本大小不一致.所以利用多相位圖像插值(Lanczos)算法進(jìn)行圖像預(yù)處理,通過(guò)縮放尺寸計(jì)算新的像素點(diǎn),在將圖像縮放到目標(biāo)大小的基礎(chǔ)上,盡量保留原圖像的特征.

        設(shè)f(i,j)為縮放前像素點(diǎn),g(u,v)為縮放后像素點(diǎn),首先計(jì)算縮放前后像素點(diǎn)移動(dòng)距離(x,y).其中:x=(u × Win)/Wout, y=(v × Hin)/Hout; Win和 Wout分別為縮放前后的圖像寬度,Hin和Hout分別為縮放前后的圖像高度.則輸出點(diǎn) g(u,v)可由下式得出

        其中:Hout(i,j)為原像素點(diǎn)進(jìn)行縱向移動(dòng)后的像素點(diǎn),LanczosN(x)為濾波函數(shù).圖2為大小4×4范圍內(nèi)進(jìn)行的Lanczos算法縮放示意圖.

        圖2 預(yù)處理示意圖Fig.2 Preprocessing diagram

        圖2中,水平相位值PH0=1+x,PH1=x,PH2=1-x,PH3=2-x,垂直相位值 PV0=1+y,PV1=y,PV2=1-y,PV3=2-y.根據(jù)上述關(guān)系式可得到8個(gè)相位值,從而實(shí)現(xiàn)多相位濾波.原圖像與經(jīng)過(guò)縮放后的圖像示例見(jiàn)圖3,圖3(a)為像素值 300 × 240的原圖像, 圖3(b)為縮放后像素值64×64的圖像.

        圖3 圖像縮放對(duì)比Fig.3 Comparison of image zoom

        2 樣本庫(kù)建立

        卷積神經(jīng)網(wǎng)絡(luò)屬于深度神經(jīng)網(wǎng)絡(luò),需要大量的訓(xùn)練集進(jìn)行訓(xùn)練,本文使用斯坦福大學(xué)的ImageNet數(shù)據(jù)庫(kù)和北京大學(xué)的PKU-VD[15]數(shù)據(jù)庫(kù),從中選取了8 588張車輛圖像以及11 375張背景圖像作為樣本庫(kù).其中訓(xùn)練集樣本占總數(shù)的80%,測(cè)試集樣本占20%.

        2.1 樣本標(biāo)記

        將樣本中的非車輛圖像和車輛圖像分別用“0”和“1”標(biāo)記.為防止過(guò)擬合導(dǎo)致檢測(cè)框?qū)⒑熊囕v一部分的背景圖像認(rèn)定為汽車,本文將設(shè)置只包含車輛一部分的圖像為非車輛圖像.訓(xùn)練集和測(cè)試集中樣本具體標(biāo)記見(jiàn)表1.

        表1 樣本標(biāo)簽統(tǒng)計(jì)Tab.1 Sample label statistics

        2.2 樣本裁剪

        由于收集到的樣本圖像像素大小不同,因此需要將樣本裁剪成大小一致的圖像.按照1.2節(jié)的Lanczos算法將所有樣本圖像統(tǒng)一裁剪為像素64×64的圖像作為輸入,裁剪后的部分圖像如圖4所示.

        圖4 部分裁剪后圖像Fig.4 Partial cropped images

        3 實(shí)驗(yàn)結(jié)果分析

        3.1 默認(rèn)參數(shù)設(shè)置

        本文選取5層卷積神經(jīng)網(wǎng)絡(luò).第1層為輸入層,輸入大小為64×64的裁剪后圖像.中間3層為卷積層,卷積層的卷積核大小按默認(rèn)設(shè)置,然后依次從第1個(gè)卷積層逐層改變卷積核大小,分別采用2×2、3×3、4×4、5×5大小的卷積核進(jìn)行實(shí)驗(yàn),3個(gè)卷積層分別使用32、64、128個(gè)卷積核提取特征.全連接層設(shè)置500個(gè)卷積核進(jìn)行全連接.之后將輸出的向量放入Softmax分類器進(jìn)行分類.另外,本文選擇對(duì)數(shù)損失函數(shù)用作多分類,此函數(shù)為與Softmax分類器相對(duì)應(yīng)的損失函數(shù),主要使用極大似然估計(jì)的方式.學(xué)習(xí)速率設(shè)置為0.001,并且使用隨機(jī)梯度下降的算法作為優(yōu)化器.

        3.2 實(shí)驗(yàn)結(jié)果對(duì)比

        輸入層輸入經(jīng)過(guò)預(yù)處理后的64×64 RGB圖像,進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練.首先固定第2層和第3層卷積網(wǎng)絡(luò)卷積核大小為默認(rèn)的3×3,第1層卷積網(wǎng)絡(luò)分別使用 2×2、3×3、4×4、5×5大小的卷積核進(jìn)行實(shí)驗(yàn),結(jié)果見(jiàn)圖5.

        圖5 第1層卷積網(wǎng)絡(luò)實(shí)驗(yàn)結(jié)果Fig.5 Experiment results of the first convolutional layer

        由圖5可以看出,卷積核大小為2×2、3×3的神經(jīng)網(wǎng)絡(luò)收斂速度較慢,卷積核大小為4×4的神經(jīng)網(wǎng)絡(luò)收斂速度在前期略高于卷積核大小為5×5的.由于圖5給出的是全部100次訓(xùn)練的測(cè)試結(jié)果,隨著訓(xùn)練次數(shù)的增加,不同卷積核網(wǎng)絡(luò)的識(shí)別精度曲線幾乎重合,為了更準(zhǔn)確地觀察識(shí)別精度,截取訓(xùn)練次數(shù)為90至100的精度識(shí)別曲線,見(jiàn)圖6.

        由圖6可見(jiàn),當(dāng)訓(xùn)練次數(shù)較大時(shí),使用5×5大小卷積核的神經(jīng)網(wǎng)絡(luò)的整體識(shí)別精度高于其他3種尺寸卷積核的網(wǎng)絡(luò).因此,第1層卷積網(wǎng)絡(luò)最佳的卷積核尺寸為5×5.

        圖6 第1層卷積網(wǎng)絡(luò)實(shí)驗(yàn)部分結(jié)果Fig.6 Partial experiment results of the first convolutional layer

        下面固定第1層卷積網(wǎng)絡(luò)卷積核大小為5×5,固定第3層卷積核大小為默認(rèn)的3×3,第2層卷積網(wǎng)絡(luò)分別使用 2×2、3×3、4×4、5×5大小的卷積核進(jìn)行實(shí)驗(yàn),結(jié)果見(jiàn)圖7.

        圖7 第2層卷積網(wǎng)絡(luò)實(shí)驗(yàn)結(jié)果Fig.7 Experiment results of the second convolutional layer

        由圖7可以看出,卷積核大小為5×5的神經(jīng)網(wǎng)絡(luò)收斂速度快于其他3種尺寸卷積核的網(wǎng)絡(luò).這是由于在訓(xùn)練次數(shù)較少的情況下,尺寸較大的卷積核對(duì)于圖像像素點(diǎn)的計(jì)算更充分,可以使得淺層特征得到充分提取,所以在圖像像素?fù)p失不大的情況下可以更快達(dá)到較高的精度.但是,隨著訓(xùn)練次數(shù)的增加,各尺寸卷積核網(wǎng)絡(luò)的識(shí)別精度趨近相同.同樣截取訓(xùn)練次數(shù)為90至100的精度識(shí)別曲線,見(jiàn)圖8.

        圖8 第2層卷積網(wǎng)絡(luò)實(shí)驗(yàn)部分結(jié)果Fig.8 Partial experiment results of the second convolutional layer

        由圖8可見(jiàn),訓(xùn)練次數(shù)較大時(shí),卷積核大小為4×4的網(wǎng)絡(luò)的識(shí)別精度整體高于其他3種卷積核的網(wǎng)絡(luò).這是由于經(jīng)過(guò)長(zhǎng)時(shí)間的訓(xùn)練,隨著網(wǎng)絡(luò)層數(shù)的加深,特征圖尺寸變小,較大尺寸的卷積核會(huì)造成特征信息的丟失,而較小尺寸的卷積核又不足以充分提取特征信息.綜合考慮收斂速度和識(shí)別精度,第2層卷積網(wǎng)絡(luò)最佳的卷積核尺寸為4×4.

        固定第1層卷積網(wǎng)絡(luò)卷積核大小為5×5,第2層卷積網(wǎng)絡(luò)卷積核大小為4×4,第3層卷積網(wǎng)絡(luò)分別使用2×2、3×3、4×4、5×5大小的卷積核進(jìn)行實(shí)驗(yàn),結(jié)果見(jiàn)圖9.

        圖9 第3層卷積網(wǎng)絡(luò)實(shí)驗(yàn)結(jié)果Fig.9 Experiment results of the third convolutional layer

        由圖9可見(jiàn),各尺寸卷積核的網(wǎng)絡(luò)收斂速度大致相同,甚至使用較小卷積核(2×2)的網(wǎng)絡(luò)收斂速度要稍快于其他較大卷積核的網(wǎng)絡(luò).這是由于深層特征圖尺寸較小,較大的卷積核不能充分提取車輛的細(xì)節(jié)特征,導(dǎo)致其收斂速度變慢.截取訓(xùn)練次數(shù)為90至100的精度識(shí)別曲線,見(jiàn)圖10.

        圖10 第3層卷積網(wǎng)絡(luò)實(shí)驗(yàn)部分結(jié)果Fig.10 Partial experiment results of the third convolutional layer

        由圖10結(jié)果可以看出,訓(xùn)練次數(shù)較大時(shí),卷積核大小為3×3的網(wǎng)絡(luò)效果最好.這是由于深層特征圖尺寸較小,較大的卷積核會(huì)造成特征細(xì)節(jié)的丟失,較小的卷積核又不足以提取車輛特征.因此第3層卷積網(wǎng)絡(luò)最佳的卷積核尺寸為3×3.

        根據(jù)以上實(shí)驗(yàn)結(jié)果,分別選取3層卷積網(wǎng)絡(luò)卷積核尺寸為5×5、4×4、3×3,搭建卷積神經(jīng)網(wǎng)絡(luò)模型并進(jìn)行訓(xùn)練.將車輛圖像輸入訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)中,車輛圖像經(jīng)過(guò)(卷積層+池化層)處理,得到特征提取圖,部分特征提取圖見(jiàn)圖11.

        圖11 特征提取圖Fig.11 Feature extraction map

        為驗(yàn)證本文方法的有效性,選取車輛識(shí)別精度較高的 CNN+Adaboost[10]、VGG16[13]以及 GoogLeNet-lite[14]與本文方法進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)數(shù)據(jù)均采用第3節(jié)構(gòu)建的數(shù)據(jù)集,對(duì)比結(jié)果如表2所示.

        表2 不同算法實(shí)驗(yàn)結(jié)果對(duì)比Tab.2 Comparison of different algorithms

        由表2可以看出,本文優(yōu)化后模型的最終識(shí)別精度可以達(dá)到99.74%,高于CNN+Adaboost的97.02%和GoogLeNet的99.35%.另外,優(yōu)化后模型的F-measure達(dá)到99.70%,也高于CNN+Adaboost的99.51%和GoogLeNet的99.36%.由于VGG16的模型結(jié)構(gòu)復(fù)雜,一定程度上減小了卷積核大小對(duì)于模型識(shí)別的影響.所以,VGG16模型的最終識(shí)別精度為99.82%,雖然略高于本文優(yōu)化后的模型,但是其識(shí)別時(shí)間遠(yuǎn)遠(yuǎn)大于本文方法,而且本文方法的識(shí)別時(shí)間在4種方法中是最優(yōu)的.綜合實(shí)驗(yàn)結(jié)果各指標(biāo),本文方法更適用于現(xiàn)實(shí)場(chǎng)景的車輛檢測(cè).

        4 結(jié)語(yǔ)

        本文根據(jù)真實(shí)場(chǎng)景車輛大小進(jìn)行建模,針對(duì)真實(shí)場(chǎng)景中車輛圖像較小的問(wèn)題,使用復(fù)制邊緣像素進(jìn)行填充的方法,減小了卷積造成信息丟失的影響,采取控制變量的方法對(duì)網(wǎng)絡(luò)參數(shù)設(shè)置進(jìn)行了優(yōu)化實(shí)驗(yàn),通過(guò)實(shí)驗(yàn)找到了各網(wǎng)絡(luò)層的最優(yōu)參數(shù)設(shè)置,并與目前的高精度方法進(jìn)行實(shí)驗(yàn)對(duì)比,結(jié)果表明本文方法的識(shí)別性能較好.

        猜你喜歡
        像素點(diǎn)卷積尺寸
        尺寸
        智族GQ(2022年12期)2022-12-20 07:01:18
        CIIE Shows Positive Energy of Chinese Economy
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        基于canvas的前端數(shù)據(jù)加密
        D90:全尺寸硬派SUV
        基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
        佳石選賞
        中華奇石(2015年5期)2015-07-09 18:31:07
        基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
        性裸交a片一区二区三区| 国产自拍精品在线视频| 亚洲最新精品一区二区| 国产福利永久在线视频无毒不卡| 欧美丰满熟妇乱xxxxx图片| 亚洲欧洲一区二区三区波多野| 亚洲av毛片在线播放| 免费观看a级毛片| 中国xxx农村性视频| 久草热这里只有精品在线| 日本少妇又色又紧又爽又刺激| 2018天天躁夜夜躁狠狠躁| 亚洲综合色自拍一区| 色播在线永久免费视频网站| 精品不卡视频在线网址| 国模冰莲极品自慰人体| 欧美婷婷六月丁香综合色| 国产人禽杂交18禁网站| 亚洲不卡在线免费视频| 国产日产欧产精品精品| 国产精品理人伦国色天香一区二区| 日韩一二三四区免费观看| 国产成人精品一区二区20p| 国产麻豆md传媒视频| 国产无码十八禁| 久久精品国产亚洲av日韩一| 国产精品一区一区三区| 亚洲在线视频免费视频| 亚洲一线二线三线写真| 91青草久久久久久清纯| av免费一区二区久久| 久久久久av无码免费网| 香蕉视频毛片| 国产av自拍在线观看| 午夜dy888国产精品影院| 四虎影院在线观看| 国产一区二区三区色区| 久久综合噜噜激激的五月天| 精品久久久中文字幕人妻| 亚洲国产精品综合福利专区| 国产自拍偷拍视频免费在线观看 |