亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于優(yōu)化卷積神經(jīng)網(wǎng)絡結構的交通標志識別

        2017-04-20 03:38:34王曉斌黃金杰劉文舉
        計算機應用 2017年2期
        關鍵詞:交通標志識別率分類器

        王曉斌,黃金杰,劉文舉

        (1.哈爾濱理工大學 自動化學院,哈爾濱 150080; 2.中國科學院 自動化研究所,北京 100190)

        (*通信作者電子郵箱lwj@nlpr.ia.ac.cn)

        基于優(yōu)化卷積神經(jīng)網(wǎng)絡結構的交通標志識別

        王曉斌1,黃金杰1,劉文舉2*

        (1.哈爾濱理工大學 自動化學院,哈爾濱 150080; 2.中國科學院 自動化研究所,北京 100190)

        (*通信作者電子郵箱lwj@nlpr.ia.ac.cn)

        現(xiàn)有算法對交通標志進行識別時,存在訓練時間短但識別率低,或識別率高但訓練時間長的問題。為此,綜合批量歸一化(BN)方法、逐層貪婪預訓練(GLP)方法,以及把分類器換成支持向量機(SVM)這三種方法對卷積神經(jīng)網(wǎng)絡(CNN)結構進行優(yōu)化,提出基于優(yōu)化CNN結構的交通標志識別算法。其中:BN方法可以用來改變中間層的數(shù)據(jù)分布情況,把卷積層輸出數(shù)據(jù)歸一化為均值為0、方差為1,從而提高訓練收斂速度,減少訓練時間;GLP方法則是先訓練第一層卷積網(wǎng)絡,訓練完把參數(shù)保留,繼續(xù)訓練第二層,保留參數(shù),直到把所有卷積層訓練完畢,這樣可以有效提高卷積網(wǎng)絡識別率;SVM分類器只專注于那些分類錯誤的樣本,對已經(jīng)分類正確的樣本不再處理,從而提高了訓練速度。使用德國交通標志識別數(shù)據(jù)庫進行訓練和識別,新算法的訓練時間相對于傳統(tǒng)CNN訓練時間減少了20.67%,其識別率達到了98.24%。所提算法通過對傳統(tǒng)CNN結構進行優(yōu)化,極大地縮短了訓練時間,并具有較高的識別率。

        卷積神經(jīng)網(wǎng)絡; 批量歸一化;貪婪預訓練; 支持向量機

        0 引言

        隨著我國經(jīng)濟的發(fā)展,交通越來越發(fā)達,同時隨著私家車的增多,交通事故頻發(fā),安全駕駛問題越來越突出,于是智能交通系統(tǒng)應運而生。交通標志識別是智能交通系統(tǒng)的重要組成部分,在交通安全運行方面具有重大的現(xiàn)實意義,它能夠減少駕駛員的駕駛疲勞,更好地保證出行安全。在汽車運行過程中,交通標志識別往往是在復雜的室外交通環(huán)境下進行的,比一般靜止的事物識別更難,主要體現(xiàn)在:復雜多變的光照條件;背景環(huán)境干擾;交通標志遮擋;交通標志位置傾斜[1]。受干擾圖例如圖1所示。為了解決這些問題,大量的復雜算法被提出,造成識別率高但訓練速度過慢,或者訓練速度快但識別率低的問題,因此交通標志快速訓練與準確識別是迫切需要解決的問題。

        目前已經(jīng)有很多傳統(tǒng)分類器,包括支持向量機(Support Vector Machine, SVM)[2]、貝葉斯分類器[3]、隨機森林分類器等被用于交通標志識別。這些方法均先利用典型的特征描述方法如尺度不變特征變換(Scale-Invariant Feature Transform, SIFT)[4]、加速魯棒特征(Speeded Up Robust Feature, SURF)[5]、方向梯度直方圖(Histogram of Oriented Gradient, HOG)[6]等對訓練樣本進行低層次特征提取,包含角點、邊緣、紋理等,然后對這些特征進行訓練分類操作。這些特征描述方法主要是由人工設計的,設計它們需要大量的時間,盡管這些算法訓練時間很短,但是識別率很低,不能實現(xiàn)準確應用。

        深度學習是目前在目標識別方面應用最多的方法。深度學習的實質(zhì)是通過構建具有很多隱層的機器學習模型和訓練數(shù)據(jù),自發(fā)地學習更高層次的特征,從而最終提升分類或預測的準確性。和傳統(tǒng)的學習方法相比,深度學習更能夠刻畫數(shù)據(jù)豐富的內(nèi)在信息。本文主要使用卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network, CNN)[7]方法。

        圖1 受干擾圖例

        CNN是受生物的視覺系統(tǒng)啟發(fā)而形成的,是一個多層的神經(jīng)網(wǎng)絡結構,每個卷積層由一個濾波器層、一個非線性層、一個空間采樣層組成。CNN的主要優(yōu)點就是可以將數(shù)據(jù)直接輸入CNN模型而不進行任何處理,它可以自動學習圖像特征,并且具有很強的魯棒性。Ciresan等[8]提出了多列卷積神經(jīng)網(wǎng)絡算法,一共有25個卷積網(wǎng)絡結構,每個卷積網(wǎng)絡用不同的方法進行訓練,結果取25個網(wǎng)絡的平均值,之后用這個模型對測試集進行測試;Sermanet等[9]提出了多規(guī)模卷積網(wǎng)絡,把卷積網(wǎng)絡的第二層特征和第三層特征聯(lián)合送入全連接層進行分類;Krizhevsky等[10]提出用深度卷積神經(jīng)網(wǎng)絡對圖片進行分類。在圖像數(shù)據(jù)庫比賽中,這些算法都獲得了比較高的識別率;但是這些算法的共同缺點是訓練時間過長,需要大量的計算資源,其中Ciresan等[8]提出的方法訓練時間達到37 h,浪費了大量資源。

        針對上述方法的缺點,本文對CNN結構進行了優(yōu)化,包括加入批量歸一化(Batch-Normalization, BN)[11]層,使用逐層貪婪預訓練(Greedy Layer-wise Pretraining, GLP) 方法[12]進行訓練,同時在最后的分類層使用支持向量機(SVM)進行分類。其中GLP能夠提高識別率,BN和SVM能夠加速深度學習訓練過程。

        1 卷積神經(jīng)網(wǎng)絡

        1.1 卷積神經(jīng)網(wǎng)絡結構

        CNN的兩大優(yōu)點就是局部感受野和權值共享。在傳統(tǒng)的神經(jīng)網(wǎng)絡結構中,一般都是全連接,導致參數(shù)非常巨大,訓練困難,速度很慢。比如一幅n×n像素圖像輸入全連接網(wǎng)絡,如果第一層神經(jīng)元個數(shù)是m個,因為是全連接,每個像素與每個神經(jīng)元全連接,就會有n×n×m個參數(shù),導致參數(shù)災難,訓練會非常困難,因此必須想辦法減少參數(shù)。對于CNN來說,一幅1 000×1 000像素的圖像,如果局部感受野范圍是50×50,那么僅僅會有50×50個參數(shù),這是一種特征,如果要識別一種圖像,可以設計100個濾波器,參數(shù)也僅僅是50×50×100,所以參數(shù)大幅減少,訓練速度也會大大加快。

        CNN結構由輸入層、卷積層和采樣層組成。圖2所示是交通標志識別CNN結構,在圖中,輸入的是交通標志的圖像,先經(jīng)過第一層卷積C1,濾波器個數(shù)是8個大小為5×5,形成8個特征映射圖,每個特征映射圖大小為44;然后再經(jīng)過采樣層S2,使用的采樣核大小為2×2,得到8個特征圖,特征圖大小是22;第二卷積層C3產(chǎn)生14個特征圖,卷積核大小3×3,產(chǎn)生14個特征圖大小是20;再經(jīng)過采樣,采樣核大小是2×2,產(chǎn)生14個特征圖,每個特征圖大小是10,把14個特征圖壓縮成一維連接起來與C5層120個神經(jīng)元全連接;最后一層是分類器,采用全連接方式進行分類輸出。這就是一個完整的卷積神經(jīng)網(wǎng)絡結構。

        圖2 卷積神經(jīng)網(wǎng)絡結構

        1.2 卷積神經(jīng)網(wǎng)絡的訓練

        CNN的訓練過程主要采用的是反向傳播算法,首先輸入數(shù)據(jù),進行前向計算,然后再反向計算誤差,并對誤差求各個權值和偏置的偏導數(shù),依靠這個偏導數(shù)調(diào)整各個權值和偏差。在開始訓練前,所有的權值都應該用不同的隨機數(shù)進行初始化。選取的隨機數(shù)應較小,以保證網(wǎng)絡不會因權值過大而進入飽和狀態(tài),從而導致訓練失敗;“不同”則用來保證網(wǎng)絡可以正常地學習。下面是用交通標志訓練CNN的過程:

        第一階段,向前傳播階段:

        1)從交通標志樣本中選取一部分標志輸入網(wǎng)絡;

        2)通過前向算法計算相應的實際輸出標志類別。

        第二階段,向后傳播階段:

        1)把前面計算的實際類別與真實交通標志類別進行比較,求偏差;

        2)按極小化誤差的方法反向傳播調(diào)整權矩陣。

        下面是具體的公式推導:

        1)卷積層。

        b)殘差計算。卷積層的下一層是下采樣層,采用的是一對一非重疊采樣,故殘差計算更為簡單。第l層第j個特征圖的殘差計算公式如下:

        其中:第l層為卷積層,第l+1層為下采樣層,下采樣層與卷積層是一一對應的;up(x)是將第l+1層的大小擴展為和第l層大小一樣;下采樣層中的權重全都等于β(一個常量);f′(·)表示激活函數(shù)f(·)的偏導數(shù);“°”表示每個元素相乘。

        c)梯度計算。偏置參數(shù)b的導數(shù)為:

        參數(shù)k的導數(shù)為:

        2)采樣層。

        a)卷積計算。設第l層為下采樣層,第l-1層為卷積層,由于是一對一采樣,假設采樣大小為2×2,故計算公式為:

        其中:down(x)是將x中2×2的大小中像素值進行求和。計算過程為對上一層卷積層2×2大小進行求和然后乘以權重w,再加上一個偏置,再求取激活函數(shù)。

        b)殘差計算。在計算下采樣層梯度時,需要找到殘差圖中給定像素對應于上一層的殘差圖中哪個區(qū)域塊,這樣才可以將殘差反向傳播回來。另外,需要乘以輸入?yún)^(qū)域塊和輸出像素之間連接的權值,這個權值實際上就是卷積核的權值。上述過程可以使用下面的Matlab函數(shù)公式實現(xiàn):

        其中:第l層為下采樣層,第l+1層為卷積層。

        c)梯度計算。偏置b的導數(shù),其公式的推導過程與卷積層一樣。權重β的導數(shù)計算公式如下:

        2 加速訓練模塊和識別率模塊

        2.1 加速訓練模塊——批量歸一化方法

        交通標志識別主要使用CNN方法,CNN學習過程本質(zhì)就是為了學習數(shù)據(jù)分布,深度卷積網(wǎng)絡的訓練是一個復雜的過程,只要網(wǎng)絡的前面幾層發(fā)生微小的改變,后面幾層就會被累積放大下去。一旦網(wǎng)絡某一層的輸入數(shù)據(jù)的分布發(fā)生改變,那么這一層網(wǎng)絡就需要學習這個新的數(shù)據(jù)分布。訓練過程中,訓練數(shù)據(jù)的每一層分布一直在發(fā)生變化,并且每一層所需要的學習率不一樣,通常需要使用最小的那個學習率才能保證損失函數(shù)有效下降,因此將會影響網(wǎng)絡的訓練速度。而BN算法就是要解決在訓練過程中,中間層數(shù)據(jù)分布發(fā)生變化的情況,BN算法使每一層的數(shù)據(jù)都歸一化為均值為0、標準差為1,使數(shù)據(jù)穩(wěn)定,因此可以使用較大的學習率進行訓練,使網(wǎng)絡加快收斂,提高訓練速度。BN算法主要使用如下公式進行歸一化:

        (1)

        其中E[x(k)]指的是每一批訓練數(shù)據(jù)x(k)的平均值;分母就是每一批數(shù)據(jù)x(k)的一個標準差。后面的處理也將利用式(1)對某一個層網(wǎng)絡的輸入數(shù)據(jù)作歸一化處理。需要注意的是,訓練過程中采用批量隨機梯度下降方法。

        2.2 識別率模塊——逐層貪婪訓練

        逐層貪婪預訓練是一個層網(wǎng)絡預訓練結構,逐層貪婪算法的主要思路是每次只訓練網(wǎng)絡中的一層,即首先訓練一個只含一個卷積層的網(wǎng)絡,僅當這層網(wǎng)絡訓練結束之后才開始訓練一個有兩個卷積層的網(wǎng)絡,以此類推。在每一步中,把已經(jīng)訓練好的前k-1層固定,然后增加第k層(也就是將已經(jīng)訓練好的前k-1的輸出作為輸入)。每一層的訓練是有監(jiān)督的(例如,將每一步的分類誤差作為目標函數(shù)),這些各層單獨訓練所得到的權重被用來初始化最終的深度網(wǎng)絡的權重,然后對整個網(wǎng)絡進行“微調(diào)”(即把所有層放在一起來優(yōu)化有標簽訓練集上的訓練誤差),這就是一個完整的逐層貪婪預訓練(GLP)過程。

        3 實驗與分析

        本次實驗所用的計算機配置是CPUXeon2.60GHz,centos6.5操作系統(tǒng),同時還使用了K40c顯卡內(nèi)存12GB來加速訓練。

        3.1 數(shù)據(jù)準備

        本次實驗使用德國交通標志數(shù)據(jù)集(GermanTrafficSignRecognitionBenchmark,GTSRB)[13],該數(shù)據(jù)集包含43類從德國真實交通環(huán)境中采集的交通標志,整個數(shù)據(jù)集共51 839幅交通標志圖像,其中訓練集39 209幅,測試集12 630幅,每幅圖像只包含一個交通標志;且數(shù)據(jù)集中包括大量低分辨率、不同光照強度、局部遮擋、視角傾斜、運動模糊等各種不利條件下的圖像,能夠較全面地反映現(xiàn)實情況,以及算法的應用能力。GTSRB數(shù)據(jù)集包括六個大類:限速標志、其他禁令標志、解除禁令標志、指示標志、警告標志、其他標志。

        由于數(shù)據(jù)集中的原始圖像每幅圖像只包含一個交通標志,而且有10%的冗余邊,每個圖像大小尺寸并不一樣,為了提高識別率,需對其進行預處理。即先參考交通標志說明文件把圖片中10%的冗余邊剪除,使交通標志充滿整個圖像;然后將圖像進行旋轉、平移和綻放,旋轉角度為-5°和5°,左、右各平移4個像素,縮放因子為0.9和1.1,擴展成155 517張圖片。這樣更有利于訓練過程,同時對測試集進行更好的預測。接著將RGB圖像轉化成灰度圖像。筆者進行了相關實驗,發(fā)現(xiàn)RGB圖像識別率和灰度圖像識別率大體一致,因此為了提高計算速度,使用灰度圖像進行實驗。由于本文使用的是卷積神經(jīng)網(wǎng)絡方法,所有的圖像都必須大小一致,所以按照以往的經(jīng)驗把所有的圖像都轉化成48×48大小。卷積神經(jīng)網(wǎng)絡方法具有很強的魯棒性,因此并沒有使用具體的去噪方法進行去噪。

        3.2 網(wǎng)絡結構選擇

        在進行實驗之前需要了解多少層卷積結構才能使識別率最高,因為對于深度學習而言,隨著層數(shù)增加,結構能力越強,將會導致數(shù)據(jù)過擬合;但如果層數(shù)太少,結構能力太弱,又會導致數(shù)據(jù)欠擬合。這兩者都會導致訓練錯誤率和測試錯誤率升高。為了選擇卷積層數(shù),使用逐層增加的方法,直到隨著層數(shù)增加,識別率不再明顯變化,就可以確定最優(yōu)層數(shù)。這里使用的數(shù)據(jù)還是德國交通標志數(shù)據(jù)庫,分為訓練集和測試集。在選擇之前,每一層濾波器都是使用108個,濾波器隨機初始化,實驗結果如圖3所示。從圖3中可以看出,隨著層數(shù)增加識別率逐漸增加,隨后不變或者下降。因此關于卷積神經(jīng)網(wǎng)絡結構選擇三層最為合適,識別率也最高。

        而關于濾波器個數(shù)選擇,同樣也是先參考文獻[9-10],選擇默認卷積層數(shù)為3層,然后在這個基礎上再進行實驗,結果如表1所示。從表1可以看出,盡管濾波器越多正確率越高,但是如果選擇90- 108- 108結構,會因為濾波器過多而使得計算復雜,訓練時間過長。綜合考慮,選擇90- 108- 108,其中90代表第一層濾波器個數(shù),以此類推。

        圖3 識別率隨層數(shù)變化曲線

        表1 濾波器個數(shù)與正確率的關系

        Tab.1Relationshipbetweenthenumberoffiltersandcorrectrate

        尺寸正確率/%尺寸正確率/%50?90?13095.83108?130?15096.4190?108?10896.22130?160?19096.57

        在選擇好層數(shù)和濾波器個數(shù)后,在本次實驗中使用隱層層數(shù)為1;參考文獻[14],本次實驗使用隱層神經(jīng)元個數(shù)為500。

        3.3 訓練速度對比

        本次實驗設計的網(wǎng)絡結構是三層卷積神經(jīng)網(wǎng)絡、一個隱層和一個分類層,分類層分別使用softmax和SVM分類器,網(wǎng)絡訓練時間分別是830.38min和664.91min??梢钥闯?,使用SVM訓練時間明顯比softmax訓練時間短,因為對于softmax來說,當某類的概率已經(jīng)大于0.9時,這就意味著分類正確,然而損失函數(shù)會繼續(xù)計算,直到概率接近1,這樣會造成計算資源的浪費;而SVM分類器只專注于那些分類錯誤的樣本,對已經(jīng)分類正確的樣本不再處理,從而能大幅提高訓練速度,同時還能提高模型的泛化能力,提高識別率。因此后續(xù)實驗中的分類層采用SVM分類器。

        接下來實驗使用的網(wǎng)絡結構包括三個卷積層、兩個隱層和一個分類層;而對比結構也是三層卷積網(wǎng)絡結構,只是每一層卷積后都使用BN算法,然后是兩個隱層和一個分類層,其他參數(shù)兩個網(wǎng)絡結構完全相同。結果顯示:使用BN算法前的訓練時間為716.74min,而使用BN算法后的訓練時間為568.6min??梢钥闯?,在網(wǎng)絡結構中加入BN層后,訓練時間變短,原因在于:1)BN算法對卷積后的輸出數(shù)據(jù)進行了歸一化操作,使它們的均值為0、方差為1,因此不必像以前那樣遷就維度規(guī)模,可以使用大的學習率對網(wǎng)絡結構進行訓練,收斂加快,達到最優(yōu)的訓練時間也就變短;2)歸一化后使得更多的權重分界面落在了數(shù)據(jù)中,降低了過度擬合的可能性,因此一些防止過擬合但會降低速度的方法,例如dropout和權重衰減就可以不使用或者降低其權重,從而提高訓練速度。

        3.4 識別率對比

        為了驗證加入逐層貪婪預訓練 (GLP) 方法后比優(yōu)化前的三層卷積網(wǎng)絡更優(yōu),設計兩個結構完全一致的網(wǎng)絡,均包括三層卷積、一個隱層和一個分類層,只是在訓練方法上不同。結果顯示:優(yōu)化前的識別率為97.36%,優(yōu)化后的識別率為98.03%??梢钥闯?,使用GLP方法的識別率比優(yōu)化前的三層卷積識別率要高。在訓練深層網(wǎng)絡時,經(jīng)常會遇到局部極值問題或者梯度彌散問題,當使用反向傳播方法計算導數(shù)時,隨著網(wǎng)絡深度的增加,反向傳播的梯度(從輸出層到網(wǎng)絡的最初幾層)的幅度值會急劇地減小,結果就造成了整體的損失函數(shù)相對于最初幾層的權重的導數(shù)非常小。這樣,當使用梯度下降法時,最初幾層的權重變化非常緩慢,以至于它們不能夠從樣本中進行有效的學習。因此,當使用貪婪預訓練方法時,相比隨機初始化而言,各層初始權重會位于參數(shù)空間中較好的位置上,然后可以從這些位置出發(fā)進一步微調(diào)權重。從經(jīng)驗上來說,以這些位置為起點開始梯度下降更有可能收斂到比較好的局部極值點,從而使用逐層貪婪訓練方法能夠更好地訓練網(wǎng)絡,使網(wǎng)絡達到最優(yōu)。

        盡管本文算法還沒有達到官網(wǎng)公布的最優(yōu)識別率,但是該算法對原始卷積神經(jīng)網(wǎng)絡進行了優(yōu)化,用逐層貪婪方法預訓練網(wǎng)絡,使網(wǎng)絡跳出局部極值;而且在卷積網(wǎng)絡中加入BN層,把原來的softmax分類器換成了SVM分類器,極大地縮減了訓練時間,能快速收斂到最優(yōu)值。

        圖4是本次實驗訓練測試曲線,可以看出,網(wǎng)絡在測試之前參數(shù)已經(jīng)訓練到穩(wěn)定狀態(tài),證明結論是可信的。雖然Ciresan等[8]提出的CommitteeofCNNs算法有很高的識別率,然而該網(wǎng)絡需要用4塊GPU訓練37h,訓練前需進行大量的預處理,操作復雜;而RandomForests算法、ANN算法、SVM算法盡管訓練時間短,但識別率并不是很高(各算法的識別率對比如表2所示)。因此本文算法解決了識別率低、訓練時間長的問題。交通標志識別錯誤部分,主要是由自然條件比較差、分辨率太低造成的,今后應該加強數(shù)據(jù)預處理,使數(shù)據(jù)更加清晰,易于識別。

        圖4 訓練測試曲線

        表2 各算法識別率對比 %

        Tab.2 Comparison of recognition rates of different algorithms %

        4 結語

        本文提出了基于優(yōu)化卷積神經(jīng)網(wǎng)絡結構的交通標志識別算法,并在德國交通標志識別數(shù)據(jù)庫上進行實驗,實驗結果表明該算法可以提高交通標志的訓練速度,同時提高識別率。本文算法主要對卷積神經(jīng)網(wǎng)絡結構進行了三部分的優(yōu)化:第一,在每一層卷積后面加入了批量歸一化層;第二使用逐層貪婪預訓練方法對網(wǎng)絡結構進行訓練;第三使用支持向量機進行分類。下一步工作的目標是在更復雜的背景中,首先準確地檢測出交通標志,然后再識別出交通標志,真正實現(xiàn)交通標志的實時檢測與識別。

        )

        [1] 楊心.基于卷積神經(jīng)網(wǎng)絡的交通標識識別研究與應用 [D].大連: 大連理工大學, 2014:3-4.(YANGX.Researchandapplicationoftrafficsignrecognitionbasedonconvolutionalneuralnetwork[D].Dalian:DalianUniversityofTechnology, 2014:3-4.)

        [2]GREENHALGHJ,MIRMEHDIM.Real-timedetectionandrecognitionofroadtrafficsigns[J].IEEETransactionsonIntelligentTransportationSystems, 2012, 13(4): 1498-1506.

        [3]MEUTERM,NUNNYC,GORMERSM,etal.Adecisionfusionandreasoningmoduleforatrafficsignrecognitionsystem[J].IEEETransactionsonIntelligentTransportationSystems, 2011, 12(4): 1126-1134

        [4]LOWEDG.Distinctiveimagefeaturesfromscale-invariantkeypoints[J].InternationalJournalofComputerVision, 2004, 60(2): 91-110.

        [5]BAYH,TUYTELAARST,VANGOOLL.SURF:SpeededUpRobustFeatures[C]//ECCV2006:Proceedingsofthe9thEuropeanConferenceonComputerVision,LNCS3951.Berlin:Springer-Verlag, 2006: 404-417.

        [6]DALALN,TRIGGSB.Histogramsoforientedgradientsforhumandetection[C]//CVPR’05:Proceedingsofthe2005IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.Washington,DC:IEEEComputerSociety, 2005, 1: 886-893.

        [7]MATSUGUM,MORIK,MITARIY,etal.Subjectindependentfacialexpressionrecognitionwithrobustfacedetectionusingaconvolutionalneuralnetwork[J].NeuralNetworks— 2003Specialissue:AdvancesinNeuralNetworksResearch—IJCNN’03, 2003, 16(5/6): 555-559.

        [8]CIREAND,MEIERU,MASCIJ,etal.Multi-columndeepneuralnetworkfortrafficsignclassification[J].NeuralNetworks, 2012, 32: 333-338.

        [9]SERMANETP,LeCUNY.Trafficsignrecognitionwithmulti-scaleconvolutionalnetworks[C]//IJCNN2011:Proceedingsofthe2011InternationalJointConferenceonNeuralNetworks.Piscataway,NJ:IEEE, 2011: 2809-2813.

        [10]KRIZHEVSKYA,SUTSKEVERI,HINTONGE.ImageNetclassificationwithdeepconvolutionalneuralnetworks[J].AdvancesinNeuralInformationProcessingSystems, 2012, 25(2): 1097-1105.

        [11]IOFFES,SZEGEDYC.Batchnormalization:acceleratingdeepnetworktrainingbyreducinginternalcovariateshift[C]//ICML2015:ProceedingsofThe32ndInternationalConferenceonMachineLearning.NewYork:ACM, 2015: 448-456.

        [12]BENGIOY,LAMBLINP,POPOVICID,etal.Greedylayer-wisetrainingofdeepnetworks[C]//NIPS’06:Proceedingsofthe19thInternationalConferenceonAdvancesinNeuralInformationProcessingSystems.Cambridge,MA:MITPress, 2007: 153-160.

        [13]HOUBENS,STALLKAMPJ,SALMENJ,etal.Detectionoftrafficsignsinreal-worldimages:theGermantrafficsigndetectionbenchmark[C]//IJCNN2013:Proceedingsofthe2013InternationalJointConferenceonNeuralNetworks.Washington,DC:IEEEComputerSociety, 2013: 715-722.

        [14]QIANR,ZHANGB,YUEY,etal.Robustchinesetrafficsigndetectionandrecognitionwithdeepconvolutionalneuralnetwork[C]//ICNC2015:Proceedingsofthe2015InternationalConferenceonNaturalComputation.Washington,DC:IEEEComputerSociety, 2015: 791-796.

        ThisworkispartiallysupportedbytheNationalNaturalScienceFoundationofChina(61573357,61503382,61403370, 61273267).

        WANG Xiaobin, born in 1990, M.S.candidate.His research interests include image recognition, object detection.

        HUANG Jinjie, born in 1967, Ph.D., professor.His research interests include intelligent modeling, optimization control, pattern recognition.

        LIU Wenju, born in 1960, Ph.D., professor.His research interests include machine learning, speech enhancement, speech recognition, sound source localization, sound event detection, image recognition.

        Traffic sign recognition based on optimized convolutional neural network architecture

        WANG Xiaobin1, HUANG Jinjie1, LIU Wenju2*

        (1.SchoolofAutomation,HarbinUniversityofScienceandTechnology,HarbinHeilongjiang150080,China;2.InstituteofAutomation,ChineseAcademyofSciences,Beijing100190,China)

        In the existing algorithms for traffic sign recognition, sometimes the training time is short but the recognition rate is low, and other times the recognition rate is high but the training time is long.To resolve these problems, the Convolutional Neural Network (CNN) architecture was optimized by using Batch Normalization (BN) method, Greedy Layer-Wise Pretraining (GLP) method and replacing classifier with Support Vector Machine (SVM), and a new traffic sign recognition algorithm based on optimized CNN architecture was proposed.BN method was used to change the data distribution of the middle layer, and the output data of convolutional layer was normalized to the mean value of 0 and the variance value of 1, thus accelerating the training convergence and reducing the training time.By using the GLP method, the first layer of convolutional network was trained with its parameters preserved when the training was over, then the second layer was also trained with the parameters preserved until all the convolution layers were trained completely.The GLP method can effectively improve the recognition rate of the convolutional network.The SVM classifier only focused on the samples with error classification and no longer processed the correct samples, thus speeding up the training.The experiments were conducted on Germany traffic sign recognition benchmark, the results showed that compared with the traditional CNN, the training time of the new algorithm was reduced by 20.67%, and the recognition rate of the new algorithm reached 98.24%.The experimental results prove that the new algorithm greatly shortens the training time and reached a high recognition rate by optimizing the structure of the traditional CNN.

        Convolutional Neural Network (CNN); batch normalization; Greedy Layer-wise Pretraining (GLP); Support Vector Machine (SVM)

        2016- 07- 28;

        2016- 09- 21。 基金項目:國家自然科學基金資助項目(61573357, 61503382, 61403370, 61273267)。

        王曉斌(1990—),男,山東濰坊人,碩士研究生,主要研究方向:圖像識別、目標檢測; 黃金杰(1967—),男,山東萊陽人,教授,博士,主要研究方向:智能建模、優(yōu)化控制、模式識別; 劉文舉(1960—),男,北京人,教授,博士,主要研究方向:機器學習、語音增強、語音識別、聲源定位、聲音事件檢測、圖像識別。

        1001- 9081(2017)02- 0530- 05

        10.11772/j.issn.1001- 9081.2017.02.0530

        TP391.41

        A

        猜你喜歡
        交通標志識別率分類器
        交通標志認得清
        基于雙向特征融合的交通標志識別
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
        計算機工程(2020年3期)2020-03-19 12:24:50
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關系
        提升高速公路MTC二次抓拍車牌識別率方案研究
        BP-GA光照分類器在車道線識別中的應用
        電子測試(2018年1期)2018-04-18 11:52:35
        加權空-譜與最近鄰分類器相結合的高光譜圖像分類
        結合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
        高速公路機電日常維護中車牌識別率分析系統(tǒng)的應用
        交通標志小課堂
        中文亚洲爆乳av无码专区| 一二三四五区av蜜桃| 噜噜噜噜私人影院| 少妇太爽了在线观看免费视频| 国产mv在线天堂mv免费观看| 亚洲第一区二区快射影院| 精品国模人妻视频网站| 东北女人一级内射黄片| 久久久久亚洲精品无码蜜桃| 国产一区二区三区影院| 国产av一区二区三区区别| 丁香婷婷激情俺也去俺来也| 美女视频一区二区三区在线| 亚洲国产欧美在线观看| 理论片87福利理论电影| 亚洲中文久久久久无码| 风间由美中文字幕在线| 音影先锋中文字幕在线| 亚洲日韩一区精品射精| 亚洲综合色丁香婷婷六月图片| 视频二区 无码中出| 免费视频亚洲一区二区三区| 99久久无码一区人妻| 色多多a级毛片免费看| 国精品无码一区二区三区在线看| 亚洲精品一区二区三区国产| 亚洲国产中文字幕无线乱码| 欧美三级不卡在线观看| 国产精品国产三级国产av′| 欧美丝袜秘书在线一区| 亚洲熟女av在线观看| 东京热人妻系列无码专区| 国产精品午夜无码av天美传媒| 日韩中文字幕久久久经典网| 一区二区三区四区午夜视频在线| 友田真希中文字幕亚洲| 欧洲女人性开放免费网站| 精品综合久久久久久8888| 久久精品国产亚洲av夜夜| 亚洲最新无码中文字幕久久| 亚洲乱码中文字幕综合|