陳仿雄,程良倫,黃國(guó)恒
(廣東工業(yè)大學(xué) 自動(dòng)化學(xué)院,廣州 510006)
車(chē)輛識(shí)別系統(tǒng)作為智能交通系統(tǒng)(ITS)中的關(guān)鍵子系統(tǒng).車(chē)標(biāo)識(shí)別提供車(chē)輛制造商最重要的信息,正確識(shí)別車(chē)標(biāo)將有助于車(chē)輛身份的確定.因此對(duì)于車(chē)標(biāo)快速準(zhǔn)確的識(shí)別在如違章停車(chē)、假套牌檢測(cè)、違章車(chē)輛逃逸等方面有著廣泛的應(yīng)用.然而,相比較于目前成熟的車(chē)牌識(shí)別技術(shù),專(zhuān)門(mén)對(duì)于車(chē)標(biāo)識(shí)別研究的人員相對(duì)較少.
國(guó)內(nèi)外已有不少學(xué)者對(duì)車(chē)標(biāo)的定位與識(shí)別進(jìn)行研究,取得了不錯(cuò)的成果[1].車(chē)標(biāo)檢測(cè)識(shí)別一般包括兩個(gè)步驟:定位和識(shí)別.由于車(chē)標(biāo)的形狀各異,導(dǎo)致了車(chē)標(biāo)定位是比較困難的,因此一般比較流行的方法采用先驗(yàn)知識(shí)作為互補(bǔ)信息[2,3].他們首先找到一些明顯的對(duì)象,如車(chē)牌和車(chē)頭燈,根據(jù)相對(duì)位置或?qū)ΨQ(chēng)性來(lái)繪制包含車(chē)標(biāo)的粗糙區(qū)域,然后,利用大多數(shù)標(biāo)志具有豐富的垂直邊緣或者與車(chē)身純背景的可區(qū)分的顏色特征,在該區(qū)域從粗略到精細(xì)掃描處理,進(jìn)行精準(zhǔn)定位.
對(duì)于車(chē)標(biāo)識(shí)別,現(xiàn)有方法主要是基于模板匹配,特征點(diǎn)以及邊緣檢測(cè)等.模板匹配一種比較傳統(tǒng)的圖像分類(lèi)方法,文獻(xiàn)[4,5]提出一種使用模板匹配和邊緣方向直方圖進(jìn)行車(chē)標(biāo)分類(lèi)的方法.然而這種方法通常需要大量的模板樣本的收集,比較耗時(shí),而且容易受到圖像質(zhì)量的影響,導(dǎo)致識(shí)別結(jié)果降低,而且在匹配的過(guò)程比較耗時(shí),不滿(mǎn)足實(shí)時(shí)性.為此文獻(xiàn)[6]使用主成份分析法(PCA)與不變矩對(duì)車(chē)標(biāo)進(jìn)行識(shí)別,這些方法相對(duì)簡(jiǎn)單,速度較快,但準(zhǔn)確率較為一般.基于特征點(diǎn)識(shí)別的方法[7-9],比如SIFT,文獻(xiàn)[9]提出一種基于SIFT的增強(qiáng)匹配算法,提高的識(shí)別精準(zhǔn)度,但是基于特征點(diǎn)的算法對(duì)于原始圖像要有比較高的分辨率,對(duì)于低分辨率的圖像識(shí)別效果比較差.許多車(chē)標(biāo)識(shí)別方法基于邊緣的特征來(lái)對(duì)圖像進(jìn)行分類(lèi),如形狀描述符.然而難以從低分辨率圖像準(zhǔn)確地提取邊緣.隨著深度學(xué)習(xí)的發(fā)展,為提取低分辨圖像特征提供了一種新的方法[10-12].文獻(xiàn)[13]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)模型的方法,達(dá)到了精準(zhǔn)識(shí)別的要求,但是訓(xùn)練時(shí)間過(guò)長(zhǎng),不滿(mǎn)足實(shí)時(shí)性的要求.
總之,單一方法幾乎不能很好的處理低分辨率圖像,然而在實(shí)際應(yīng)用中,車(chē)輛圖像有懸掛在街道交叉口處的相機(jī)進(jìn)行捕獲,具有1024×768的分辨率,因此對(duì)于前視圖中車(chē)標(biāo)具有相對(duì)較小的尺寸和分辨率.為了解決這一問(wèn)題,本文提出一種基于D-S證據(jù)理論的多特征融合方法,結(jié)合不變矩所具有的旋轉(zhuǎn)、縮放和平移的不變性以及HOG特征,利用D-S證據(jù)理論組合不完全、不清晰信息的優(yōu)勢(shì),根據(jù)決策規(guī)則得到最終的識(shí)別,有效提高對(duì)于低質(zhì)圖像的識(shí)別準(zhǔn)確度,相比于單一特征識(shí)別更具有魯棒性.
幀為了提高識(shí)別率,將采集到得圖像進(jìn)行預(yù)處理.首先對(duì)于圖像進(jìn)行幾何歸一化為70×70,為了提高圖像對(duì)光照的魯棒性,對(duì)圖像進(jìn)行光照預(yù)處理,步驟如下:
Step 1.對(duì)圖像進(jìn)行γ校正,來(lái)抑制高亮和增強(qiáng)高暗像素點(diǎn):
Step 2.對(duì)圖像進(jìn)行差分高斯濾波(DoG),用來(lái)消除圖像陰影以及一些高頻和低頻噪音的干擾.參數(shù)根據(jù)Tan[9]等實(shí)驗(yàn)參數(shù)進(jìn)行設(shè)置A1,A2為1.0,σ1為2,σ2為1.5.
Step 3.對(duì)圖像進(jìn)行對(duì)比度均衡化,使得圖像的局部特征更加突顯.
HOG特征是由SIFT特征演變而來(lái)[14],主要是通過(guò)計(jì)算局部區(qū)域的梯度方向直方圖作為特征.
Step 1.首先將已預(yù)處理后的圖像分割為若干個(gè)7×7的像素單元block.
Step 2.將block均勻分成4個(gè)小塊(此處稱(chēng)為cell)計(jì)算cell內(nèi)每個(gè)像素點(diǎn)的梯度方向和幅值.并將梯度方向劃分為m個(gè)方向,統(tǒng)計(jì)單元內(nèi)每個(gè)像素的梯度方向落在這m個(gè)方向塊中的個(gè)數(shù)即得到該單元的方向梯度直方圖.如圖1所示,式(3),式(4)中的 θ (x,y)為梯度方向,m(x,y)為幅值.
圖1 HOG特征提取過(guò)程圖
Step 3.將block內(nèi)的cell梯度直方圖連接成為一個(gè)直方圖,表示在該區(qū)域的HOG特征.
Step 4.對(duì)于整幅圖以7個(gè)像素的步長(zhǎng)進(jìn)行滑動(dòng)檢測(cè),串聯(lián)所有區(qū)域的梯度直方圖,作為整幅圖的HOG特征.
不變矩特征[15]常被用作圖像特征的描述參數(shù).通過(guò)提取具有平移、旋轉(zhuǎn)和比例不變性的圖像特征,基于區(qū)域的幾個(gè)矩作為形狀特征,進(jìn)行圖像識(shí)別.
一副數(shù)字圖像f(x,y)的二維(p+q)階矩定義為,其中,p,q=0,1,2,···.
相應(yīng)的中心距定義為:
歸一化(p+q)階中心距定義為:
其中,r=(p+q+2)/2,p+q=2,3,···.
基于區(qū)域的不變矩理論構(gòu)造出7個(gè)平移、旋轉(zhuǎn)、縮放和尺度不變矩(簡(jiǎn)稱(chēng)Hu矩)[15],以下為7個(gè)不變矩的計(jì)算公式:
D-S證據(jù)理論[16]由Dempster提出并Shafer完善的,原理如下:
設(shè) θ為識(shí)別框架,若集函數(shù)滿(mǎn)足不可能事件概率為0,即m(φ)=0,以及θ 中的所有元素的基本概率之和為1,即則稱(chēng)m為框架θ 上的概率分配函數(shù),m(A)為對(duì)命題A的基本概率分配(BPA),表示對(duì)于命題A的信任程度.
D-S合成規(guī)則為:設(shè)m1,m2,···,mn是 識(shí)別框架θ 上不同證據(jù)的基本概率分布(BPA),其正交和m=m1⊕m2⊕ ···⊕mn,運(yùn)算為:其中,N表示證據(jù)間的沖突度.式(8)為證據(jù)理論融合公式,能夠?qū)⑷舾蓚€(gè)不同的來(lái)源的獨(dú)立證據(jù)結(jié)合起來(lái),獲得更加準(zhǔn)確的數(shù)據(jù).
本文結(jié)合不變矩所具有的旋轉(zhuǎn)、縮放和平移的不變性以及HOG特征,利用D-S證據(jù)理論組合不完全、不清晰信息的優(yōu)勢(shì),根據(jù)決策規(guī)則得到最終的識(shí)別類(lèi)型.本文提出的車(chē)標(biāo)識(shí)別模型如圖2所示,算法步驟如下:
圖2 車(chē)標(biāo)特征識(shí)別示意圖
2.1.1 不變矩的基本概率分配
由于歐式距離能夠有效反映出不同圖像之間的相似度,距離越大,則相似性就越小,針對(duì)不變矩所獲得的圖像特征值,構(gòu)建基本概率分配的具體步驟如下:
假設(shè)n1,n2,···,ni分別表示訓(xùn)練車(chē)標(biāo)樣本,矢量(i=1,2,···,7)描述車(chē)標(biāo)特征.測(cè)試車(chē)標(biāo)圖像表示為矢量,分別計(jì)算訓(xùn)練樣本和測(cè)試樣本之間的歐氏距離,分別表示為di,1,di,2,···,di,ni.
從di,1,di,2,···,di,ni中選擇測(cè)試樣本到第i個(gè)訓(xùn)練樣本之間的最小值,即di=min(di,1,di,2,···,di,ni),因?yàn)閐i得真實(shí)值為[ 0 ,∞],因此進(jìn)行歸一化:
其中,ni表示為總的車(chē)標(biāo)樣本.
根據(jù)式(10)構(gòu)造滿(mǎn)足D-S證據(jù)理論的不變矩基本概率分配m(Ai)
2.1.2 HOG的基本概率分配
為了構(gòu)造HOG的基本概率分配,采用Chen等人[11]提出將二分類(lèi)邏輯回歸擴(kuò)展為多分類(lèi).從訓(xùn)練數(shù)據(jù)X中獲得K類(lèi)yi∈ 1,2,···,K,對(duì)于每一類(lèi)的概率p(yi=k|Xi)可以表示為:
其中,w是由權(quán)重組成的矩陣,b為多類(lèi)邏輯回歸模型的偏值.
由于車(chē)標(biāo)形狀各異,保證多分類(lèi)邏輯回歸具有最佳的性能,減少LR分類(lèi)器訓(xùn)練時(shí)發(fā)生過(guò)擬合的情況,因此本文在定義損失函數(shù)L(w)時(shí)添加了參數(shù)w的L2正則化項(xiàng)即:
其中,l(yi=k)是指示函數(shù),若yi=k為真,則等于1,否則等于0.
因此對(duì)于一個(gè)測(cè)試樣本X*,HOG的基本概率分配函數(shù)可定義為:
根據(jù)上述兩個(gè)證據(jù)在同一個(gè)(識(shí)別框架下的基本概率分布(BPA)分別為m(Ai)和mBj,合成法則可以表示為考慮到若存在集合Ai,Bj,使得Ai∩Bj=φ,且m(Ai)>0,m(Bj)>0,此時(shí)使用D-S證據(jù)理論,將會(huì)導(dǎo)出m(φi)=0,與BPA函數(shù)的定義相悖,因進(jìn)行修正,取沖突權(quán)值為修正系數(shù)K的對(duì)數(shù).即,考慮到證據(jù)之間的沖突,令k=1/K,當(dāng)k=0時(shí)證據(jù)完全沖突,反之,k越大沖突越小,對(duì)D-S合成法則進(jìn)行如下改進(jìn):
通過(guò)式(14)求得融合后的信任度m(C)必須滿(mǎn)足以下規(guī)則:
(1)m(C)應(yīng)具有最大的基本概率分配值;
(2)目標(biāo)類(lèi)別m(C)與其他類(lèi)基本概率分配值之差應(yīng)大于某個(gè)門(mén)限;
(3)目標(biāo)類(lèi)別m(C)必須大于某一門(mén)限
(4)若不滿(mǎn)足上述3條,則識(shí)別結(jié)果為“不確定”.
本文的車(chē)標(biāo)圖片來(lái)自于交通卡口監(jiān)控視頻拍攝的車(chē)輛圖片,共有12種車(chē)標(biāo)圖片合計(jì)6000張,其中訓(xùn)練集數(shù)據(jù)每一類(lèi)400張車(chē)標(biāo)圖像,測(cè)試集每一類(lèi)車(chē)標(biāo)為100張.本實(shí)驗(yàn)在Intel i5,2.5 GHz CPU,4 GB內(nèi)存的Windows平臺(tái)下進(jìn)行.車(chē)標(biāo)圖像歸一化為70×70像素,如圖3所示為經(jīng)過(guò)車(chē)標(biāo)定位獲得,分別為Buick、Chery、Citroen、Honda、Hyundai、lexus、Mazda、Peugeot、Toyata、Volkswagen、Chevrolet、Benz.
圖3 車(chē)標(biāo)樣本
為了驗(yàn)證本文所提出方法,提取車(chē)標(biāo)的HU不變矩特征和HOG特征,分別比較單一特征分類(lèi)的識(shí)別結(jié)果和本文所提出的融合方法識(shí)別結(jié)果.根據(jù)式(7)對(duì)每一個(gè)訓(xùn)練樣本進(jìn)行計(jì)算,取平均值從而獲得對(duì)應(yīng)每一類(lèi)車(chē)標(biāo)特定的7個(gè)特征值.根據(jù)歐式距離公式求得車(chē)標(biāo)測(cè)試樣本的分類(lèi)結(jié)果,如表1所示.
對(duì)于所提取的HOG特征,采用多分類(lèi)邏輯回歸作為作為分類(lèi)器,實(shí)驗(yàn)結(jié)果如表2所示.
根據(jù)上述實(shí)驗(yàn)結(jié)果可知單一特征識(shí)別率偏低,主要由于車(chē)標(biāo)樣本的分辨率以及光照變化的影響比較大,導(dǎo)致單一特征的識(shí)別信度值偏度,缺乏可靠性和穩(wěn)定性.因此本文提出一種基于D-S證據(jù)理論,融合不變矩特征和HOG特征,融合后的信度值相比于單特征的信度值,能夠增加實(shí)際目標(biāo)的信任度,降低目標(biāo)識(shí)別的不確定性.對(duì)1200張測(cè)試樣本進(jìn)行混合分成5組,實(shí)驗(yàn)結(jié)果如表3所示.
表1 Hu不變矩分類(lèi)結(jié)果
表2 HOG分類(lèi)結(jié)果
表3 不同算法的識(shí)別結(jié)果
為了更好驗(yàn)證融合特征的優(yōu)越性,本文將與文獻(xiàn)[17]提出的一種基于LBP與HOG聯(lián)合特征的車(chē)標(biāo)識(shí)別方法進(jìn)行比較,在同等條件下,本文提出基于D-S證據(jù)理論,進(jìn)行特征融合,相比于文獻(xiàn)[17]所提算法在光照變化和噪聲污染等情況下,都保持著較高的車(chē)標(biāo)識(shí)別率,具有一定的魯棒性,但在算法識(shí)別的時(shí)間上,本文提出的算法相對(duì)更短,更加滿(mǎn)足實(shí)時(shí)性的要求,識(shí)別結(jié)果如表4所示.
傳統(tǒng)的單一特征識(shí)別的算法雖然取得不錯(cuò)的識(shí)別結(jié)果,但是對(duì)車(chē)標(biāo)圖像的質(zhì)量要求比較高,不能很好識(shí)別出低分辨、低質(zhì)的車(chē)標(biāo)圖像,因此本文提出一種基于D-S證據(jù)理論,進(jìn)行特征融合的方法,對(duì)于每一類(lèi)車(chē)標(biāo)提取的特征進(jìn)行融合,以信度值得大小作為最終的判別依據(jù),能夠有效解決對(duì)于低分辨圖像提取特征不足導(dǎo)致識(shí)別率較低的問(wèn)題.
表4 本文算法與文獻(xiàn)算法分析比較