沈子龍
摘 要:通常在相對(duì)復(fù)雜的場(chǎng)景下,會(huì)對(duì)入場(chǎng)車輛產(chǎn)生嚴(yán)重遮擋的情況,再加之部分車輛尺寸較小,所以車輛識(shí)別系統(tǒng)在識(shí)別車輛的過(guò)程中會(huì)存在別率低、虛警率高等難題。為了有效解決該問(wèn)題,本次研究中提出一種基于深度學(xué)習(xí)的復(fù)雜場(chǎng)景下有效識(shí)別車輛的方法??梢愿鶕?jù)場(chǎng)景當(dāng)中車輛存在的特點(diǎn),以可視化解析的方式分析公開(kāi)數(shù)據(jù)集當(dāng)中的標(biāo)注性文件,運(yùn)用深度學(xué)習(xí)對(duì)復(fù)雜場(chǎng)景下車輛進(jìn)行有效識(shí)別。
關(guān)鍵詞:深度學(xué)習(xí);車輛識(shí)別;應(yīng)用
0.? 引言
我國(guó)城市化的不斷深入以及交通道路的快速發(fā)展使我國(guó)公路車輛的數(shù)量不斷攀升,進(jìn)而造成城市交通擁堵、難停車等一系列負(fù)面問(wèn)題。為了減輕這類問(wèn)題的嚴(yán)重性,有學(xué)者提出使用深度學(xué)習(xí)法分析與調(diào)整城市交通和停車狀況,從而引發(fā)一定程度上的關(guān)注。
對(duì)于復(fù)雜場(chǎng)景下的目標(biāo)識(shí)別方法,國(guó)內(nèi)外學(xué)者提出了許多的內(nèi)容和觀點(diǎn)。盡管如此,但是在車輛識(shí)別的過(guò)程中都會(huì)面臨著目標(biāo)圖像背景復(fù)雜、尺寸相差大、遮擋嚴(yán)重等因素引起的目標(biāo)識(shí)別率較低、虛警率高、實(shí)時(shí)性差等一系列問(wèn)題。
在研究過(guò)程中,發(fā)現(xiàn) YOLO v2利用回歸法可以實(shí)現(xiàn)車輛的分類與檢測(cè)同步進(jìn)行,進(jìn)而使車輛的訓(xùn)練與識(shí)別實(shí)踐縮短。
為了滿足復(fù)雜的場(chǎng)景下有效識(shí)別車輛的需要,本次研究在 YOLO v2網(wǎng)絡(luò)模型基礎(chǔ)上提出深度學(xué)習(xí)的車輛識(shí)別方法,配合標(biāo)注文件解析等方法規(guī)范數(shù)據(jù)集標(biāo)注文件,確保學(xué)習(xí)樣本的準(zhǔn)確性。在運(yùn)用回歸的基礎(chǔ)上使計(jì)算速度得到提升。經(jīng)過(guò)實(shí)踐應(yīng)用最終得出結(jié)論,基于深度學(xué)習(xí)的車輛識(shí)別算法可以有效的提升車輛識(shí)別率,實(shí)用性較強(qiáng)。
1.? 深度學(xué)習(xí)基礎(chǔ)上的車輛快速識(shí)別方法
1.1???? 數(shù)據(jù)預(yù)處理
數(shù)據(jù)預(yù)處理的終于要內(nèi)容包括對(duì)數(shù)據(jù)的裁剪、標(biāo)注、批量規(guī)范、化、數(shù)據(jù)增強(qiáng)。
(1) 對(duì)標(biāo)注文件進(jìn)行可視化解析與調(diào)整
通過(guò)對(duì)攝像頭和網(wǎng)絡(luò)采集的數(shù)據(jù)進(jìn)行人為標(biāo)注,在深度網(wǎng)絡(luò)模型訓(xùn)練當(dāng)中可能會(huì)用到這些數(shù)據(jù)。
在本次研究中使用 LabelImg 法對(duì)每張圖片當(dāng)中存在的車輛進(jìn)行標(biāo)注并整理訓(xùn)練數(shù)據(jù)集,每張圖片現(xiàn)實(shí)汽車標(biāo)注的工作完成以后,使用 Labe- lImg 法會(huì)在原圖目錄的基礎(chǔ)上,會(huì)生成與原圖相匹配的 xml 格式文件,在這個(gè)文件的內(nèi)容中,對(duì)該圖片的路徑、標(biāo)記框的相對(duì)位置、標(biāo)記框內(nèi)物體的類別等內(nèi)容進(jìn)行了明確的標(biāo)注[1]。
如果發(fā)現(xiàn)需要標(biāo)注的圖像當(dāng)中車輛太小,就可以選擇放棄將次圖片加入到訓(xùn)練集當(dāng)中。
微軟公司的 COCO 公共數(shù)據(jù)集圖像無(wú)法實(shí)現(xiàn)對(duì)觀察標(biāo)注框內(nèi)部包圍車輛的實(shí)際情況進(jìn)行清晰觀察。為了避免這種情況帶來(lái)的一系列負(fù)面問(wèn)題,所以在本次研究編寫腳本的過(guò)程中可以用可視化分析方法處理公共數(shù)據(jù)集標(biāo)注文件,重新標(biāo)注漏標(biāo)、誤標(biāo)等一系列情況,進(jìn)而使訓(xùn)練數(shù)據(jù)集的質(zhì)量得到提升。
(2) 增強(qiáng)數(shù)據(jù)
所謂的數(shù)據(jù)增強(qiáng)是在每一次訓(xùn)練正式開(kāi)始之前在特定范圍內(nèi)旋轉(zhuǎn)、對(duì)隨即曝光度進(jìn)行設(shè)計(jì)、對(duì)隨機(jī)飽和度進(jìn)行設(shè)計(jì)。
通過(guò)增強(qiáng)數(shù)據(jù)等方式可以有效預(yù)處理訓(xùn)練集,進(jìn)而在最大程度上降低由于計(jì)算機(jī)視覺(jué)模型泛化產(chǎn)生的誤差。在實(shí)際的測(cè)試過(guò)程中,可以把同一輸入通過(guò)不同的版本傳遞到模型,模型比例的不同決定了模型輸出的不同,即通過(guò)集成法有效解決問(wèn)題,泛化誤差程度被降低。結(jié)合傳感器的采集特點(diǎn)可以實(shí)現(xiàn)在將訓(xùn)練集和驗(yàn)證集融入到特定場(chǎng)景的圖像當(dāng)中,由此場(chǎng)景目標(biāo)識(shí)別的效果就會(huì)得到增強(qiáng)。
1.2???? YOLO 模型的物體識(shí)別方法
使用 YOLO 模型的物體識(shí)別方法可以實(shí)現(xiàn)對(duì)回歸問(wèn)題進(jìn)行求解,進(jìn)而使原始圖像從輸入到輸出物體的位置與類別[2]。
使用 YOLO 模型的物體識(shí)別方法,無(wú)論是檢測(cè)還是訓(xùn)練都是在一個(gè)獨(dú)立的網(wǎng)絡(luò)中進(jìn)行的。 YOLO v2使用全新的網(wǎng)絡(luò),常用的卷積核為3*3, 一次池化操作結(jié)束后,通道的數(shù)量就會(huì)出現(xiàn)翻倍增長(zhǎng)。YOLO 模型的物體識(shí)別方法在使用的過(guò)程中可以引用 network in network 思想,將卷積核1*1穿插在卷積核3*3中間,使目標(biāo)特征被壓縮。
YOLO v2技術(shù)的內(nèi)部含有卷積層、最大值池化層,分別是19個(gè)、5個(gè)。最后一層網(wǎng)絡(luò)數(shù)量為13*13,相比曾經(jīng)的7*7網(wǎng)絡(luò),處理細(xì)粒度目標(biāo)數(shù)量就會(huì)出現(xiàn)成倍增加,相比26*26的特征,與13*13實(shí)現(xiàn)同時(shí)決策,包括貢獻(xiàn)為雙層、SSD 網(wǎng)絡(luò)大于4層都是相等的,因而計(jì)算量增加程度并不顯著。
為了使 YOLO v2可以在任何尺度下進(jìn)行任務(wù)檢測(cè),有學(xué)者曾試驗(yàn)使用分辨率不同的圖片使網(wǎng)絡(luò)的適應(yīng)性得到提升,不過(guò)該方法只運(yùn)用到了卷積層與池化層,如此一來(lái)在進(jìn)行動(dòng)態(tài)調(diào)整時(shí)將會(huì)更加有效[3]。
2.? 實(shí)踐與分析
為了證明上述分析的有效性,接下來(lái)通過(guò) COCO 數(shù)據(jù)集和 PCAR 數(shù)據(jù)集分析與對(duì)比不同深度學(xué)習(xí)網(wǎng)絡(luò)模型識(shí)別性能[3]。
COCO 數(shù)據(jù)集是一種以微軟維護(hù)為前提的圖像數(shù)據(jù)集,可以進(jìn)行一系列的機(jī)器視覺(jué)任務(wù)的數(shù)據(jù)集工作,包括識(shí)別對(duì)象、分割圖像、識(shí)別圖片中字幕等工作。
COCO 數(shù)據(jù)集具有較為強(qiáng)大的工作能力,可以處理圖像數(shù)量大于30萬(wàn)、實(shí)例大于200萬(wàn)、對(duì)象80大于類實(shí)現(xiàn)同時(shí)處理。本次研究中僅選擇數(shù)據(jù)集當(dāng)中的一部分進(jìn)行使用,數(shù)據(jù)集主要由兩部分組成,含其中車輛訓(xùn)練圖8290張、車輛測(cè)試圖4051張,圖片分辨率全部都在640*640以下。
本次研究進(jìn)行了三組實(shí)驗(yàn)進(jìn)行相互對(duì)比,在實(shí)驗(yàn)中除了運(yùn)用到 YOLO 以外,還運(yùn)用到了 SSD 以及改良版的 COCO 算法,數(shù)據(jù)上行訓(xùn)練集結(jié)束后,可以使用 COCO 測(cè)試集進(jìn)行測(cè)試。
本次研究中運(yùn)用到 YOLO、SSD、改良版 COCO 數(shù)據(jù)三種技術(shù),通過(guò)三種算法對(duì) COCO 數(shù)據(jù)集進(jìn)行訓(xùn)練,分別對(duì)同一張圖片進(jìn)行測(cè)試,測(cè)試效果相對(duì)直觀,首先在 YOLO 、SSD、改良版 COCO 測(cè)試結(jié)果技術(shù)的基礎(chǔ)上觀察車輛識(shí)別效果,可以清晰的看出無(wú)論使用 YOLO 還是 SSD 模型進(jìn)行圖片測(cè)試,均存在虛警現(xiàn)象,YOLO 技術(shù)會(huì)出現(xiàn)將多輛車與背景識(shí)別為一輛車的情況,SSD 技術(shù)車輛識(shí)別圖像當(dāng)中會(huì)將公路、花壇、摩托車錯(cuò)誤的識(shí)別為車輛。改良版 COCO 可以在一定程度上規(guī)避將其它目標(biāo)或背景錯(cuò)誤識(shí)別為車輛[4]。
經(jīng)過(guò)實(shí)踐證明,改良版 COCO 增強(qiáng)了車輛識(shí)別精確強(qiáng)度,將虛警現(xiàn)象有效消除。
結(jié)論:
復(fù)雜場(chǎng)景下的車輛識(shí)別是長(zhǎng)期以來(lái)對(duì)工作人員造成困擾的一項(xiàng)難題,本次研究從深度學(xué)習(xí)的角度出發(fā)對(duì)復(fù)雜場(chǎng)景下車輛識(shí)別方法進(jìn)行研究。具體做法是針對(duì)傳統(tǒng)的 COCO 法文件進(jìn)行重新標(biāo)注,隨后使用 YOLO、SSD 以及改良版的 COCO 法對(duì)復(fù)雜場(chǎng)景下的車輛識(shí)別進(jìn)行實(shí)踐分析,發(fā)現(xiàn)無(wú)論是 YOLO 還是 SSD 都存在將周圍的非車輛目標(biāo)識(shí)別為車輛,進(jìn)而增大了實(shí)驗(yàn)誤差,最終結(jié)果顯示改良版的 COCO 法在復(fù)雜場(chǎng)景下的車輛識(shí)別工作中展現(xiàn)出更出眾的效果。
參考文獻(xiàn):
[1] 石鑫,趙池航,林盛梅,李彥偉,薛善光,錢子晨.基于深度學(xué)習(xí)網(wǎng)絡(luò)模型的車輛類型識(shí)別方法研究 [J]. 筑路機(jī)械與施工機(jī)械化,2020,37(04):67-73+78.
[2] 程遠(yuǎn)航,吳銳.基于圖像實(shí)例分割的行人車輛檢測(cè)識(shí)別方法[J].信息與電腦(理論版),2020,32(06):130-132.
[3] 石鑫,趙池航,張小琴,李彥偉,薛善光,毛迎兵.基于融合特征稀疏編碼模型的車輛品牌識(shí)別方法[J].筑路機(jī)械與施工機(jī)械化,2020,37(03):59-63.[4]朱文佳,付源梓,金強(qiáng),余燁.視角相關(guān)的車輛型號(hào)精細(xì)識(shí)別方法[J].合肥工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,43(02):205-210+279.
[5] 蘇婕,張磊,申欣,徐海豐.基于號(hào)牌識(shí)別數(shù)據(jù)的車輛出行鏈分離方法研究[J].汽車與安全,2020(02):88-91.
[6] 王也. 基于深度學(xué)習(xí)與虛擬數(shù)據(jù)的車輛識(shí)別與狀態(tài)估計(jì)研究[D].吉林大學(xué),2019.