王猛
摘要:安全帶檢測(cè)是智能交通系統(tǒng)中的一個(gè)重要研究課題。本文提出了一種在復(fù)雜道路環(huán)境下,基于深度學(xué)習(xí)的安全帶檢測(cè)算法。首先從帶標(biāo)簽的車輛區(qū)域、車窗區(qū)域以及安全帶區(qū)域提取特征,通過深度學(xué)習(xí)算法訓(xùn)練檢測(cè)器;然后,檢測(cè)車輛、車窗及安全帶3個(gè)部件的位置,根據(jù)各部件的相對(duì)位置關(guān)系以及檢測(cè)得分訓(xùn)練一個(gè)支持向量機(jī)(SVM)分類模型,最后通過該分類模型對(duì)安全帶區(qū)域進(jìn)行精細(xì)定位與識(shí)別。該方法在道路監(jiān)控?cái)z像頭采集的數(shù)據(jù)庫上表現(xiàn)良好。
關(guān)鍵詞:安全帶檢測(cè);深度學(xué)習(xí);支持向量機(jī);智能交通;特征提取
中圖分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1009-3044(2016)11-0240-03
Abstract:Seat belt detection in intelligent transportation systems is an important research area. A seat belt detection algorithm for complex road backgrounds based on deep learning is proposed. It first extracts features from labeled vehicle, windshield, and seat belt regions, and those features are used to train the detection models by deep learning. Then, it detects the locations of the vehicle, windshield, and seat belt regions, and uses the relative positions among these vehicle components and their detection scores to train a support vector machine classification model. Finally, it performs a fine mapping and identification process using this classification model on the seat belt region. This method performs well when applied to a database of images collected by road surveillance cameras.
Key words: Seat belt detection; deep learning; support vector machine; intelligent transportation; feature extraction
針對(duì)駕駛員未系安全帶的這種危險(xiǎn)駕駛行為,以及為了響應(yīng)公安部門的需求,目前出現(xiàn)了很多種安全帶檢測(cè)方法?,F(xiàn)有的安全帶檢測(cè)方法大多是基于邊緣檢測(cè)[1-2]和Hough變換[3]的方法進(jìn)行安全帶檢測(cè)。Guo等人[4]提出了安全帶檢測(cè)系統(tǒng),包括安全帶檢測(cè)和駕駛員區(qū)域定位兩個(gè)模塊。該算法利用線性濾波器在HSV顏色空間[5]通過水平方向和垂直方向投影來確定車牌的位置,然后利用邊緣檢測(cè)算子(Sobel[6],Canny[7]等)通過邊緣檢測(cè)得到車窗的上下邊緣,再通過幾何關(guān)系確定駕駛員區(qū)域的位置。該方法容易受到車身顏色影響,穩(wěn)定性較差。
為了解決安全帶檢測(cè)過程中的光照、車型、駕駛員著裝等因素對(duì)檢測(cè)結(jié)果的影響,本文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN[8])的安全帶檢測(cè)系統(tǒng)。當(dāng)采集到圖片后,首先粗定位車輛區(qū)域,并根據(jù)檢測(cè)算法得到車窗區(qū)域粗定位模塊,找到圖像上若干個(gè)車窗候選區(qū)域,最后通過安全帶檢測(cè)模型及支持向量機(jī)(SVM)分類器[9]處理得到安全帶檢測(cè)結(jié)果。
1 基于深度學(xué)習(xí)的安全帶檢測(cè)
1.1 CNN特征提取算法
深度學(xué)習(xí)[11-12]是通過大量的簡(jiǎn)單神經(jīng)元組成,根據(jù)非線性關(guān)系將底層特征抽象表示為高層特征。卷積神經(jīng)網(wǎng)絡(luò)[13]是一個(gè)多層的神經(jīng)網(wǎng)絡(luò),每層由多個(gè)二維平面組成,而每個(gè)平面包括多個(gè)獨(dú)立神經(jīng)元。網(wǎng)絡(luò)中由一些簡(jiǎn)單元和復(fù)雜元組成,分別記為S-元和C-元。
1.2 檢測(cè)模型的構(gòu)建
如圖1所示,我們構(gòu)建了由三個(gè)CNNs組成的多尺度的特征提取模型。每個(gè)CNN模型共有八層,其中有五個(gè)卷積層和三個(gè)全連接層。對(duì)于每一張圖片,都會(huì)自動(dòng)的提取三個(gè)嵌套的越來越小的矩形窗口的特征,分別為車輛區(qū)域、車窗區(qū)域以及安全帶區(qū)域。這三個(gè)由CNNs提取的特征送到兩個(gè)全連接層,第二個(gè)全連接層的輸出被送到輸出層,最后用線性支持向量機(jī)分類器對(duì)所有子塊進(jìn)行分類。
2 實(shí)驗(yàn)結(jié)果
2.1 車輛及車窗檢測(cè)
本實(shí)驗(yàn)訓(xùn)練集包括戴安全帶和未戴安全帶各2000張的車輛圖像,測(cè)試集包括戴安全帶和未戴安全帶各100張的圖像。本文共完成車輛檢測(cè)、車窗檢測(cè)和安全帶檢測(cè)三個(gè)實(shí)驗(yàn)。其中,對(duì)于車輛和車窗檢測(cè)部分,使用檢測(cè)率(CIR)和漏檢率(MIR)來作為系統(tǒng)的評(píng)價(jià)指標(biāo),計(jì)算方式如下式所示:
對(duì)于車輛檢測(cè)實(shí)驗(yàn),選取6000車輛圖片用于訓(xùn)練模型。然后選取2000張車輛圖片作為測(cè)試圖片,并隨機(jī)分成10份。檢測(cè)結(jié)果示例如圖2(a)。平均檢測(cè)率為93.3%,平均漏檢率為6.7%。同時(shí),對(duì)比了基于Adaboost算法[10]的車輛檢測(cè)模型,檢測(cè)結(jié)果示例如圖2(b),平均檢測(cè)率為90.6%,平均漏檢率為9.4%。
由此可以看出,本文算法在相同的數(shù)據(jù)庫上比Adaboost算法表現(xiàn)更好,具有更低的漏檢率和誤檢率。并且車輛檢測(cè)結(jié)果更適合用于后面的車窗檢測(cè)實(shí)驗(yàn)。
車窗檢測(cè)實(shí)驗(yàn)的示例如圖3所示。選取6000張車窗正面車窗圖片用于訓(xùn)練模型,選取2000張圖片作為測(cè)試集,并隨機(jī)分成10份。平均檢測(cè)率為93.6%,平均漏檢率為9.4%。
2.2 安全帶檢測(cè)
對(duì)于安全帶檢測(cè)部分,使用檢測(cè)率(CIR)、虛警率(WIR)和漏檢率(MIR)作為安全帶檢測(cè)系統(tǒng)的評(píng)價(jià)指標(biāo),計(jì)算方式如下式所示:
選取戴安全帶和未戴安全帶圖片各2000張圖片用于訓(xùn)練模型。選取2000安全帶區(qū)域圖片作為測(cè)試圖片,并隨機(jī)分成10份,每份包含戴安全帶圖片和未戴安全帶圖片各100張。通過基于深度學(xué)習(xí)的安全帶檢測(cè)算法,檢測(cè)結(jié)果示例如圖4所示,平均檢測(cè)率為92.1%,平均虛警率為6.4%,平均漏檢率為2.5%。
3 結(jié)論
安全帶檢測(cè)是智能交通系統(tǒng)中的一個(gè)重要研究課題。本文提出了一個(gè)高效的進(jìn)行安全帶檢測(cè)的系統(tǒng),對(duì)于檢測(cè)部分,我們采用深度神經(jīng)網(wǎng)絡(luò)的特征提取方法,該特征更加適用于訓(xùn)練檢測(cè)模型。同時(shí),我們結(jié)合SVM的后處理,提高了安全帶檢測(cè)系統(tǒng)的魯棒性,并且很大程度上減低了虛警率和漏檢率。
參考文獻(xiàn):
[1] Ha D M, Lee J M, Kim, Y D. Neural-edge-based vehicle detection and traffic parameter extraction [J]. Image and vision computing, 2004, 22(11): 899-907.
[2] Song G Y, Lee K Y, Lee J W. Vehicle detection by edge-based candidate generation and appearance-based classification [C]//Intelligent Vehicles Symposium, IEEE, 2008: 428-433.
[3] Ballard D H. Generalizing the Hough transform to detect arbitrary shapes [J]. Pattern recognition, 1981, 13(2): 111-122.
[4] Guo H, Lin H, Zhang S. Image-based seat belt detection [C]//2011 IEEE International Conference on Vehicular Electronics and Safety (ICVES). IEEE, 2011: 161-164.
[5] 王運(yùn)瓊, 游志勝. 基于色差均值的快速車窗定位算法[J]. 計(jì)算機(jī)應(yīng)用與軟件, 2004, 21(1): 78-79.
[6] 張建軍, 羅靜. 基于改進(jìn)Sobel算子的表面裂紋邊緣檢測(cè)算法[J]. 合肥工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版), 2011年06期.
[7] Ali M, Clausi D. Using the Canny edge detector for feature extraction and enhancement of remote sensing images [C]//IEEE 2001 International Geoscience and Remote Sensing Symposium. 2001:2298-2300.
[8] Li Guanbin, Yu Yizhou. Visual Saliency Based on Multiscale Deep Features [C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2015: 5455-5463.
[9] 駱玉榮. 安全帶識(shí)別系統(tǒng)的研究與實(shí)現(xiàn)[D]. 北京:北京工業(yè)大學(xué), 2008.
[10] 吳法. 圖像處理與機(jī)器學(xué)習(xí)在未系安全帶駕車檢測(cè)中的應(yīng)用[D]. 杭州:浙江大學(xué), 2013.
[11] A. Krizhevsky, I. Sutskever, G. E. Hinton. Imagenet classification with deep convolutional neural networks [C]//Advances in neural information processing systems, 2012:1097-1105.
[12] 余凱賈磊陳雨強(qiáng)徐偉.深度學(xué)習(xí)的昨天,今大和明天[J].計(jì)算機(jī)研究與發(fā)展,2013,50(9):1799-1804.
[13] Ouyang W, Wang X. Joint deep learning for pedestrian detection[C]//Computer Vision(ICCV),2013 IEEE International Conference on. Conference on. IEEE,2013:2056-2063.