譚思奇
摘 要:為了對(duì)交通信號(hào)燈的檢測(cè)和識(shí)別進(jìn)一步的研究,本文基于傳統(tǒng)和深度學(xué)習(xí)這兩個(gè)方面的交通信號(hào)燈檢測(cè)與識(shí)別的相關(guān)研究進(jìn)行梳理和分析,發(fā)現(xiàn)目前交通信號(hào)燈檢測(cè)與識(shí)別主要存在檢測(cè)速度不高、準(zhǔn)確率較低等問題,所以本文對(duì)交通信號(hào)燈檢測(cè)與識(shí)別相關(guān)方法的優(yōu)缺點(diǎn)進(jìn)行分析和總結(jié),為以后進(jìn)行這方面的研究提供參考依據(jù)。
關(guān)鍵詞:交通信號(hào)燈;檢測(cè);識(shí)別
0 引言
近年來由于無人駕駛技術(shù)的快速發(fā)展,關(guān)于交通信號(hào)燈檢測(cè)與識(shí)別的方法也在不斷更替。交通信號(hào)燈是公路系統(tǒng)的重要組成部分,實(shí)現(xiàn)對(duì)交通信號(hào)燈的檢測(cè)與識(shí)別是無人駕駛必須攻克的難題,以此對(duì)其進(jìn)行研究具有重要的意義。要對(duì)交通信號(hào)燈進(jìn)行識(shí)別通常來說分為兩個(gè)過程,第一步是對(duì)圖像的候選區(qū)域進(jìn)行特征提取,第二步就是根據(jù)特征對(duì)識(shí)別的特征進(jìn)行分類。目前關(guān)于交通信號(hào)燈的檢測(cè)與識(shí)別可以歸為兩類,一類是借助于傳統(tǒng)的特征提取方法,對(duì)其進(jìn)行檢測(cè)和識(shí)別,另一類是基于機(jī)器學(xué)習(xí)的方法利用機(jī)器來進(jìn)行特征提取再分類。
1 基于傳統(tǒng)方法的交通信號(hào)燈檢測(cè)與識(shí)別
傳統(tǒng)交通信號(hào)燈檢測(cè)算法通常是先對(duì)彩色的圖像進(jìn)行閾值分割,對(duì)其進(jìn)行劃分得到了包含交通信號(hào)燈的二值圖,然后利用心態(tài)學(xué)的原理對(duì)其進(jìn)行分析,找出具有圓形特征的區(qū)域來作為交通信號(hào)燈的候選區(qū)域。Park等[1]利用聚類和圓形檢測(cè)算法來定位識(shí)別交通信號(hào)燈,但該方法在復(fù)雜環(huán)境下可能會(huì)失效,而且誤檢率也較高。M. Omachi等[2]將邊緣檢測(cè)算法和選舉法相結(jié)合來實(shí)現(xiàn)對(duì)交通信號(hào)燈的檢測(cè),借助于信號(hào)燈的顏色信息通過融合算法來識(shí)別交通信號(hào)燈的狀態(tài)并達(dá)到了很好的檢測(cè)和識(shí)別效果。但是該方法魯棒性較差。Wang Chao-Ming等[3]利用多個(gè)顏色閾值分割的方法來提取候選區(qū)域,然而該方法無法對(duì)黃色和紅色進(jìn)行識(shí)別,實(shí)用性差。Yung等人[4]利用視頻來實(shí)現(xiàn)對(duì)交通信號(hào)燈的檢測(cè),由于獲取的視頻較為清晰,該算法能夠?qū)崿F(xiàn)信號(hào)燈距離測(cè)量。Chung等[5]采用預(yù)先估計(jì)的方法來對(duì)交通信號(hào)燈的背景和光照的時(shí)間進(jìn)行簡(jiǎn)易計(jì)算,運(yùn)用模糊控制算法對(duì)交通信號(hào)燈候選區(qū)域的進(jìn)行檢測(cè)。但是該方法需要對(duì)圖片的背景進(jìn)行估計(jì),對(duì)移動(dòng)的車輛難以適用。谷明琴等人[6]也對(duì)交通信號(hào)燈檢測(cè)與識(shí)別算法進(jìn)行了研究,但其僅限于對(duì)圓形的交通信號(hào)燈,箭形的沒有包括在內(nèi)。
2 基于深度學(xué)習(xí)的交通信號(hào)燈檢測(cè)與識(shí)別
Muller等[7]利用交通信號(hào)燈在圖像中像素占比較小,難以檢測(cè)的特點(diǎn),利用Inception-v3作為基礎(chǔ)網(wǎng)絡(luò),改進(jìn)了single shot detection算法,將圖片上下文信息結(jié)合起來對(duì)交通信號(hào)燈進(jìn)行檢測(cè)和識(shí)別。該方法在自制的數(shù)據(jù)集上取得了較高的準(zhǔn)確率,但是實(shí)時(shí)性較差。Han等[8]移除了Faster-RCNN的第四個(gè)池化層,并引入了新的樣本挖掘策略來提高該算法的魯棒性。改進(jìn)的算法在自制的數(shù)據(jù)集相比于改進(jìn)前提高了12.1%。Faster-RCNN算法本身參數(shù)較多,改進(jìn)后的算法計(jì)算量并沒有顯著降低,很難達(dá)到實(shí)時(shí)性的要求。Philipsen M P等[9]在YOLOv1算法的基礎(chǔ)上,為了減少漏檢率其加入交通識(shí)別模塊和跟蹤器,在自制的數(shù)據(jù)集上達(dá)到了較好的效果,但精度還有待提高。錢弘毅等[10]對(duì)yolov2算法模型進(jìn)行了改進(jìn),并將其運(yùn)用到交通信號(hào)燈的檢測(cè)與識(shí)別之中,達(dá)到了96.08%的精度但檢測(cè)速度還有待提高。袁志宏等[11]改進(jìn)yolov3來對(duì)道路目標(biāo)進(jìn)行檢測(cè),通過改進(jìn)主干網(wǎng)絡(luò)結(jié)構(gòu)來提高檢測(cè)的速度和準(zhǔn)確度,并且結(jié)果表明該模型有效的降低了漏檢率。楊英彬等[12]通過對(duì)yolov4的損失函數(shù)和交叉熵函數(shù)系數(shù)進(jìn)行修改,能夠很好的對(duì)目標(biāo)進(jìn)行實(shí)時(shí)檢測(cè)。
3 總結(jié)
總體來講,目前交通信號(hào)燈的檢測(cè)與識(shí)別研究的還不夠深入,傳統(tǒng)的檢測(cè)方法通過人工手動(dòng)提取特征,對(duì)圖像的像素點(diǎn)進(jìn)行提取找出與交通信號(hào)燈類似的檢測(cè)區(qū)域,再通過顏色或形狀等特征再加以分類,這一系列的操作程序比較繁瑣,需要耗費(fèi)大量時(shí)間和精力。而且在實(shí)際的道路場(chǎng)景中由于道路兩旁的物體遮擋、圖片背景和陽光反射等干擾,單單靠形狀和顏色特征不能很好的對(duì)交通信號(hào)燈進(jìn)行檢測(cè)和識(shí)別,一旦遇到復(fù)雜場(chǎng)景,檢測(cè)和識(shí)別的效果就較差。相比于傳統(tǒng)的檢測(cè)與識(shí)別方法,基于深度學(xué)習(xí)的算法可以通過神經(jīng)網(wǎng)絡(luò)對(duì)圖片的像素點(diǎn)進(jìn)行采集并自動(dòng)提取檢測(cè)目標(biāo)的特征,再加以訓(xùn)練來實(shí)現(xiàn)對(duì)交通信號(hào)燈的檢測(cè)與識(shí)別,過程較為簡(jiǎn)單,不用耗費(fèi)大量的時(shí)間,效率較高。這其中具有代表性的檢測(cè)算法大致分為兩類,一類是一階段算法YOLO、SSD等,另一類是兩階段算法如fast-RCNN、faster-RCNN。其中YOLO、SSD等一階段算法對(duì)小目標(biāo)的檢測(cè)效果較差而fast-RCNN、faster-RCNN等兩階段算法檢測(cè)速度又太慢,所以目前研究的重點(diǎn)就是要找出一種兼具檢測(cè)速度和檢測(cè)精度的算法。所以關(guān)于交通信號(hào)燈的檢測(cè)與識(shí)別方法還有待進(jìn)一步的研究。
參考文獻(xiàn):
[1]Park Jin-Hyung,Jeong Chang-Sung.Real-time signal light detection[A].In:2008 FGCNS.Second International Conference on Future Generation Communication andNetworking Symposia[C].USA:IEEE, 2008:139-142.
[2]M.Omachi,S.Omachi.Detection of Traffic Light Using Structural Information[A].In:ICSP 2010. The 10th International Conference on Signal Processing[C].USA:IEEE,2010:809-812.
[3]Lu Kuo-Hao,Wang Chao-Ming,Chen Shu-Yuan.Traffic light recognition[J].Journal of the Chinese Institute of Engineers,2008,31(6):1069-1075.
[4]N.H.C.Yung,A.H.S.Lai.An effective video analysis method for detecting red light runners[J].IEEE Transactions on Vehicular Technology, 2001,50(4):1074-1084.
[5]Y.Chung,L.Wang,S,Chen.A vision-based traffic light detection system at intersections[J]. Journal of National Taiwan Normal University: Mathematics,Science & Technology,2002(47):67-86.
[6]谷明琴,蔡自興,李儀.應(yīng)用圓形度和顏色直方圖的交通信號(hào)燈識(shí)別[J].計(jì)算機(jī)工程與設(shè)計(jì),2012,33(1):243-247.
[7]MULLER J,DIETMAYER K.Detecting Traffic Lights by Single Shot Detection[C].2018.IEEE International Conference on Intelligent Transportation Systems (ITSC).
[8]HANC,GAOG Y,ZHANGY.Real-time small traffic sign detection with revised faster-RCNN[J].Multimedia Tools and Applications,2018.
[9]Philipsen M P,Jensen M B,M?gelmose A,et al. Traffic Light Detection:A Learning Algorithm and Evaluations on Challenging Dataset[J].2015.
[10]錢弘毅,王麗華,牟宏磊.基于深度學(xué)習(xí)的交通信號(hào)燈快速檢測(cè)與識(shí)別[J/OL].計(jì)算機(jī)科學(xué):1-9[2019-11-13].http://kns.cnki.net/kcms/detail/50.1075.TP.20190816.1519.024.html.
[11]袁志宏,孫強(qiáng),李國(guó)祥,等.基于Yolov3的自動(dòng)駕駛目標(biāo)檢測(cè)[J].重慶理工大學(xué)學(xué)報(bào)(自然科學(xué)),2020,34(9):
56-61.
[12]楊英彬,郭子彧,蔡利民.YOLOv4的車輛檢測(cè)方法研究[J].電子世界,2021(5):80-81+87.