趙栓峰 許倩 丁志兵 黃濤
摘? 要: 為了探測(cè)車輛間的相對(duì)距離,避免危險(xiǎn)車輛由于駕駛不當(dāng)所引發(fā)的交通問(wèn)題,提出一種深度學(xué)習(xí)目標(biāo)識(shí)別下的跟馳車輛相對(duì)距離測(cè)定方法,避免了雷達(dá)測(cè)距的短距離局限性以及車輛未知性的缺點(diǎn)。該方法采用車載單目攝像機(jī)對(duì)側(cè)后方車輛進(jìn)行拍攝,實(shí)際物體和成像點(diǎn)之間的轉(zhuǎn)換通過(guò)三坐標(biāo)轉(zhuǎn)換完成,利用深度網(wǎng)絡(luò)識(shí)別目標(biāo)車輛,獲得目標(biāo)車輛位置以及類別信息,并建立合適的測(cè)距模型,得到檢測(cè)車輛與攝像頭之間的相對(duì)距離,利用幀差法預(yù)測(cè)被檢測(cè)車輛的行駛速度。選擇河南省鶴壁市107,342國(guó)道進(jìn)行試驗(yàn),該路段驗(yàn)證了測(cè)距模型的有效性,靜態(tài)測(cè)距下75 m以內(nèi)相對(duì)誤差控制在4%,速度誤差控制在5%,因此,在檢測(cè)到危險(xiǎn)車輛的情況下,測(cè)距模型可以實(shí)現(xiàn)相對(duì)距離的實(shí)時(shí)準(zhǔn)確性檢測(cè)。
關(guān)鍵詞: 車輛識(shí)別; 坐標(biāo)轉(zhuǎn)換; 測(cè)距模型; 車輛位置信息; 相對(duì)距離探測(cè); 車輛速度預(yù)測(cè)
中圖分類號(hào): TN98?34? ? ? ? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)識(shí)碼: A? ? ? ? ? ? ? ? ? ? ? ? ? ? 文章編號(hào): 1004?373X(2020)19?0070?05
Abstract: In order to detect the relative distance between vehicles and avoid traffic accidents caused by dangerous vehicles due to improper driving, a following vehicle relative distance measuring method based on deep learning target recognition is proposed, which avoids the limitation of short distance radar ranging and the shortcoming that a vehicle cannot get the situation around. In the proposed method, the vehicle?mounted monocular camera is used to shoot the rear side vehicles, and the transformation between the actual object and the imaging point is achieved by the transformation of three coordinates. The deep network is used to identify the target vehicle, obtain the position and category information of the target vehicle, and establish a suitable ranging model to obtain the relative distance between the detected vehicle and the camera. The frame difference method is used to predict the driving speed of the detected vehicle. The national highway G107 and G342 within Hebi city in Henan province were selected for the test to verify the effectiveness of the ranging model. The relative error and the speed error of static ranging within 75 m are kept at 4% and 5%, respectively. Therefore, the ranging model can realize real?time accurate detection of relative distance.
Keywords: vehicle recognition; coordinate transformation; ranging model; vehicle position information; relative distance detection; vehicle velocity prediction
0? 引? 言
駕駛員在變道或超車等類似駕駛行為中經(jīng)常會(huì)對(duì)駕駛可行性做出誤判,導(dǎo)致交通事故頻繁發(fā)生,僅2017年,由于駕駛員出現(xiàn)感知失誤引發(fā)交通事故203 049起,死亡人數(shù)63 772人,財(cái)產(chǎn)損失[1]高達(dá)121 211.3萬(wàn)元。因此,越來(lái)越多的研究學(xué)者將研究重點(diǎn)集中在車輛安全駕駛輔助系統(tǒng)上[2],文獻(xiàn)[3]基于數(shù)據(jù)融合的思想,通過(guò)識(shí)別駕駛員人眼特征以及車道線等參數(shù)來(lái)實(shí)現(xiàn)駕駛員在危險(xiǎn)狀態(tài)下的實(shí)時(shí)預(yù)警,文獻(xiàn)[4]建立了基于機(jī)器立體視覺(jué)的車距測(cè)量系統(tǒng),實(shí)現(xiàn)了車輛間的距離檢測(cè),但汽車識(shí)別誤差較大,距離誤差在50 m內(nèi)高達(dá)4.5%。文獻(xiàn)[5]將機(jī)器視覺(jué)與車距測(cè)量相結(jié)合,根據(jù)小孔成像原理建立實(shí)際三維圖像空間與攝像機(jī)二維圖像的映射關(guān)系,計(jì)算出前方車輛的實(shí)際距離值,測(cè)量距離在70 m內(nèi)時(shí),誤差可達(dá)5%。文獻(xiàn)[6]為了降低汽車換道時(shí)碰撞事故發(fā)生的概率,提出一種基于OpenCV的AEB系統(tǒng)車輛檢測(cè)和預(yù)警研究,實(shí)現(xiàn)了單目視覺(jué)下的車輛識(shí)別。這些研究均為汽車安全駕駛性能的提高做出了突出貢獻(xiàn),目前已有的HLCA系統(tǒng)[7]融合了雷達(dá)和CCD攝像機(jī)的信息,實(shí)現(xiàn)了40 m左右的中距測(cè)量。Mobile eye公司研發(fā)的BSD系統(tǒng)[8]利用單目攝像機(jī)及車道線識(shí)別系統(tǒng)進(jìn)行盲區(qū)車輛的檢測(cè),其探測(cè)距離可達(dá)50 m。由于多目標(biāo)識(shí)別使系統(tǒng)識(shí)別速度降低,實(shí)時(shí)預(yù)警效果不佳,本文提出了一種基于深度學(xué)習(xí)網(wǎng)絡(luò)對(duì)危險(xiǎn)車輛進(jìn)行識(shí)別檢測(cè)的方法,實(shí)現(xiàn)單目標(biāo)危險(xiǎn)物識(shí)別,在識(shí)別危險(xiǎn)車輛的基礎(chǔ)上,通過(guò)危險(xiǎn)車輛的信息建立測(cè)距模型,同時(shí)實(shí)現(xiàn)了危險(xiǎn)目標(biāo)的識(shí)別以及距離測(cè)定,在75 m以內(nèi)距離相對(duì)誤差可控制在4%內(nèi),為安全駕駛輔助系統(tǒng)提供了技術(shù)實(shí)現(xiàn)依據(jù)。
1? 危險(xiǎn)車輛識(shí)別
車輛類別的識(shí)別可以實(shí)現(xiàn)危險(xiǎn)駕駛的精準(zhǔn)預(yù)警,本文采用車載攝像機(jī)對(duì)后方車輛進(jìn)行實(shí)時(shí)拍攝,攝像機(jī)安裝在后視鏡下方一定高度處,對(duì)車輛的預(yù)測(cè)采用如圖1所示的深度學(xué)習(xí)網(wǎng)絡(luò),此網(wǎng)絡(luò)是一個(gè)全卷積網(wǎng)絡(luò),網(wǎng)絡(luò)中采用了53個(gè)卷積層,借鑒了殘差網(wǎng)絡(luò)(Residual Network)的做法,在一些層之間設(shè)置了快捷鏈路[9](Shortcut Connections),大量使用殘差的跳層連接,形成更深的網(wǎng)絡(luò)層次以及多尺度檢測(cè)。
網(wǎng)絡(luò)對(duì)輸入為416×416×3的圖像進(jìn)行特征提取,得到[S×S]大小的特征圖,然后將輸入圖像分成[S×S]個(gè)網(wǎng)格單元,采樣使用步長(zhǎng)為2的卷積來(lái)進(jìn)行降采樣。每一個(gè)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行3次目標(biāo)檢測(cè),在檢測(cè)中使用sigmoid 函數(shù)進(jìn)行中心坐標(biāo)預(yù)測(cè),如果ground truth中某個(gè)檢測(cè)目標(biāo)的中心坐標(biāo)落在某個(gè)網(wǎng)格單元中[10],那么就由該網(wǎng)格單元預(yù)測(cè)該目標(biāo),再預(yù)測(cè)出[B]個(gè)檢測(cè)邊界框以及每個(gè)框的置信度。置信度表征了檢測(cè)邊界框?qū)ζ錂z測(cè)物體的置信度[11],公式如下:
式中:[C]為邊界框的置信度,由當(dāng)前預(yù)測(cè)中邊界框含有目標(biāo)的置信物體[Pt]與預(yù)測(cè)目標(biāo)的準(zhǔn)確性[Iou]所決定,目標(biāo)檢測(cè)準(zhǔn)確性的判別方法如式(2)所示,[Bgt]為訓(xùn)練樣本自制標(biāo)簽的標(biāo)準(zhǔn)框,[Bdt]為檢測(cè)到物體的回歸邊界框,因此,目標(biāo)檢測(cè)的準(zhǔn)確性取決于標(biāo)準(zhǔn)框與預(yù)測(cè)邊界框的重合度,即預(yù)測(cè)框中檢測(cè)物體的存在概率。檢測(cè)結(jié)果可以獲得檢測(cè)物體的類別、中心坐標(biāo)值以及預(yù)測(cè)邊界框的坐標(biāo)。在訓(xùn)練過(guò)程中,采用二元交叉熵?fù)p失進(jìn)行分類預(yù)測(cè)。
2? 三坐標(biāo)轉(zhuǎn)換
為了完成車輛間實(shí)際距離的預(yù)測(cè),需要完成攝像機(jī)坐標(biāo)、平面坐標(biāo)以及世界坐標(biāo)之間的轉(zhuǎn)換[12],才能得到圖像中目標(biāo)點(diǎn)的像素點(diǎn)距離。
1) 圖像坐標(biāo)[(x,y)]轉(zhuǎn)換為像素坐標(biāo)[(u,v)]
水平坐標(biāo)軸[u]與垂直于[u]軸坐標(biāo)軸的[v]軸相交于點(diǎn)[O0],共同構(gòu)成了圖像坐標(biāo)系,以左上角[O0]點(diǎn)作為原點(diǎn),其度量單位為像素。在[(u,v)]圖像坐標(biāo)系中通過(guò)建立坐標(biāo)系[(x,y)]來(lái)解決像素不能用實(shí)際的物理單位表述的問(wèn)題,[x,y]軸分別與[u,v]軸保持平行,因此,[xO1y]和[uO0v]坐標(biāo)系中的參數(shù)點(diǎn)能夠相互表示,其坐標(biāo)系如圖2所示。
假定[xO1y]坐標(biāo)系中[x]軸方向上每個(gè)像素表示實(shí)際的物理尺寸為[dx],[y]軸方向上為[dy],則[xO1y]坐標(biāo)系與[uO0v]坐標(biāo)系的轉(zhuǎn)化關(guān)系如下:
將式(3)用矩陣表示并使用齊次坐標(biāo)變換后可得:
2) 攝像機(jī)坐標(biāo)[(Xc,Yc,Zc)]到平面坐標(biāo)[(x,y)]的轉(zhuǎn)換
在理想狀態(tài)下,空間任意一點(diǎn)[P]可以采用小孔成像模型[13]來(lái)描述,即采用[OP]交于圖像平面的點(diǎn)[p]來(lái)代表[P]的投影,該關(guān)系采用比例等式來(lái)描述:
把坐標(biāo)點(diǎn)進(jìn)行齊次化,使用矩陣將式(5)表達(dá)出來(lái)為:
3) 世界坐標(biāo)轉(zhuǎn)化為攝像機(jī)坐標(biāo)
通過(guò)平移和旋轉(zhuǎn)世界坐標(biāo)系能夠獲得攝像機(jī)坐標(biāo)系[14],假設(shè)圖像平面中有一點(diǎn)[(Xc,Yc,Zc)]在實(shí)際空間中的坐標(biāo)為[(XW,YW,ZW)T],經(jīng)過(guò)齊次化后并實(shí)施轉(zhuǎn)換得到兩坐標(biāo)系的轉(zhuǎn)換關(guān)系為:
式中:三階正交矩陣[R]為旋轉(zhuǎn)矩陣;三階矩陣[t]為平移矩陣;[OT]為三階零矩陣。
綜上所述,世界坐標(biāo)轉(zhuǎn)換到像素坐標(biāo)的關(guān)系為:
式中:[ax=fdx],[ay=fdy]分別表示兩坐標(biāo)軸上的單位尺度參數(shù);[M]是一個(gè)3×4的投影矩陣;[ax],[ay],[u0],[v0],[M1]由攝像機(jī)的內(nèi)部參數(shù)決定;[M2]為攝像機(jī)的外部參數(shù)矩陣,由旋轉(zhuǎn)矩陣[11]和平移矩陣組成。
3? 相對(duì)位置測(cè)距模型
危險(xiǎn)車輛間速度以及距離測(cè)定的基礎(chǔ)在于深度學(xué)習(xí)對(duì)于側(cè)后方駕駛車輛的準(zhǔn)確預(yù)測(cè)以及回歸,只有在回歸出后方車輛的目標(biāo)矩形,標(biāo)注出矩形邊框中心點(diǎn)的基礎(chǔ)上,才能建立合適的測(cè)速測(cè)距模型,如圖3所示,[P1],[P2]點(diǎn)為回歸車輛所需要的中界點(diǎn)參數(shù)。
如圖4所示,相機(jī)光心為[O],相機(jī)安裝在距離地面高度為[h]的位置,其中[h]為90 cm,即光心距離地面的距離[OD]為90 cm。標(biāo)注圖3中[P1],[P2]點(diǎn)的位置,即跟馳車輛的車身高度,利用[P′1],[P′2]表示[P1],[P2]點(diǎn)在攝像機(jī)成像平面上的成像點(diǎn),光軸相交成像平面于點(diǎn)[P],相交于實(shí)體平面于點(diǎn)[P],則[OP]為相機(jī)焦距[Fy]。前導(dǎo)車與跟馳車輛相對(duì)距離表示為[d],以[O]為原點(diǎn)作直線垂直地面于點(diǎn)[D],以[P1]為原點(diǎn),作直線垂直于以[O]為原點(diǎn)的[DP1]水平線于點(diǎn)[F];作平行于成像平面的直線相交于[OF]延長(zhǎng)線于點(diǎn)[G],延長(zhǎng)線段[OP2],[OP]交線段[P1G]于點(diǎn)[C],[B]。車載攝像機(jī)的安裝俯仰角度為[θ],其中[θ]為5°,光軸與水平面夾角為[β]。
由距離測(cè)量公式可知,只需得到目標(biāo)車輛參數(shù)點(diǎn)的像素坐標(biāo),就可以得到行駛車輛間的相對(duì)距離。
4? 相對(duì)位置測(cè)速模型
測(cè)速是檢測(cè)運(yùn)動(dòng)目標(biāo)在單位時(shí)間內(nèi)的位移[14]。測(cè)速算法通過(guò)后視鏡下方安裝的攝像機(jī)以一定幀速采集側(cè)后方車輛視頻圖像,經(jīng)過(guò)深度預(yù)警網(wǎng)絡(luò)預(yù)測(cè)輸出目標(biāo)邊界框中心坐標(biāo)[15],再利用坐標(biāo)轉(zhuǎn)換方法將車輛在二維圖像中的像素坐標(biāo)轉(zhuǎn)換到三維世界坐標(biāo)系中,利用幀差法對(duì)圖像不同幀之間的距離作差,計(jì)算出[ΔS],進(jìn)而求出[v1],[v2],取二者均值作為相對(duì)速度[RS]。測(cè)速算法流程如圖5所示。
具體的行車距離計(jì)算、時(shí)間間隔計(jì)算、側(cè)后方運(yùn)動(dòng)車速計(jì)算如下:
1) 行車距離計(jì)算
采集一段含有[N]幀圖像的本車側(cè)后方車輛運(yùn)動(dòng)視頻,假設(shè)行駛車輛在圖像坐標(biāo)系中的位置為[(u1,v1)],[(u2,v2)],…,[(uN,vN)],映射到世界坐標(biāo)中的位置為[(X1,Y1)],[(X2,Y2)],…,[(XN,YN)]。使用相鄰幀圖像求解車輛的相對(duì)運(yùn)動(dòng)距離如下:
式中[ΔS]為兩車的相對(duì)距離。
2) 時(shí)間間隔計(jì)算
攝像機(jī)采樣周期由硬件決定,在實(shí)際應(yīng)用中可以通過(guò)視頻幀[16]計(jì)算時(shí)間。在測(cè)速過(guò)程中,假設(shè)攝像機(jī)采樣周期為[T],某一時(shí)刻的幀號(hào)為[N1],經(jīng)過(guò)一段時(shí)間后幀號(hào)為[N2],兩個(gè)位置點(diǎn)相對(duì)應(yīng)的行車時(shí)間為:
3) 側(cè)后方運(yùn)動(dòng)車輛相對(duì)速度計(jì)算
根據(jù)車輛的相對(duì)運(yùn)動(dòng)距離和車輛的相對(duì)運(yùn)動(dòng)時(shí)間可以計(jì)算出本車和側(cè)后車輛之間的相對(duì)運(yùn)動(dòng)速度RS:
5? 系統(tǒng)實(shí)驗(yàn)結(jié)果及分析
以比亞迪某1.5 L排量的轎車為實(shí)驗(yàn)車輛,將兩個(gè)CCD攝像機(jī)分別安裝于后視鏡底部高度為90 cm距離處,調(diào)整CCD攝像機(jī)的俯仰角,使攝像機(jī)能夠有效地監(jiān)測(cè)到本車側(cè)后方的車輛信息以迎合駕駛員的駕駛習(xí)慣。姿態(tài)角度傳感器BWT901CL吸附于車頂?shù)闹行奈恢茫脕?lái)采集本車加速度、角速度等數(shù)據(jù)。采用手機(jī)內(nèi)置GPS模塊配合高德地圖導(dǎo)航記錄本車的行駛速度。計(jì)算機(jī)作為數(shù)據(jù)計(jì)算中心,在Windows 7系統(tǒng)下,通過(guò)Python程序調(diào)用Tkinter模塊設(shè)計(jì)了側(cè)后方車輛速度與距離檢測(cè)軟件系統(tǒng),顯示界面如圖6所示,車輛檢測(cè)模塊主要依賴于Keras框架和OpenCV,相對(duì)距離估計(jì)算法和測(cè)速估計(jì)算法通過(guò)Python程序?qū)崿F(xiàn)。
5.1? 測(cè)距實(shí)驗(yàn)及結(jié)果分析
靜態(tài)測(cè)距時(shí)將測(cè)試車輛??吭诤幽鲜→Q壁市342國(guó)道的淇河大橋上,測(cè)試車輛與行駛車輛方向保持一致,車身與車道分隔線保持平行,測(cè)試車輛在5 m,15 m,25 m,35 m,45 m,55 m,65 m,75 m處做標(biāo)記,對(duì)每一個(gè)標(biāo)記處分別采集10張圖片。靜態(tài)測(cè)距實(shí)驗(yàn)結(jié)果見(jiàn)表1。
在5~75 m距離范圍內(nèi)對(duì)測(cè)距算法的有效性和準(zhǔn)確性進(jìn)行驗(yàn)證,縱向?qū)嶋H距離和測(cè)算距離相對(duì)誤差保持在4%范圍以內(nèi)。
5.2? 測(cè)速實(shí)驗(yàn)及結(jié)果分析
實(shí)驗(yàn)車輛??吭诼愤?,設(shè)置一輛在本車相鄰車道上的受測(cè)試車輛保持40 km/h的速度勻速接近本車,分別進(jìn)行5組實(shí)驗(yàn),在不同的標(biāo)記距離區(qū)間檢測(cè)受測(cè)試車輛的相對(duì)速度[RS]。在距離本車15 m范圍內(nèi),選取視頻中的208~216幀圖像,將第213幀圖像選為中間幀,從而得知[Δt1]=0.172 s,[Δt2]=0.103 s,分別測(cè)得相對(duì)位移[Δs1=]1.97 m,[Δs2=]1.20 m,進(jìn)而求出[v1=]41.233 km/h,[v2=]41.942 km/h,將兩者的平均速度記為相對(duì)速度[RS=]41.587 km/h,相對(duì)誤差為4.068%,測(cè)速實(shí)驗(yàn)結(jié)果見(jiàn)表2。
在15 m范圍內(nèi)測(cè)算相對(duì)誤差為4.086%;在16~35 m范圍內(nèi)測(cè)算相對(duì)誤差為0.435%;在36~55 m范圍內(nèi)測(cè)算相對(duì)誤差為0.435%;在36~55 m范圍內(nèi)測(cè)算相對(duì)誤差為2.970%;在56~75 m范圍內(nèi)測(cè)算相對(duì)誤差為4.226%;檢測(cè)范圍大于75 m時(shí),會(huì)因?yàn)榫嚯x越遠(yuǎn)的像素點(diǎn)之間對(duì)應(yīng)實(shí)際距離的差值增大,導(dǎo)致測(cè)算相對(duì)誤差增大到24.361%。
6? 結(jié)? 語(yǔ)
本文利用深度網(wǎng)絡(luò)實(shí)現(xiàn)了危險(xiǎn)車輛的識(shí)別,在基于目標(biāo)參數(shù)點(diǎn)的基礎(chǔ)上建立了測(cè)距模型,由實(shí)驗(yàn)數(shù)據(jù)可得,建立的測(cè)距測(cè)速模型在一定距離內(nèi)能夠符合實(shí)際距離測(cè)定的要求,模型在75 m內(nèi)距離誤差可控制在4%以內(nèi),速度誤差控制在5%以內(nèi),超過(guò)此范圍,誤差將急劇增大。因此,后期研究中將會(huì)針對(duì)相對(duì)距離超過(guò)75 m的車輛設(shè)置合適的測(cè)距模型,來(lái)完成車輛在行駛過(guò)程的相對(duì)距離檢測(cè),實(shí)現(xiàn)駕駛過(guò)程中危險(xiǎn)車輛的識(shí)別以及實(shí)時(shí)預(yù)警。
參考文獻(xiàn)
[1] 邱建東,解小平,湯旻安,等.基于車流量的智能交通信號(hào)優(yōu)化控制研究[J].計(jì)算機(jī)應(yīng)用與軟件,2018,35(1):92?96.
[2] 徐洋.先進(jìn)駕駛員輔助駕駛系統(tǒng)關(guān)鍵技術(shù)研究[D].重慶:重慶大學(xué),2017.
[3] 李娟.基于數(shù)據(jù)融合的危險(xiǎn)駕駛行為識(shí)別與車輛跟蹤算法研究[D].武漢:武漢工程大學(xué),2017.
[4] 范賢達(dá).復(fù)雜環(huán)境下運(yùn)動(dòng)車輛識(shí)別與測(cè)距方法研究[D].北京:北京交通大學(xué),2017.
[5] 唐玲,陳明舉,楊平先.基于機(jī)器視覺(jué)的車輛距離測(cè)量系統(tǒng)設(shè)計(jì)[J].實(shí)驗(yàn)室研究與探索,2016,35(3):56?59.
[6] 楊俊華.基于OpenCV的AEB系統(tǒng)車輛檢測(cè)和預(yù)警研究[J].北京汽車,2018(3):11?14.
[7] CHENG Fuchao, ZHANG Hong, FAN Wenjie, et al. Image recognition technology based on deep learning [J]. Wireless personal communications, 2018, 102(2): 1917?1933.
[8] ZOU Bowei, CUI Xiaochuan. Research on the measurement method of the detection range of vehicle reversing assisting system [C]// Proceedings of the 2015 International Conference on Information Technology and Intelligent Transportation Systems. Xian: Springer, 2015: 55?66.
[9] WANG Zhouxia, CHEN Tianshui, LI Guanbin, et al. Multi?label image recognition by recurrently discovering attentional regions [C]// 2017 IEEE International Conference on Computer Vision. Venice: IEEE, 2017: 464?472.
[10] 楊青錦.OpenCV下按視頻幀率(FPS)播放視頻[J].中國(guó)科技信息,2012(21):75.
[11] MO Chunmei, LI Yinong, ZHENG Ling. Simulation and analysis on overtaking safety assistance system based on vehicle?to?vehicle communication [J]. Automotive innovation, 2018(2): 158?166.
[12] 王華瑩.基于機(jī)器視覺(jué)的車輛檢測(cè)和車距測(cè)量方法研究[D].大連:大連理工大學(xué),2011.
[13] 陸德彪,郭子明,蔡伯根,等.基于深度數(shù)據(jù)的車輛目標(biāo)檢測(cè)與跟蹤方法[J].交通運(yùn)輸系統(tǒng)工程與信息,2018,18(3):55?62.
[14] 羅金玲.基于計(jì)算機(jī)視覺(jué)的前方車輛檢測(cè)與測(cè)距系統(tǒng)設(shè)計(jì)[J].電腦編程技巧與維護(hù),2017(22):87?88.
[15] 曹,李進(jìn),張智欣.機(jī)器視覺(jué)輔助駕駛系統(tǒng)的車輛檢測(cè)和測(cè)距[J].電子技術(shù)與軟件工程,2018(17):238.
[16] 蔣玉亭,那田,汪世財(cái).一種基于機(jī)器視覺(jué)的前方車輛距離檢測(cè)方法[J].合肥工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2018,41(4):518?522.