袁 海 根
(滇西科技師范學院 信息工程學院, 云南 臨滄 677000)
隨著經(jīng)濟和人們生活水平的高速發(fā)展,汽車在人們生活中的應(yīng)用價值逐漸提升.我國汽車數(shù)量大幅增加的同時,也給交通安全帶來了較大威脅.因此,無人駕駛車輛的研發(fā)逐漸被相關(guān)研究人員重視.無人駕駛汽車也稱為智能汽車,智能汽車根據(jù)部署在車輛中的不同傳感器采集和分析道路環(huán)境信息,為汽車自主選擇安全路徑提供數(shù)據(jù).但是,相關(guān)研究表明,以圖像處理和模式識別技術(shù)為主的技術(shù)中,車輛對路徑的選擇會受到不同障礙物的干擾,影響行車安全[1].因此,采用有效的方法準確識別并躲避障礙物,成為相關(guān)人員研究的關(guān)鍵技術(shù).
當前的車輛自動駕駛對障礙物的識別過程中,還存在較大的困難.以模式識別和圖像處理方法為主的技術(shù)中,存在對障礙物識別定位偏差較大的問題,例如,文獻[2]提出基于三維激光雷達和深度圖像的自動駕駛汽車障礙物檢測方法,雖然能夠準確獲得障礙物的深度信息,但是在其他信息獲取上,存在偏差,另外,需要借助外部設(shè)備,增加了識別成本.文獻[3]的軌跡規(guī)劃方法能夠在一定區(qū)域內(nèi)躲避障礙物,但是,采用預(yù)估區(qū)域的方式造成障礙物定位不準的問題.文獻[4]的識別方法雖然考慮了三維坐標的因素,但是是從空中采集,大幅度限制了其應(yīng)用范圍.文獻[5]以無人機的角度對障礙物進行了識別,但是,這種動態(tài)性和汽車的動態(tài)性差異較大,一旦速度過快,會大幅降低算法魯棒性.文獻[6]以顏色作為特征進行識別,忽略了障礙物的三維特性,誤差較大.為了解決這一問題,提出一種新的智能視覺圖像自動駕駛障礙物躲避軟件設(shè)計方法,實現(xiàn)高質(zhì)量的自主導(dǎo)航,增強車輛的行駛安全性.
為了解決傳統(tǒng)的智能視覺圖像視覺誤差的問題,在障礙物檢測過程中,建立道路V-視差圖,對車輛自動駕駛中的障礙物進行檢測.采用V-視差進行障礙物檢測,運算簡單,實用性強,在不同道路條件下都能得到很好的效果.
圖1為智能車輛自動駕駛中障礙物檢測算法邏輯流程圖.車輛中的攝像頭采集道路雙目視覺圖像后,得到道路左圖像以及右圖像構(gòu)造道路V-視差圖以及U-視差圖,采用Hough變換直線擬合分別對兩種視差圖直線提取得到障礙物的高度和寬度,最終得到障礙物位置檢測結(jié)果.
圖1 障礙物檢測算法軟件設(shè)計流程圖
(1) 構(gòu)造V-視差圖.V-視差圖是在視差圖的基礎(chǔ)上產(chǎn)生的,道路視差圖中顏色的深淺表示障礙物與相機間距離的遠近.根據(jù)視差中的顏色信息,將每一行中具有相同視差值的像素記作countn,用(Δp,νr)表示新像素的坐標,該像素顏色的灰度為countn,寬度為256,產(chǎn)生高度與原圖相同的新圖像,該新道路圖像為視差圖.
在道路圖像I(u,v)中,u和v分別表示該圖像的橫縱坐標,得出視差公式為
(1)
式中:d為視差;x1和xr表示對應(yīng)點的坐標;f表示相機焦距;b表示相機基線距離;z為場景到相機的距離.
因此可得出以相機為中心的新道路圖像坐標(U,V),其表達式如下:
式中:(Xw,Yw,Zw)表示該點的世界坐標;ul.r表示移動目標;θ表示相機與水平面的夾角,因此由式(3)可導(dǎo)出視差Δ:
(4)
由式(4)可以得出在世界坐標系的水平投影到道路V-視差圖結(jié)果,可以看作一條有固定角度的直線.
(2) 障礙物平面在V-視差圖中的坐標投射.現(xiàn)實環(huán)境中障礙物的存在形式有垂直障礙物、傾斜障礙物和道路平面.行人、車輛等都屬于垂直障礙物,它們可以在原圖中表示為垂直平面;斜坡、凹陷等屬于傾斜障礙物,用傾斜面表示;道路平面用水平面表示.3種平面都可用V-視差圖表示.
① 在理想狀態(tài)下,道路可以看成是水平面,在世界坐標下
Yw=h.
(5)
根據(jù)式(3)和式(4),可得:
(6)
式(6)說明世界坐標下水平投影投射到V-視差圖,其結(jié)果可當成一條有固定角度的直線.
② 垂直障礙物可表示為垂直平面.在世界坐標下
式(8)表示世界坐標下垂直障礙物投射到V-視差圖,其結(jié)果可當成一條垂線[7].因為該直線是垂線,所以將sinθ看作0,因此式(8)可化簡為
(9)
V-視差圖中所有垂直面的視差是固定不變的,因此垂直面為一條垂直的直線.
③ 傾斜障礙物可表示為傾斜面,在世界坐標下
Zw=αYw+β.
(10)
組合式(7)~式(10),得到
p=Yw+β.
(11)
式(11)表示世界坐標下傾斜面障礙物投射到V-視差圖,其結(jié)果可當成一條傾斜的直線.
(3) V-視差圖下障礙物的檢測.V-視差圖的檢測過程是對同一行中相同的視差值的點進行檢測,原圖中的平面進行V-視差圖投射形成一條直線,就是將原圖中障礙物和路面投射成直線.轉(zhuǎn)換過程將平面檢測轉(zhuǎn)變成線段的檢測,檢測過程得到簡化[9].因此對V-視差圖障礙物的檢測過程只需要獲取V-視差圖中的直線,從直線的位置即能確定路面和障礙物所在的位置.
本文進行障礙物檢測的算法基于Hough進行直線檢測,這種算法在保證檢測效果的同時還可以保證檢測出直線能通過擬合[10],方便車輛對障礙物進行躲避.
基于以上獲取的障礙物位置,設(shè)計障礙物避障方案,實現(xiàn)智能車輛自動駕駛中障礙物的成功躲避[11],具體的過程如下.
(1) 障礙物在車輛行駛的方向上直線運動,根據(jù)車速和T0時間內(nèi)車與障礙物的2次距離求出車輛相對于障礙物的速度,如圖2所示.車輛相對障礙物的速度分為2種:障礙物的運動速度大于車速,車輛無需避讓,正常行駛即可;障礙物運動速度小于車速[12],按照下文障礙物躲避方法進行避讓.
圖2T0時間間隔車輛與障礙物的距離
Fig.2 The distance between the vehicle and the obstacle at time interval ofT0
采用維氏硬度計(FUTURE-TECH/LC-200RB)測量斷裂行星齒輪軸的表面硬度、基體硬度,檢測前先用標準試塊進行校準;對斷裂軸的斷口進行金相取樣,經(jīng)鑲嵌、打磨、拋光、腐蝕后,采用光學顯微鏡(ZEISS/HAL100)進行顯微金相組織檢測,結(jié)果如表2所示,表面硬度、基體硬度、氮化層深、氮化物和脆性級別等均符合技術(shù)要求,但表面疏松達到4級,不符合技術(shù)要求,這直接導(dǎo)致零件表面強度下降,在使用過程易產(chǎn)生裂紋,降低零件的疲勞壽命。
(12)
計算圖2中AG和GD間的距離,由此判斷車輛從哪個方向超車.
一種情況下AG>GD,車輛遵循圖2所示進行躲避,假設(shè)車輛寬度為2b,長為2l,車輛與障礙物的相對距離為
(13)
式中λ表示安全系數(shù),通常為1.2.則車輛行駛時間為
(14)
車輛躲避障礙物的轉(zhuǎn)彎角和車輛行駛距離為
行駛時間t2為
(17)
車輛躲避障礙物,回到原始行駛路線,轉(zhuǎn)彎角θ2=-θ1,行駛時間t1=t2.
由上文可得,障礙物與車輛行駛方向相同時,車輛以v相對行駛,右方向轉(zhuǎn)角θ1,行駛t1時間;接著以v相對行駛t2時間;最后以v相對左方向轉(zhuǎn)角θ1,行駛t1時間,回到原始行駛路線.
另一種情況是AG≤GD,按照上文步驟進行障礙物躲避.
(2) 障礙物在車輛行駛的方向上橫向運動,假設(shè)障礙物以v障向左行駛,根據(jù)圖2中車輛對靜態(tài)障礙物的躲避[13],得出無論AG和GD大小如何,車輛只能向右躲避,車輛長2l,寬2b,當車輛剛繞過障礙物時,二者行駛關(guān)系如下:
(18)
當v障>v車,行駛時間為
(19)
當v障 (20) 轉(zhuǎn)彎角為 (21) 綜上可得,車輛面對向左方向行駛的動態(tài)障礙物,車輛以v0向右轉(zhuǎn)向θ1,行駛t1時間;再以v0向左轉(zhuǎn)θ1,行駛t1時間,回到原來的行駛路線[14].當障礙物向右行駛時,車輛的躲避方式一樣,只是方向不同. 為驗證本文方法對智能車輛自動駕駛中障礙物躲避的有效性,進行相關(guān)的實驗分析.實驗基于某實驗室內(nèi)路面的稠密視差,構(gòu)建智能車輛運行路面的V-視差圖和U-視差圖,并對其進行Hough直線擬合,結(jié)果用圖3和圖4描述. 圖3 V-視差圖和其直線提取結(jié)果 Fig.3 V-disparity map and its straight line extraction results (a)—V-視差圖; (b)—V-視差圖直線提取結(jié)果. 圖4 U-視差圖及其直線提取結(jié)果 Fig.4 U-disparity map and its straight line extraction results (a)—U-視差圖; (b)—U-視差圖直線提取結(jié)果. 基于V-視差圖以及U-視差圖采集獲取的直線,對實驗室內(nèi)錐形桶和兩個紙箱障礙物的高度以及寬度進行標定,垂直線同斜線的交點是障礙物的位置,最終實現(xiàn)障礙物的檢測, 分析上圖中的檢測結(jié)果可得,本文提出的基于V-視差的自動行駛中障礙物檢測方法,可準確檢測出智能車輛行駛過程中遇到的障礙物,準確檢測出錐形桶和兩個紙箱. 圖5給出了本文方法下的智能小車動態(tài)避障路徑規(guī)劃結(jié)果.能夠看出本文提出的基于智能視覺圖像的自動駕駛中障礙物躲避方法,能夠及時、穩(wěn)定地形成智能小車運動最優(yōu)避障路徑,具有較高的動態(tài)避障性能,自主導(dǎo)航功能強. 為了檢測本文方法在實際環(huán)境中的可行性,將Data set數(shù)據(jù)集內(nèi)的數(shù)據(jù)當成數(shù)據(jù)對象,讓某種型號的智能小車,在150 m×150 m的道路實施避障實驗.實驗公路中存在較多的樹木,實驗區(qū)域中存在140個障礙物.實驗設(shè)置智能小車的速度噪聲和角度噪聲分別是σs=0.1 m·s-1和σr=2°,檢測硬件是2.26 GHz,Intel Core i5 CPU,4 GB內(nèi)存,實驗結(jié)果用圖6描述. 對比分析圖6可得,通過傳統(tǒng)基于地理門檻的障礙物躲避方法,智能車開始階段遠離真實路徑,在中間階段回到真實路徑后又不斷偏離真實路徑,總共偏離真實路徑12次,對周圍環(huán)境和路徑的識別準確率較低.而本文方法共偏離真實路徑2次,并且偏離幅度較低,可在較低的時間內(nèi)回歸到實際路徑[15],大部分時間內(nèi)同真實路徑相一致,說明本文方法對避障路徑及對周圍環(huán)境的識別準確率較高,能夠大范圍長時間使用,在自動駕駛中的障礙物檢測和躲避過程中,具有較高的應(yīng)用價值. 圖5 動態(tài)避障路徑規(guī)劃結(jié)果Fig.5 Dynamic obstacle avoidance path planning results(a)—初始狀態(tài); (b)—運動狀態(tài)1; (c)—終止狀態(tài). 圖6 本文方法Fig.6 Method of this article 實驗過程中將2種方法分別運行30次,對比2種方法的識別準確度和運行耗時,結(jié)果用圖7和圖8描述.分析圖7能夠看出,采用傳統(tǒng)基于地理門檻的機器人障礙物躲避方法過程中,識別障礙物的平均準確度率72.1%,在10~20次實驗時識別準確度呈現(xiàn)大幅度的降低趨勢,20~30次實驗時識別準確度出現(xiàn)小幅度上升趨勢.采用本文方法識別障礙物的平均準確率是92.3%,比地理門檻方法高20.2%,并且隨著實驗次數(shù)的不斷提升,本文方法的識別準確率也逐漸提升,具有較高的優(yōu)勢. 圖7不同方法的識別準確度對比圖 圖8 不同方法的運行耗時對比圖 分析圖8能夠看出,傳統(tǒng)基于地理門檻障礙物躲避方法的智能小車在自動駕駛過程中的運行平均耗時是73 min,在第10~20次實驗過程中平均運行耗時呈現(xiàn)大幅度提升趨勢,而本文方法下的智能小車在自動駕駛過程中的平均運行耗時是34 min,并且隨著實驗次數(shù)的提升,本文方法的運行耗時提升幅度較低,本文方法的平均運行耗時比地理門檻方法少39 min,說明本文方法具有較高的魯棒性. 文章提出的基于智能視覺圖像的自動駕駛中障礙物躲避方法,采用智能視覺圖像技術(shù)中的V-視差圖像,通過Hough變換直線擬合采集V-視差圖和U-視差圖中的直線,獲取障礙物的位置,采用合理的障礙物避障方案,實現(xiàn)障礙物的準確、高效躲避. [ 1 ] 周慧子,胡學敏,陳龍,等. 面向自動駕駛的動態(tài)路徑規(guī)劃避障算法[J]. 計算機應(yīng)用, 2017,37(3):883-888. ZHOU H Z,HU X M,CHEN L,et al. Dynamic path planning for autonomous driving with avoidance of obstacles[J]. Computer Application, 2017,37(3):883-888. [ 2 ] 王新竹,李駿,李紅建,等. 基于三維激光雷達和深度圖像的自動駕駛汽車障礙物檢測方法[J]. 吉林大學學報(工學版), 2016,46(2):360-365. WANG X Z,LI J,LI H J,et al. Obstacle detection based on 3D laser scanner and range image for intelligent vehicle[J]. Journal of Jilin University (Engineering and Technology Edition), 2016,46(2):360-365. [ 3 ] 梁廣民. 一種新的自動駕駛軌跡規(guī)劃方法[J]. 電子科技大學學報, 2017,46(4):600-606. LIANG G M. Novel trajectory planning method for autonomous driving[J]. Journal of the University of Electronic Science and Technology, 2017,46(4):600-606. [ 4 ] 湯一平,王偉羊,朱威,等. 基于機器視覺的茶隴識別與采茶機導(dǎo)航方法[J]. 農(nóng)業(yè)機械學報, 2016,47(1):45-50. TANG Y P,WANG W Y,ZHU W,et al. Tea ridge identification and navigation method for tea-plucking machine based on machine vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016,47(1):45-50. [ 5 ] 盧清秀,陸興華. 無人機快速逃逸過程中障礙物自動識別仿真[J]. 計算機仿真, 2015,32(5):51-54. LU Q X,LU X H. Unmanned aerial vehicle (UAV) rapid escape obstacles in the process of automatic identification simulation[J]. Computer Simulation, 2015,32(5):51-54. [ 6 ] 張開冉,邱謙謙,王若成,等. 駕駛員雨中面對不同顏色障礙物時制動點選擇研究[J]. 中國安全科學學報, 2015,25(3):90-95. ZHANG K R,QIU Q Q,WANG R C,et al. Research on breaking point selection for driver encountering different color obstacles in the rain[J]. China Safety Science Journal, 2015,25(3):90-95. [ 7 ] KANG Y,LIMA D A D,VICTORINO A C. Dynamic obstacles avoidance based on image-based dynamic window approach for human-vehicle interaction[C]∥Intelligent Vehicles Symposium. IEEE, 2016:77-82. [ 8 ] FANG M C,WANG S M,WU M C,et al. Applying the self-tuning fuzzy control with the image detection technique on the obstacle-avoidance for autonomous underwater vehicles[J]. Ocean Engineering, 2015,93:11-24. [ 9 ] WU C H,JUANG J G. Application of image process and fuzzy theory to dynamic obstacle avoidance for an autonomous vehicle[C]∥Proceeding of National Symposium on System Science and Engineering, 2010. [10] MAN D W,KI H S,KIM H S. Collaborative obstacle avoidance method of surface and aerial drones based on acoustic information and optical image[J]. Transactions of the Korean Institute of Electrical Engineers, 2015,64(7):1081-1087. [11] 趙艷輝,閆亮,張公平. 基于切換增益變結(jié)構(gòu)控制的導(dǎo)彈自動駕駛儀設(shè)計[J]. 彈箭與制導(dǎo)學報, 2016,36(5):1-4. ZHAO Y H,YAN L,ZHANG G P. Missile autopilot design based on switching-gain variable structure control[J]. Journal of Missile and Guidance, 2016,36(5):1-4. [12] 辛煜,梁華為,梅濤,等. 基于激光傳感器的無人駕駛汽車動態(tài)障礙物檢測及表示方法[J]. 機器人, 2014,36(6):654-661. XIN Y,LIANG H W,MEI T,et al. Dynamic obstacle detection and representation approach for unmanned vehicles based on laser sensor[J]. Robot, 2014,36(6):654-661. [13] MAN D W,KI H S,KIM H S. Collaborative obstacle avoidance method of surface and aerial drones based on acoustic information and optical image[J]. Transactions of the Korean Institute of Electrical Engineers, 2015,64(7):1081-1087. [14] MODI H,NIRAV V S,MALAV H S. Obstacle avoidance system in autonomous ground vehicle using ground plane image processing and omnidirectional drive[C]∥International Conference on Computing Communication Control and Automation. IEEE, 2015:594-601. [15] GUO J,HU P,WANG R. Nonlinear coordinated steering and braking control of vision-based autonomous vehicles in emergency obstacle avoidance[J]. IEEE Transactions on Intelligent Transportation Systems, 2016,17(11):3230-3240.2 實驗分析
3 結(jié) 論