劉衍珩,高思偉,王 健,鄧偉文
(1.吉林大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,長春 130012;2.吉林大學(xué)符號(hào)計(jì)算與知識(shí)工程教育部重點(diǎn)實(shí)驗(yàn)室,長春 130012;3.吉林大學(xué)汽車仿真與控制國家重點(diǎn)實(shí)驗(yàn)室,長春 130012)
縮微智能車目標(biāo)檢測系統(tǒng)的設(shè)計(jì)與仿真
劉衍珩1,2,3,高思偉1,2,王 健1,2,3,鄧偉文3
(1.吉林大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,長春 130012;2.吉林大學(xué)符號(hào)計(jì)算與知識(shí)工程教育部重點(diǎn)實(shí)驗(yàn)室,長春 130012;3.吉林大學(xué)汽車仿真與控制國家重點(diǎn)實(shí)驗(yàn)室,長春 130012)
為實(shí)現(xiàn)對(duì)車輛前方目標(biāo)檢測,提出并模擬了一種對(duì)縮微智能車前方目標(biāo)進(jìn)行檢測的方案.在交通沙盤中,搭載ARM9開發(fā)板的縮微智能車,通過多種傳感器數(shù)據(jù)融合采集縮微智能車的前方目標(biāo)信息,然后再對(duì)數(shù)據(jù)進(jìn)行集中處理.處理過程包括對(duì)視覺數(shù)據(jù)進(jìn)行行人識(shí)別、對(duì)雷達(dá)數(shù)據(jù)進(jìn)行目標(biāo)狀態(tài)分析,以及對(duì)通信數(shù)據(jù)進(jìn)行分包,最后將數(shù)據(jù)包發(fā)送到監(jiān)控平臺(tái)完成前方運(yùn)動(dòng)目標(biāo)信息的實(shí)時(shí)顯示.仿真結(jié)果表明:該系統(tǒng)實(shí)現(xiàn)了對(duì)縮微智能車前方目標(biāo)信息的實(shí)時(shí)采集,其采集精度和系統(tǒng)穩(wěn)定性優(yōu)于傳統(tǒng)的目標(biāo)運(yùn)動(dòng)信息采集系統(tǒng).
前方目標(biāo)檢測;縮微智能車;目標(biāo)檢測;多傳感器
隨著嵌入式系統(tǒng)、智能控制技術(shù)的發(fā)展,縮微智能車已被廣泛應(yīng)用于智能交通系統(tǒng).縮微智能車在將真實(shí)車輛按一定比例縮小的基礎(chǔ)上,集中運(yùn)用了自動(dòng)控制、人工智能、計(jì)算機(jī)視覺等技術(shù)以實(shí)現(xiàn)信息采集、數(shù)據(jù)處理、數(shù)據(jù)融合,最終達(dá)到車輛的自主駕駛,包括超車、避障、識(shí)別交通標(biāo)志、車道線以及自主泊車等目的.文獻(xiàn)[1]將系統(tǒng)劃分為五大模塊:激光數(shù)據(jù)處理、視覺數(shù)據(jù)處理、傳感器融合、信息決策和控制,各模塊通過數(shù)據(jù)接口進(jìn)行數(shù)據(jù)通信.國外有關(guān)智能車的研究設(shè)計(jì)[2-6]也提出了相似的層次系統(tǒng).在國內(nèi),清華大學(xué)研制的THMR-V[7]和國防科技大學(xué)研制的CITAVT-IV[8]都分別設(shè)計(jì)了不同的子系統(tǒng)架構(gòu).相較于傳統(tǒng)的軟件模擬方式,該技術(shù)具有更強(qiáng)的真實(shí)性和可展示性,提供了更貼近真實(shí)環(huán)境的車體模型和道路模型,同時(shí)兼具了軟件模擬的可重復(fù)性、可評(píng)價(jià)性、易修改性的優(yōu)勢.相較于實(shí)車場地實(shí)驗(yàn),該技術(shù)具有實(shí)驗(yàn)成本較低、易于維護(hù)、風(fēng)險(xiǎn)低、可模擬大規(guī)模車輛等優(yōu)點(diǎn).
目標(biāo)檢測是縮微智能車的重要組成部分之一,交通參數(shù)(車流量、車速等)采集、車型識(shí)別分類以及車輛目標(biāo)的跟蹤等都直接依賴于車輛目標(biāo)的檢測識(shí)別結(jié)果[9].通過傳感器的環(huán)境感知,可以實(shí)現(xiàn)對(duì)車輛行駛前方的障礙物的檢測.由于單一傳感器獲取的信息受限,因此在縮微智能車中引入多傳感器融合技術(shù),避免單一傳感器的信息盲區(qū),提高了多源信息處理結(jié)果的質(zhì)量,有利于對(duì)事物的判斷和決策[10].在融合算法的實(shí)現(xiàn)過程中,來自不同傳感器的信息在時(shí)間和空間上存在差異,因此該技術(shù)的難點(diǎn)在于如何將零散的多源碎片信息整合成為一幀緊密關(guān)聯(lián)的信息數(shù)據(jù).
本文提出并實(shí)現(xiàn)了一種合理、高效和真實(shí)的縮微智能車實(shí)驗(yàn)平臺(tái)的方案,選用激光雷達(dá)、攝像頭以及無線通信等多種傳感器采集行駛前方目標(biāo)的數(shù)據(jù),對(duì)數(shù)據(jù)進(jìn)行融合處理并產(chǎn)生可視化的數(shù)據(jù)實(shí)時(shí)顯示.實(shí)驗(yàn)數(shù)據(jù)表明,該方案能通過對(duì)多傳感器數(shù)據(jù)融合達(dá)到對(duì)縮微智能車前方目標(biāo)實(shí)時(shí)檢測的目的.
1.1系統(tǒng)架構(gòu)
該平臺(tái)的架構(gòu)如圖1所示,搭載ARM9開發(fā)板的縮微智能車通過攝像頭、激光雷達(dá)采集行駛前方的目標(biāo)信息,通過車輛內(nèi)部控制器采集智能車的行駛參數(shù).這些信息和參數(shù)通過簡單的數(shù)據(jù)預(yù)處理后,視覺數(shù)據(jù)用于行人檢測,雷達(dá)數(shù)據(jù)用于障礙物信息提取,最后經(jīng)過處理的傳感器數(shù)據(jù)按照規(guī)定的數(shù)據(jù)格式通過基于IEEE802.11a協(xié)議的WiFi路由器發(fā)往服務(wù)器數(shù)據(jù)處理系統(tǒng).最后,服務(wù)器數(shù)據(jù)處理系統(tǒng)對(duì)接收的數(shù)據(jù)進(jìn)行解碼,并將來自同一輛小車的多個(gè)數(shù)據(jù)源的數(shù)據(jù)融合成一幀完整的目標(biāo)檢測信息并保存于數(shù)據(jù)存儲(chǔ)系統(tǒng).除此之外,服務(wù)器數(shù)據(jù)處理系統(tǒng)還提供數(shù)據(jù)分析和可視化顯示道路目標(biāo)信息的功能.
1.2客戶端數(shù)據(jù)采集系統(tǒng)
數(shù)據(jù)采集模塊分為3個(gè)部分:攝像頭模塊、雷達(dá)模塊和車輛內(nèi)部信息模塊.攝像頭模塊不斷捕獲小車正前方的視頻信息,并對(duì)每幀圖像數(shù)據(jù)進(jìn)行行人等檢測處理.雷達(dá)模塊利用激光雷達(dá)不斷掃描小車正前方4 m范圍內(nèi)的障礙物信息,并對(duì)獲得的連續(xù)多幀數(shù)據(jù)進(jìn)行目標(biāo)信息提取,包括計(jì)算目標(biāo)障礙物的速度矢量、移動(dòng)方向、物體寬度以及距離等信息.車輛內(nèi)部信息模塊通過智能車內(nèi)部信息采集接口,周期性地向智能車內(nèi)部控制器發(fā)送請(qǐng)求,控制器返回車輛當(dāng)前的狀態(tài)信息.縮微智能車和傳感器如圖2所示.
1.2.1視頻模塊與行人識(shí)別算法
采用V4L2(video four Linux two)方式采集視頻數(shù)據(jù),它是Linux操作系統(tǒng)提供的用于采集圖片、音頻和視頻的API接口.并使用內(nèi)存映射方式(memory map,MMAP)來獲取連續(xù)多幀圖像,作為行人識(shí)別的數(shù)據(jù)源.方向梯度直方圖(histogram oforiented gradient,HOG)特征是一種在圖像處理中用來進(jìn)行物體檢測的特征描述子.它通過計(jì)算圖像局部區(qū)域的梯度方向直方圖來構(gòu)成特征.HOG特征結(jié)合SVM分類器已經(jīng)被廣泛應(yīng)用于圖像識(shí)別中,尤其在行人檢測中獲得了極大的成功.HOG+SVM進(jìn)行行人檢測的方法[11]由法國研究人員Dalal在2005年的CVPR上提出,而如今雖然有很多行人檢測算法不斷提出,但基本都是以HOG+SVM的思路為主.該方法的優(yōu)點(diǎn)在于:1)由于HOG是在圖像的局部方格單元上操作,因此它對(duì)圖像幾何的形變和光學(xué)的形變都能保持很好的不變性.2)在粗的空域抽樣、精細(xì)的方向抽樣以及較強(qiáng)的局部光學(xué)歸一化等條件下,只要行人大體上能夠保持直立的姿勢,可以容許行人有一些細(xì)微的肢體動(dòng)作,這些細(xì)微的動(dòng)作可以被忽略而不影響檢測效果.HOGDescriptor類型變量用以保存提取的HOG特征矢量,然后調(diào)用hog描述子的setSVMDetector方法給對(duì)HOG特征進(jìn)行分類的SVM模型的系數(shù)賦值,最后調(diào)用hog類的方法detectMultiScale對(duì)圖像變量進(jìn)行多尺度檢測.經(jīng)過多次實(shí)驗(yàn)驗(yàn)證,行人檢測的最佳參數(shù)設(shè)置是,3×3細(xì)胞/區(qū)間、6×6像素/細(xì)胞、9個(gè)直方圖通道.行人目標(biāo)閾值設(shè)置為最大值0,滑動(dòng)窗口每次移動(dòng)的距離為8×8,圖像的擴(kuò)充大小為32×32.實(shí)驗(yàn)結(jié)果表明,該算法在區(qū)分行人與障礙物和多行人檢測的情況下均有良好的檢測效果.
1.2.2激光雷達(dá)模塊與目標(biāo)信息提取算法
本系統(tǒng)采用的激光雷達(dá)為HOKUYO AUTOMATIC公司的型號(hào)為URG-04LX的二維激光掃描測距儀,參數(shù)如表1所示.
表1 URG-04LX激光雷達(dá)參數(shù)Table 1 URG-04LX's parameters
激光雷達(dá)模塊需要完成障礙物判斷,計(jì)算障礙物的寬度信息、速度信息以及運(yùn)動(dòng)方向等功能.障礙物判斷可以通過對(duì)距離信息進(jìn)行區(qū)域分割法完成[12].首先將距離信息分割成不同的區(qū)域,如果連續(xù)2個(gè)掃描點(diǎn)的距離信息小于某個(gè)閾值,就認(rèn)為這2個(gè)掃描點(diǎn)屬于同一個(gè)區(qū)域.反之,數(shù)據(jù)幀就視為從該處不再連續(xù),從而實(shí)現(xiàn)在場景中判斷障礙物的目的.閾值計(jì)算公式為
式中:threshold為閾值(mm);max_dis為雷達(dá)最大精確距離,可達(dá)4 000 mm.
程序中還定義了結(jié)構(gòu)體Object用來保存被檢測出的物體的信息,包括如下參數(shù):first_ang:逆時(shí)針方向第一個(gè)點(diǎn)的角度,相對(duì)于右側(cè)0度;last_ang:逆時(shí)針方向最后一個(gè)點(diǎn)的角度;shortest_ang:垂直距離最近的那個(gè)點(diǎn)的角度;first_dis:逆時(shí)針方向第一個(gè)點(diǎn)與本車的直線距離;last_dis:逆時(shí)針方向最后一個(gè)點(diǎn)與本車的直線距離;shortest_dis:垂直距離最近的點(diǎn)與本車的直線距離;first_offset:逆時(shí)針方向第一個(gè)點(diǎn)在數(shù)組中的序列;last_offset:逆時(shí)針方向最后一個(gè)點(diǎn)在數(shù)組中的序列;shortest_offset:最近點(diǎn)在數(shù)組中的序列;object_width:物體的寬度;longitudinal_ speed:相對(duì)于小車的縱向速度;lateral_speed:相對(duì)于小車的橫向速度;max_points:掃描點(diǎn)的總數(shù).利用三角函數(shù)和距離公式計(jì)算出障礙物的寬度、方位以及速度信息.物體寬度的計(jì)算公式為
障礙物的速度矢量需要通過比較連續(xù)2幀數(shù)據(jù)的信息來計(jì)算,設(shè)在pre_stamp時(shí)間捕獲第1幀數(shù)據(jù)D1,在last_stamp時(shí)間捕獲第2幀數(shù)據(jù)D2.若D1和D2中存在一對(duì)障礙物object1和object2的寬度數(shù)據(jù)分別為object_width1和object_width2,若滿足
則object1和object2為同一物體.然后利用該物體的位移變化計(jì)算出相對(duì)小車的縱向速度longitudinal_ speed以及橫向速度Lateral_speed:
1.2.3車輛內(nèi)部信息模塊
智能車的光電編碼器可以計(jì)算小車當(dāng)前速度的信息.首先測出智能車程序中中斷時(shí)間內(nèi)的累加脈沖量,然后通過計(jì)算單位時(shí)間內(nèi)的編碼輸出脈沖來計(jì)算小車的速度.在程序中,中斷時(shí)間被設(shè)置為0.01 s,則可設(shè)x為這0.01 s的雷達(dá)脈沖量.令智能車輪胎齒輪和光電編碼器齒輪的傳動(dòng)比為a,輪胎的周長為c,采用的光電編碼器為b脈沖/s,于是速度υ(m/s)為
傳動(dòng)比a為定值0.342 1,b為100,輪胎周長c為0.157 m,因此可以將智能車的速度公式簡化為
1.2.4通信協(xié)議
根據(jù)傳輸數(shù)據(jù)的類型可以定義3個(gè)數(shù)據(jù)包類型:MyProtocolCarData類、MyProtocolCameraData類和MyProtocolUrgData類,分別對(duì)應(yīng)車內(nèi)部信息數(shù)據(jù)、攝像頭信息數(shù)據(jù)、激光雷達(dá)信息數(shù)據(jù),它們繼承了一個(gè)共同父類MyProtocol類,MyProtocol類包含了客戶端數(shù)據(jù)包的基本信息.協(xié)議數(shù)據(jù)類如圖3所示.
1.3服務(wù)器數(shù)據(jù)處理系統(tǒng)
首先,服務(wù)器數(shù)據(jù)處理系統(tǒng)實(shí)時(shí)接收來自不同小車客戶端的數(shù)據(jù),并統(tǒng)一來自不同傳感器的數(shù)據(jù)包的時(shí)間信息,修正與時(shí)間相關(guān)的距離信息.其次,完成激光雷達(dá)的檢測目標(biāo)與攝像頭識(shí)別目標(biāo)的融合.最后,將完全融合的一幀基于時(shí)間戳的局部交通信息顯示并同時(shí)保存在數(shù)據(jù)庫.
1.3.1時(shí)間統(tǒng)一與數(shù)據(jù)糾正
在進(jìn)行多傳感器數(shù)據(jù)融合之前,系統(tǒng)需要統(tǒng)一多種傳感器的時(shí)間信息.為了實(shí)現(xiàn)數(shù)據(jù)顯示的實(shí)時(shí)性,本系統(tǒng)采用接收時(shí)間戳作為數(shù)據(jù)幀的時(shí)間戳,因此會(huì)產(chǎn)生收發(fā)時(shí)延.假設(shè)3種數(shù)據(jù)源的收發(fā)時(shí)延分別為Δturg、Δtcamera、Δtcar.收發(fā)時(shí)延包括采集與處理時(shí)延和傳輸時(shí)延,在保證實(shí)驗(yàn)環(huán)境無線網(wǎng)絡(luò)穩(wěn)定的前提條件下,傳輸速率具有極高的效率,一般情況傳輸時(shí)延小于0.1 s,因此需要糾正激光雷達(dá)獲取的目標(biāo)位置信息.設(shè)傳輸時(shí)延為Δt,糾正后的目標(biāo)距離信息為distance′,則distance′可以表示為其中FirstAng變量描述了目標(biāo)的方位信息,可以通過目標(biāo)偏移量left_offset和right_offset計(jì)算.位移的改變也會(huì)影響目標(biāo)的方位信息,因此也需要對(duì)FirstAng變量進(jìn)行糾正,設(shè)糾正后的目標(biāo)方位信息為FirstAng′,且
因?yàn)榉凑泻瘮?shù)會(huì)得到2個(gè)結(jié)果,所以還需要對(duì)糾正后的角度信息進(jìn)行判斷:FirstAng≥90°,則FirstAng′≥90°;FirstAng<90°,則FirstAng′<90°.
再考慮采集與處理時(shí)延對(duì)系統(tǒng)的影響,假設(shè)激光雷達(dá)目標(biāo)信息檢測時(shí)延、攝像頭行人檢測時(shí)延以及智能車光電編碼器信息采集時(shí)延分別為Δturg′、Δtcamera′、Δtcar′,經(jīng)過反復(fù)實(shí)驗(yàn)驗(yàn)證,Δturg′=0.1 s、Δtcamera′=0.3 s、Δtcar′<0.01 s.因此Δturg=Δturg′+ Δt=0.2 s、Δtcamera=Δtcamera′+Δt=0.4 s、Δtcar=Δtcar′+Δt=0.11 s,在接收端分別設(shè)置了3個(gè)數(shù)據(jù)緩沖區(qū)urg_data、camera_data和car_data,接收線程將不同類型的數(shù)據(jù)包分類并不斷刷新緩沖區(qū)中的數(shù)據(jù),同時(shí)采集線程每隔Δtget從3個(gè)緩沖區(qū)中各取走最近一次更新的數(shù)據(jù).為了減小收發(fā)時(shí)延帶來的時(shí)間誤差,在不影響系統(tǒng)性能的前提下本文選取Δturg、Δtcamera和Δtcar的公倍數(shù)作為Δtget,這里分別將Δtget設(shè)置為0.2、0.4、0.8、1.2 s來進(jìn)行性能分析,將每隔Δtget從3個(gè)緩沖區(qū)取得的數(shù)據(jù)的時(shí)間戳進(jìn)行比較,任意一次取得的任意2個(gè)時(shí)間戳的差值大于0.1 s的一幀數(shù)據(jù)視為錯(cuò)誤幀,經(jīng)過反復(fù)實(shí)驗(yàn),得到的錯(cuò)誤幀率分別為100%、21.7%、1.2%、0.6%.由此可見,將Δtget設(shè)置為0.8 s既可以達(dá)到降低誤幀率的目的,又可以不影響系統(tǒng)的性能.
1.3.2激光雷達(dá)數(shù)據(jù)與攝像頭數(shù)據(jù)融合
為了融合激光雷達(dá)獲取的目標(biāo)信息與攝像頭獲取的視覺信息,需要完成對(duì)這2種傳感器到車輛坐標(biāo)系的轉(zhuǎn)化,推導(dǎo)出激光雷達(dá)和攝像頭坐標(biāo)系之間的轉(zhuǎn)換關(guān)系.采用了一種攝像機(jī)和單線激光雷達(dá)聯(lián)合標(biāo)定的新方法,只需要將特定標(biāo)定板擺放在載體正前方,利用激光雷達(dá)和攝像機(jī)采集一次數(shù)據(jù)就可實(shí)現(xiàn)攝像頭、激光雷達(dá)和車體構(gòu)成的整個(gè)系統(tǒng)的標(biāo)定[13].首先需要確定激光雷達(dá)坐標(biāo)系Curg與車輛坐標(biāo)系Ccar的轉(zhuǎn)換關(guān)系,設(shè)激光雷達(dá)坐標(biāo)下有一點(diǎn)Purg=(xurg,yurg,zurg)T,在車輛坐標(biāo)系中有對(duì)應(yīng)坐標(biāo)Pcar=(xcar,ycar,zcar)T,它們之間的轉(zhuǎn)換關(guān)系滿足
式中:Turg→car為激光雷達(dá)的安裝位置在車體坐標(biāo)系中的坐標(biāo),可以通過簡單的測量獲??;Rurg→car為Curg相對(duì)于Ccar的旋轉(zhuǎn)矩陣,依次由繞x軸旋轉(zhuǎn)的俯仰角α和繞z軸旋轉(zhuǎn)的偏轉(zhuǎn)角φ構(gòu)成,該矩陣可表示為
俯仰角α、偏轉(zhuǎn)角φ的說明和具體計(jì)算方法見文獻(xiàn)[13].
設(shè)攝像頭坐標(biāo)下一點(diǎn)Pcam=(xcam,ycam,zcam)T,在車輛坐標(biāo)系中有對(duì)應(yīng)坐標(biāo)Pcar=(xcar,ycar,zcar)T,它們之間的轉(zhuǎn)換關(guān)系滿足
式中Tcam→car為攝像頭的安裝位置在車體坐標(biāo)系中的坐標(biāo),可以通過簡單的測量獲取.
Rcam→car是Ccam相對(duì)于Ccar的旋轉(zhuǎn)矩陣,它由旋轉(zhuǎn)矩陣Rpla→car和Rpla→cam組成,Rpla→car表示棋盤格坐標(biāo)系到車輛坐標(biāo)系的旋轉(zhuǎn)矩陣,Rpla→cam表示棋盤格坐標(biāo)系到攝像頭坐標(biāo)系的旋轉(zhuǎn)矩陣.Rpla→car和Rpla→cam的說明和具體計(jì)算方法見文獻(xiàn)[13].
根據(jù)激光雷達(dá)到車輛坐標(biāo)系的轉(zhuǎn)換參數(shù)[Rurg→car,Turg→car]和攝像頭到車輛坐標(biāo)系的轉(zhuǎn)換參數(shù)[Rcam→car,Tcam→car]可以對(duì)2個(gè)傳感器進(jìn)行聯(lián)合標(biāo)定,獲取攝像機(jī)和激光雷達(dá)坐標(biāo)系的轉(zhuǎn)換參數(shù).由式(12)可以推導(dǎo)出
把式(10)和式(11)代入式(13),可以推導(dǎo)出激光雷達(dá)到攝像頭坐標(biāo)系的轉(zhuǎn)換關(guān)系
得到激光雷達(dá)到攝像頭坐標(biāo)系的轉(zhuǎn)換參數(shù)Rurg→cam和Turg→cam分別為
通過式(14)激光雷達(dá)檢測的目標(biāo)可以投影到攝像頭的坐標(biāo)系中,在行人檢測的檢測集合中找到相應(yīng)目標(biāo),實(shí)現(xiàn)攝像頭數(shù)據(jù)與激光雷達(dá)數(shù)據(jù)的融合.
1.3.3車輛定位
借助攝像頭和雷達(dá)傳感器可以獲取圖像數(shù)據(jù)和掃描數(shù)據(jù),但為了獲取縮微車在實(shí)驗(yàn)場景中的位置、速度及姿態(tài)等信息,還需要輔之以導(dǎo)航定位系統(tǒng),常用的有GPS導(dǎo)航和慣性導(dǎo)航系統(tǒng)(inertial navigation system,INS).但導(dǎo)航定位系統(tǒng)并不適用于縮微實(shí)驗(yàn)平臺(tái),因此本系統(tǒng)提供了一種通過攝像頭識(shí)別確定縮微車在沙盤中位置的方法.通過一部架設(shè)在沙盤正上方3 m高處的攝像頭,獲取整個(gè)實(shí)驗(yàn)環(huán)境的圖像數(shù)據(jù).實(shí)驗(yàn)場景分為3個(gè)部分:青色部分為場景外區(qū)域,是不可通行區(qū)域;白色部分為車輛跑道,分為十字路口區(qū)域和道路區(qū)域,都為可通行區(qū)域;綠色部分為建筑區(qū)域,為不可通行區(qū)域.首先用攝像頭捕獲一張沒有小車的背景圖片;然后將每部縮微車都用一種特定的顏色標(biāo)識(shí),分別選用紅色、藍(lán)色、黃色、粉色以及紫紅色作為縮微車的顏色標(biāo)識(shí);最后通過設(shè)置合適Iplimage圖像數(shù)據(jù)中像素的RGB值將特定顏色的小車從整個(gè)圖像中識(shí)別出來,并定位出小車在軌道中的坐標(biāo).通過循環(huán)讀取每張圖像中每個(gè)像素點(diǎn)f(i,j)的RGB值r(i,j)、g(i,j)、b(i,j)與事先設(shè)定好的RGB閾值比較來達(dá)到識(shí)別的效果,表2顯示了實(shí)驗(yàn)場景和縮微車的RGB閾值.通過記錄識(shí)別出所有像素點(diǎn)的坐標(biāo)值的平均值,得到待識(shí)別縮微車的當(dāng)前坐標(biāo)并將其畫在背景圖上.測試的過程中將一個(gè)紅色標(biāo)記物放置在待檢測小車的車頭,識(shí)別出的小車用紅色方塊表示,右側(cè)為頂部攝像頭捕獲的視頻,左側(cè)為識(shí)別效果.識(shí)別的對(duì)比圖如圖4所示,檢測精度為±8 mm.
表2 實(shí)驗(yàn)場景與縮微車的RGB閾值Table 2 RGB of experimental environment and miniature cars
實(shí)驗(yàn)場景以真實(shí)城市車道為原型按比例縮放而成,場景內(nèi)還可放置小人和障礙物.實(shí)驗(yàn)環(huán)境與真實(shí)環(huán)境的參數(shù)對(duì)比如表3所示,按比例縮放保證了模擬實(shí)驗(yàn)獲取的數(shù)據(jù)的真實(shí)性和準(zhǔn)確性.
表3 實(shí)驗(yàn)環(huán)境與真實(shí)環(huán)境參數(shù)對(duì)比Table 3 Comparison of the parameters of experimental environment and real environment
如表2所見,縮微智能車和實(shí)驗(yàn)場景的車道寬度按1∶10的比例縮放了真實(shí)車輛和真實(shí)環(huán)境.而根據(jù)《中華人民共和國道路交通安全法實(shí)施條例》,城市公路機(jī)動(dòng)車的最高行駛速度約為40 km/h,即10 000 mm/s,按照比例本文將縮微智能車的最高行駛速度設(shè)定為1 000 mm/s.當(dāng)機(jī)動(dòng)車以40 km/h的速度行駛時(shí)的最大行車視距約為40 m,即40 000 mm,按照比例本文將縮微智能車的最大行車視距設(shè)定為4 000 mm.
啟動(dòng)程序之后,服務(wù)器可以實(shí)時(shí)顯示整個(gè)沙盤和當(dāng)前小車的目標(biāo)檢測信息和車輛狀態(tài)信息,如圖5(a)所示,表4展示了融合后的一幀數(shù)據(jù)在服務(wù)器上的數(shù)據(jù)顯示效果,紅色色塊代表當(dāng)前小車,黑色圓形色塊代表障礙物,黑色三角形色塊代表行人.圖5(b)的曲線為當(dāng)前小車的速度變化曲線,縱坐標(biāo)表示小車當(dāng)前時(shí)間的車速,橫坐標(biāo)表示當(dāng)前時(shí)間,該曲線每隔0.8 s進(jìn)行一次重繪,可以反映連續(xù)時(shí)間段小車的速度的變化情況.
交通沙盤除了顯示當(dāng)前縮微車的目標(biāo)檢測信息和車輛狀態(tài)信息,還可以動(dòng)態(tài)顯示場景中全部縮微車的局目標(biāo)檢測信息和車輛狀態(tài)信息,該模式下實(shí)驗(yàn)車隊(duì)的全部實(shí)驗(yàn)車的目標(biāo)檢測信息都將顯示在交通沙盤中,如圖6所示.紅色色塊、藍(lán)色色塊、黃色色塊、粉色色塊以及紫紅色色塊分別代表5輛實(shí)驗(yàn)小車,黑色圓形色塊代表非行人目標(biāo),黑色三角形色塊代表行人目標(biāo).與文獻(xiàn)[14]所提供的車載雷達(dá)目標(biāo)跟蹤方法相比,該系統(tǒng)不僅能獲得前方目標(biāo)的運(yùn)動(dòng)狀態(tài)信息,還可以獲得傳感器縮微車的運(yùn)動(dòng)狀態(tài)信息,同時(shí)在區(qū)分靜止目標(biāo)與運(yùn)動(dòng)目標(biāo)的基礎(chǔ)上利用攝像頭與雷達(dá)融合后的數(shù)據(jù)更能區(qū)分行人目標(biāo)和非行人目標(biāo),使局部交通信息更加全面.
表4 當(dāng)前小車的局部交通信息Table 4 Local traffic information for current car
上述實(shí)驗(yàn)結(jié)果驗(yàn)證了該設(shè)計(jì)方案的正確性,實(shí)現(xiàn)了對(duì)1輛或多輛縮微車行駛道路前方目標(biāo)的狀態(tài)信息采集與顯示.通過連續(xù)多幀的激光雷達(dá)數(shù)據(jù)計(jì)算得到的檢測目標(biāo)的類型信息(行人目標(biāo)或非行人目標(biāo))、距離信息、寬度信息、速度矢量以及方位信息與真實(shí)情況相符,相較于常用的毫米波雷達(dá)目標(biāo)檢測具有更高的檢測精度和更廣的檢測范圍.融合后的數(shù)據(jù)幀相較于多數(shù)據(jù)源的單純疊加,去除了大量數(shù)據(jù)冗余,提高了系統(tǒng)實(shí)時(shí)顯示的效率.
實(shí)驗(yàn)中,一方面,采用搭載多傳感器的采集縮微車(后車)跟蹤正前方的縮微車(前車)得到跟蹤算法的測量值;另一方面,利用前后車光電編碼器返回的相對(duì)大地坐標(biāo)系的絕對(duì)運(yùn)動(dòng)狀態(tài)信息可以計(jì)算前車在后車坐標(biāo)系中的相對(duì)運(yùn)動(dòng)狀態(tài),并以該結(jié)果作為跟蹤算法的真實(shí)值,最后通過比較前后車相對(duì)運(yùn)動(dòng)狀態(tài)信息的真實(shí)值與跟蹤算法的測量值驗(yàn)證算法的測量精度.本文實(shí)現(xiàn)了文獻(xiàn)[14]提出的利用ESR毫米波雷達(dá)的跟蹤算法,比較了ESR跟蹤算法和本文提出的URG跟蹤算法的檢測精度.
采用該算法檢測0~20 s內(nèi)目標(biāo)的運(yùn)動(dòng)軌跡如圖7所示.通過頂部攝像頭獲取的前車真實(shí)的運(yùn)動(dòng)軌跡在圖7中用藍(lán)線表示,而通過ESR和URG采集的距離信息和運(yùn)動(dòng)方向信息繪制的運(yùn)動(dòng)軌跡在圖7中分別用綠線和紅線表示.
在前車跟蹤的過程中,ESR算法的最大距離測量誤差為13.65%,平均距離測量誤差為7.47%,URG算法的最大距離測量誤差為6.41%,平均距離測量誤差為2.96%.
算法采集的寬度信息與實(shí)際測量的縮微車寬度信息的對(duì)比效果如圖8所示.
ESR算法對(duì)運(yùn)動(dòng)中的寬度為170.77 mm的縮微車的寬度檢測最大誤差值為20.22 mm,最大誤差為11.84%,寬度檢測平均誤差值為12.83 mm,平均誤差為7.51%.URG算法的寬度檢測最大誤差值為8.99 mm,最大誤差為5.26%,寬度檢測平均誤差值為4.88 mm,平均誤差為2.86%.
算法采集的前后車相對(duì)橫縱向速度信息與前后車實(shí)際的相對(duì)速度信息的對(duì)比效果如圖9所示.
ESR算法采集的相對(duì)縱向速度與前后車實(shí)際的相對(duì)縱向速度的最大誤差值為6.23 mm/s,最大誤差為20.31%,平均誤差為12.46%.URG算法的相對(duì)縱向速度的最大誤差值為3.13 mm/s,最大誤差為8.31%,平均誤差為5.75%.ESR算法采集的相對(duì)橫向速度與前后車實(shí)際的相對(duì)橫向速度的最大誤差值為1.53 mm/s,最大誤差為10.28%,平均誤差為8.81%.URG算法的相對(duì)橫向速度的最大誤差值為1.05 mm/s,最大誤差為6.72%,平均誤差為5.54%.
由此可見,本文提出的算法相較于文獻(xiàn)[14]具有更高的檢測精確度,同時(shí)還能獲取更詳細(xì)的目標(biāo)信息用于局部環(huán)境感知中的目標(biāo)分類.
最后還需要考慮檢測環(huán)境的變化對(duì)算法精確度的影響,例如:對(duì)多目標(biāo)的檢測、縮微車的速度變化以及樣本距離的變化.算法采集的距離信息是目標(biāo)狀態(tài)信息的最基本信息之一,可以通過分析目標(biāo)檢測算法的距離測量誤差來驗(yàn)證系統(tǒng)的穩(wěn)定性.在縮微車靜止時(shí)對(duì)不同距離的單個(gè)檢測樣本的檢測情況如圖10(a)所示,在不同車速下對(duì)同距離的單個(gè)檢測樣本的檢測情況如圖10(b)所示,在縮微車靜止時(shí)對(duì)同距離的不同檢測樣本個(gè)數(shù)的檢測情況如圖10(c)所示.
如圖10(a)所示,當(dāng)樣本距離大于4 000 mm時(shí),由于超出激光雷達(dá)的理論測距范圍,算法的測距誤差將持續(xù)升高,但在4 000 mm之內(nèi)都具有良好的穩(wěn)定性,滿足了縮微智能車對(duì)行車視距的要求.如圖10(b)所示,盡管測距誤差隨著縮微車車速的增加而持續(xù)升高,但當(dāng)縮微車車速達(dá)到實(shí)驗(yàn)要求的最高車速1 000 mm/s時(shí),測距誤差僅為6.24%.如圖10(c)所示,將檢測樣本的個(gè)數(shù)從0個(gè)逐漸提高至15個(gè),測距誤差的值并未出現(xiàn)較大波動(dòng),故可說明在0~15個(gè)檢測樣本的范圍內(nèi),該算法具有良好的穩(wěn)定性.而15個(gè)檢測樣本已經(jīng)可以滿足真實(shí)環(huán)境中對(duì)道路目標(biāo)的檢測.綜上所述,該算法在目標(biāo)檢測方面具有較好的穩(wěn)定性,且相對(duì)于單傳感器目標(biāo)檢測的精確度有較大提升.
1)提出了一種縮微智能車環(huán)境感知系統(tǒng)的設(shè)計(jì)方案:利用激光雷達(dá)、攝像頭以及智能車光電編碼器這3類傳感器各自優(yōu)點(diǎn),使采集的數(shù)據(jù)更加全面,并對(duì)采集的數(shù)據(jù)進(jìn)行了簡單的處理與融合,形成一幀基于時(shí)間的局部交通環(huán)境數(shù)據(jù)包并保存在數(shù)據(jù)庫中,最后實(shí)現(xiàn)了可視化的局部交通信息的顯示.
2)實(shí)驗(yàn)結(jié)果表明:采用URG激光雷達(dá)的檢測算法獲取的運(yùn)動(dòng)目標(biāo)狀態(tài)信息精確度更高,在改變檢測目標(biāo)的距離和數(shù)量以及采集縮微車的運(yùn)動(dòng)速度的情況下,檢測結(jié)果均穩(wěn)定收斂.
[1]PATZ B J,PAPELIS Y,PILLAT R,et al.A practical approach to robotic design for the DARPA urban challenge[J].Journal of Field Robotics,2008,25(8):528-566.
[2]KAMMEL S,ZIEGLER J,PITZER B,et al.Team annie way's autonomous system for the 2007 DARPA urban challenge[J].Journal of Field Robotics,2008,25(9): 615-639.
[3]BOHREN J,F(xiàn)OOTE T,KELLER J,et al.Little Ben:the Ben Franklin racing team's entry in the 2007 DARPA urban challenge[J].Journal of Field Robotics,2008,25(9):598-614.
[4]THRUN S,MONTEMERLO M.Stanley:the robot that won the DARPA grand challenge[J].Journal of Field Robotics,2006,23(9):661-692.
[5]RAUSKOLB F W,BERGER K,LIPSKI C,et al.Caroline:anautonomouslydrivingvehicleforurban environments[J].Journal of Field Robotics,2008,25(9):674-724.
[6]URMSONC,ANHALTJ,BAGNELLD,etal.Autonomous driving in urban environments:boss and the urban challenge[J].Journal of Field Robotics,2008,25(8):425-466.
[7]張朋飛,何克忠,歐陽正柱,等.多功能室外智能移動(dòng)機(jī)器人實(shí)驗(yàn)平臺(tái)-THMR-V[J].機(jī)器人,2002,24(2): 97-101.ZHANG PF,HEKZ,OUYANGZZ,etal.Multifunctional intelligent outdoor mobile robot testbed-THMR-V[J].Robot,2002,24(2):97-101.(in Chinese)
[8]孫振平,安向京,賀漢根.CITAVT-IV——視覺導(dǎo)航的自主車[J].機(jī)器人,2002,24(2):115-121.SUN Z P,AN X J,HE H G.CITAVT-IV—a autonomous land vehicle navigated by machine vision[J].Robot,2002,24(2):115-121.(in Chinese)
[9]劉志宇,王冠軍.智能交通檢測系統(tǒng)中動(dòng)態(tài)目標(biāo)檢測方法研究[J].計(jì)算機(jī)應(yīng)用與軟件,2010,27(1):29-31.LIU Z Y,WANG G J.On moving object detection in intelligent transportation detecting system[J].Computer Applications and Software,2010,27(1):29-31.(in Chinese)
[10]周銳,申功勛,房建成,等.多傳感器融合目標(biāo)跟蹤[J].航空學(xué)報(bào),1998,19(5):536-540.ZHOU R,SHEN G X,F(xiàn)ANG J C,et al.Target tracking based on fusion of multi-sensor[J].Acta Aeronautica et Astronautica Sinica,1998,19(5):536-540.(in Chinese)
[11]TRIGGS N D B.Histograms of oriented gradients for human detection[J].Cvpr,2005,1(12):886-893.
[12]陳鳳東.基于認(rèn)知地圖的移動(dòng)機(jī)器人自主導(dǎo)航技術(shù)研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2009.CHEN F D.Mobile robot autonomous navigation based on cognitivemap[D].Harbin:HarbinInstituteof Technology,2009.(in Chinese)
[13]彭夢,蔡自興.一種基于雙平行平面的激光雷達(dá)和攝像機(jī)標(biāo)定方法[J].中南大學(xué)學(xué)報(bào)(自然科學(xué)版),2012,43(12):4735-4742.PENG M,CAI Z X.A practical method for calibration of laser radar and camera based on double parallel planes[J].Journal of Central South University(Science and Technology),2012,43(12):4735-4742.(in Chinese)
[14]高振海,王竣,嚴(yán)偉,等.車載雷達(dá)目標(biāo)跟蹤及運(yùn)動(dòng)狀態(tài)分類方法[C]//中國汽車工程學(xué)會(huì).中國汽車工程學(xué)會(huì)年會(huì)論文集:2015年卷.上海:中國汽車工程學(xué)會(huì),2015:491-494.GAO Z H,WANG J,YAN W,et al.Development of target tracking and motion state classification algorithm for vehicle-borne radar[C]//2015 SAE-China Congress& Exhibition.Shanghai:SAECCE,2015:491-494.(in Chinese)
(責(zé)任編輯 呂小紅)
Design and Implementation of Target Detection System for Miniature Intelligent Vehicles
LIU Yanheng1,2,3,GAO Siwei1,2,WANG Jian1,2,3,DENG Weiwen3
(1.College of Computer Science and Technology,Jilin University,Changchun 130012,China;2.Key Laboratory of Symbolic Communication and Knowledge Engineering of Ministry of Education,Jilin University,Changchun 130012,China;3.State Key Laboratory of Automotive Simulation and Control,Jilin University,Changchun 130012,China)
In order to realize forward target detection,a detecting system for miniature intelligent vehicles has been proposed.On traffic sand table,miniature intelligent vehicles based on ARM9 gather the forward target information through various sensors,and then utilize these data for various purposes.The visual data is used for the pedestrian recognition,and the radar data is used for target motion analysis.Finally,ARM9 send the collected data to the monitor for real-time processing and demonstration.The simulation results show that the miniature intelligent vehicles realize the real-time context-awareness and it can get higher precision and stability than traditional system.
forward target detection;miniature intelligent vehicle;target detection;various sensors
TP 399
A
0254-0037(2016)10-1509-10
10.11936/bjutxb2016030027
2016-03-13
國家自然科學(xué)基金資助項(xiàng)目(61572229)
劉衍珩(1958—),男,教授,博士生導(dǎo)師,主要從事網(wǎng)路通信與安全方面的研究,E-mail:yhliu@jlu.edu.cn