亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于激光雷達(dá)深度信息和視覺HOG特征的車輛識(shí)別與跟蹤方法

        2017-05-02 12:34:25陸軍工程大學(xué)石家莊校區(qū)車輛與電子工程系河北石家莊050003
        關(guān)鍵詞:跟蹤器激光雷達(dá)聚類

        (1. 陸軍工程大學(xué)石家莊校區(qū)車輛與電子工程系, 河北 石家莊 050003;

        2. 北京理工大學(xué)機(jī)械與車輛學(xué)院, 北京 100081; 3. 中國(guó)船舶工業(yè)集團(tuán)第6354研究所, 江西 九江 332100)

        在無人車自動(dòng)駕駛領(lǐng)域,車輛的識(shí)別和跟蹤作為一項(xiàng)關(guān)鍵技術(shù), 為無人車的自主控制和安全行駛提供基礎(chǔ)?,F(xiàn)有的車輛檢測(cè)和跟蹤傳感器主要有激光雷達(dá)[1-2]和視覺攝像機(jī)[3]。甘志梅等[4]利用2D激光雷達(dá)信息建立車輛模型以對(duì)前方車輛進(jìn)行識(shí)別,并采用Kalman濾波實(shí)現(xiàn)了目標(biāo)跟蹤;但2D激光雷達(dá)掃描的是二維環(huán)境信息,信息量少,無法準(zhǔn)確識(shí)別出物體的形狀,跟蹤效果比較差。視覺攝像機(jī)進(jìn)行車輛檢測(cè)和跟蹤時(shí),檢測(cè)范圍廣,可以獲取車輛邊緣[5]、紋理、顏色和對(duì)稱性[6]等信息;但檢測(cè)到的前方車輛外形、顏色和視角存在偏差,提取的準(zhǔn)確率較低,不能滿足車輛檢測(cè)的實(shí)時(shí)性要求[7],同時(shí)無法獲取車輛的深度信息[8]。麥新晨等[9]利用激光雷達(dá)數(shù)據(jù)生成車輛假設(shè)的興趣區(qū)域,選取車輛的車底陰影、輪廓對(duì)稱性、區(qū)域紋理和角點(diǎn)數(shù)構(gòu)成多特征對(duì)車輛進(jìn)行識(shí)別驗(yàn)證;但檢測(cè)到的前方車輛輪廓、區(qū)域紋理和角點(diǎn)存在差異,這些特征不能很好地表征車輛特征,無法對(duì)漂移和遮擋的目標(biāo)進(jìn)行準(zhǔn)確跟蹤。視覺方向梯度直方圖(Histograms of Oriented Gradients,HOG)特征被提出后,首先運(yùn)用在行人檢測(cè)上,并得到了很好的驗(yàn)證。HOG特征由于其在局部幾何以及光學(xué)變化上具有良好的不變性,因此得到了廣泛的應(yīng)用,成功運(yùn)用于自動(dòng)分割人眼的虹膜圖像[10]、交通標(biāo)態(tài)檢測(cè)[11]和車輛檢測(cè)[12]等領(lǐng)域。

        基于激光雷達(dá)掃描周圍物體可以快速定位假設(shè)目標(biāo),視覺HOG特征可以準(zhǔn)確進(jìn)行車輛識(shí)別,從而完成假設(shè)目標(biāo)驗(yàn)證,因此筆者提出融合激光雷達(dá)深度信息和視覺HOG特征信息的車輛識(shí)別與跟蹤方法。該方法在目標(biāo)首次進(jìn)入激光雷達(dá)視野時(shí)采用視覺HOG特征對(duì)其進(jìn)行驗(yàn)證,對(duì)于驗(yàn)證后的目標(biāo)車輛,采用基于激光雷達(dá)深度信息對(duì)其持續(xù)跟蹤,可有效提高車輛檢測(cè)的準(zhǔn)確性和車輛跟蹤的實(shí)時(shí)性。

        1 傳感器標(biāo)定和車輛模型建立

        1.1 激光雷達(dá)和攝像機(jī)的標(biāo)定

        激光雷達(dá)和攝像機(jī)是2種類型的傳感器,在車輛檢測(cè)前需要將多傳感器的坐標(biāo)統(tǒng)一,實(shí)現(xiàn)坐標(biāo)系之間的相互轉(zhuǎn)換。實(shí)驗(yàn)中采用梯形棋盤格標(biāo)定板[13]的方法對(duì)攝像機(jī)和激光雷達(dá)進(jìn)行標(biāo)定,實(shí)現(xiàn)激光雷達(dá)數(shù)據(jù)到圖像坐標(biāo)的轉(zhuǎn)換。

        1.2 基于模板匹配的車輛模型建立

        由于前方被測(cè)車輛與搭載激光雷達(dá)的無人車相對(duì)位置不同,其呈現(xiàn)在激光雷達(dá)掃描地圖上的形狀也存在差異。當(dāng)車輛在激光雷達(dá)正前方時(shí),在點(diǎn)云圖中呈現(xiàn) “I”型直線形狀,當(dāng)車輛在右前方或者左前方時(shí),在點(diǎn)云圖中呈現(xiàn)“L”型直角形狀,如圖1所示。需要提取車輛的中心和尾部與建立的模板進(jìn)行匹配,因“I”型直線擬合較容易,本文重點(diǎn)討論“L”直角型角點(diǎn)的提取。

        擬合采用最小二乘法,擬合過程中要求觀測(cè)值偏差的加權(quán)平方和最小,擬合過程如圖2所示。對(duì)于采集到的某一幀激光雷達(dá)數(shù)據(jù),預(yù)處理得到一組聚類數(shù)據(jù)C,該類中包含b個(gè)數(shù)據(jù)點(diǎn),顯然最左(p=1)和最右(p=b)都不是直角頂點(diǎn)。擬合過程中,假設(shè)第2個(gè)點(diǎn)為直角點(diǎn),首先利用p=l,2的點(diǎn)和p=2,…,b的點(diǎn)分別擬合出l1和l2兩條直線;然后得到l1、l2擬合觀測(cè)值偏差的加權(quán)平方和r1、r2;最后把二者相加,得到這2條直線擬合偏差的加權(quán)平方和之和ξ(C,2)=r1+r2。同理,假定p=3的點(diǎn)為直角點(diǎn)得到ξ(C,3)。以此類推,遍歷選取p=4,…,b-1作為候選點(diǎn),分別得到ξ(C,4),…,ξ(C,b-1)。顯然,ξ最小時(shí),對(duì)應(yīng)的點(diǎn)即為“L”直角型的角點(diǎn)。如:一組聚類數(shù)據(jù)C擬合觀測(cè)值偏差的加權(quán)平方和之和如圖2(a)所示,可以看出ξ(C,34)最小,即p=34對(duì)應(yīng)的點(diǎn)即為角點(diǎn)。將p=34兩側(cè)的點(diǎn)分別進(jìn)行擬合,擬合過程如圖2(b)所示,可以看出擬合線段的夾角接近直角。

        圖1 激光雷達(dá)掃描車輛模型

        圖2 直角擬合

        2 基于視覺HOG特征的假設(shè)目標(biāo)驗(yàn)證

        2.1 假設(shè)目標(biāo)感興趣區(qū)域的動(dòng)態(tài)規(guī)劃

        在利用視覺特征對(duì)車輛進(jìn)行驗(yàn)證前,需要對(duì)激光雷達(dá)數(shù)據(jù)進(jìn)行預(yù)處理,確定目標(biāo)的位置和大小,從而映射到圖像中,選取假設(shè)目標(biāo)在采集到圖像中的位置和大小。本文采用最近鄰域聚類分割算法[14]對(duì)采集到的雷達(dá)數(shù)據(jù)進(jìn)行預(yù)處理。該算法的主要思想是:將第一個(gè)數(shù)據(jù)點(diǎn)作為第一組的聚類中心,若下一個(gè)點(diǎn)到該點(diǎn)的距離小于聚類半徑R,則為同一物,更新該數(shù)據(jù)為新的聚類中心;否則把該數(shù)據(jù)作為新一組的聚類中心。由于激光雷達(dá)按照固定角度分辨率掃描,掃描中激光束成扇形。隨著激光反射點(diǎn)間距離的增加,采用的聚類半徑閾值也應(yīng)隨兩者最小距離的增加相應(yīng)增加。采用的聚類半徑

        (1)

        式中:ri-1為當(dāng)前掃描的距離ρi和前一掃描檢測(cè)點(diǎn)的距離ρi-1的最小值;δ為余量;λ為修正系數(shù);Δθ為角度分辨率。實(shí)驗(yàn)時(shí),取λ=10,δ=0.03 m。

        雷達(dá)數(shù)據(jù)聚類后確定了聚類的個(gè)數(shù)m、每一類的位置(x,y)、目標(biāo)的類型shape和目標(biāo)物體的大小size。選取其中的一幀數(shù)據(jù),聚類效果如圖3所示。可以看出:該類數(shù)據(jù)中存在2個(gè)目標(biāo),左側(cè)目標(biāo)為“I”型,右側(cè)目標(biāo)為“L”型。根據(jù)多傳感器融合模型,將“I”型目標(biāo)位置(x,y)映射到圖像中坐標(biāo)中心位置(u,v)。在圖像中的感興趣區(qū)域用(u,v,a,h)表示,其中:a為目標(biāo)在圖像中的像素寬度;h為根據(jù)車輛的先驗(yàn)知識(shí)確定感興趣區(qū)域的高度。

        圖3 激光雷達(dá)一幀數(shù)據(jù)的聚類效果

        2.2 HOG特征提取

        HOG特征是統(tǒng)計(jì)空間域圖像的方向梯度密度分布,通過計(jì)算和統(tǒng)計(jì)圖像局部區(qū)域的梯度方向直方圖來構(gòu)成特征[15]。HOG特征提取過程如圖4所示。

        1) 圖像預(yù)處理。圖4(a)為車輛尾部原始圖像,對(duì)其進(jìn)行灰度化處理,得到如圖4(b)所示圖像。采用Gamma歸一化處理降低圖像局部的陰影和光照的影響,歸一化后像素灰度

        H(x,y)=

        (2)

        圖4 HOG特征提取過程

        式中:I(x,y)為當(dāng)前像素的灰度。歸一化處理后效果如圖4(c)所示。

        2)圖像像素點(diǎn)(x,y)的梯度。水平方向梯度Gx(x,y)和垂直方向梯度Gy(x,y)分別為

        Gx(x,y)=H(x+1,y)-H(x-1,y),

        (3)

        Gy(x,y)=H(x,y+1)-H(x,y-1)。

        (4)

        像素點(diǎn)(x,y)處的梯度幅值G(x,y)和梯度方向角α(x,y)分別為

        (5)

        (6)

        車尾梯度圖如圖4(d)所示。

        3) 分塊直方圖投影。將梯度處理后的圖像劃分為8×8像素cells。對(duì)每個(gè)像素按照9個(gè)bin通道進(jìn)行離散化采樣統(tǒng)計(jì),生成cell的HOG特征,如圖4(e)所示。

        4) 區(qū)域歸一化。將2×2個(gè)cell組成更大的block空間,每個(gè)cell的輸出多次作用于特征描述器,生成block的HOG特征,如圖4(f)所示。然后采用式(7)對(duì)block塊內(nèi)的特征向量進(jìn)行歸一化處理:

        (7)

        5) HOG特征向量。采用滑動(dòng)窗口搜索法,搜索步長(zhǎng)16×16。將圖像內(nèi)所有block的HOG特征串聯(lián)起來組合形成最終的HOG特征向量,生成整幅圖像的HOG特征,如圖4(g)所示。

        3 基于激光雷達(dá)深度信息的目標(biāo)跟蹤

        無人車在自主行駛過程中道路環(huán)境復(fù)雜,無人車的主動(dòng)避障和路徑規(guī)劃都需要對(duì)檢測(cè)到的目標(biāo)車輛具有一定的預(yù)見性,即對(duì)前方目標(biāo)持續(xù)跟蹤。目標(biāo)跟蹤過程主要完成目標(biāo)車輛與跟蹤器的關(guān)聯(lián),跟蹤算法如圖5所示,主要分為3個(gè)過程:

        1) 目標(biāo)初始化。當(dāng)目標(biāo)首次進(jìn)入激光雷達(dá)視野時(shí),需要利用視覺HOG特征驗(yàn)證是否為車輛。如果驗(yàn)證結(jié)果是車輛,則建立目標(biāo)車輛的跟蹤器模型;如果不是車輛,則認(rèn)定為其他障礙物,在無人車路徑規(guī)劃和車輛控制中進(jìn)行避障處理。

        2) 目標(biāo)跟蹤器的更新與預(yù)測(cè)。將檢測(cè)到的目標(biāo)車輛生成模型與現(xiàn)有的跟蹤器模型進(jìn)行關(guān)聯(lián)匹配。如果目標(biāo)模型與現(xiàn)有的跟蹤器建立正確的關(guān)聯(lián),則對(duì)現(xiàn)有的跟蹤器進(jìn)行更新并預(yù)測(cè)目標(biāo)下一時(shí)刻的位置。

        3) 目標(biāo)超出視野時(shí)跟蹤器的刪除。如果檢測(cè)到的目標(biāo)模型不能與現(xiàn)有的跟蹤器模型關(guān)聯(lián),則此目標(biāo)可能被遮擋或超出檢測(cè)視野。然后對(duì)其丟失次數(shù)進(jìn)行判斷:當(dāng)丟失次數(shù)小于閾值時(shí),目標(biāo)可能被遮擋,對(duì)其繼續(xù)進(jìn)行跟蹤,更新跟蹤器;當(dāng)丟失次數(shù)大于判斷閾值時(shí),表明該目標(biāo)已經(jīng)駛離檢測(cè)視野,將該跟蹤器刪除。

        圖5 車輛跟蹤算法

        3.1 目標(biāo)關(guān)聯(lián)

        車輛檢測(cè)過程中,當(dāng)前幀出現(xiàn)的目標(biāo)與現(xiàn)有跟蹤器之間建立正確的關(guān)聯(lián)是目標(biāo)跟蹤的關(guān)鍵。本文針對(duì)目標(biāo)車輛跟蹤問題,分別建立目標(biāo)車輛和跟蹤器模型。

        車輛模型為{{shape,size},{x,y},{new,trackerid,mincost}}。其中:{shape,size}表示檢測(cè)到的目標(biāo)車輛經(jīng)預(yù)處理后的形狀和大小;{x,y}表示處理后得到的目標(biāo)車輛位置;{new,trackerid,mincost}表示目標(biāo)車輛模型與現(xiàn)有的跟蹤器模型關(guān)聯(lián)后得到的關(guān)聯(lián)特征。在關(guān)聯(lián)特征中,new表示匹配過程中目標(biāo)車輛模型是否與現(xiàn)有跟蹤器模型匹配:如果沒有跟蹤器與之匹配,new設(shè)置為“是”,說明該目標(biāo)首次進(jìn)入視野;如果有跟蹤器與之正確匹配,new設(shè)置為“否”,更新目標(biāo)車輛模型和跟蹤器模型,同時(shí)更新目標(biāo)模型關(guān)聯(lián)對(duì)應(yīng)的跟蹤器序號(hào)trackerid和目標(biāo)關(guān)聯(lián)的最小代價(jià)方程值mincost。

        3.2 基于馬氏距離代價(jià)方程的確定

        文獻(xiàn)[16]中,代價(jià)方程的約束依靠目標(biāo)的運(yùn)動(dòng)特征。文獻(xiàn)[17]方法重點(diǎn)考慮目標(biāo)車輛的運(yùn)動(dòng)特征,次要考慮目標(biāo)車輛的外形特征,該方法需要綜合考慮各特征的影響,對(duì)各特征值分配權(quán)重,但是權(quán)重分配較難。本文基于馬氏距離的方法確定目標(biāo)車輛模型和跟蹤器模型的代價(jià)方程,該方法綜合考慮了目標(biāo)車輛的運(yùn)動(dòng)特征和外形特征,提高了目標(biāo)關(guān)聯(lián)的準(zhǔn)確度。

        (8)

        式中:S為所有樣本的協(xié)方差矩陣。

        3.3 單個(gè)目標(biāo)的跟蹤與預(yù)測(cè)

        在數(shù)據(jù)獲取過程中,激光雷達(dá)掃描頻率高,相鄰2幀的時(shí)間間隔較小,位置變化也相應(yīng)較小,因此將檢測(cè)車輛相鄰2幀的運(yùn)動(dòng)近似看作勻速運(yùn)動(dòng)。

        卡爾曼濾波器的狀態(tài)模型為

        Xt=A·Xt-1+Wt,

        (9)

        式中:Xt=(xt,vxt,yt,vyt),為t時(shí)刻目標(biāo)車輛的位置和速度狀態(tài)向量;Xt-1為t-1時(shí)刻車輛的狀態(tài)向量;Wt為狀態(tài)模型高斯白噪聲;

        (10)

        為狀態(tài)轉(zhuǎn)移矩陣,其中Δt為傳感器數(shù)據(jù)的采集處理時(shí)間,設(shè)Δt=40 ms。

        定義卡爾曼濾波器的測(cè)量模型為

        Zt=H·Xt+Vt,

        (11)

        式中:Zt=(xt,yt)T,為觀測(cè)向量;Vt為測(cè)量模型高斯白噪聲;

        (12)

        為觀測(cè)矩陣。

        圖6為無人車在行駛過程中,對(duì)迎面而來一相向而行的車輛跟蹤過程進(jìn)行卡爾曼濾波處理的結(jié)果。跟蹤過程中共采集連續(xù)208幀數(shù)據(jù),車輛縱向距離濾波前后對(duì)比過程如圖6(a)所示,車輛橫向距離濾波前后對(duì)比過程如圖6(b)所示??梢钥闯觯涸?0幀數(shù)據(jù)前后,被跟蹤的目標(biāo)車輛存在著被遮擋的現(xiàn)象,通過卡爾曼濾波器的處理仍以當(dāng)前的狀態(tài)進(jìn)行預(yù)測(cè),保證了在短暫遮擋情況下跟蹤的連貫性;在90、150幀出現(xiàn)了很大的噪聲干擾,通過卡爾曼濾波有效降低了噪聲干擾。

        圖6 車輛狀態(tài)濾波前后對(duì)比

        4 試驗(yàn)驗(yàn)證

        以實(shí)驗(yàn)室配備的2D激光雷達(dá)和攝像機(jī)的輪式智能無人車為平臺(tái)進(jìn)行算法有效性驗(yàn)證試驗(yàn)。選用的激光雷達(dá)最大測(cè)距為50 m,試驗(yàn)中選用的角度分辨率為0.25°,設(shè)定的掃描頻率為25 Hz。攝像機(jī)分辨率為1 294×964像素,水平和垂直像素尺寸為3.75 μm,鏡頭焦距為6 mm。試驗(yàn)包括:1) 訓(xùn)練器生成試驗(yàn);2) 目標(biāo)車輛首次進(jìn)入檢測(cè)視野進(jìn)行假設(shè)目標(biāo)視覺驗(yàn)證試驗(yàn);3) 對(duì)車輛目標(biāo)進(jìn)行跟蹤試驗(yàn)。

        在視覺驗(yàn)證前,采集大量車輛尾部的HOG特征對(duì)車輛分類器進(jìn)行訓(xùn)練,最終生成可以對(duì)車輛進(jìn)行分類的分類器模型。訓(xùn)練過程中,首先載入正、負(fù)樣本圖片,圖像像素為64×64,則HOG特征的維度為(64/8-1)×(64/8-1)×4×9=1 764,得到正負(fù)樣本的HOG特征向量。當(dāng)采集完所有正負(fù)樣本的HOG特征后,利用LS-SVM對(duì)采集的數(shù)據(jù)進(jìn)行“交叉驗(yàn)證”訓(xùn)練,得到檢測(cè)車輛分類器的模型并對(duì)其進(jìn)行驗(yàn)證。

        為了衡量訓(xùn)練器的性能,利用實(shí)驗(yàn)室2個(gè)履帶平臺(tái)為試驗(yàn)車輛在不同道路情況下進(jìn)行檢測(cè)識(shí)別,檢測(cè)場(chǎng)景中包括樹木、車輛以及其他障礙物,部分幀的檢測(cè)結(jié)果如圖7所示。其中:圖7(a)為激光雷達(dá)掃描周圍環(huán)境獲取的點(diǎn)云圖;圖7(b)為激光雷達(dá)點(diǎn)云融合到圖像中的效果圖,圖中方框內(nèi)為獲取到的假設(shè)目標(biāo)感興趣區(qū)域;圖7(c)為假設(shè)目標(biāo)驗(yàn)證的結(jié)果,可以看出驗(yàn)證識(shí)別出履帶車輛而排除了電動(dòng)三輪車。由于激光雷達(dá)確定了檢測(cè)范圍,因此不容易出現(xiàn)虛警目標(biāo),有效避免了外界噪聲的影響,具有良好的魯棒性。

        圖7 車輛識(shí)別過程

        試驗(yàn)中對(duì)某一目標(biāo)進(jìn)行持續(xù)跟蹤,跟蹤過程如圖8所示。在54幀時(shí),車輛首次進(jìn)入傳感器視野,對(duì)激光雷達(dá)數(shù)據(jù)進(jìn)行聚類處理,效果如圖8(a)所示。獲取目標(biāo)位置和大小后,對(duì)應(yīng)到圖像中確定感興趣窗口,如圖8(d)所示,圖中:紅色點(diǎn)集為激光雷達(dá)掃描車輛的掃描點(diǎn)通過傳感器標(biāo)定映射到圖像的效果;方框?yàn)檫x定的假設(shè)目標(biāo)感興趣區(qū)域,可以看出該窗口足以容納車輛在圖像中的投影。按照第2節(jié)方法提取車輛尾部的HOG特征,利用訓(xùn)練好的分類器模型進(jìn)行視覺驗(yàn)證,驗(yàn)證該目標(biāo)為車輛。目標(biāo)車輛首次進(jìn)入激光雷達(dá)視野時(shí),對(duì)其進(jìn)行初始化,生成目標(biāo)車輛模型和跟蹤器模型,然后利用單線激光雷達(dá)獲取的深度信息對(duì)目標(biāo)車輛進(jìn)行持續(xù)跟蹤。圖8(a)-(c)中黑色線框代表識(shí)別出車輛的位置,紅色線框代表卡爾曼濾波器對(duì)目標(biāo)位置的估計(jì)。在車輛運(yùn)動(dòng)過程中,按照跟蹤策略對(duì)其持續(xù)跟蹤,對(duì)現(xiàn)有的跟蹤器進(jìn)行更新并預(yù)測(cè)目標(biāo)下一時(shí)刻的位置,過程如圖8(b)所示,實(shí)際跟蹤現(xiàn)場(chǎng)對(duì)應(yīng)的圖片如圖8(e)所示。當(dāng)關(guān)聯(lián)丟失的次數(shù)小于設(shè)置閾值,仍對(duì)駛離激光雷達(dá)視野的車輛進(jìn)行跟蹤,過程如圖8(c)所示,對(duì)應(yīng)的現(xiàn)場(chǎng)照片如圖8(f)所示。

        圖8 目標(biāo)車輛跟蹤過程

        5 結(jié)論

        針對(duì)無人車前方車輛檢測(cè)與跟蹤過程中準(zhǔn)確性和實(shí)時(shí)性要求高的問題,結(jié)合激光雷達(dá)掃描周圍物體可以快速定位目標(biāo),視覺HOG特征可以準(zhǔn)確識(shí)別車輛而完成目標(biāo)驗(yàn)證的優(yōu)勢(shì),筆者提出了融合激光雷達(dá)深度信息和視覺HOG特征信息的車輛識(shí)別與跟蹤方法。通過有效的管理策略,實(shí)現(xiàn)了目標(biāo)跟蹤的3個(gè)狀態(tài):1) 目標(biāo)初始化跟蹤器的生成;2) 跟蹤器的更新與預(yù)測(cè);3) 目標(biāo)駛離視野時(shí)跟蹤器的刪除。

        參考文獻(xiàn):

        [1] WANG H,WANG B,LIU B B,et al.Pedestrain recognition and tracking using 3D LiDAR for autonomous vehicle[J].Robotics and autonomous systems,2017,88:71-78.

        [2] PEREIRA M,SILVA D,SANTOS V,et al.Self calibration of multiple LIDARs and cameras on autonomous vehicle[J].Robotics and autonomous systems,2016,83:326-337.

        [3] 馬偉.基于單個(gè)攝像機(jī)的車輛檢測(cè)與跟蹤[D].南京:南京理工大學(xué),2008:40-50.

        [4] 甘志梅,王春香,楊明.基于激光雷達(dá)的車輛跟蹤與識(shí)別方法[J].上海交通大學(xué)學(xué)報(bào),2009(6):923-926.

        [5] SUN Z,BEBIS G,MILLER R.Monocular precrash vehicle detection:features and classifiers[J].IEEE transaction image proces-sing,2016,15(7):2019-2034.

        [6] TEOH S S,BRAUNL T.Symmetry-based monocular vehicle detection system[J].Machine vision and application,2012,23(5):831-842.

        [7] HUANG D Y,CHEN C H,CHEN T S,et al.Vehicle detection and inter-vehicle distance estimation using single-lens video camer on urban/suburd roads[J].Journal of visual communication and image representation,2017,46:250-259.

        [8] WANG H,CAI Y F.Monocular based road vehicle detection with feature fusion and cascaded Adaboost[J].Optik-international journal for light and electron optics,2015,126(22):3329-3334.

        [9] 麥新晨,楊明,王春香,等.一種基于多傳感器融合的車輛檢測(cè)與跟蹤方法[J].上海交通大學(xué)學(xué)報(bào),2011(7):1012-1016.

        [10] RADMAN A,ZAINAL N,SUANDI S A.Automated segmentation of iris images acquired in an unconstrained environment using HOG-SVM and GrowCut[J].Digital signal processing,2017,64(5):60-70.

        [11] KASSANI P H,TEOH A B.A new sparse model for traffic sign classification using soft histogram of oriented gradients[J].Applied soft computing,2017,52(3):231-246.

        [12] CHEON M,LEE W,YOON C,et al.Vision-based vehicle detection system with consideration of the detection location[J].IEEE transactions on intelligent transportation systems,2013,13(3):1243-1252.

        [13] 賈子永,任國(guó)全,李冬偉,等.基于梯形棋盤格的攝像機(jī)和激光雷達(dá)標(biāo)定方法[J].計(jì)算機(jī)應(yīng)用,2017,37(7):2062-2066.

        [14] 莊秀華.基于單線激光雷達(dá)的障礙物檢測(cè)與跟蹤研究[D].長(zhǎng)沙:湖南大學(xué),2014:20-30.

        [15] ARROSPIDE J,SALGADO L,CAMPLANI M.Image-based on-road vehicle detection using cost effective histograms of oriented gradients[J].Viscommun image R,2013,24(7):1182-1190.

        [16] VEENMAN C,REINDERS M,BACKER E.Resolving motion correspondence for densely moving points[J].IEEE transactions on pattren analysis and machine intelligence,2001,23(1):54-72.

        [17] 周俊靜,段建民,楊光祖.基于深度信息的車輛識(shí)別和跟蹤方法[J].北京工業(yè)大學(xué)學(xué)報(bào),2013(11):1644-1651.

        猜你喜歡
        跟蹤器激光雷達(dá)聚類
        手持激光雷達(dá)應(yīng)用解決方案
        光伏跟蹤器陣列跟蹤精度的測(cè)算方法研究
        太陽能(2022年3期)2022-03-29 05:15:50
        法雷奧第二代SCALA?激光雷達(dá)
        汽車觀察(2021年8期)2021-09-01 10:12:41
        淺析一種風(fēng)光儲(chǔ)一體化跟蹤器
        太陽能(2020年3期)2020-04-08 03:27:10
        超長(zhǎng)待機(jī)的自行車位置跟蹤器
        基于激光雷達(dá)通信的地面特征識(shí)別技術(shù)
        基于激光雷達(dá)的多旋翼無人機(jī)室內(nèi)定位與避障研究
        電子制作(2018年16期)2018-09-26 03:27:00
        基于DBSACN聚類算法的XML文檔聚類
        雙向多軌跡判定方法在目標(biāo)跟蹤中的應(yīng)用研究
        基于改進(jìn)的遺傳算法的模糊聚類算法
        午夜国产在线精彩自拍视频| 亚洲视频专区一区二区三区 | 亚洲日本一区二区在线| 成人一区二区三区激情视频| 顶级高清嫩模一区二区| 亚无码乱人伦一区二区| 国产成人亚洲综合色婷婷| 国内露脸中年夫妇交换| 亚洲精品国产福利在线观看| 亚洲人av毛片一区二区| 男女深夜视频网站入口| 日本成人精品在线播放| 极品一区二区在线视频观看| 国精产品一区一区三区有限在线| 久久综合亚洲色hezyo国产| 日韩精品一区二区亚洲av| 亚洲AV无码一区二区三区ba| 色系免费一区二区三区| 狠狠色噜噜狠狠狠狠97俺也去| 国产一区二区三区再现| 亚洲在线精品一区二区三区| 99国产精品99久久久久久| 久久精品国产久精国产果冻传媒| 伊人蕉久中文字幕无码专区| 亚洲日韩一区二区一无码| 日本女优在线观看一区二区三区| 国产精品女人一区二区三区| 经典黄色一区二区三区| 亚洲狠狠婷婷综合久久久久| 亚洲成a人片在线观看无码3d| 97久久精品无码一区二区天美| 影视先锋av资源噜噜| 国产精品亚洲综合色区韩国| av一区二区不卡久久| 久久精品国产亚洲av夜夜| 国产午夜视频在线观看免费| 久久综合狠狠综合久久综合88| 国产亚洲日本精品无码| 国产70老熟女重口小伙子| 日韩欧美亚洲国产一区二区三区 | 午夜无码片在线观看影视|