亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于微波雷達(dá)回波信號(hào)的智能車道劃分方法

        2017-12-14 05:22:24王東峰
        計(jì)算機(jī)應(yīng)用 2017年10期
        關(guān)鍵詞:正確率車道雷達(dá)

        修 超,曹 林,王東峰, 2,張 帆

        (1.北京信息科技大學(xué) 通信工程系,北京 100101; 2.北京川速微波科技有限公司,北京 100080) (*通信作者電子郵箱charlin26@163.com)

        基于微波雷達(dá)回波信號(hào)的智能車道劃分方法

        修 超1,曹 林1*,王東峰1, 2,張 帆1

        (1.北京信息科技大學(xué) 通信工程系,北京 100101; 2.北京川速微波科技有限公司,北京 100080) (*通信作者電子郵箱charlin26@163.com)

        利用多目標(biāo)交通測(cè)速雷達(dá)進(jìn)行交通執(zhí)法時(shí),只有正確地判斷出車輛所在的車道,抓拍照片才能作為交通執(zhí)法的依據(jù)。傳統(tǒng)的分車道方法主要通過(guò)人工測(cè)量的固定閾值以及坐標(biāo)系旋轉(zhuǎn)的方法來(lái)達(dá)到車道劃分的目的,但這種方法誤差較大并且不易于操作?;诮y(tǒng)計(jì)和密度特征的核聚類算法(K-CSDF)分兩步進(jìn)行:首先對(duì)雷達(dá)獲取的車輛數(shù)據(jù)進(jìn)行特征提取,包括基于統(tǒng)計(jì)特征的閾值處理和基于密度特征的動(dòng)態(tài)半徑提取;然后引入基于核的相似性的動(dòng)態(tài)聚類算法對(duì)篩選出的有效點(diǎn)進(jìn)行聚類。通過(guò)和高斯混合模型(GMM)算法以及自組織映射神經(jīng)網(wǎng)絡(luò)(SOM)算法進(jìn)行仿真對(duì)比表明:當(dāng)只取100個(gè)有效點(diǎn)進(jìn)行聚類時(shí),K-CSDF和SOM算法能達(dá)到90%以上的分車道正確率,而GMM算法不能給出車道中心線;在算法用時(shí)上,當(dāng)取1 000個(gè)有效點(diǎn)時(shí),K-CSDF和GMM算法用時(shí)均小于1 s,可以保證實(shí)時(shí)性,而SOM算法則需要2.5 s左右;在算法魯棒性上,K-CSDF對(duì)不均勻樣本的適應(yīng)性優(yōu)于這兩種算法。當(dāng)取不同數(shù)量的有效點(diǎn)進(jìn)行聚類時(shí),K-CSDF可以達(dá)到95%以上的平均分車道正確率。

        多目標(biāo)雷達(dá);車道劃分;統(tǒng)計(jì)特征;動(dòng)態(tài)半徑;核;動(dòng)態(tài)聚類

        0 引言

        在智能交通系統(tǒng)中,車道檢測(cè)是一個(gè)長(zhǎng)期的研究熱點(diǎn)。車道檢測(cè)包括車道線的檢測(cè)、道路邊界的檢測(cè)以及車輛可通行區(qū)域的檢測(cè)等。目前,基于視覺(jué)的檢測(cè)技術(shù)[1-2]由于攝像機(jī)獲取信息量大、成本低等優(yōu)勢(shì)應(yīng)用最為廣泛。但攝像機(jī)拍攝的圖片極易受到光照和天氣等外部環(huán)境的影響,對(duì)環(huán)境條件要求較為苛刻。近年來(lái),隨著雷達(dá)探測(cè)技術(shù)[3-5]的發(fā)展,研究人員開(kāi)始采用毫米波雷達(dá)和激光雷達(dá)來(lái)代替或者輔助攝像機(jī)。雷達(dá)不受光照和惡劣天氣等環(huán)境因素影響,并且具有探測(cè)范圍廣、測(cè)距精度高等優(yōu)點(diǎn)。

        史鵬波[6]利用雷達(dá)數(shù)據(jù)并采用了一種雙閾值的方法來(lái)提取道路邊界點(diǎn),但需要預(yù)先確定兩個(gè)閾值,缺乏自適應(yīng)性;Xu[7]將雷達(dá)獲取的數(shù)據(jù)點(diǎn)分成若干個(gè)區(qū)域,計(jì)算該區(qū)域的隨機(jī)密度來(lái)檢測(cè)路邊,方法簡(jiǎn)單,但計(jì)算量大要計(jì)算每個(gè)區(qū)域的協(xié)方差矩陣;Han等[8]采用閾值分割和綜合概率數(shù)據(jù)關(guān)聯(lián)濾波器(Integrated Probabilistic Data Association Filter, IPDAF)算法來(lái)檢測(cè)和跟蹤道路邊沿;吳維一等[9]采用改進(jìn)的迭代自組織數(shù)據(jù)分析算法(Iterative Self Organizing Data Analysis Techniques Algorithm, ISODATA)對(duì)雷達(dá)數(shù)據(jù)進(jìn)行聚類,雖然算法具有一定的自組織性和啟發(fā)性,但還是需要給出先驗(yàn)的最小樣本數(shù)目和長(zhǎng)度約束。

        本文提出了一種基于統(tǒng)計(jì)和密度特征的核聚類算法(Kernel Clustering algorithm based on Statistical and Density Features, K-CSDF),從毫米波雷達(dá)獲取的車輛數(shù)據(jù)中提取道路信息。無(wú)論雷達(dá)采用正裝還是側(cè)裝的方式(見(jiàn)圖1),該算法都可以對(duì)車道進(jìn)行智能劃分,不需要人為地測(cè)量雷達(dá)的擺角以及雷達(dá)安裝位置到車道中心的距離等信息,提高了人工操作的簡(jiǎn)便性以及車道劃分的準(zhǔn)確率。K-CSDF的流程見(jiàn)圖2。

        圖1 相機(jī)抓拍的照片

        圖2 K-CSDF流程

        1 雷達(dá)數(shù)據(jù)獲取

        本文的實(shí)驗(yàn)載體是北京川速微波科技有限公司的多目標(biāo)交通測(cè)速雷達(dá),主要用于在測(cè)速卡口對(duì)車輛進(jìn)行超速抓拍。該雷達(dá)系統(tǒng)主要包括三部分:相機(jī)、雷達(dá)和補(bǔ)光燈。其中雷達(dá)是系統(tǒng)的核心設(shè)備,它能捕獲到車輛并觸發(fā)相機(jī)對(duì)車輛進(jìn)行抓拍。

        多目標(biāo)交通雷達(dá)采用頻移鍵控(Frequency Shift Keying, FSK)體制,利用多普勒頻移對(duì)目標(biāo)進(jìn)行測(cè)速,利用不同發(fā)射頻率的相位差對(duì)目標(biāo)進(jìn)行測(cè)距,并通過(guò)一發(fā)兩收的天線設(shè)計(jì)來(lái)測(cè)量目標(biāo)的角度。雷達(dá)對(duì)目標(biāo)的測(cè)距和測(cè)角公式如下:

        (1)

        (2)

        其中:R為雷達(dá)到目標(biāo)的距離;c為光速;Δφ為同一接收天線兩個(gè)不同發(fā)射頻率f1和f2的相位差;θ為雷達(dá)天線法向與目標(biāo)的夾角;λw為雷達(dá)發(fā)射電磁波的波長(zhǎng);Δφ′為兩個(gè)不同接收天線的同一發(fā)射頻率的相位差;d為兩個(gè)接收天線之間的距離。

        在一段時(shí)間內(nèi),雷達(dá)識(shí)別出的車輛目標(biāo)的行駛軌跡分布如圖3所示,為了直觀起見(jiàn),已將雷達(dá)獲取的車輛目標(biāo)的極坐標(biāo)距離信息(R,θ)轉(zhuǎn)換成直角坐標(biāo)信息(x,y),即圖3中每個(gè)點(diǎn)坐標(biāo)(x,y)表示車輛的距離信息,y的正負(fù)代表車輛行駛的方向。將每個(gè)樣本點(diǎn)對(duì)應(yīng)的幅度記為z,所有點(diǎn)的幅度按由小到大排序得到車輛信號(hào)的能量分布,記為q(z)。

        圖3 雷達(dá)獲取的原始車輛數(shù)據(jù)

        2 車輛數(shù)據(jù)特征提取

        2.1 基于統(tǒng)計(jì)特征的閾值處理

        對(duì)雷達(dá)獲取的車輛數(shù)據(jù),首先利用車輛目標(biāo)幅度信息的統(tǒng)計(jì)特征對(duì)數(shù)據(jù)進(jìn)行閾值處理,剔除掉部分異常數(shù)據(jù)。以監(jiān)測(cè)來(lái)向車為例,取ylt;0的數(shù)據(jù)進(jìn)行分析,如圖4所示。

        圖4 在正裝和側(cè)裝情況下的來(lái)向車輛軌跡分布

        通常,雷達(dá)照射范圍內(nèi)的車輛反射信號(hào)很強(qiáng),但同時(shí)也存在鄰近車道的車輛產(chǎn)生的干擾信號(hào),圖4中“鬼影區(qū)”就是受天線的測(cè)角范圍所限,由非監(jiān)測(cè)區(qū)域的干擾目標(biāo)所產(chǎn)生的干擾信號(hào),因此閾值處理的目的就是去掉“鬼影區(qū)”的異常數(shù)據(jù)。

        為了提取出有效的車輛信息,將車輛信號(hào)的能量分布q(z)的上分位數(shù)α定義如下:

        (3)

        其中:α表示能量高于zα的樣本點(diǎn)的百分比,0lt;αlt;1;Nq表示樣本總數(shù)。q(z)的統(tǒng)計(jì)分布如圖5所示,呈現(xiàn)出“雙峰”特性,低峰值處表示“鬼影區(qū)”的樣本分布,高峰值處表示監(jiān)測(cè)車道區(qū)域的樣本分布。

        圖5 樣本的能量直方圖和概率密度曲線

        對(duì)于任一α值,可以將q(z)分成兩組,取兩組數(shù)據(jù)之間的方差達(dá)到最大時(shí)的α值作為保留數(shù)據(jù)的百分比,即保留能量較高的α·Nq個(gè)點(diǎn),剔除能量較低的(1-α)Nq個(gè)點(diǎn)。假設(shè)兩組數(shù)據(jù)的均值分別為λ1和λ2,分別對(duì)應(yīng)于α和1-α,則樣本總體均值λ為:

        λ=αλ1+(1-α)λ2

        (4)

        兩組數(shù)據(jù)之間的方差δ2定義如下:

        δ2(α)=α(λ1-λ)2+(1-α)(λ2-λ)2=

        α(1-α)(λ1-λ2)2

        (5)

        在0~1之間改變?chǔ)?便能求得式(5)取得最大值時(shí)的α,此時(shí)閾值的取值為能量分布q(z)中的第?(1-α)Nq」個(gè)點(diǎn)對(duì)應(yīng)的幅值。經(jīng)實(shí)驗(yàn)驗(yàn)證,即使q(z)的統(tǒng)計(jì)分布無(wú)明顯的“雙峰”特性,這種方法也能很好地剔除“鬼影區(qū)”的異常數(shù)據(jù)。

        2.2 基于樣本密度特征的動(dòng)態(tài)半徑提取

        對(duì)樣本數(shù)據(jù)的特征提取對(duì)后續(xù)算法以及最終結(jié)果具有直接的影響,更好的特征能夠降低模型的復(fù)雜度并提高車道劃分的準(zhǔn)確性。

        假設(shè)經(jīng)過(guò)上述處理后的數(shù)據(jù)樣本集合為X={x(1),x(2),…,x(m);x(i)∈Rn}。其中:x(i)是一個(gè)n維的向量,代表第i個(gè)樣本的n維信息,m表示樣本的數(shù)量。

        將第i個(gè)樣本點(diǎn)的局部密度[10]定義如下:

        (6)

        其中:

        (7)

        dij表示樣本x(i)與x(j)之間的距離,dc是截?cái)嗑嚯x(Cut-off distance)。

        由定義可知,ρi表示與樣本x(i)距離小于dc的樣本點(diǎn)的個(gè)數(shù),當(dāng)ρi大于N時(shí),該樣本被視為有效樣本。其中dc和N是超參數(shù),需要人為指定,參數(shù)設(shè)置的不同可能會(huì)導(dǎo)致結(jié)果的較大差異。為了降低算法的參數(shù)敏感性,把dc看作一個(gè)變量,將第i個(gè)樣本點(diǎn)的動(dòng)態(tài)半徑定義如下:

        (8)

        其中:τi表示樣本x(i)達(dá)到密度N所需要的最小半徑(如圖6所示),τ的值越小,表明該樣本點(diǎn)越可能為有效點(diǎn);τ的值越大,表明該樣本點(diǎn)越可能為噪聲點(diǎn)。

        圖6 樣本的動(dòng)態(tài)半徑示意圖

        3 基于統(tǒng)計(jì)和密度特征的核聚類算法

        本章主要介紹K-CSDF的第二步:對(duì)提取出的有效點(diǎn)進(jìn)行聚類。首先分析了傳統(tǒng)K均值算法的不足,然后通過(guò)引入核函數(shù)改進(jìn)了原有算法,最后給出了K-CSDF的聚類實(shí)現(xiàn)流程。

        3.1 K均值算法的不足

        K均值算法[11]是一種簡(jiǎn)單、高效的動(dòng)態(tài)聚類算法,其時(shí)間復(fù)雜度接近線性,因此在工業(yè)中有廣泛的應(yīng)用。

        K均值算法采用迭代的思想,利用最小誤差平方和準(zhǔn)則來(lái)判斷失真函數(shù)(Distortion function)是否收斂,定義失真函數(shù)如下:

        (9)

        其中:

        (10)

        μj是第j類樣本的均值向量,代表第j類的聚類中心;lj表示第j類樣本的數(shù)量;下標(biāo)c(i)表示第i個(gè)樣本的類別標(biāo)簽;k表示類別數(shù)。當(dāng)Jc, μ取得最小值時(shí)的聚類就是誤差平方和準(zhǔn)則下的最優(yōu)結(jié)果。

        在本文的應(yīng)用場(chǎng)景中,直接采用K均值算法來(lái)進(jìn)行聚類是不合適的。由于該算法采用歐氏距離來(lái)定義樣本間的相似性,并用均值來(lái)更新聚類中心,只有當(dāng)類內(nèi)樣本分布為超球狀或接近超球狀時(shí),才能取得較好的效果。另一種距離度量方法是采用閔可夫斯基距離(Minkowski distance),設(shè)兩個(gè)樣本為(a1,a2,…,an)和(b1,b2,…,bn),則它們之間的閔可夫斯基距離定義為:

        (11)

        圖7顯示了當(dāng)p取不同值時(shí),樣本逼近聚類中心的趨勢(shì)。但采用閔可夫斯基距離也不能解決所有問(wèn)題,更一般的距離或相似性度量方式可以通過(guò)引入核函數(shù)[12]的方法來(lái)實(shí)現(xiàn)。

        圖7 p取不同值時(shí),樣本逼近聚類中心的趨勢(shì)

        3.2 K-CSDF的實(shí)現(xiàn)

        通過(guò)上述分析可知,設(shè)計(jì)一個(gè)有效的核函數(shù)是K-CSDF第二步的關(guān)鍵。在本文應(yīng)用場(chǎng)景中,樣本數(shù)據(jù)是由車輛在車道內(nèi)行駛而產(chǎn)生的,因此樣本數(shù)據(jù)的特點(diǎn)是集中在相應(yīng)的主軸方向,即車道中心線的方向。因此,定義主軸核函數(shù)如下:

        Kj(x(i),Uj)=UjTx(i)

        (12)

        其中:Uj是樣本類內(nèi)離散度矩陣Sj的最大特征值所對(duì)應(yīng)的特征向量。

        (13)

        相應(yīng)地,可以將樣本與核函數(shù)之間的距離ζ定義如下:

        ζ(x(i),Kj)=ηTη

        (14)

        η=(x(i)-μj)-UjUjT(x(i)-μj)

        (15)

        圖8 樣本到核函數(shù)的距離示意圖

        在定義了代表不同類的核函數(shù)以及樣本與核函數(shù)之間的距離之后,就可以參照K均值算法來(lái)構(gòu)造K-CSDF的聚類部分,具體流程如下。

        輸入 樣本集合{x(1),x(2),…,x(m);x(i)∈Rn}

        初始化 將樣本x(i)初始化成k類;隨機(jī)初始化每類的核Kj。

        Repeat

        對(duì)每個(gè)樣本x(i)利用式(14)計(jì)算出它到初始核的距離ζ,取最小距離并將樣本歸為c(i)類;

        對(duì)所有歸為c(i)類的樣本利用式(13)求出其Sj和Uj,并更新核Kj

        Until

        4 實(shí)驗(yàn)仿真和路測(cè)結(jié)果

        4.1 實(shí)驗(yàn)仿真結(jié)果

        首先,給出K-CSDF特征提取的實(shí)驗(yàn)仿真流程,見(jiàn)圖9。經(jīng)過(guò)K-CSDF第一步的特征提取后通??梢缘玫? 000個(gè)左右的有效樣本點(diǎn),取100個(gè)有效點(diǎn)進(jìn)行聚類,最終的聚類結(jié)果見(jiàn)圖10。從圖10中可以看出算法識(shí)別出的三條車道中心線是由每一類的樣本在核方向上的投影產(chǎn)生的。

        圖9 K-CSDF特征提取過(guò)程

        圖10 樣本在核方向上的投影示意圖

        其次,分別取樣本點(diǎn)數(shù)量為100、500、1 000、2 000對(duì)聚類效果進(jìn)行分析。此時(shí),聚類結(jié)果的實(shí)驗(yàn)仿真如圖11所示,通過(guò)對(duì)100組實(shí)際采集的數(shù)據(jù)進(jìn)行分析,結(jié)果表明即使只取100個(gè)樣本點(diǎn),算法仍能很好地識(shí)別出車道中心線。表1給出了圖11的聚類結(jié)果所對(duì)應(yīng)的聚類中心μj,樣本類內(nèi)離散度矩陣Sj和其最大特征值所對(duì)應(yīng)的最大特征向量Uj的數(shù)值。

        此外,在實(shí)際采集數(shù)據(jù)時(shí)很容易遇到的一個(gè)問(wèn)題就是,各個(gè)車道的過(guò)車數(shù)量可能并不均勻,這會(huì)導(dǎo)致采集到的樣本分布不均且有明顯的“間斷”。為了衡量聚類效果,定義評(píng)價(jià)指標(biāo)eva如下:

        eva=(βi-αi)/max(αi,βi)

        (16)

        其中:αi表示第i個(gè)樣本到此類的其他樣本的平均距離;βi表示第i個(gè)樣本分別到其他各類樣本的平均距離中的最小值;eva值在-1~1范圍內(nèi),越接近1表明聚類效果越好。如圖12所示,仿真結(jié)果能識(shí)別出車道中心線并且大部分樣本的eva值都大于0.6,表明算法能很好地適應(yīng)這種情況。

        圖11 聚類識(shí)別車道中心線示意圖

        表1 實(shí)驗(yàn)結(jié)果對(duì)應(yīng)的聚類參數(shù)值

        圖12 過(guò)車不均時(shí)的聚類效果

        最后,考慮到國(guó)內(nèi)該類產(chǎn)品仍處于研發(fā)階段并涉及商業(yè)機(jī)密,關(guān)于多目標(biāo)交通雷達(dá)的車道劃分理論研究還未見(jiàn)公開(kāi)的文獻(xiàn)以及實(shí)際的工程結(jié)果,因此將本文提出的K-CSDF和另外兩種具有代表性的聚類算法在算法用時(shí)以及車道劃分的準(zhǔn)確率上進(jìn)行對(duì)比:

        1)高斯混合模型(Gaussian Mixture Model, GMM):相對(duì)于K均值算法強(qiáng)制地將每個(gè)樣本分給某個(gè)類,GMM算法給出的是樣本分到每個(gè)類的概率,因而又稱作軟聚類(soft clustering)。圖13是GMM的聚類結(jié)果以及樣本分類的后驗(yàn)概率。

        圖13 GMM算法的聚類效果

        2)自組織映射神經(jīng)網(wǎng)絡(luò)(Self-Organizing Maps, SOM):采用2×3的拓?fù)渚W(wǎng)絡(luò)將樣本分成6類,訓(xùn)練次數(shù)取200次。SOM網(wǎng)絡(luò)的聚類結(jié)果給出了6個(gè)類的中心,如圖14所示,分別取左、中、右拓?fù)浣Y(jié)構(gòu)的兩個(gè)聚類中心的連線作為識(shí)別出的車道中心線。

        圖14 SOM算法的聚類效果

        實(shí)驗(yàn)仿真顯示三種聚類算法在大多數(shù)情況下都能達(dá)到90%以上的分車道正確率。其中,本文算法和SOM算法可以給出車道中心線,而GMM算法不能;在樣本分布不均衡的情況下,本文算法也具有很好的魯棒性,仍能達(dá)到95%以上的正確率,GMM算法可以達(dá)到90%左右的正確率,而SOM算法無(wú)法正確分類;在算法用時(shí)上,以取1 000個(gè)樣本點(diǎn)為例, GMM算法用時(shí)最快,在0.2 s左右,本文算法需要0.8 s左右,SOM算法需要2.5 s左右。具體對(duì)比見(jiàn)表2和圖15。

        表2 本文算法和其他兩種算法的性能以及訓(xùn)練時(shí)間對(duì)比

        表3 多目標(biāo)雷達(dá)路測(cè)結(jié)果統(tǒng)計(jì)

        圖15 取不同數(shù)量樣本點(diǎn)時(shí)分車道正確率對(duì)比

        4.2 路測(cè)結(jié)果

        測(cè)試設(shè)備:PC、雷達(dá)、相機(jī)和三腳架等。

        測(cè)試地點(diǎn):天橋。

        測(cè)試步驟:

        1)將雷達(dá)用三腳架正裝,并連接相機(jī)和PC,然后用雷達(dá)采集車輛數(shù)據(jù)5 min(約20輛車)。

        2)通過(guò)上位機(jī)發(fā)送命令,執(zhí)行車道劃分算法,通過(guò)聚類結(jié)果的聚類中心和特征向量對(duì)車道進(jìn)行擬合,上位機(jī)界面見(jiàn)圖16。

        3)將雷達(dá)設(shè)置成工作狀態(tài),對(duì)車輛進(jìn)行正常抓拍并保存原始數(shù)據(jù)、抓拍照片和視頻用于統(tǒng)計(jì)分析。

        4)對(duì)雷達(dá)進(jìn)行側(cè)裝,重復(fù)上述三個(gè)步驟。

        圖16 上位機(jī)界面

        對(duì)三組測(cè)試結(jié)果分別統(tǒng)計(jì)分車道正確率,并對(duì)每輛過(guò)車取10幀數(shù)據(jù)進(jìn)行單幀分析,如圖17所示。路測(cè)統(tǒng)計(jì)結(jié)果見(jiàn)表3。

        圖17 實(shí)際視頻的單幀圖像以及對(duì)應(yīng)的單幀數(shù)據(jù)

        表3中,第1組數(shù)據(jù)為正裝時(shí)采集,第2、3組為側(cè)裝時(shí)采集,可以看出正裝的車道劃分正確率要稍高于側(cè)裝時(shí)的正確率,但從總體上,該方法在兩種安裝方式下都可以達(dá)到95%以上的車道劃分正確率,可以滿足實(shí)際應(yīng)用的需求。

        5 結(jié)語(yǔ)

        本文提出了K-CSDF用于車道劃分,該算法主要包括對(duì)原始數(shù)據(jù)的特征提取以及基于核的相似性的動(dòng)態(tài)聚類兩步。從實(shí)驗(yàn)仿真和路測(cè)結(jié)果可以看出,該方法在保證實(shí)時(shí)性的同時(shí),可以達(dá)到95%以上的分車道正確率;當(dāng)只取100個(gè)樣本點(diǎn)進(jìn)行擬合時(shí),算法也具有很好的魯棒性。但本文只對(duì)監(jiān)測(cè)3個(gè)車道的情況進(jìn)行了分析,對(duì)于監(jiān)測(cè)更多車道以及更復(fù)雜環(huán)境下的道路情況,還需要后續(xù)的研究。

        References)

        [1] BEYELER M, MIRUS F, VERL A. Vision-based robust road lane detection in urban environments [C]// ICRA 2014: Proceedings of the 2014 IEEE International Conference on Robotics and Automation. Piscataway, NJ: IEEE, 2014: 4920-4925.

        [2] DU X, TAN K K, HTET K K K. Vision-based lane line detection for autonomous vehicle navigation and guidance [C]// ASCC 2015: Proceedings of the 2015 10th Asian Control Conference. Piscataway, NJ: IEEE, 2015: 1-5.

        [3] FELGUERA-MARTN D, GONZLEZ-PARTIDA J T, ALMOROX-GONZLEZ P, et al. Vehicular traffic surveillance and road lane detection using radar interferometry[J]. IEEE Transactions on Vehicular Technology, 2012, 61(3): 959-970.

        [5] JANDA F, PANGERL S, SCHINDLER A. A road edge detection approach for marked and unmarked lanes based on video and radar [C]// FUSION 2013: Proceedings of the 2013 16th International Conference on Information Fusion. Piscataway, NJ: IEEE, 2013: 871-876.

        [6] 史鵬波. 基于單線激光雷達(dá)的道路特征檢測(cè)[D]. 南京: 南京理工大學(xué), 2013. (SHI P B. Road feature detection based on single line lidar [D]. Nanjing: Nanjing University of Science and Technology, 2013.)

        [7] XU Z. Laser rangefinder based road following[C]// ICMA 2005: Proceedings of the 2005 IEEE International Conference on Mechatronics and Automation. Piscataway, NJ: IEEE, 2005, 2: 713-717.

        [8] HAN J, KIM D, LEE M, et al. Enhanced road boundary and obstacle detection using a downward-looking LIDAR sensor[J]. IEEE Transactions on Vehicular Technology, 2012, 61(3): 971-985.

        [9] 吳維一, 劉大學(xué), 戴斌. 一種處理激光雷達(dá)數(shù)據(jù)的聚類分析方法[J]. 計(jì)算機(jī)仿真, 2007, 24(8): 236-240. (WU W Y, LIU D X, DAI B. A clustering analysis for lidar data [J]. Computer Simulation, 2007, 24(8): 236-240.)

        [10] RODRIGUEZ A, LAIO A. Clustering by fast search and find of density peaks[J]. Science, 2014, 344(6191): 1492-1496.

        [11] FORGY E W. Cluster analysis of multivariate data: efficiency versus interpretability of classifications[J]. Biometrics, 1965, 61(3): 768-769.

        [12] SCH?LKOPF B, SMOLA A, MüLLER K R. Nonlinear component analysis as a kernel eigenvalue problem[J]. Neural Computation, 1998, 10(5): 1299-1319.

        Automaticlanedivisionmethodbasedonechosignalofmicrowaveradar

        XIU Chao1, CAO Lin1*, WANG Dongfeng1, 2, ZHANG Fan1

        (1.DepartmentofTelecommunicationEngineering,BeijingInformationScienceandTechnologyUniversity,Beijing100101,China;2.BeijingTransMicrowaveScienceandTechnologyCompanyLimited,Beijing100080,China)

        When police carry out traffic law enforcement using multi-target speed measuring radar, one of the most essential things is to judge which lane each vehicle belongs to, and only in this way the captured pictures can serve as the law enforcement evidence. To achieve lane division purpose, traditional way is to obtain a fixed threshold by manual measurement and sometimes the method of coordinate system rotation is also needed, but this method has a large error with difficulty in operating. A new lane division algorithm called Kernel Clustering algorithm based on Statistical and Density Features (K-CSDF) was proposed, which includes two steps: firstly, a feature extraction method based on statistical feature and density feature was used to process the vehicle data captured by radar; secondly, a dynamic clustering algorithm based on kernel and similarity was introduced to cluster the processed data. Simulations with Gaussian Mixture Model (GMM) algorithm and Self-Organizing Maps (SOM) algorithm were conducted. Simulation results show that the proposed algorithm and SOM algorithm can achieve a lane accuracy of more than 90% when only 100 sample points are used, while GMM algorithm cannot detect the lane center line. In terms of running time, when 1 000 sample points are taken, the proposed algorithm and GMM algorithm spend less than one second, and the real-time performance can be guaranteed, while SOM algorithm takes about 2.5 seconds. The robustness of the proposed algorithm is better than GMM algorithm and SOM algorithm when sample points have a non-uniform distribution. When different amounts of sample points are used for clustering, the proposed algorithm can achieve an average lane division accuracy of more than 95%.

        multi-target radar; lane division; statistical feature; dynamic radius; kernel; dynamic clustering

        2017- 04- 05;

        2017- 06- 22。

        國(guó)家自然科學(xué)基金資助項(xiàng)目(61671069);北京高等學(xué)校高水平人才交叉培養(yǎng)項(xiàng)目。

        修超(1991—),男,山東煙臺(tái)人,碩士研究生,主要研究方向:信號(hào)處理、模式識(shí)別; 曹林(1977—),男,遼寧沈陽(yáng)人,教授,博士,主要研究方向:圖像處理、模式識(shí)別; 王東峰(1974—),男,陜西寶雞人,教授,博士,主要研究方向:雷達(dá)信號(hào)處理; 張帆(1994—),男,安徽亳州人,碩士研究生,主要研究方向:信號(hào)處理、圖像識(shí)別。

        1001- 9081(2017)10- 3017- 07

        10.11772/j.issn.1001- 9081.2017.10.3017

        TP274.2

        A

        This work is partially supported by the National Natural Science Foundation of China (61671069), the Cross Training of High Level Talents Real-training Plan of Beijing Municipal Commission of Education.

        XIUChao, born in 1991, M. S. candidate. His research interests include signal processing, pattern recognition.

        CAOLin, born in 1977, Ph. D., professor. His research interests include image processing, pattern recognition.

        WANGDongfeng, born in 1974, Ph. D., professor. His research interests include radar signal processing.

        ZHANGFan, born in 1994, M. S. candidate. His research interests include signal processing, image recognition.

        猜你喜歡
        正確率車道雷達(dá)
        有雷達(dá)
        大自然探索(2023年7期)2023-08-15 00:48:21
        北斗+手機(jī)實(shí)現(xiàn)車道級(jí)導(dǎo)航應(yīng)用
        避免跟車闖紅燈的地面車道線
        淺談MTC車道改造
        門診分診服務(wù)態(tài)度與正確率對(duì)護(hù)患關(guān)系的影響
        雷達(dá)
        生意
        品管圈活動(dòng)在提高介入手術(shù)安全核查正確率中的應(yīng)用
        生意
        基于空時(shí)二維隨機(jī)輻射場(chǎng)的彈載雷達(dá)前視成像
        少妇太爽了在线观看免费视频| 极品少妇一区二区三区| 国产精品日韩av一区二区三区| 欧美牲交a欧美牲交aⅴ| 欧美性开放bbw| 三级国产女主播在线观看| 国产一区二区三区蜜桃| 国产极品少妇一区二区| 双腿张开被9个男人调教| 久久亚洲国产中v天仙www| 色婷婷综合一区二区精品久久| 在线观看亚洲av每日更新影片 | 91精选视频在线观看| 曰本亚洲欧洲色a在线| 各类熟女熟妇激情自拍| 中文字幕乱码高清完整版| 夜夜揉揉日日人人| 亚洲成a人片在线观看高清| 日本熟妇中出高潮视频| 欧美人与禽2o2o性论交| 豆国产95在线 | 亚洲| 久久国产精品男人的天堂av| 日本成人午夜一区二区三区| 亚洲中文字幕无码av| 猫咪www免费人成网最新网站| 国产精品亚洲精品日产久久久| 亚洲国产av一区二区三区| 国产精品自在拍在线拍| 福利一区二区三区视频午夜观看| 中文字幕精品乱码一区| 无码伊人66久久大杳蕉网站谷歌| 亚洲国产精品成人无码区| 亚洲天堂av免费在线看| 国产爽快片一区二区三区| 久久狠狠色噜噜狠狠狠狠97| 久久99精品久久久久久野外| 久久久亚洲女精品aa| 精品亚洲一区二区区别在线观看| 欧美极品色午夜在线视频| 精品熟女少妇免费久久| 日韩一级精品视频免费在线看|