亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        前方車(chē)輛檢測(cè)的特征融合算法研究與實(shí)現(xiàn)

        2018-01-13 02:09:29劉冬軍徐美華龔露鳴夏臣君
        關(guān)鍵詞:像素點(diǎn)灰度閾值

        劉冬軍,徐美華,龔露鳴,夏臣君

        高級(jí)駕駛輔助系統(tǒng)(advanced driver assistance systems,ADAS)已逐漸成為汽車(chē)電子研究的熱點(diǎn),該系統(tǒng)借助傳感器采集各種物理信息,然后由云計(jì)算中心[1]對(duì)這些數(shù)據(jù)進(jìn)行處理并做出相應(yīng)的決策,最終達(dá)到安全駕駛的目的.前方車(chē)輛檢測(cè)是ADAS技術(shù)中的重要組成部分,通過(guò)在車(chē)輛行駛過(guò)程中標(biāo)記前面出現(xiàn)的車(chē)輛來(lái)避免發(fā)生碰撞的危險(xiǎn).

        目前,基于機(jī)器視覺(jué)的車(chē)輛檢測(cè)技術(shù)大致可以分為4類(lèi):基于模型方法、基于立體視覺(jué)方法、基于光流場(chǎng)方法和基于特征的方法.基于模型方法[2]的車(chē)輛檢測(cè)技術(shù)通常是先獲取大量不同道路環(huán)境、不同類(lèi)型的車(chē)輛圖像,然后再利用圖像的灰度信息建立車(chē)輛特征模型.但是,該方法對(duì)模型的依賴性較強(qiáng).基于光流場(chǎng)方法[3-4]的車(chē)輛檢測(cè)技術(shù)雖然能夠較好地處理背景運(yùn)動(dòng)情況,但是實(shí)時(shí)性差,對(duì)光線變化較敏感.基于立體視覺(jué)方法[5]的車(chē)輛檢測(cè)技術(shù).則能夠較準(zhǔn)確地進(jìn)行定位,但其計(jì)算量大、成本高,且對(duì)車(chē)輛自身的運(yùn)動(dòng)比較敏感.基于特征的方法[6]是利用車(chē)輛特征如車(chē)底陰影、車(chē)身紋理和對(duì)稱性等提取車(chē)輛區(qū)域.車(chē)輛多特征相結(jié)合的檢測(cè)方法是現(xiàn)今國(guó)內(nèi)外研究的趨勢(shì).Zhang等[7]提出一種結(jié)合多特征的車(chē)輛檢測(cè)與跟蹤方法利用車(chē)底部陰影檢測(cè)生成車(chē)輛假設(shè)區(qū)域,并利用車(chē)輛區(qū)域的邊緣特征和歸一化轉(zhuǎn)動(dòng)慣量(normalized moment of inertia,NMI)特征進(jìn)行驗(yàn)證,雖然該方法能夠快速實(shí)現(xiàn)車(chē)輛檢測(cè),但是檢測(cè)的準(zhǔn)確率并不是理想.金立生等[8]提出一種基于類(lèi)HAAR特征并結(jié)合Adaboost分類(lèi)器的識(shí)別算法,通過(guò)訓(xùn)練大量正負(fù)樣本圖片構(gòu)建分類(lèi)器該方法運(yùn)算量大,識(shí)別性能有待提高.

        圖1 車(chē)輛檢測(cè)系統(tǒng)的架構(gòu)Fig.1 Architecture of vehicle detection system

        綜合以上分析,本工作提出一種基于汽車(chē)形態(tài)特征和類(lèi)HAAR特征融合的單目視覺(jué)前方車(chē)輛檢測(cè)算法.車(chē)輛檢測(cè)系統(tǒng)的基本架構(gòu)如圖1所示.由圖可知:首先對(duì)獲取圖像進(jìn)行預(yù)處理,其中包括圖像剪裁、灰度化以及圖像去噪;然后運(yùn)用猴王遺傳算法(monkey-king genetic algorithm,MKGA)分割出圖像感興趣區(qū)域以及背景部分;接下來(lái)對(duì)感興趣區(qū)域的所有區(qū)塊進(jìn)行整形處理,并基于車(chē)輛形態(tài)特征一次篩選;最后對(duì)一次篩選出的圖像區(qū)域提取類(lèi)HAAR特征,經(jīng)過(guò)主成分分析(principal component analysis,PCA)降維后送入支持向量機(jī)(support vector machine,SVM)分類(lèi)器進(jìn)行二次篩選,最終輸出目標(biāo)車(chē)輛.

        1 感興趣區(qū)域確定

        1.1 圖像預(yù)處理

        通過(guò)對(duì)大量的視頻數(shù)據(jù)進(jìn)行統(tǒng)計(jì)后發(fā)現(xiàn),前方車(chē)輛的主體部分均位于原始圖像的下3/5部分,而上2/5部分一般為天空或者建筑物.而上2/5部分的圖像信息對(duì)車(chē)輛檢測(cè)沒(méi)有意義.因此保留下3/5部分作為下一步處理的有意義區(qū)域,這樣既減少了后續(xù)過(guò)程的數(shù)據(jù)處理量,又增強(qiáng)了系統(tǒng)的實(shí)時(shí)性能.

        對(duì)剪裁得到的圖像進(jìn)行灰度化處理.RGB色彩模式是工業(yè)界的一種顏色標(biāo)準(zhǔn),通過(guò)對(duì)紅(R)、綠(G)和藍(lán)(B)三個(gè)顏色通道的變化以及它們相互之間的疊加可以得到各式各樣的顏色.紅綠藍(lán)3種顏色通道都是8位深度的,每個(gè)分量擁有28級(jí)灰度.因此通過(guò)顏色通道的組合RGB模型可以顯示出16 777 216種顏色.利用加權(quán)平均法對(duì)彩色圖像灰度化,運(yùn)算表達(dá)式為

        式中:f(i,j)表示圖像平面像素點(diǎn)的亮度幅值;R(i,j),G(i,j)和B(i,j)分別表示該點(diǎn)紅、藍(lán)和綠3個(gè)顏色通道的亮度幅值.

        此外,攝像機(jī)在采集圖像過(guò)程中難免受到各種各樣噪聲的干擾.由于圖像質(zhì)量的退化會(huì)導(dǎo)致目標(biāo)識(shí)別失敗,因此去除噪聲成為圖像預(yù)處理中十分重要的步驟.線性濾波器對(duì)圖像細(xì)節(jié)處理時(shí)容易丟失信息,而中值濾波不僅可以克服這個(gè)問(wèn)題,并且對(duì)濾除脈沖干擾和圖像掃描噪聲非常有效.中值濾波的基本思想是把局部區(qū)域的像素按灰度等級(jí)排序,并取該領(lǐng)域內(nèi)的中間值作為當(dāng)前像素點(diǎn)的灰度值,如果區(qū)域內(nèi)的像素點(diǎn)為偶數(shù),則取中間兩個(gè)像素點(diǎn)的平均值作為當(dāng)前像素點(diǎn)的灰度值.中值濾波為

        式中,T為所選模板領(lǐng)域,f(i,j)為所求點(diǎn)的像素幅值.經(jīng)過(guò)中值濾波后,圖像的目標(biāo)邊緣仍比較清晰,去除噪聲效果明顯.另外,中值濾波的計(jì)算量相對(duì)其他濾波方法較小,便于提高系統(tǒng)的運(yùn)行速度.

        1.2 閾值分割

        1.2.1 OTSU分割失效

        通過(guò)統(tǒng)計(jì)大量的視頻信息發(fā)現(xiàn),在車(chē)輛的底部存在著比道路灰度更低的陰影區(qū)域,并且在可見(jiàn)光照射的條件下,該陰影區(qū)域的位置總是存在于車(chē)輛的底部.

        利用最大類(lèi)間方差法(OTSU)[9-11]進(jìn)行閾值分割,提取車(chē)輛底部的陰影特征,并把這些陰影所在的區(qū)域進(jìn)行尺寸放大,就可以得到疑似車(chē)輛尾部的位置.最大類(lèi)間方差法是通過(guò)分析圖像的灰度直方圖以及最小二乘法原理推導(dǎo)得出的.選定的分割閾值應(yīng)使背景和目標(biāo)的平均灰度與整幅圖像的平均灰度之間的差別最大,這種差別用類(lèi)間方差表示.所求出的閾值T把灰度圖像分為兩個(gè)部分:灰度小于T的所有像素點(diǎn)歸為一類(lèi),用S0表示;剩余像素點(diǎn)歸為另一類(lèi),用S1表示.兩個(gè)區(qū)域的類(lèi)間方差為

        式中:σ(T)表示兩類(lèi)像素點(diǎn)與圖像總體平均值之間的方差和;p0,p1分別表示兩類(lèi)區(qū)域的概率;u0,u1分別表示兩類(lèi)區(qū)域的灰度均值;u表示整幅圖像的灰度均值.T在[0,255]內(nèi)依次取值,σ(T)取得最大值時(shí),即為最佳區(qū)域分割閾值.

        雖然OTSU算法能夠根據(jù)目標(biāo)和背景之間的方差最大值降低誤分割的概率,但是當(dāng)周?chē)沫h(huán)境比較復(fù)雜且光照條件較差時(shí),圖像的灰度直方圖極易呈現(xiàn)三峰狀或者多峰狀,此時(shí)OTSU算法不能理想地分割陰影部分和背景部分,閾值分割效果明顯下降.

        1.2.2 基于MKGA閾值分割

        針對(duì)上述OTSU閾值分割失效問(wèn)題,尋找一種能夠準(zhǔn)確分割車(chē)底陰影區(qū)域的方法成為前方車(chē)輛檢測(cè)技術(shù)的關(guān)鍵.研究人員提出了一種雙OTSU算法[12].該算法直接搜索使得計(jì)算量較大、系統(tǒng)耗費(fèi)時(shí)間長(zhǎng).由于工程中處理的圖像像素點(diǎn)一般都比較高,因此獲取最佳閾值的效率較低.

        本工作采取猴王遺傳算法[13-14]求最佳閾值.猴王遺傳算法首先將猴王點(diǎn)和少部分排在前面的較優(yōu)點(diǎn)復(fù)制到下代,接著染色體變異淘汰較劣點(diǎn),保證種群一直處于進(jìn)化狀態(tài);然后,又讓猴王點(diǎn)與種群中的其他點(diǎn)進(jìn)行交叉變異,得到符合條件的新點(diǎn);最后將這些點(diǎn)依次加入下代種群,在下一代種群中重復(fù)上述排序、復(fù)制、引入變異染色體和交叉變異直至下代種群中點(diǎn)的數(shù)目達(dá)到預(yù)定的種群規(guī)模.經(jīng)過(guò)若干代計(jì)算后,一般能搜索到全局最優(yōu)解附近.根據(jù)猴王遺傳算法的基本思路,并移植到圖像閾值分割中,可以較快地得到整個(gè)區(qū)域的最優(yōu)解.猴王遺傳算法閾值分割的基本流程如圖2所示.

        圖2 猴王遺傳算法閾值分割流程圖Fig.2 MKGA threshold segmentation f l owchart

        (1)參數(shù)設(shè)定.設(shè)定初始種群L=20,初始代數(shù)為0,最大迭代次數(shù)為120,隨機(jī)個(gè)體占比R=0.3,復(fù)制率k=0.7,交叉概率為0.6,變異概率為0.08.

        (2)計(jì)算初始個(gè)體灰度的類(lèi)間方差.目標(biāo)和背景的方差越大,閾值分割效果越理想,因此采用圖像灰度的類(lèi)間方差表達(dá)式作為適應(yīng)度函數(shù).某個(gè)個(gè)體的適應(yīng)度函數(shù)值越大,表明其性能越好.

        (3)排序和替換.將計(jì)算出來(lái)的每個(gè)個(gè)體的適應(yīng)度進(jìn)行升序排列,找到猴王點(diǎn),然后再根據(jù)個(gè)體占比R,用隨機(jī)生成的方法產(chǎn)生同樣規(guī)模的新個(gè)體替代被淘汰的部分,組成新一代種群.

        (4)復(fù)制產(chǎn)生新個(gè)體.根據(jù)復(fù)制率k求出從當(dāng)前種群中前n個(gè)個(gè)體,直接進(jìn)入新一代種群.

        (5)交叉變異.將猴王點(diǎn)與n之后的所有個(gè)體交叉運(yùn)算產(chǎn)生L?n個(gè)新個(gè)體,并根據(jù)所給的變異概率選取某部分個(gè)體元素進(jìn)行變異.

        (6)循環(huán)上述步驟.

        若連續(xù)多代種群的適應(yīng)度都沒(méi)有改變,或者已經(jīng)達(dá)到最大進(jìn)化代數(shù),則停止尋優(yōu)操作,這時(shí)趨于穩(wěn)定的最大適應(yīng)度函數(shù)值為圖像分割的閾值.圖3為雙OTSU算法和MKGA算法閾值分割的比較.從圖可以看出,雙OTSU和猴王遺傳算法閾值分割效果差別不大.但是,相比雙OTSU算法,猴王遺傳算法所用時(shí)間明顯減少.

        圖3 雙OTSU算法和MKGA算法閾值分割的比較Fig.3 Comparation of threshold segmentation between dual OTSU and MKGA

        2 車(chē)輛形態(tài)特征

        2.1 填充率和比例因子

        完成閾值分割后,得到了需要處理的前景圖像,但此圖像仍存在大量的干擾因素,需要排除大量的冗余數(shù)據(jù)以提高篩選的準(zhǔn)確率.目標(biāo)區(qū)域的整形可劃分為3步,如圖4所示.

        圖4 圖像整形Fig.4 Image shaping

        (1)首先對(duì)圖像進(jìn)行腐蝕膨脹操作.作圖像腐蝕處理時(shí),把結(jié)構(gòu)元素沿著所有區(qū)塊的邊沿繞行,使得結(jié)構(gòu)元素的一半的面積與區(qū)塊重合,那么重合部分被腐蝕掉;作圖像膨脹處理時(shí),把結(jié)構(gòu)元素沿著所有區(qū)塊的邊沿繞行,使得結(jié)構(gòu)元素的一半的面積與區(qū)塊重合,那么未重合的部分會(huì)重新生長(zhǎng)出來(lái).

        (2)對(duì)前景圖像中的通孔進(jìn)行填充.通孔填充后,整個(gè)目標(biāo)區(qū)域呈現(xiàn)連通狀態(tài),這是為了方便后續(xù)的圖像形態(tài)篩選.

        上述處理后的圖像中仍存在一定數(shù)量的突起或者尖刺,主要原因是實(shí)際道路情況復(fù)雜,車(chē)輛的陰影很容易與周?chē)?chē)輛的陰影或者公路兩旁的樹(shù)木倒影連成一片,由此就產(chǎn)生細(xì)長(zhǎng)的連接部分或者尖刺部分.統(tǒng)計(jì)發(fā)現(xiàn),毛刺會(huì)出現(xiàn)在區(qū)域的上下左右各個(gè)方向,但是寬度比連通區(qū)域總寬度要小.根據(jù)這一特點(diǎn),首先統(tǒng)計(jì)每個(gè)區(qū)域的最大高度和最大寬度,再?gòu)淖蟮接医y(tǒng)計(jì)某一連通區(qū)域的每一行像素個(gè)數(shù).如果該行的像素個(gè)數(shù)小于該區(qū)域像素最大寬度的1/3,那么就把該行所有像素點(diǎn)置0,然后從上到下統(tǒng)計(jì)本區(qū)域的每一列的像素個(gè)數(shù);如果該列的像素個(gè)數(shù)小于該區(qū)域像素?cái)?shù)目最大高度的1/3,則把本區(qū)域該列所有像素點(diǎn)置0.

        由于汽車(chē)設(shè)計(jì)的寬度和高度必須滿足安全平穩(wěn)行駛這一必要條件,即車(chē)身寬度和高度的比例必須在一定的范圍內(nèi).填充率(f i lling ratio,FR)表示待篩選區(qū)域的面積和其外接矩形的面積之比,比例越大,說(shuō)明待篩選區(qū)域越接近于一個(gè)標(biāo)準(zhǔn)的矩形.比例因子(scale factor,SF)表示待篩選區(qū)域接近于標(biāo)準(zhǔn)高寬比的程度,這個(gè)數(shù)值只要接近某個(gè)范圍即可,而且高寬比接近并不完全代表該陰影一定是汽車(chē)底部的陰影.在算法運(yùn)行時(shí)把FR和SF結(jié)合一起綜合判斷,按照這個(gè)模型存儲(chǔ)每個(gè)待篩選區(qū)塊的坐標(biāo)、FR和SD信息,然后判斷哪些是符合要求的.具體的判斷標(biāo)準(zhǔn)為

        2.2 HSV顏色

        HSV模型[15]分別表示色調(diào)(hue)、飽和度(saturation)和亮度(value).因?yàn)镠SV顏色域類(lèi)似于人類(lèi)感覺(jué)顏色的方式,具有較強(qiáng)的感知度,所以在車(chē)輛識(shí)別算法中利用這個(gè)特性對(duì)車(chē)輛的尾燈進(jìn)行辨識(shí).

        把感興趣目標(biāo)所在坐標(biāo)框的尺寸按照一定比例擴(kuò)大,對(duì)感興趣目標(biāo)圖像從RGB轉(zhuǎn)換到HSV,然后設(shè)置相應(yīng)參數(shù)分割出感興趣目標(biāo)中的車(chē)尾燈特征和車(chē)牌特征.如果感興趣目標(biāo)中不含有車(chē)尾燈特征以及車(chē)牌特征,則認(rèn)為該感興趣目標(biāo)被淘汰,繼續(xù)檢測(cè)其他感興趣目標(biāo)直到檢測(cè)完成.經(jīng)過(guò)大量的對(duì)比測(cè)試發(fā)現(xiàn),如果提取車(chē)輛的牌照以及車(chē)尾燈特征,漏檢率會(huì)比較高.當(dāng)車(chē)輛行駛的環(huán)境光線較暗時(shí),攝像頭采集到藍(lán)色車(chē)牌的畫(huà)面顯示車(chē)牌接近黑色,這給尾部車(chē)牌的特征檢測(cè)帶來(lái)了一定的難度.此外,車(chē)輛的尾部特征中,車(chē)牌區(qū)域的顏色不一定是藍(lán)色,也有可能是黃色或者白色.如果把車(chē)牌顏色域的檢測(cè)范圍增加藍(lán)色、白色和黃色,就會(huì)增加算法的復(fù)雜度.

        因此放棄車(chē)牌顏色域特征的提取,選擇車(chē)輛的紅色尾燈區(qū)域作為車(chē)輛尾部特征,得出了紅色車(chē)尾燈的一個(gè)有效閾值范圍:

        應(yīng)用式(5)對(duì)大量的車(chē)輛尾燈進(jìn)行了測(cè)試,結(jié)果表明,該閾值能夠?qū)κ袌?chǎng)上大部分車(chē)輛尾燈進(jìn)行識(shí)別.

        3 前方車(chē)輛融合檢測(cè)

        3.1 類(lèi)HAAR特征和積分圖

        類(lèi)HAAR特征首先由Violas等[16]提出,主要應(yīng)用于人臉檢測(cè).類(lèi)HAAR特征的檢測(cè)方式快速、簡(jiǎn)單.類(lèi)HAAR特征具有多種模型,常用的有兩矩形模型和三明治模型,如圖5所示.兩矩形型的掩模表示黑色區(qū)域的像素點(diǎn)的灰度值減去白色區(qū)域像素點(diǎn)的灰度值.三明治掩模表示中間黑色區(qū)域像素點(diǎn)的灰度值減去兩邊白色區(qū)域像素點(diǎn)灰度值之和.利用以上兩種掩模對(duì)車(chē)輛的類(lèi)HAAR特征進(jìn)行提取,正常光照條件下的前方車(chē)輛自身存在很多特征,如車(chē)輛頂部與天空密度差異明顯較大,車(chē)輛擋風(fēng)玻璃和車(chē)身存在水平邊緣分界線、垂直邊緣對(duì)稱等.利用兩矩形模型的類(lèi)HAAR掩??梢缘玫杰?chē)輛尾部垂直和水平邊緣梯度特征,利用三明治模型可以得到前車(chē)后蓋的紋理信息,如圖6所示.

        圖5 類(lèi)HAAR特征模型Fig.5 Models of HAAR-like feature

        圖6 前車(chē)的類(lèi)HAAR特征Fig.6 HAAR-like feature of front vehicle

        一幅圖像能夠派生出較多矩形特征,如果每次提取矩形特征值都計(jì)算區(qū)域內(nèi)像素點(diǎn)灰度值之和,則會(huì)嚴(yán)重影響特征的檢測(cè)速度.圖像積分圖為該像素點(diǎn)左上方所有像素點(diǎn)的灰度值之和,基于圖像積分圖的方法可求取圖像上任意矩形區(qū)域內(nèi)像素點(diǎn)的灰度值之和.首先對(duì)行進(jìn)行遍歷,再對(duì)列進(jìn)行遍歷,因此積分圖像實(shí)際上是離散的二重積分,即

        式中,F(i,j)表示像素點(diǎn)積分和,f(x,y)為圖像灰度值.矩形積分圖的計(jì)算如圖7所示.在積分圖像中任何一個(gè)矩形的像素和僅需要使用4次數(shù)組索引,且有

        式中,sum表示該區(qū)域像素點(diǎn)灰度值之和.積分圖最大的優(yōu)點(diǎn)在于當(dāng)完成一幅圖像的積分圖像的統(tǒng)計(jì)后,算法對(duì)圖像的區(qū)塊灰度計(jì)算就可以在一個(gè)加減操作內(nèi)完成,大大縮減了特征提取的時(shí)間.

        圖7 矩形積分圖中像素點(diǎn)的計(jì)算Fig.7 Calculation of the pixels with in rectangle

        3.2 PCA降維與SVM分類(lèi)

        對(duì)于一個(gè)640×360像素的剪裁后圖像,若要提取其類(lèi)HAAR特征,首先按40×54像素的滑動(dòng)窗口尺寸移動(dòng),每次的移動(dòng)步長(zhǎng)為20,然后每次遍歷完成增大滑動(dòng)窗口的尺寸.并且對(duì)窗口歸一化,把任意大小的窗口壓縮成為24×24像素,而后再對(duì)每一塊圖像提取類(lèi)HAAR特征.不考慮旋轉(zhuǎn)情況,1×2的兩矩形型的類(lèi)HAAR特征模型的特征總數(shù)為

        一次遍歷提取510張圖像的HAAR特征,在鎖定高寬比前提下對(duì)滑動(dòng)窗口進(jìn)行縮放,再次遍歷.如果把特征數(shù)目乘以圖片數(shù)量,結(jié)果是非常巨大的.因此,應(yīng)先基于形態(tài)特征過(guò)濾篩選,再把已篩選區(qū)域及相應(yīng)的類(lèi)HAAR特征提取出來(lái),并對(duì)這些特征進(jìn)行PCA降維.

        設(shè)特征矩陣有n個(gè)樣本,每個(gè)樣本有m個(gè)屬性,則矩陣示為

        (1)標(biāo)準(zhǔn)化樣本數(shù)據(jù).樣本的均值、標(biāo)準(zhǔn)差等分別為

        (2)計(jì)算相關(guān)矩陣.

        (3)解特征方程|R?ρf|=0.可求得特征向量

        (4)通過(guò)主成分貢獻(xiàn)率求主成分.用前面q個(gè)主成分之和除以k個(gè)主成分之和,可求得到相應(yīng)的貢獻(xiàn)率,即

        在確保β的值大于一定基數(shù)的情況下,q的取值越小,數(shù)據(jù)樣本的維度越低.但是降維后特征向量存在丟失的問(wèn)題,且丟失程度和貢獻(xiàn)率呈反比,因此選擇一個(gè)恰當(dāng)?shù)呢暙I(xiàn)率對(duì)于算法的準(zhǔn)確度十分重要.假設(shè)latent是一個(gè)包含樣本協(xié)方差矩陣的本征向量,對(duì)樣本庫(kù)中的24×24像素圖像的第一類(lèi)HAAR特征進(jìn)行PCA降維,并定義前k個(gè)本征向量值的總和貢獻(xiàn)率為

        式中,k表示第k個(gè)本征向量.

        樣本協(xié)方差矩陣的本征值向量如圖8所示.可以看出,對(duì)于本工作所使用的前方車(chē)輛檢測(cè)樣本,當(dāng)維數(shù)大于44時(shí),向量貢獻(xiàn)率超過(guò)95%.因此,可以把車(chē)輛樣本的類(lèi)HAAR特征的維度降為44維,這將大大縮減系統(tǒng)提取特征的時(shí)間.

        圖8 本征值向量貢獻(xiàn)率Fig.8 Contribution rate of eigenvectors

        用正負(fù)樣本對(duì)分類(lèi)器進(jìn)行訓(xùn)練時(shí),選擇了1 000張正樣本和1 500張負(fù)樣本.導(dǎo)入樣本時(shí),每一個(gè)樣本都對(duì)應(yīng)著一個(gè)標(biāo)志位,當(dāng)該樣本為正樣本時(shí)標(biāo)記為1,負(fù)樣本時(shí)標(biāo)記為0.

        如圖9所示,在車(chē)輛形態(tài)特征一次篩選結(jié)束以后,得到了若干個(gè)待篩選區(qū)域.假設(shè)有n個(gè)待確定區(qū)域,首先分離待確定區(qū)域并進(jìn)行窗口歸一化;然后提取相應(yīng)的類(lèi)HAAR特征,并把維度降至44;最后把這n×44個(gè)特征向量送入SVM分類(lèi)器,如果不滿足就會(huì)被濾除,并稱此為基于類(lèi)HAAR特征的二次篩選.對(duì)比兩次實(shí)驗(yàn)結(jié)果發(fā)現(xiàn),基于車(chē)輛形態(tài)特征的一次篩選出現(xiàn)較大的誤差,當(dāng)?shù)缆翻h(huán)境較復(fù)雜時(shí)會(huì)把一些非車(chē)輛區(qū)域誤識(shí)別成目標(biāo)車(chē)輛,但經(jīng)過(guò)類(lèi)HAAR特征的二次篩選后可以排除絕大部分干擾,識(shí)別率明顯提高.相比于一次篩選,該算法在耗時(shí)方面雖然會(huì)有所增加,但是SVM分類(lèi)器的訓(xùn)練和測(cè)試步驟是離線的,故仍可滿足車(chē)輛輔助駕駛系統(tǒng)實(shí)時(shí)性要求.

        圖9 車(chē)輛形態(tài)特征的篩選結(jié)果Fig.9 Results of f i rst screening

        4 實(shí)驗(yàn)結(jié)果

        實(shí)驗(yàn)的硬件平臺(tái)為Intel(R)Core(TM)i5-4590,主頻3.3 GHz,內(nèi)存8 G的個(gè)人電腦,軟件環(huán)境為Windows 7操作系統(tǒng).選取上海市中環(huán)線的一段道路作為檢測(cè)對(duì)象,互補(bǔ)金屬氧化物半導(dǎo)體(omplementary metal oxide semiconductor,CMOS)傳感器采集的視頻圖像分辨率為640×480.利用本工作提出的車(chē)輛形態(tài)特征級(jí)聯(lián)類(lèi)HAAR特征的車(chē)輛檢測(cè)方法,提取視頻中不同光照條件和道路環(huán)境條件的若干段素材作為分析對(duì)象,采用軟件Matlab 2013進(jìn)行仿真驗(yàn)證,測(cè)試結(jié)果如圖10所示.由圖可以看出,算法魯棒性較好,受外界環(huán)境因素的影響較小.

        圖10 不同環(huán)境條件下的實(shí)驗(yàn)結(jié)果Fig.10 Experimental results of diあerent environments

        為了測(cè)試該方法的優(yōu)劣,選取了識(shí)別率、漏檢率和虛警率作為評(píng)價(jià)標(biāo)準(zhǔn).識(shí)別率表示被正確識(shí)別的車(chē)輛總數(shù)和被檢測(cè)車(chē)輛總數(shù)之比,漏檢率表示未被準(zhǔn)確識(shí)別車(chē)輛總數(shù)與被檢測(cè)車(chē)輛總數(shù)之比,虛警率表示錯(cuò)誤檢測(cè)的車(chē)輛數(shù)與被檢測(cè)圖像車(chē)輛總數(shù)之比.測(cè)試結(jié)果如表1所示.與文獻(xiàn)[8-9]中的方法相比,本工作提出的算法充分考慮了前方車(chē)輛檢測(cè)系統(tǒng)的穩(wěn)定性和實(shí)時(shí)性.

        表1 不同測(cè)試算法的比較Table 1 Comparison of parameter

        5 結(jié)束語(yǔ)

        本工作提出一種形態(tài)特征和類(lèi)HAAR特征融合的前方車(chē)輛檢測(cè)方法.形態(tài)特征可以有效、快速地篩選出圖像中可能為車(chē)輛尾部的區(qū)域,它利用車(chē)輛尾部下方的陰影,車(chē)輛尾部在HSV顏色空間下形成的對(duì)稱形態(tài)等特征來(lái)確定圖像中的感興趣區(qū)域,具有較好穩(wěn)定性和較低運(yùn)算量的特點(diǎn).類(lèi)HAAR特征是一種常用的目標(biāo)識(shí)別特征,由于能夠?qū)崿F(xiàn)快速計(jì)算,對(duì)光照變化和小量的偏移不敏感,被應(yīng)用于很多實(shí)時(shí)系統(tǒng)中.此外,類(lèi)HAAR特征能夠較好地描述車(chē)輛的邊緣、線段等輪廓信息.因此,把形態(tài)特征與類(lèi)HAAR特征融合使用,可以更加準(zhǔn)確地描述車(chē)輛的尾部信息.

        與傳統(tǒng)的類(lèi)HAAR特征SVM分類(lèi)相比,本工作提出的算法避免了使用滑動(dòng)窗口遍歷整幅圖像,而只需檢測(cè)一次篩選得到的若干個(gè)區(qū)域的類(lèi)HAAR特征,從而減少了系統(tǒng)的響應(yīng)時(shí)間.若在此基礎(chǔ)上利用追蹤等手段,對(duì)前方車(chē)輛的速度以及車(chē)距進(jìn)一步探索,將對(duì)當(dāng)前熱門(mén)的無(wú)人駕駛研究具有重要的指導(dǎo)意義.

        [1]鄭湃,崔立真,王海洋.云計(jì)算環(huán)境下面向數(shù)據(jù)密集型應(yīng)用的數(shù)據(jù)布局策略與方法[J].計(jì)算機(jī)學(xué)報(bào),2010(8):1472-1480.

        [2]胡銦,楊靖宇.基于模型的車(chē)輛檢測(cè)與跟蹤[J].中國(guó)圖像圖形學(xué)報(bào),2008,13(3):450-455.

        [3]SUN Z H,BEBIS G,MILLER R.On-road vehicle detection:a review[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2006,28(5):694-711.

        [4]WANG J X,BEBIS G,MILLER R.Overtaking vehicle detection using dynamic and quasi-static background modeling[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.2005:64-71.

        [5]FRANkE U,GAVRILA D,GRZIGS,et al.Autonomous driving goes downtown[J].IEEE Intelligent Systems&Their Applications,1998,13(6):40-48.

        [6]慕永云,王榮本,趙一兵.基于多特征融合的前方車(chē)輛檢測(cè)方法研究[J].計(jì)算機(jī)應(yīng)用研究,2011,28(9):3572-3575.

        [7]張建明,張玲增,劉志強(qiáng).一種結(jié)合多特征的前方車(chē)輛檢測(cè)與跟蹤方法[J].計(jì)算機(jī)工程與應(yīng)用,2011,47(5):220-223.

        [8]金立生,王巖,劉景華,等.基于Adaboost算法的日間前方車(chē)輛檢測(cè)[J].吉林大學(xué)學(xué)報(bào)(工學(xué)版),2014,44(6):1604-1608.

        [9]OTSU N.A threshold selection method from gray-level histogram[J].IEEE Transaction on Systems,Man and Cybernetics,1979,9(1):62-66.

        [10]WANG L,DUAN H CH,WANG J L.A fast algorithm for three-dimensional Otsu’s thresholding method[J].IEEE International Symposium on IT in Medicine and Education,2008,153(2):136-140.

        [11]陳琪,熊博蒞,陸軍,等.改進(jìn)的二維Otsu圖像分割方法及其快速實(shí)現(xiàn)[J].電子與信息學(xué)報(bào),2010,32(5):1100-1104.

        [12]汪海洋,潘德?tīng)t,夏德深.二維Otsu自適應(yīng)閾值選取算法的快速實(shí)現(xiàn)[J].自動(dòng)化學(xué)報(bào),2007,33(9):968-971.

        [13]王宏文,梁彥彥,王志華.基于新遺傳算法的Otsu圖像閾值分割方法[J].激光技術(shù),2014,38(3),364-367.

        [14]李宇中,劉紅星,張勝.猴王遺傳算法的改進(jìn)[J].南京師范大學(xué)學(xué)報(bào)(工程技術(shù)版),2004,4(3):53-56.

        [15]姜蘭池,沈國(guó)強(qiáng),張國(guó)煊.基于HSV分塊顏色直方圖的圖像檢索算法[J].機(jī)電工程,2009,26(11):54-56.

        [16]VIOLAS P,JONES M.Robust real-time objects detection[J].International Journal of Computer Vision,2004,55(2):137-154.

        猜你喜歡
        像素點(diǎn)灰度閾值
        采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過(guò)濾技術(shù)
        基于灰度拉伸的圖像水位識(shí)別方法研究
        小波閾值去噪在深小孔鉆削聲發(fā)射信號(hào)處理中的應(yīng)用
        基于自適應(yīng)閾值和連通域的隧道裂縫提取
        基于canvas的前端數(shù)據(jù)加密
        比值遙感蝕變信息提取及閾值確定(插圖)
        河北遙感(2017年2期)2017-08-07 14:49:00
        基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
        基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
        基于灰度線性建模的亞像素圖像抖動(dòng)量計(jì)算
        室內(nèi)表面平均氡析出率閾值探討
        日本精品网| 领导边摸边吃奶边做爽在线观看 | 国产美女久久精品香蕉69| 国产成人精选在线不卡| 日韩精品极品视频在线免费| 偷拍综合在线视频二区日韩| 亚洲av无码电影在线播放| 国产精品福利自产拍久久| 日韩无码电影| 一区二区精品天堂亚洲av| 亚洲一区二区三区四区五区黄| 亚洲美女又黄又爽在线观看| 精品国产福利片在线观看| 国产一区二区三区av观看| 精品无码国产一区二区三区麻豆| 国产精品亚洲一区二区三区在线| 久久久久国产一级毛片高清版A| 久久精品国产白丝爆白浆| 日韩人妻无码精品一专区二区三区 | 午夜福利院电影| 国产真人无遮挡免费视频| 中文字幕被公侵犯的丰满人妻| 久久精品国产亚洲av精东| 开心五月激情综合婷婷| 中文字幕亚洲无线码高清| 少妇被躁到高潮和人狍大战| 性无码一区二区三区在线观看| 99久久精品国产成人综合| 波多野无码AV中文专区| 青青草成人免费在线观看视频| 少妇被粗大的猛烈进出免费视频| 免费网站国产| 国产在线精彩自拍视频| 狠狠综合亚洲综合亚洲色| 老熟女高潮一区二区三区| 中文字幕无码专区一VA亚洲V专 | 丰满少妇人妻无码专区| 亚洲无码精品免费片| 手机在线免费看av网站| 久久久久99精品成人片欧美| 一区二区传媒有限公司|