亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向車輛識(shí)別的樣本自反饋式級(jí)聯(lián)檢測(cè)方法

        2017-07-25 09:17:21徐藝譚德榮郭棟邵金菊孫亮王玉瓊
        關(guān)鍵詞:區(qū)域檢測(cè)方法

        徐藝,譚德榮,郭棟,邵金菊,孫亮,王玉瓊

        (山東理工大學(xué) 交通與車輛工程學(xué)院,淄博 255000)

        面向車輛識(shí)別的樣本自反饋式級(jí)聯(lián)檢測(cè)方法

        徐藝,譚德榮,郭棟,邵金菊,孫亮,王玉瓊

        (山東理工大學(xué) 交通與車輛工程學(xué)院,淄博 255000)

        以解決機(jī)器學(xué)習(xí)的樣本提取問題、提高車輛識(shí)別的精度為目的,以Adaboost算法、級(jí)聯(lián)檢測(cè)方法、樣本自反饋方法為基礎(chǔ),提出了一種面向車輛識(shí)別的樣本自反饋式級(jí)聯(lián)檢測(cè)方法。方法兼具Adaboost級(jí)聯(lián)檢測(cè)器的架構(gòu)優(yōu)勢(shì)和樣本自反饋方法的樣本擴(kuò)充能力。通過(guò)前車圖像的識(shí)別實(shí)例闡述了樣本自反饋式級(jí)聯(lián)檢測(cè)方法的識(shí)別過(guò)程,進(jìn)而使用常規(guī)Adaboost檢測(cè)器和樣本自反饋式級(jí)聯(lián)檢測(cè)方法對(duì)圖像數(shù)據(jù)集進(jìn)行了識(shí)別,將生產(chǎn)者精度、用戶精度、總體識(shí)別精度、k值作為評(píng)價(jià)指標(biāo)對(duì)識(shí)別效果進(jìn)行了比較,證明了樣本自反饋式級(jí)聯(lián)檢測(cè)方法具有較高的識(shí)別精度。分析了樣本自反饋式級(jí)聯(lián)檢測(cè)方法個(gè)別評(píng)價(jià)指標(biāo)較低的原因,提出了相應(yīng)問題的解決思路。

        車輛識(shí)別;樣本自反饋;Adaboost算法;級(jí)聯(lián)檢測(cè)

        機(jī)器視覺作為一種能夠獲得駕駛環(huán)境信息的技術(shù),具有探測(cè)范圍廣、道路信息完整等優(yōu)勢(shì),被廣泛應(yīng)用于無(wú)人駕駛系統(tǒng)的車輛識(shí)別中[1,2]。當(dāng)前使用機(jī)器視覺進(jìn)行車輛識(shí)別的方法可分為基于形態(tài)特征的識(shí)別、基于運(yùn)動(dòng)特征的識(shí)別和基于機(jī)器學(xué)習(xí)的識(shí)別。其中基于機(jī)器學(xué)習(xí)的車輛識(shí)別不依賴先驗(yàn)知識(shí),且對(duì)環(huán)境變動(dòng)的敏感性較低,因而成為國(guó)內(nèi)外無(wú)人駕駛等領(lǐng)域研究的熱點(diǎn)[3-6],并取得了豐碩的成果:Niknejad等提出了一種基于HOG特征的車輛可變模型[7],通過(guò)設(shè)定自適應(yīng)閾值實(shí)現(xiàn)了城市工況下的車輛識(shí)別;Sivaraman等提出一種基于Haar特征和Adaboost算法相結(jié)合的主動(dòng)學(xué)習(xí)式框架[8],用于高速公路環(huán)境中的車輛識(shí)別;Chang等提出了一種在線Boosting車輛檢測(cè)方法[9],實(shí)現(xiàn)了不同環(huán)境下的車輛識(shí)別;Huval等提出了基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的車道、車輛快速識(shí)別方法[10];Song等通過(guò)AdaBoost與淺層CNN的融合[11],提高了車輛識(shí)別的魯棒性與實(shí)時(shí)性;張雪芹等提出了基于背景差分和目標(biāo)對(duì)象差分的兩種面向車輛識(shí)別的Adaboost改進(jìn)算法[12];陳小佳等使用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行特征融合并利用Ada?boost進(jìn)行神經(jīng)網(wǎng)絡(luò)集成的車輛識(shí)別方法[13];楊煒等使用了以灰度特征、多尺度方向特征為基礎(chǔ)的Ada?boost級(jí)聯(lián)檢測(cè)器用于前方車輛的圖像識(shí)別[14];陳湘軍等提出了車輛圖像稀疏特征表示方法,構(gòu)建了基于稀疏特征和背景建模的監(jiān)控車輛分類識(shí)別應(yīng)用框架[15]。

        基于機(jī)器學(xué)習(xí)的方法在車輛識(shí)別中表現(xiàn)出色,但具備高泛化能力的機(jī)器學(xué)習(xí)模型的構(gòu)建依賴大量的訓(xùn)練樣本,而當(dāng)前樣本的制備多需人工完成,人工操作的低效和隨機(jī)性的特點(diǎn)必將影響模型構(gòu)建效率與識(shí)別效果的穩(wěn)定性[16,17]。針對(duì)機(jī)器學(xué)習(xí)的樣本提取問題,本文面向車輛識(shí)別提出了一種樣本自反饋式級(jí)聯(lián)檢測(cè)方法。

        1 Adaboost級(jí)聯(lián)檢測(cè)器原理

        1.1 Adaboost算法原理

        Adaboost級(jí)聯(lián)檢測(cè)器屬于機(jī)器學(xué)習(xí)的典型方法,由Viola等首先提出并應(yīng)用于圖像識(shí)別[18],由于實(shí)時(shí)性強(qiáng)且識(shí)別效果好而被廣泛應(yīng)用。Adaboost級(jí)聯(lián)檢測(cè)器屬于一種視覺目標(biāo)識(shí)別框架,該框架首先使用Haar-like、LBP、HOG等特征描述子提取待檢測(cè)圖像的特征樣本,然后在基于特征描述子的訓(xùn)練集中,訓(xùn)練出若干最能區(qū)分目標(biāo)的弱分類器,并使用Adaboost算法生成強(qiáng)分類器,最后訓(xùn)練若干強(qiáng)分類器并組成級(jí)聯(lián)結(jié)構(gòu),完成Adaboost級(jí)聯(lián)檢測(cè)器的構(gòu)建。其中,特征描述子在不同目標(biāo)識(shí)別中表現(xiàn)不同,而Adaboost算法和級(jí)聯(lián)結(jié)構(gòu)是提高檢測(cè)器識(shí)別效果和識(shí)別速度的關(guān)鍵。

        Adaboost算法是一種由Boosting算法衍生出來(lái)的迭代算法[19-21],其核心思想是通過(guò)更改同一個(gè)訓(xùn)練集中各個(gè)樣本的權(quán)重,訓(xùn)練出多個(gè)不同的弱分類器,然后將弱分類器按一定權(quán)重疊加,構(gòu)成一個(gè)強(qiáng)分類器。其主要步驟如下。

        (1)給定弱分類器算法并設(shè)訓(xùn)練樣本為(x1,y1),…,(xN,yN),其中xi表示特征向量,對(duì)于正樣本,令yi=1,對(duì)于負(fù)樣本,yi=0;

        (2)按式(1)進(jìn)行權(quán)值初始化,其中l(wèi)為正樣本個(gè)數(shù),m為負(fù)樣本個(gè)數(shù);

        (3)對(duì)于t=1,…,T(T為算法迭代次數(shù),即組成強(qiáng)分類器的弱分類器個(gè)數(shù)):

        ①對(duì)于每一個(gè)特征j,得到弱分類器gj∈{0,1;}

        ②按式(2)計(jì)算弱分類器gj的分類錯(cuò)誤εj,其中N=m+l;

        ③選出錯(cuò)誤最小的弱分類器gt加入強(qiáng)分類器中;

        1.2 級(jí)聯(lián)檢測(cè)原理

        Adaboost級(jí)聯(lián)檢測(cè)器中級(jí)聯(lián)的每一級(jí)均為Ad?aboost訓(xùn)練出來(lái)的強(qiáng)分類器,每個(gè)強(qiáng)分類器可讓幾乎所有的正例通過(guò),同時(shí)濾除大部分負(fù)例,Viola等提出的級(jí)聯(lián)檢測(cè)器主要步驟如下。

        (1)設(shè)每層強(qiáng)分類器的最大誤識(shí)別率為f,最小識(shí)別率為d,級(jí)聯(lián)檢測(cè)器的整體誤識(shí)別率為Ftar,F(xiàn)i為含有i層強(qiáng)分類器的級(jí)聯(lián)檢測(cè)器的誤識(shí)別率,Di為含有i層強(qiáng)分類器的級(jí)聯(lián)檢測(cè)器的識(shí)別率,令F0=1,D0=1,P為正樣本集合,N為負(fù)樣本集合;

        (2)若Fi>Ftar,則令i=i+1,ni=0,F(xiàn)i=Fi-1,進(jìn)行步驟(3),若Fi≤Ftar,則結(jié)束級(jí)聯(lián)檢測(cè)器的構(gòu)建;

        (3)若Fi>f×Fi-1,則令ni=ni+1,使用Ada?boost算法基于P、N訓(xùn)練含有ni個(gè)弱分類器的強(qiáng)分類器,基于驗(yàn)證集計(jì)算當(dāng)前級(jí)聯(lián)分類器的Fi和Di,降低第i級(jí)強(qiáng)分類器的閾值,使Di>d×Di-1;若Fi≤f×Fi-1,進(jìn)行步驟4);

        (4)N=,若Fi>Ftar,則在負(fù)樣本中應(yīng)用當(dāng)前級(jí)聯(lián)檢測(cè)器,并將誤識(shí)別的圖像置于N中,若Fi≤Ftar,則結(jié)束級(jí)聯(lián)檢測(cè)器的構(gòu)建。

        由級(jí)聯(lián)檢測(cè)器實(shí)現(xiàn)步驟和級(jí)聯(lián)檢測(cè)器結(jié)構(gòu)(如圖1)可見,待檢子樣本被每一級(jí)強(qiáng)分類器處理后,負(fù)子樣本被排除,正樣本進(jìn)入下一級(jí)分類器,使強(qiáng)分類器的待識(shí)別樣本逐級(jí)減少,從而在保證識(shí)別精度的前提下提高識(shí)別速度。

        圖1 級(jí)聯(lián)檢測(cè)原理

        2 樣本自反饋式級(jí)聯(lián)檢測(cè)器構(gòu)建

        2.1 樣本自反饋方法原理

        Adaboost級(jí)聯(lián)檢測(cè)器的準(zhǔn)確高效基于大量樣本的訓(xùn)練,其實(shí)質(zhì)是通過(guò)樣本確定目標(biāo)關(guān)鍵特征以判斷待識(shí)別圖像中是否存在目標(biāo)區(qū)域。因此,樣本庫(kù)中所包含的目標(biāo)圖像的識(shí)別特征數(shù)量即成為Ada?boost級(jí)聯(lián)檢測(cè)器等基于機(jī)器學(xué)習(xí)的檢測(cè)器目標(biāo)識(shí)別效果的關(guān)鍵。因此,本文借鑒自反饋模板提取方法架構(gòu)架[17],構(gòu)建樣本自反饋式級(jí)聯(lián)檢測(cè)器。樣本自反饋方法的理論依據(jù)如下。

        設(shè)含目標(biāo)的圖像數(shù)量為n,目標(biāo)的必要特征在含目標(biāo)的圖像中服從均勻分布,Mi為含目標(biāo)的第i個(gè)圖像,f為圖像特征提取函數(shù),其可提取Mi中所包含的目標(biāo)的必要特征,初始樣本的圖像集合為{M1,M2,…,Mk},(1≤k≤n),含有目標(biāo)的待識(shí)別圖像集合為{Mk+1,Mk+2,…,Mn};

        文明起源于水。人類文明的第一縷曙光,幾乎都是被水浸亮的。于是,無(wú)論我們走到哪里,生命中都磨滅不了關(guān)于一條河,或一條江的印記。淘洗我靈與骨的那條滔滔大河叫——飲馬河。

        若將所有識(shí)別出的圖像作為樣本,則訓(xùn)練得到的檢測(cè)器其識(shí)別得到目標(biāo)全部必要特征的概率為p(f(M1)?f(M2)?…?f(Mk)?f(Mk+1)?…?f(Mn))=1,即檢測(cè)器包含識(shí)別到目標(biāo)所需的全部必要特征。

        在實(shí)際目標(biāo)識(shí)別中,必要特征不會(huì)嚴(yán)格遵循均勻分布,但將識(shí)別結(jié)果作為樣本以擴(kuò)充樣本庫(kù),則必將提高檢測(cè)器包含全部必要特征的概率。

        2.2 樣本自反饋式級(jí)聯(lián)檢測(cè)方法

        樣本自反饋式Adaboost級(jí)聯(lián)檢測(cè)方法流程如圖2所示,具體步驟如下。

        圖2 樣本自反饋式Adaboost級(jí)聯(lián)檢測(cè)方法流程圖

        (1)搭建基于Adaboost算法的級(jí)聯(lián)檢測(cè)器,通過(guò)已有負(fù)樣本庫(kù)Mn0、正樣本庫(kù)Mp0進(jìn)行訓(xùn)練,生成初始Adaboost檢測(cè)器D0;

        (2)使用已有檢測(cè)器Di對(duì)待識(shí)別圖像進(jìn)行目標(biāo)識(shí)別,若目標(biāo)識(shí)別數(shù)目n>0,則進(jìn)行步驟(3),若目標(biāo)識(shí)別數(shù)目n=0,則進(jìn)行步驟(4);

        (3)定位目標(biāo),輸出目標(biāo)定位結(jié)果,并進(jìn)行目標(biāo)提取,將提取出的目標(biāo)作為樣本儲(chǔ)存于臨時(shí)正樣本庫(kù)Mt中;

        (4)獲取Mt中的樣本數(shù)量k,若k>0,則進(jìn)行步驟(5),若k=0,則結(jié)束檢測(cè);

        3 實(shí)例驗(yàn)證與效果分析

        3.1 前車圖像識(shí)別實(shí)例

        以2015a版MATLAB為編程平臺(tái),使用train?CascadeObjectDetector函數(shù)搭建基于Adaboost的級(jí)聯(lián)檢測(cè)器基本框架,使用加州理工大學(xué)計(jì)算機(jī)視覺課題組發(fā)布的乘用車車尾圖像數(shù)據(jù)集(cars_markus)作為正樣本和待識(shí)別圖像,取該課題組發(fā)布的房屋圖像數(shù)據(jù)集(Pasadena Houses 2000)作為負(fù)樣本,進(jìn)行樣本反饋式級(jí)聯(lián)檢測(cè)方法的實(shí)例驗(yàn)證。

        借鑒已有圖像識(shí)別成果[22],使用HOG特征構(gòu)建弱分類器,使用Adaboost算法構(gòu)建強(qiáng)分類器,綜合考慮初始樣本數(shù)量、樣本庫(kù)更新后樣本數(shù)量,將20級(jí)強(qiáng)分類器進(jìn)行級(jí)聯(lián)以構(gòu)建級(jí)聯(lián)檢測(cè)器,并限制級(jí)聯(lián)檢測(cè)器每一級(jí)強(qiáng)分類器的最大誤檢率為0.2。

        (1)取cars_markus數(shù)據(jù)集的前30幅圖像進(jìn)行車尾區(qū)域標(biāo)記,將標(biāo)記區(qū)域的圖像(如圖3)作為初始正樣本Mp0,與Pasadena_Houses_2000數(shù)據(jù)集組成的負(fù)樣本Mn0一同訓(xùn)練級(jí)聯(lián)檢測(cè)器,得到初始級(jí)聯(lián)檢測(cè)器D0;

        圖3 矩形標(biāo)記的原圖像與樣本圖像

        (2)使用D0對(duì)cars_markus數(shù)據(jù)集中初始正樣本外的96幅圖像進(jìn)行識(shí)別,若識(shí)別到的車尾區(qū)域數(shù)量n>0,則進(jìn)行步驟(3),若識(shí)別到的車尾區(qū)域數(shù)量n=0,則進(jìn)行步驟(4);

        (3)定位車尾區(qū)域,輸出標(biāo)記車尾區(qū)域的圖像,并進(jìn)行車尾區(qū)域圖像的提?。▓D4),將提取出的圖像作為樣本儲(chǔ)存于臨時(shí)正樣本庫(kù)Mt中;

        圖4 矩形標(biāo)記的定位圖像與提取的樣本圖像

        (4)獲取臨時(shí)正樣本庫(kù)Mt中樣本數(shù)量k,若k>0,則進(jìn)行步驟5),若k=0,則結(jié)束檢測(cè);

        (5)i=i+1,將已有正樣本庫(kù)Mpi-1與臨時(shí)正樣本庫(kù)Mt合并生成新的正樣本庫(kù)Mpi,使用新的樣本庫(kù)進(jìn)行訓(xùn)練以生成更新的Adaboost級(jí)聯(lián)檢測(cè)器Di,進(jìn)行步驟2)。

        3.2 識(shí)別效果分析

        基于混淆矩陣的生產(chǎn)者精度(Producer’s Accu?racy,PA)、用戶精度(User’s Accuracy,UA)、總體識(shí)別精度(Overall Accuracy,OA)和Kappa系數(shù)(k)等參數(shù)作為監(jiān)督學(xué)習(xí)模型識(shí)別精度的主要評(píng)價(jià)指標(biāo)有較高的普適性而被廣泛應(yīng)用于遙感地測(cè)、模式識(shí)別等領(lǐng)域的效果評(píng)價(jià)中[23-25],因而本文使用PA、UA、OA及k作為識(shí)別效果的評(píng)價(jià)指標(biāo)。

        圖5 識(shí)別結(jié)果示意圖

        如圖5所示,實(shí)際目標(biāo)所在位置使用矩形紋理覆蓋,識(shí)別得到的目標(biāo)區(qū)域使用斜紋紋理覆蓋,非目標(biāo)區(qū)域無(wú)紋理覆蓋,并設(shè)被識(shí)別圖像總量為n,第i幅被識(shí)別圖像中A、B、C、D區(qū)域的像元數(shù)量分別為ai、bi、ci、di,則第i幅圖像識(shí)別結(jié)果的混淆矩陣見表1。

        表1 識(shí)別結(jié)果混淆矩陣

        則目標(biāo)識(shí)別的生產(chǎn)者精度PA如式(5)計(jì)算:

        目標(biāo)識(shí)別的用戶精度UA如式(6)計(jì)算:

        目標(biāo)識(shí)別的總體識(shí)別精度OA如式(7)計(jì)算:

        Kappa系數(shù)k如式(8)計(jì)算:

        為比較常規(guī)Adaboost級(jí)聯(lián)檢測(cè)器與樣本自反饋式級(jí)聯(lián)檢測(cè)方法的識(shí)別效果,使用HOG特征構(gòu)建2個(gè)20級(jí)Adaboost級(jí)聯(lián)檢測(cè)器,限制級(jí)聯(lián)檢測(cè)器每一級(jí)強(qiáng)分類器的最大誤檢率為0.2,并根據(jù)本文描述將其中一個(gè)級(jí)聯(lián)檢測(cè)器改造為樣本自反饋式級(jí)聯(lián)檢測(cè)器。合并斯坦福大學(xué)Krause的car_train圖像數(shù)據(jù)集和car_test圖像數(shù)據(jù)集[26],并隨機(jī)選取14066幅圖像中的100幅圖像進(jìn)行車輛區(qū)域的人工標(biāo)記,并將標(biāo)記區(qū)域作為正樣本,選取加州理工大學(xué)計(jì)算機(jī)視覺課題組發(fā)布的Pasadena_Houses_2000圖像數(shù)據(jù)集作為負(fù)樣本,進(jìn)行面向車輛目標(biāo)識(shí)別的樣本訓(xùn)練。分別使用常規(guī)Adaboost級(jí)聯(lián)檢測(cè)器與樣本自反饋式級(jí)聯(lián)檢測(cè)方法對(duì)合并數(shù)據(jù)集中剩余14016幅圖像中隨機(jī)選取的500幅圖像進(jìn)行識(shí)別。通過(guò)人工操作標(biāo)記500幅圖像的車輛區(qū)域,并將人工標(biāo)記區(qū)域作為車輛目標(biāo)實(shí)際存在的區(qū)域。生成識(shí)別結(jié)果與實(shí)際標(biāo)記區(qū)域的混淆矩陣,按式(5-8)計(jì)算PA、UA、OA、k。

        表2 常規(guī)Adaboost級(jí)聯(lián)檢測(cè)結(jié)果的混淆矩陣

        表3 樣本自反饋式級(jí)聯(lián)檢測(cè)結(jié)果的混淆矩陣

        表4 目標(biāo)識(shí)別精度

        圖6 識(shí)別指標(biāo)直方圖

        由表4和圖6可見,相比常規(guī)Adaboost級(jí)聯(lián)檢測(cè)器,樣本自反饋式級(jí)聯(lián)檢測(cè)方法除UA較低,PA、OA、k值均有顯著提高。比較表2與表3可見,常規(guī)Adaboost級(jí)聯(lián)檢測(cè)器識(shí)別出的車輛區(qū)域較少,即圖5中B區(qū)域面積較小,而誤識(shí)別出的車輛區(qū)域也較少,即圖5中A區(qū)域面積較小。分析識(shí)別結(jié)果發(fā)現(xiàn),常規(guī)Adaboost級(jí)聯(lián)檢測(cè)器識(shí)別出213幅圖像中的車輛區(qū)域,即將另外287幅圖像均作為非車輛區(qū)域,因而導(dǎo)致UA、OA計(jì)算結(jié)果較大。

        另外,由表3可見,樣本自反饋式級(jí)聯(lián)檢測(cè)方法將較多的非車輛區(qū)域識(shí)別為車輛區(qū)域,導(dǎo)致A區(qū)域面積增加,進(jìn)而導(dǎo)致樣本自反饋式級(jí)聯(lián)檢測(cè)方法的UA計(jì)算結(jié)果較小。經(jīng)進(jìn)一步分析發(fā)現(xiàn),自反饋式級(jí)聯(lián)檢測(cè)進(jìn)行第一次正樣本擴(kuò)充前其識(shí)別精度指標(biāo)值與常規(guī)Adaboost級(jí)聯(lián)檢測(cè)器相同,正樣本擴(kuò)充后識(shí)別精度指標(biāo)值變化較大,因而可知,正樣本擴(kuò)充后的級(jí)聯(lián)檢測(cè)器將較多的非車輛區(qū)域識(shí)別為車輛區(qū)域。

        經(jīng)分析認(rèn)為,導(dǎo)致樣本自反饋式級(jí)聯(lián)檢測(cè)方法將較多的非車輛區(qū)域識(shí)別為車輛區(qū)域的原因如圖7。第一次識(shí)別的兩個(gè)結(jié)果中均存在部分非車輛區(qū)域A、B,將識(shí)別結(jié)果直接作為正樣本訓(xùn)練得到的檢測(cè)器會(huì)把A、B非車輛區(qū)域作為車輛區(qū)域處理,即得到較大的非車輛區(qū)域C,從而導(dǎo)致UA的降低??梢姡裟芴岣叱醮伪孀R(shí)的精度或限制迭代次數(shù)將降低非車輛區(qū)域的誤識(shí)別幾率。

        圖7 樣本自反饋式級(jí)聯(lián)檢測(cè)方法識(shí)別結(jié)果示意圖

        4 結(jié)論

        本文面向無(wú)人駕駛系統(tǒng)的車輛識(shí)別需求,針對(duì)機(jī)器學(xué)習(xí)方法中的樣本提取問題,以Adaboost算法、級(jí)聯(lián)檢測(cè)方法、樣本自反饋方法為基礎(chǔ)提出了樣本自反饋式級(jí)聯(lián)檢測(cè)方法,并通過(guò)對(duì)cars_markus圖像數(shù)據(jù)集的識(shí)別實(shí)例說(shuō)明了樣本自反饋式級(jí)聯(lián)檢測(cè)方法的處理過(guò)程,進(jìn)而對(duì)car_train圖像數(shù)據(jù)集和car_test圖像數(shù)據(jù)集進(jìn)行了識(shí)別,并將PA、UA、OA、κ作為識(shí)別指標(biāo)對(duì)常規(guī)Adaboost級(jí)聯(lián)檢測(cè)器和樣本自反饋式級(jí)聯(lián)檢測(cè)方法的識(shí)別結(jié)果進(jìn)行了比較,證明了樣本自反饋式級(jí)聯(lián)檢測(cè)方法具有較高的識(shí)別精度。

        樣本自反饋式級(jí)聯(lián)檢測(cè)方法在常規(guī)基于機(jī)器學(xué)習(xí)的圖像識(shí)別方法的基礎(chǔ)上,將目標(biāo)識(shí)別結(jié)果作為正樣本以擴(kuò)充樣本庫(kù),并將訓(xùn)練得到的新的學(xué)習(xí)機(jī)器用于剩余待識(shí)別圖像的目標(biāo)識(shí)別中,從而充分利用了待識(shí)別圖像中目標(biāo)區(qū)域的圖像特征,較為有效地解決了樣本提取和樣本庫(kù)擴(kuò)充問題,并提高了目標(biāo)識(shí)別精度。分析發(fā)現(xiàn),將識(shí)別結(jié)果作為正樣本進(jìn)行訓(xùn)練易導(dǎo)致誤識(shí)別區(qū)域增多的問題。因而,在之后的研究中將致力于提高初次識(shí)別精度,并尋找樣本自反饋的最佳迭代次數(shù),以期解決上述誤識(shí)別區(qū)域增多的問題。

        [1] Chen C Y,F(xiàn)eng H M.Hybrid intelligent vision-based car-like vehicle backing systems design[J].Expert Sys?tems with Applications,2009,36(4):7500-7509.

        [2] Sivaraman S,Trivedi M M.A review of recent develop?ments in vision-based vehicle detection[C]//Intelligent Vehicles Symposium(IV),2013 IEEE.IEEE,2013:310-315.

        [3] Nieto M,Vélez G,Otaegui O,et al.Optimizing comput?er vision based ADAS:vehicle detection case study[J]. IET Intelligent Transport Systems,2016,10(3):157-164.

        [4] Kumar K A,Kumar S R.Vision-based vehicle detec?tion survey[J].International Journal of Recent Contri? butions from Engineering,Science&IT(iJES),2016,4(1):31-35.

        [5] Antony J J,Suchetha M.Vision based vehicle detection:a literature review[J].International Journal of Applied Engineering Research,2016,11(5):3128-3133.

        [6] Sivaraman S,Trivedi M M.Looking at vehicles on the road:A survey of vision-based vehicle detection,track?ing,and behavior analysis[J].IEEE Transactions on In?telligent Transportation Systems,2013,14(4):1773-1795.

        [7] Niknejad H T,Takeuchi A,Mita S,et al.On-road mul?tivehicle tracking using deformable object model and particle filter with improved likelihood estimation[J]. IEEE Transactions on Intelligent Transportation Sys?tems,2012,13(2):748-758.

        [8] Sivaraman S,Trivedi M M.A general active-learning framework for on-road vehicle recognition and tracking[J].IEEE Transactions on Intelligent Transportation Systems,2010,11(2):267-276.

        [9] Chang W C,Cho C W.Online boosting for vehicle de?tection[J].IEEE Transactions on Systems,Man,and Cybernetics,Part B(Cybernetics),2010,40(3):892-902.

        [10] Huval B,Wang T,Tandon S,et al.An empirical eval?uation of deep learning on highway driving[J].Com?puter Science,2015,7(16):1504-1507.

        [11] Song X,Rui T,Zha Z,et al.The AdaBoost algorithm for vehicle detection based on CNN features[C]//Pro?ceedings of the 7th International Conference on Inter?net Multimedia Computing and Service.ACM,2015:5.

        [12] 張雪芹,方婷,李志前,等.基于類Haar特征和Ada?Boost的車輛識(shí)別技術(shù)[J].華東理工大學(xué)學(xué)報(bào):自然科學(xué)版,2016,42(2):260-265.

        [13] 陳小佳,崔太雷,楊科.基于特征融合和集成學(xué)習(xí)的隧道內(nèi)車輛視頻識(shí)別方法[J].武漢大學(xué)學(xué)報(bào):工學(xué)版,2016,49(1):148-153.

        [14] 楊煒,鞏建強(qiáng),魏朗.融合多元特征信息的前方車輛圖像識(shí)別[J].長(zhǎng)安大學(xué)學(xué)報(bào):自然科學(xué)版,2016,36(4):79-85.

        [15] 陳湘軍,阮雅端,陳啟美,等.車輛圖像稀疏特征表示及其監(jiān)控視頻應(yīng)用[J].北京郵電大學(xué)學(xué)報(bào),2016,39(s1):81-86.

        [16] 文學(xué)志,趙英男,鄭鈺輝,等.車輛識(shí)別中樣本自動(dòng)化準(zhǔn)備方法研究[J].計(jì)算機(jī)工程與應(yīng)用,2010,46(15):25-27.

        [17] 李世武,徐藝,孫文財(cái),等.基于自反饋模板提取的車輛遙感圖像識(shí)別[J].華南理工大學(xué)學(xué)報(bào):自然科學(xué)版,2014,42(5):97-102.

        [18] Viola P,Jones M.Robust real-time object detection[J].International Journal of Computer Vision,2001(4):34-47.

        [19] Schapire R E.The strength of weak learnability[J]. Machine learning,1990,5(2):197-227.

        [20] Schapire R E.A brief introduction to boosting[C]// Sixteenth International Joint Conference on Artificial Intelligence.Morgan Kaufmann Publishers Inc.1999:1401-1406.

        [21] Freund Y,Schapire R E.A desicion-theoretic general?

        ization of on-line learning and an application to boost?ing[C]//European conference on computational learn?ing theory.Springer Berlin Heidelberg,1995:23-37.[22] Mao L,Xie M,Huang Y,et al.Preceding vehicle de?

        tection using histograms of oriented gradients[C]// Communications,Circuits and Systems(ICCCAS),2010 International Conference on.IEEE,2010:354-358.

        [23] 孔英會(huì),景美麗.基于混淆矩陣和集成學(xué)習(xí)的分類方法研究[J].計(jì)算機(jī)工程與科學(xué),2012,34(6):111-117.

        [24] Dikshit O,Roy D P.An empirical investigation of im?age resampling effects upon the spectral and textural supervised classification of a high spatial resolution multispectral image[J].Photogrammetric engineering and remote sensing,1996,62(9):1085-1092.

        [25] Stehman S V.Selecting and interpreting measures of thematic classification accuracy[J].Remote sensing of Environment,1997,62(1):77-89.

        [26] Krause J,Stark M,Deng J,et al.3d object representa?tions for fine-grained categorization[C]//Proceedings of the IEEE International Conference on Computer Vi?sion Workshops,2013:554-561.

        Feedback Samples Based Cascade Method for Vehicle Detection

        XU Yi,TAN Derong,GUO Dong,SHAO Jinju,SUN Liang,WANG Yuqiong
        (School of Transportation and Vehicle Engineering,Shandong University of Technology,Zibo 255000)

        The principle of Adaboost algorithm,cascade method and sample self feedback method are analyzed and used to build a feedback samples based cascade method that can detect vehicles without problems of sample extraction and have high accuracy. The method has the advantage of the Adaboost cascade detector and the sample expansion ability of the sample self feedback meth?od.The detection process of the self feedback cascade detection method is illustrated by the example of front vehicle image detec?tion.Image data sets are detected by conventional Adaboost detector and feedback samples based cascade method,and the Pro?ducer’s Accuracy,the User’s Accuracy,the Overall Accuracy andkare used as evaluating indicators to compare test results,and the results show that the feedback samples based cascade method has higher accuracy.The reason of low evaluation index of feedback samples based cascade method is analyzed,and corresponding solutions are proposed.

        vehicle recognition;feedback sample;Adaboost algorithm;cascade detector

        U491.62

        A

        1672-9870(2017)03-0048-06

        2017-03-29

        國(guó)家自然科學(xué)基金青年基金項(xiàng)目(51508315);山東省自然科學(xué)基金項(xiàng)目(ZR2016EL19)

        徐藝(1989-),男,博士,講師,E-mail:xuyisdut@163.com

        猜你喜歡
        區(qū)域檢測(cè)方法
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        可能是方法不對(duì)
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        關(guān)于四色猜想
        分區(qū)域
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        捕魚
        国产一区国产二区亚洲精品| 人妻少妇不满足中文字幕| 情人伊人久久综合亚洲| 精品偷拍被偷拍在线观看| 欧美成年黄网站色视频| 国产伦精品一区二区三区四区| 国产麻豆一区二区三区在线播放| 亚洲av日韩一卡二卡| yw尤物av无码国产在线观看| 中文字幕av在线一二三区| 韩国三级大全久久网站| 亚洲国产av综合一区| 中文字幕中文字幕在线中二区| 亚洲精品成人网站在线播放| 少妇精品久久久一区二区三区| 69精品免费视频| 亚洲乱码中文字幕综合69堂| 99国语激情对白在线观看| 人妻少妇被粗大爽视频| 国产精品一区二区三区在线免费| 无码国产69精品久久久久孕妇| 国产精品日韩高清在线蜜芽| 少妇高潮紧爽免费观看| 日本韩国一区二区高清| 亚洲人成网站18禁止| 18禁黄网站禁片免费观看| 国产一区二区丰满熟女人妻| 日韩av中文字幕波多野九色| 国自产拍偷拍精品啪啪一区二区| 日本午夜免费福利视频| 中文字幕人妻丝袜成熟乱| 精品国产亚洲第一区二区三区| 久久久亚洲欧洲日产国码αv| 亚洲综合欧美在线| 日本黄色高清视频久久| 亚洲成av人综合在线观看| 欧美人与动人物姣配xxxx| 久久久久久人妻精品一区百度网盘| av成人资源在线播放| 国产一区二区av免费观看| 屁屁影院ccyy备用地址|