亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于AdaBoost算法與改進(jìn)幀差法的動(dòng)態(tài)行人檢測(cè)

        2017-09-29 12:38:30巨志勇彭彥妮
        軟件導(dǎo)刊 2017年9期

        巨志勇 彭彥妮

        摘 要:針對(duì)傳統(tǒng)基于HOG特征與AdaBoost算法分類器在目標(biāo)檢測(cè)中存在檢測(cè)速度慢、誤差率大的問(wèn)題,提出一種基于改進(jìn)幀差法與AdaBoost算法相結(jié)合的動(dòng)態(tài)行人檢測(cè)方法。幀差法是運(yùn)動(dòng)目標(biāo)檢測(cè)的一種算法,能夠?qū)⑦\(yùn)動(dòng)中的區(qū)域很好地顯示出來(lái)。改進(jìn)的幀差法不再單一使用一個(gè)閾值,而是利用多個(gè)閾值,以更好地分割出檢測(cè)行人,再通過(guò)分類器進(jìn)行多尺度檢測(cè)來(lái)確定目標(biāo)。該方法減少了傳統(tǒng)HOG特征的檢測(cè)時(shí)間,能夠更快地找出感興趣區(qū)域,并提高檢測(cè)速度和誤差率。

        關(guān)鍵詞:AdaBoost算法;幀差法;HOG特征;行人檢測(cè)

        DOI:10.11907/rjdk.171401

        中圖分類號(hào):TP312 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2017)009-0050-05

        摘 要:針對(duì)傳統(tǒng)基于HOG特征與AdaBoost算法分類器在目標(biāo)檢測(cè)中存在檢測(cè)速度慢、誤差率大的問(wèn)題,提出一種基于改進(jìn)幀差法與AdaBoost算法相結(jié)合的動(dòng)態(tài)行人檢測(cè)方法。幀差法是運(yùn)動(dòng)目標(biāo)檢測(cè)的一種算法,能夠?qū)⑦\(yùn)動(dòng)中的區(qū)域很好地顯示出來(lái)。改進(jìn)的幀差法不再單一使用一個(gè)閾值,而是利用多個(gè)閾值,以更好地分割出檢測(cè)行人,再通過(guò)分類器進(jìn)行多尺度檢測(cè)來(lái)確定目標(biāo)。該方法減少了傳統(tǒng)HOG特征的檢測(cè)時(shí)間,能夠更快地找出感興趣區(qū)域,并提高檢測(cè)速度和誤差率。

        關(guān)鍵詞:AdaBoost算法;幀差法;HOG特征;行人檢測(cè)

        DOI:10.11907/rjdk.171401

        中圖分類號(hào):TP312 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2017)009-0050-05

        Abstract:Traditional classifier based on HOG feature and AdaBoost algorithm exists some of the problems of slow detection speed and high error rate. Therefore, a dynamic pedestrian detection method based on combination of the improved frame difference method and AdaBoost algorithm. The frame difference method is an algorithm of moving target detection which the movement of the area can be good show.The improved frame difference method is no longer a single use of a threshold,but the use of multiple threshold segmentation, which has better pedestrian detection and then determines the target classifier by multi-scale detection. This method reduces the traditional HOG feature detection time and faster to find the region of interest, thus preserve the detection of traditional method. At the same time it also can improve detection speed and error rate.

        Key Words:AdaBoost algorithm; frame difference method; HOG features; region of interest; pedestrian detection

        0 引言

        隨著智能監(jiān)控系統(tǒng)的普及,如何使用計(jì)算機(jī)代替人工進(jìn)行監(jiān)控已成為研究熱點(diǎn)。作為檢測(cè)技術(shù)的重要研究方向之一,行人檢測(cè)在計(jì)算機(jī)視覺(jué)系統(tǒng)中得到了廣泛應(yīng)用,如在智能視頻監(jiān)控、智能汽車、機(jī)器人導(dǎo)航以及高級(jí)人機(jī)交互等領(lǐng)域。然而,由于行人自身姿態(tài)變化、服飾的多樣性和復(fù)雜性、背景環(huán)境的多變等因素影響,使得提高行人檢測(cè)精度依舊面臨挑戰(zhàn)。

        國(guó)內(nèi)外學(xué)者對(duì)行人目標(biāo)已經(jīng)深入研究多年,例如利用Haar小波和SVM分類器聯(lián)合創(chuàng)建了行人檢測(cè)器,利用神經(jīng)網(wǎng)絡(luò)提出算法分類器,或者利用AdaBoost算法創(chuàng)建瀑布分類器等[1-5],但是尚未實(shí)現(xiàn)一個(gè)很完善的算法。主要問(wèn)題體現(xiàn)在以下兩方面:①檢測(cè)準(zhǔn)確率低,許多不是行人的目標(biāo)誤以為是行人目標(biāo)被檢測(cè)出來(lái),所以無(wú)法滿足對(duì)系統(tǒng)的準(zhǔn)確性要求;②檢測(cè)速度較慢,滿足不了大量應(yīng)用對(duì)實(shí)時(shí)性的要求。

        本文在原有的AdaBoost算法基礎(chǔ)上,加入了改進(jìn)的幀差法,利用兩者優(yōu)點(diǎn)的結(jié)合實(shí)現(xiàn)行人檢測(cè)。實(shí)驗(yàn)證明,利用改進(jìn)的幀差法與AdaBoost相結(jié)合的行人檢測(cè)方法檢測(cè)效果比單一方法的檢測(cè)效果更好。

        1 傳統(tǒng)算法及原理

        1.1 AdaBoost算法

        AdaBoost算法是在不同訓(xùn)練集上訓(xùn)練出每一個(gè)弱分類器,然后將集成的各個(gè)弱分類器構(gòu)建成為一個(gè)強(qiáng)分類器。樣本如果分類正確,權(quán)重會(huì)降低;如果分類錯(cuò)誤,則權(quán)重增大。該算法簡(jiǎn)單,提取樣本容易,所需分類器也簡(jiǎn)單易得。在訓(xùn)練過(guò)程中不需修改除樣本權(quán)重外的其它參數(shù),也不需要引入關(guān)于弱分類器的一些先驗(yàn)知識(shí),檢測(cè)性能好,而且檢測(cè)速度快,實(shí)時(shí)性好。

        AdaBoost算法[8]過(guò)程具體如下:

        (1)輸入:N個(gè)訓(xùn)練樣本(x1,y1),(x2,y2)…(xN,yN),xi∈RN為特征向量,yi表示樣本類別標(biāo)簽,0、1分別代表行人負(fù)樣本和正樣本。endprint

        (2)初始化權(quán)值:對(duì)于yi=0,1,分別初始化樣本權(quán)重w0,-1=12m,w0,1=12l,其中m是負(fù)樣本個(gè)數(shù),l是正樣本個(gè)數(shù)。

        (3)對(duì)于t=1,2,…,T(T為最大訓(xùn)練迭代次數(shù)),假設(shè)第一輪的樣本權(quán)重wli=D(i),i=1,…,N。具體過(guò)程為:①歸一化樣本權(quán)重wti←wti∑nj=1wtj,wt則是概率分布;②對(duì)每一個(gè)特征j訓(xùn)練一個(gè)弱分類器hj,其錯(cuò)誤率為εj=∑iwi|hj(xi)-yi|,與樣本權(quán)重有關(guān);③選擇最優(yōu)的弱分類器,即最小錯(cuò)誤率εt對(duì)應(yīng)的分類器ht(x)。需要注意的是,如果找不到小于50%錯(cuò)誤率的分類器,則停止,表明可能需要更好的分類器進(jìn)行分類;④更新權(quán)重wt+1i=wtiβ1-eit,其中βt=εt1-εt,ei=htxi-yi,如果xi被正確分類,即htxi=yi,則ei=0,否則ei=1。

        1.2 HOG特征提取

        HOG[9]代表圖像的局部特征。其局部提取范圍稱為窗口區(qū)域,需要判斷窗口區(qū)域中是否包含行人目標(biāo)。在提取的窗口中,進(jìn)一步將窗口分成塊和單元格,提取過(guò)程如圖2所示。

        由上述公式可知,對(duì)于一個(gè)N幀圖像采用式(5)的三幀差法算出幀間差分值,接著根據(jù)式(7)使用thresholdL對(duì)DN二值化,得到運(yùn)動(dòng)目標(biāo)的像素點(diǎn)DLN,再結(jié)合式(8)更新運(yùn)動(dòng)歷史圖,最后對(duì)MHIN(x,y)大于零的部分,通過(guò)較小的閾值得到該幀MN的結(jié)果。對(duì)本文提出的幀差法二值化,選取不同閾值作比較,設(shè)圖3(a)閾值為 55,圖3(b)閾值為15,圖3(c)的大小閾值分別為50和15。由于路上的行人一般運(yùn)動(dòng)速度較快,所以歷史記錄時(shí)長(zhǎng)τ設(shè)為15幀比較適宜。

        本文研究中選用的正樣本大小為64×128,為了檢測(cè)出不同尺度下的行人,由于行人在視頻中不斷行走,捕獲的行人正樣本尺度大小不一,所以可以利用多種尺度檢測(cè)行人。具體而言,即以一定比例尺度逐步放大待檢測(cè)窗口,取圖像中的一部分作為級(jí)聯(lián)AdaBoost分類器的輸入進(jìn)行多尺度檢測(cè)??梢缘贸觯谠摲椒ㄏ?,一個(gè)行人可能會(huì)被檢測(cè)不止一次,甚至很多次,因?yàn)楸疚乃惴ㄟ\(yùn)用的程序最終是用綠色矩形框標(biāo)注檢測(cè)到的行人,當(dāng)通過(guò)改進(jìn)算法遍歷檢測(cè)到的所有矩形框,如果圖像中出現(xiàn)的行人被多個(gè)矩形框標(biāo)注(即大于等于兩個(gè)),說(shuō)明已被重復(fù)標(biāo)記,需要去掉重復(fù)的矩形框,以保證每個(gè)被標(biāo)注的圖像只含有一個(gè)行人矩形窗口。如圖4所示分別為64×128像素下的訓(xùn)練樣本圖片被標(biāo)識(shí)的各種情況。

        2.2 基于感興趣區(qū)域HOG特征的行人檢測(cè)

        HOG特征描述子缺陷是維數(shù)太高、所含冗余信息多,為了進(jìn)一步提高行人檢測(cè)性能,提取感興趣區(qū)域[14]HOG后,再使用級(jí)聯(lián)AdaBoost算法[15]進(jìn)行分類檢測(cè),在不影響系統(tǒng)準(zhǔn)確性的情況下,提高了檢測(cè)系統(tǒng)的訓(xùn)練和檢測(cè)速度。

        (1)圖像分塊原則。與傳統(tǒng)的HOG特征提取一樣,本文將樣本圖像中每8*8像素組成一個(gè)Cell,每相鄰的4個(gè)Cell組成一個(gè)Block。

        (2)訓(xùn)練樣本選取。本文中行人樣本均來(lái)自手動(dòng)采集,采集到的行人樣本像素均為64*128。正樣本含有2 000張,負(fù)樣本有3 000張。將采集到的樣本分成兩組,訓(xùn)練樣本組含有1 500張正樣本和2 500張負(fù)樣本,測(cè)試樣本中正負(fù)樣本均含有500張。

        (3)確定樣本類型大小。通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),檢測(cè)頭部、腿部區(qū)域時(shí),如果不含有周圍背景,則檢測(cè)效果明顯降低。因此適當(dāng)添加一些背景可使檢測(cè)效果得到改善。只包含頭部的像素為32*32,只包含腿的像素為40*56,所以選擇檢測(cè)窗口的大小為64*64。

        (4)Sobel梯度算子提取特征。梯度特征反映圖像的邊緣特征,本文提取行人的頭部與腿部都具有垂直邊緣的特性。Sobel算子加強(qiáng)了中心像素各個(gè)方向像素的權(quán)重,與一維中心算子、2*2對(duì)角矩陣算子相比,檢測(cè)效果最好。所以本文選擇通過(guò)Sobel算子提取感興趣區(qū)域的HOG特征。

        在提取感興趣特征時(shí),特征維數(shù)過(guò)高會(huì)導(dǎo)致冗余信息多,且計(jì)算復(fù)雜,從而影響系統(tǒng)速度。因此,減少HOG特征維數(shù)顯得尤為重要。行人雖然姿態(tài)繁多,但大多還是體現(xiàn)在頭部和四肢部位,其它軀干部分的HOG不但對(duì)分類起不到作用,反而會(huì)帶來(lái)負(fù)面影響,所以本文僅提取頭部和四肢輪廓部位作為感興趣區(qū)域[16]。另外,考慮到在實(shí)際的應(yīng)用背景中,行人的手臂區(qū)域可能由于遮擋或姿態(tài)變化不易提取,因此本文僅對(duì)頭部及下半身腿部特征進(jìn)行提取并計(jì)算其HOG。行人數(shù)據(jù)與感興趣區(qū)域ROI分割圖片如圖5、圖6所示。

        算法實(shí)現(xiàn)過(guò)程是將訓(xùn)練的正樣本分成兩個(gè)ROI感興趣檢測(cè)區(qū)域,對(duì)其中每個(gè)感興趣區(qū)域塊的HOG特征通過(guò)上述步驟計(jì)算出其HOG,最后將所有HOG匯總組成最終的特征向量。以下對(duì)兩個(gè)ROI部位的位置進(jìn)行確定,本次實(shí)驗(yàn)共采集了正負(fù)訓(xùn)練樣本5 000張,其中訓(xùn)練正樣本1 500張,負(fù)樣本2 500張;測(cè)試正樣本500張,負(fù)樣本500張,通過(guò)多次實(shí)驗(yàn)得出結(jié)論最優(yōu)的ROI位置和寬高數(shù)據(jù)。

        通過(guò)取頭部與腿部的HOG特征,最后計(jì)算得到維數(shù)為978維<3 780維,計(jì)算量大大降低,系統(tǒng)速度理論上得到提升。將改進(jìn)后的基于感興趣區(qū)域ROI的HOG與用傳統(tǒng)HOG特征進(jìn)行行人檢測(cè)作實(shí)驗(yàn)對(duì)比,在兩種算法檢測(cè)率大致相同的情況下,對(duì)時(shí)間進(jìn)行比較,數(shù)據(jù)顯示提取感興趣區(qū)域后,整體檢測(cè)時(shí)間明顯減少。

        3 實(shí)驗(yàn)結(jié)果分析

        本文通過(guò)調(diào)取安裝在汽車上的行車記錄儀,截取10段3分鐘的視頻,然后通過(guò)提取一幀一幀圖像,采集正負(fù)樣本進(jìn)行分類器訓(xùn)練和行人檢測(cè)的有關(guān)實(shí)驗(yàn)。采集的圖片首先通過(guò)解碼的方法,同時(shí)為了訓(xùn)練算法的需要及更方便地統(tǒng)計(jì)實(shí)驗(yàn)結(jié)果,將訓(xùn)練樣本統(tǒng)一裁剪為64×128像素,檢測(cè)樣本為608×800像素。分類器采用了2 000張正樣本,3 000張負(fù)樣本,部分訓(xùn)練樣本如圖6~圖9所示。

        訓(xùn)練部分:將樣本圖片進(jìn)行歸一化處理之后,提取感興趣區(qū)域的 HOG 特征量,再計(jì)算出 HOG 特征值;以這些測(cè)試樣本中正樣本和負(fù)樣本中的 HOG 特征值為基準(zhǔn)創(chuàng)建弱分類器,選擇一個(gè)適宜的弱分類器個(gè)數(shù),作為AdaBoost算法的輸入變量,根據(jù)迭代算法訓(xùn)練學(xué)習(xí)將弱識(shí)別器轉(zhuǎn)化為強(qiáng)識(shí)別器,將這些強(qiáng)分類器依次串聯(lián)形成級(jí)聯(lián)分類器,通過(guò)與改進(jìn)的幀差法結(jié)合得到高檢測(cè)率與速度快的分類器。endprint

        檢測(cè)部分:對(duì)于獲取的視頻圖像,對(duì)其進(jìn)行多尺度的遍歷,尋找有可能為行人的子窗口;然后通過(guò)訓(xùn)練得到的分類器對(duì)子窗口進(jìn)行篩選,排除不含有行人的子窗口,留下行人窗口;通過(guò)一系列工作及檢測(cè)搜索,將重疊的行人子窗口進(jìn)行合并等處理,得到了包含行人的矩形區(qū)域[17-18]。

        以下是采用一種改進(jìn)后的行人檢測(cè)方法對(duì)具體場(chǎng)景下的行人樣本進(jìn)行實(shí)驗(yàn)檢測(cè),效果如圖10所示。

        ROC(Receiver Operating Characteristic Curve)接收器操作性能曲線,反映了檢測(cè)率隨著誤報(bào)率的變化而變化。曲線下方到X軸區(qū)域的面積越大,表示該系統(tǒng)的檢測(cè)性能越好,該區(qū)域?yàn)榍€下方區(qū)域(Area Under Curve,

        AUC)。本文通過(guò)實(shí)驗(yàn)比較了3種不同的行人檢測(cè)算法,其檢測(cè)率與誤報(bào)率ROC曲線如圖11所示。

        其中A、B、C分別表示Opencv自帶的HOG+SVM檢測(cè)算法和HOG+AdaBoost算法及本文改進(jìn)后的行人檢測(cè)優(yōu)化算法。通過(guò)圖11可以看出,在誤檢率相同的情況下,本文算法的檢測(cè)率最高。即本文改進(jìn)算法的AUC面積最大,檢測(cè)性能最好。然而,從圖10中可以看出,圖10(c)中仍出現(xiàn)誤檢情況,所以該算法仍然存在不足之處,有待下一步優(yōu)化。

        4 結(jié)語(yǔ)

        基于AdaBoost算法的行人檢測(cè)算法具有很好的魯棒性和實(shí)時(shí)性,非常適用于行人檢測(cè)。本文提出了基于改進(jìn)的幀差法與級(jí)聯(lián)AdaBoost算法的行人動(dòng)態(tài)檢測(cè)方法,大大提高了行人檢測(cè)率。然而,關(guān)于AdaBoost算法分類器的訓(xùn)練需要大量樣本,其檢測(cè)準(zhǔn)確性也依賴于對(duì)訓(xùn)練樣本集的選擇。雖然改進(jìn)的幀差法大大降低了行人檢測(cè)誤差率,但仍未完全消除誤差。因此,還需要進(jìn)行進(jìn)一步研究,以便在行人檢測(cè)系統(tǒng)的特征處理、信息融合、機(jī)器學(xué)習(xí)算法及拓展的行人目標(biāo)跟蹤方向上提出更完善的方法。

        參考文獻(xiàn):

        [1] 黃如錦,李誼,李文輝,等.基于多特征的AdaBoost行人檢測(cè)算法[J].吉林大學(xué)學(xué)報(bào):理學(xué)版,2010(5):449-455.

        [2] PAPAGEPRGIOU C, POGGIO T. A trainable system for object detection[J]. International Journal of Computer Vision,2000,38(1):15-33.

        [3] VIOLA P, JONES M, J SNOW D. Detecting pedestrians using patterns of motion and appearance[J]. International Journal of Computer Vision, 2005,63(2):153-161.

        [4] GIOVANNI GUALDI, ANDREA PRATI,RITA CUCCHIARA. Multi-stage sampling with boosting cascades for pedestrian detection in images and videos[C]. IEEE European Conference on Computer Vision, 2010:196-209.

        [5] DING YUANYUAN, XIAO JING. Contextual boost for pedestrian detection[C]. IEEE Conlerence on Computer Vision and Pattern Recognition, 2012:2895-2902.

        [6] 劉洋,王海暉,云露,等.基于改進(jìn)的Adaboost算法和幀差法的車輛檢測(cè)方法[J].華中科技大學(xué)學(xué)報(bào):自然科學(xué)版,2013(S1):379-382.

        [7] FREUND Y, SCHAPIRE R E. A decision-theoretic generalization of online learning and an application to boosting[J]. Journal of Computer and Sciences,1997,55(1):119-139.

        [8] 陸朝霞.基于AdaBoost算法的行人檢測(cè)方法研究[D].西安:西北工業(yè)大學(xué),2007.

        [9] 鄧建榮. 基于LBP與HOG特征量的行人檢測(cè)[D].昆明:云南大學(xué),2013.

        [10] 嚴(yán)曉明. 一種基于改進(jìn)幀差法的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].莆田學(xué)院學(xué)報(bào),2011(5):69-72.

        [11] 湯中澤,張春燕,申傳家,等.幀差法和Mean-shift相結(jié)合的運(yùn)動(dòng)目標(biāo)自動(dòng)檢測(cè)與跟蹤[J].科學(xué)技術(shù)與工程, 2010(24):5895-5899.

        [12] 梁國(guó)山,朱秀昌.用于運(yùn)動(dòng)人體檢測(cè)的改進(jìn)的幀差法[J].電視技術(shù),2009(S1):133-135.

        [13] 劉軍學(xué),屈楨深,任行行,等.基于改進(jìn)運(yùn)動(dòng)歷史圖像的多運(yùn)動(dòng)目標(biāo)實(shí)時(shí)跟蹤[J].計(jì)算機(jī)應(yīng)用, 2008(S1):198-201.

        [14] 曾春,李曉華,周激流.基于感興趣梯度方向直方圖的行人檢測(cè)[J].計(jì)算機(jī)工程,2009(24):182-184.

        [15] 崔瀟瀟,姚安邦,王貴錦,等.基于級(jí)聯(lián)Adaboost的目標(biāo)檢測(cè)融合算法[J].自動(dòng)化學(xué)報(bào),2009(4):417-424.

        [16] 郭烈,趙宗艷,聶倩,等.利用腿部區(qū)域HOG特征的行人檢測(cè)方法[J].計(jì)算機(jī)工程與應(yīng)用,2013(1):217-221.

        [17] 蘇松志,李紹滋,陳淑媛,等.行人檢測(cè)技術(shù)綜述[J].電子學(xué)報(bào),2012(4):184-189.

        [18] PEDERSOLIM,VEDALDIA,GONZALEZ J.A coarse-to-fine approach for fast deformable object detection[C].In Proc.IEEE CVPR,2011.

        (責(zé)任編輯:黃 ?。〆ndprint

        久久精品一区一区二区乱码| 大肉大捧一进一出好爽视色大师 | 免费二级毛片在线播放| 中文字幕精品人妻av在线| 男女啪啪啪的高清视频| 妃光莉中文字幕一区二区| 日韩欧美成人免费观看| 中文字幕人妻中文av不卡专区| 久久精品国产只有精品96| 日本高清一区在线你懂得| 精品视频在线观看日韩| 人妻少妇久久久久久97人妻| 国产亚洲av无码专区a∨麻豆| 精品国产亚欧无码久久久| 国产成人精品自拍在线观看| 国产三级国产精品国产专区50| 疯狂做受xxxx高潮视频免费| 国产精品免费大片| 被欺辱的高贵人妻被中出| 国产一级一片内射视频在线| 中文字幕漂亮人妻在线| 高h纯肉无码视频在线观看| 精品久久亚洲中文无码| 中文人妻av大区中文不卡| 国产一区二区三区精品乱码不卡| 公和我做好爽添厨房| 人妻夜夜爽天天爽一区| 波多野结衣一区二区三区视频| 日本中文字幕人妻精品| 免费人成视频网站在线不卡| 特级毛片a级毛片100免费播放| 国产精品 视频一区 二区三区 | 学生妹亚洲一区二区| 久久久亚洲精品一区二区| 成人av毛片免费大全| 丰满熟女高潮毛茸茸欧洲视频| 男女肉粗暴进来120秒动态图| 午夜国产精品视频免费看电影| 在线视频一区二区国产| 中文字幕亚洲精品无码| 最近中文字幕完整版|