亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)的CNN多級(jí)分類的行人檢測(cè)算法研究

        2017-08-12 12:22:05楊振南
        關(guān)鍵詞:分類區(qū)域檢測(cè)

        楊 杰 楊振南

        (湖南科技學(xué)院電子與信息工程學(xué)院 湖南 永州 425000)

        ?

        基于改進(jìn)的CNN多級(jí)分類的行人檢測(cè)算法研究

        楊 杰 楊振南

        (湖南科技學(xué)院電子與信息工程學(xué)院 湖南 永州 425000)

        針對(duì)監(jiān)控場(chǎng)景的行人檢測(cè)應(yīng)用,提出一種結(jié)合改進(jìn)的支持向量機(jī)和卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)方法。首先,通過運(yùn)動(dòng)檢測(cè)初步定位感興趣的可疑目標(biāo)區(qū)域;然后,計(jì)算這些區(qū)域圖像塊的灰度共生矩陣,并采用主成分分析方法提取紋理特征向量,采用支持向量機(jī)進(jìn)行紋理分類,濾除干擾區(qū)域;最后,對(duì)余下區(qū)域構(gòu)建多尺度圖像子塊,采用LeNet5卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)進(jìn)行行人分類。在Caltech數(shù)據(jù)集上的測(cè)試結(jié)果表明,該方法的真正率指標(biāo)高,假正率指標(biāo)低。

        行人檢測(cè) 運(yùn)動(dòng)檢測(cè) 灰度共生矩陣 支持向量機(jī) 卷積神經(jīng)網(wǎng)絡(luò)

        0 引 言

        隨著視頻監(jiān)控技術(shù)的發(fā)展,對(duì)監(jiān)視視頻的智能分析需求越來越迫切。由于行人是視頻監(jiān)控的重要對(duì)象,行人檢測(cè)技術(shù)在視頻監(jiān)控領(lǐng)域的應(yīng)用需求旺盛[1]。行人檢測(cè)是通過視頻圖像分析處理技術(shù)自動(dòng)檢測(cè)視頻或圖像中的行人目標(biāo),是計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn)[2]。近些年該領(lǐng)域的學(xué)術(shù)研究成果很多,如文獻(xiàn)[3]采用改進(jìn)的Haar-like特征描述行人,采用Adaboost分類器進(jìn)行行人分類;文獻(xiàn)[4]采用基于線性鑒別分析的線性權(quán)重融合原則對(duì)一些顏色、梯度、直方圖等底層特征和多層次導(dǎo)向邊緣能量特征進(jìn)行特征融合,采用直方圖交叉核支持向量機(jī)進(jìn)行特征分類,提高行人檢測(cè)系統(tǒng)的魯棒性;文獻(xiàn)[5]提出一種模擬人眼觀察事物的發(fā)散性及顯著性特點(diǎn)的紋理結(jié)構(gòu)算子,能有效提高行人識(shí)別對(duì)噪聲和光照變化的魯棒性;文獻(xiàn)[6]提取行人的HOG特征,并用支持向量機(jī)SVM分類器進(jìn)行行人分類;文獻(xiàn)[7]在基于HOG特征和SVM分類其的基礎(chǔ)上,采用運(yùn)動(dòng)檢測(cè)算法過濾背景區(qū)域,提高行人檢測(cè)效率;文獻(xiàn)[8]采用深度學(xué)習(xí)方法進(jìn)行行人分類,提高行人檢測(cè)正確率。總體而言,現(xiàn)有行人檢測(cè)方法在INRIA等行人圖像數(shù)據(jù)集上已經(jīng)具有較高的檢測(cè)正確率。然而,對(duì)于視頻監(jiān)控應(yīng)用而言,目前一些檢測(cè)正確率較高的行人檢測(cè)方法往往存在運(yùn)算效率很低的問題,而一些高效的行人檢測(cè)方法又存在檢測(cè)正確率低(尤其是假正率指標(biāo)很高)的問題,難以滿足視頻監(jiān)控技術(shù)的實(shí)際應(yīng)用需求。

        本文針對(duì)監(jiān)控場(chǎng)景的行人檢測(cè)應(yīng)用需求,提出一種結(jié)合支持向量機(jī)和卷積神經(jīng)網(wǎng)絡(luò)CNN的行人檢測(cè)方法?;舅枷胧墙Y(jié)合運(yùn)動(dòng)檢測(cè)、基于灰度共生矩陣和SVM的紋理分類,以及基于CNN的行人分類進(jìn)行圖像區(qū)塊的多級(jí)分類,實(shí)現(xiàn)高效、可靠的行人檢測(cè)。

        1 本文方法

        本文方法的實(shí)現(xiàn)流程如圖1所示。對(duì)于輸入的每一幀視頻圖像,首先,進(jìn)行運(yùn)動(dòng)檢測(cè),初步定位可疑的目標(biāo)區(qū)域;然后,計(jì)算可疑目標(biāo)區(qū)域圖像的灰度共生矩陣,并采用主成分分析PCA(Principal Component Analysis)方法進(jìn)行特征降維,得到可疑目標(biāo)圖像塊的紋理特征,采用SVM分類器進(jìn)行粗篩選,濾除明顯的干擾目標(biāo);接著對(duì)剩余的可疑目標(biāo)區(qū)域構(gòu)建多尺度圖像子塊,采用CNN方法進(jìn)行行人分類,記錄分類為行人的目標(biāo)窗口。詳細(xì)過程描述如下。

        1.1 運(yùn)動(dòng)檢測(cè)

        運(yùn)動(dòng)檢測(cè)是視頻分析領(lǐng)域常用的預(yù)處理方法,可以用于定位視頻圖像中的感興趣區(qū)域,提高視頻分析的效率,同時(shí)濾除干擾。常用的運(yùn)動(dòng)檢測(cè)方法主要包括背景差法、幀差法和光流法??紤]到光流法運(yùn)算效率太低、而幀差法容易造成目標(biāo)不完整,故本文采用背景差法進(jìn)行可疑行人目標(biāo)區(qū)域的初定位。具體是采用文獻(xiàn)[9]提出的VIBE算法,因?yàn)樵撍惴ǖ倪\(yùn)算效率高,且檢測(cè)到目標(biāo)完整性相對(duì)較好,這有利用后續(xù)的行人檢測(cè)。

        (1)

        其中,Wori和Hori分別表示原始視頻圖像的寬度和高度;max和min分別表示取最大值和取最小值運(yùn)算,用于防止外界矩形框越界;λ為擴(kuò)展尺度因子。由于同一目標(biāo)離攝像機(jī)的距離不同時(shí)對(duì)應(yīng)的成像尺度也有很大差異。因此,擴(kuò)展尺度因子應(yīng)當(dāng)隨目標(biāo)成像尺度的不同而自適應(yīng)地改變。本文依據(jù)檢測(cè)到的目標(biāo)寬度和高度來自適應(yīng)求取擴(kuò)展尺度因子,表示為:

        (2)

        其中,Int(·)表示取整運(yùn)算。k為比例系數(shù),在本文中取經(jīng)驗(yàn)值0.1。

        得到擴(kuò)展的外接矩形框之后,從原始視頻圖像上裁剪外接矩形框所對(duì)應(yīng)位置的圖像塊(本文只取灰度信息)。然后遍歷每一個(gè)圖像塊,進(jìn)行后續(xù)的行人檢測(cè)。

        1.2 灰度共生矩陣提取及SVM粗篩選

        通常,運(yùn)動(dòng)檢測(cè)得到的可疑目標(biāo)區(qū)域中存在光影變化引起的背景區(qū)域,這些區(qū)域的紋理復(fù)雜度明顯低于行人區(qū)域的人體復(fù)雜度。基于這一現(xiàn)象,本文采用紋理分類方法對(duì)這些可疑目標(biāo)區(qū)域進(jìn)行粗篩選,這樣可以快速濾除紋理復(fù)雜度很低的背景區(qū)域,提高算法的整理運(yùn)行效率,同時(shí)也減少這些區(qū)域引起的虛警現(xiàn)象。

        灰度共生矩陣是描述圖像紋理分布常用的特征,該矩陣可以描述圖像上符合某一規(guī)則的像素對(duì)的灰度分布規(guī)律,能夠有效區(qū)分不同紋理的圖像。這里,像素對(duì)符合一定規(guī)則是指兩個(gè)像素點(diǎn)的間距滿足一定條件。譬如,對(duì)于圖像中的任一像素點(diǎn)(x,y),圖像中與其水平方向距離為a和垂直方向距離為b的像素點(diǎn)(x+a,y+b)構(gòu)成一個(gè)像素對(duì),假設(shè)像素點(diǎn)(x,y)和(x+a,y+b)的灰度值分別為g1和g2,那么像素對(duì)(x,y)和(x+a,y+b)的灰度分布可以記為(g1,g2)。對(duì)于圖像上的任一像素點(diǎn),都可以構(gòu)建一個(gè)像素對(duì)(超出圖像范圍的像素點(diǎn)的灰度值用零填充),也即每一個(gè)像素點(diǎn)都對(duì)應(yīng)一個(gè)灰度分布(g1,g2)。

        令L表示圖像的灰度級(jí),則圖像中(g1,g2)的取值組合范圍為0~L2。統(tǒng)計(jì)圖像中每一類(g1,g2)組合出現(xiàn)的次數(shù),然后用圖像中像素對(duì)的總數(shù)將其歸一化,得到(g1,g2)組合的出現(xiàn)概率,表示為:

        (3)

        其中,n(g1,g2|a,b)表示圖像中灰度分布(g1,g2)組合出現(xiàn)的次數(shù),N表示圖像中像素對(duì)的總數(shù)。

        由p(g1,g2|a,b)值可以構(gòu)建一個(gè)L×L的方陣,即為灰度共生矩陣。

        本文采用灰度共生矩陣的目的是濾除紋理復(fù)雜度很低的背景區(qū)域,因此,本文主要關(guān)注圖像紋理的復(fù)雜程度,而不關(guān)注紋理的方向和周期分布。故在本文中(a,b)的取值組合取常用的(1,0)、(0,1)、(1,1)和(-1,-1)組合,分別代表0°、45°、90°和135°四個(gè)方向。其中,每一個(gè)(g1,g2)組合的出現(xiàn)概率取四個(gè)方向的平均值,表示為:

        n(g1,g2|1,1)+n(g1,g2|-1,-1))

        (4)

        這樣,每一個(gè)可疑圖像區(qū)域可以用L×L的方陣作為圖像的紋理特征,通常,圖像的灰度級(jí)L=256,故可疑圖像區(qū)域的灰度共生矩陣的維數(shù)為65 536。顯然,維數(shù)太大,存儲(chǔ)和分類都會(huì)耗費(fèi)大量資源。為此,本文再采用PCA方法[10]對(duì)紋理特征進(jìn)行降維,將紋理特征的維數(shù)降為80。

        然后,采用已訓(xùn)練好的SVM分類器對(duì)降維后的特征向量進(jìn)行分類,如果可疑圖像區(qū)域?qū)?yīng)的紋理特征向量分類結(jié)果為背景類,則將其濾除。對(duì)于剩余的可疑圖像區(qū)域,再通CNN細(xì)分類得到最終的行人檢測(cè)結(jié)果。其中,分類器的訓(xùn)練過程在實(shí)驗(yàn)部分介紹。

        1.3 多尺度圖像子塊構(gòu)建及CNN分類

        對(duì)于剩余的可疑圖像區(qū)域,本文采用CNN方法進(jìn)行行人細(xì)分類。詳細(xì)描述如下。

        首先,考慮到行人目標(biāo)距離攝像機(jī)位置不同時(shí)其成像尺度也存在變化,本文構(gòu)建多尺度圖像子塊,具體步驟見如下所示的偽代碼。

        多尺度圖像子塊構(gòu)建偽代碼:

        輸入:可疑圖像區(qū)域I,尺寸為W×H;

        過程:

        初始化:初始掃描窗口:W0×H0;

        尺度因子:s;

        目標(biāo)圖像子塊尺寸:W′×H′;

        for (h=H0;h

        for (w=W0;w

        for (y=0;y

        for (x=0;x

        以(x,y)為起點(diǎn)從I上裁剪w×h的圖像子塊;

        end for

        end for

        end for

        end for

        采用雙線性插值法將圖像子塊尺寸歸一化為W′×H′;

        輸出:圖像子塊集合

        在本文中,窗口尺寸W0×H0和W′×H′都取值為21×41。尺度因子s取值為1.1。

        然后,對(duì)每一個(gè)圖像子塊,采用CNN分類器進(jìn)行分類。本文采用CNN架構(gòu)為LeNet5網(wǎng)絡(luò)架構(gòu)[11],如圖2所示。

        圖2 LeNet5網(wǎng)絡(luò)結(jié)構(gòu)

        對(duì)于CNN分類器分類為行人的圖像子塊,記錄該圖像子塊所對(duì)應(yīng)的原始視頻圖像上的外接矩形窗口。由于多尺度圖像子塊存在重疊現(xiàn)象,同一行人目標(biāo)可能在多個(gè)尺度圖像子塊上被檢測(cè)到。因此,需要對(duì)多尺度圖像子塊檢測(cè)到的行人窗口進(jìn)行濾波,合并屬于同一目標(biāo)的行人窗口。具體地,對(duì)于同一視頻圖像得到的所有行人窗口,計(jì)算兩兩之間的重合度,也即兩行人窗口外接矩形框交叉部分面積與包圍總面積的比值。如果兩外接矩形框的重合度大于50%,則認(rèn)為兩行人窗口來自同一目標(biāo),此時(shí)將兩行人窗口合并,合并后的行人窗口的外接矩形框表示為:

        (5)

        其中,(xi,yi,wi,hi)和(xj,yj,wj,hj)分別表示合并前兩個(gè)行人窗口的外接矩形框。

        合并之后刪除合并前的兩個(gè)行人窗口。重復(fù)上述窗口合并過程,直至所有窗口兩兩之間的重合度都低于50%。這樣,剩余的行人窗口即為每一幀視頻圖像所檢測(cè)到的行人窗口。

        2 仿真實(shí)驗(yàn)

        2.1 實(shí)驗(yàn)說明

        (1) 實(shí)驗(yàn)數(shù)據(jù)集

        本文方法主要用于監(jiān)控場(chǎng)所的行人檢測(cè),在目前行人檢測(cè)領(lǐng)域公開的實(shí)驗(yàn)數(shù)據(jù)集中,Caltech數(shù)據(jù)集是由實(shí)際監(jiān)控場(chǎng)所拍攝的視頻構(gòu)建的。視頻的分辨率為640×480,幀率為30 fps,約含250 000幀圖像,所有行人都進(jìn)行了標(biāo)注。本文選用該數(shù)據(jù)集測(cè)試本文方法的性能。

        本文涉及了兩個(gè)分類器,一是紋理分類所需的SVM分類器,二是行人分類所需的CNN分類器。為了訓(xùn)練兩個(gè)分類器,本文選用行人檢測(cè)領(lǐng)域常用的INRIA數(shù)據(jù)集作為訓(xùn)練樣本集,該數(shù)據(jù)集共有5 264幅圖像,其中包含行人的圖像有3 548幅,不包含行人的圖像有1 716幅。

        在訓(xùn)練紋理分類器時(shí),正樣本選用INRIA數(shù)據(jù)集中包含行人的圖像,負(fù)樣本是從INRIA數(shù)據(jù)集不包含行人的圖像中裁剪得到的。裁剪規(guī)則是:截取每一幅圖像中灰度變化平緩區(qū)域(如天空區(qū)域、地面區(qū)域等)的圖像子塊,要求這些圖像子塊的熵小于0.05。其中,圖像熵可以通過灰度共生矩陣計(jì)算,用于描述圖像紋理的復(fù)雜度,表示為

        (6)

        其中,p′(g1,g2)由式(4)計(jì)算。

        圖像的熵越小,表明圖像的紋理復(fù)雜度越小,也即圖像的灰度變化越平緩;反之則反。

        按照上述規(guī)則,本文從INRIA數(shù)據(jù)集不包含行人的圖像中隨機(jī)截取了7 176幅變化平緩的圖像,將這些圖像作為紋理分類器訓(xùn)練的負(fù)樣本。

        在訓(xùn)練行人分類器時(shí),正樣本選用INRIA數(shù)據(jù)集中包含行人的圖像,負(fù)樣本是將INRIA數(shù)據(jù)集中不包含行人的圖像四等分得到的,這樣負(fù)樣本圖像集共有6 864幅。然后將正負(fù)樣本圖像的尺寸都通過雙線性插值方法歸一化到21×41。

        (2) 性能評(píng)價(jià)方法

        為評(píng)價(jià)本文方法的性能,采用真正率TPR(True Positive Rate)、假正率FPR(False Positive Rate)和平均檢測(cè)耗時(shí)ADT(Average Detection Time)三個(gè)性能評(píng)價(jià)指標(biāo)。其中:

        (7)

        (8)

        (9)

        其中,正確檢測(cè)行人是指檢測(cè)到的行人窗口與標(biāo)記的行人窗口兩外接矩形框的重合度大于50%。仿真實(shí)驗(yàn)所用的計(jì)算性平臺(tái)性能參數(shù)如表1所示。

        表1 計(jì)算機(jī)平臺(tái)參數(shù)

        2.2 分類器訓(xùn)練

        本文所用的紋理分類器是由SVM學(xué)習(xí)方法進(jìn)行訓(xùn)練的。具體地,先按式(4)計(jì)算正負(fù)樣本圖像的灰度共生矩陣,然后采用PCA方法得到維數(shù)為80的紋理特征向量。最后采用SVM學(xué)習(xí)方法訓(xùn)練正負(fù)樣本對(duì)應(yīng)的紋理特征向量,得到SVM分類器。其中,SVM的核函數(shù)采用徑向基函數(shù)。詳細(xì)訓(xùn)練過程可參考文獻(xiàn)[7]。

        本文所用的行人分類器是由CNN學(xué)習(xí)方法進(jìn)行訓(xùn)練的,采用圖2所示的網(wǎng)絡(luò)結(jié)構(gòu),詳細(xì)訓(xùn)練過程及參數(shù)配置可參考文獻(xiàn)[11]。

        2.3 性能對(duì)比

        為了評(píng)價(jià)本文方法的性能,將本文方法與文獻(xiàn)[6-8]所述的行人檢測(cè)方法進(jìn)行對(duì)比實(shí)驗(yàn),其中,四種行人檢測(cè)方法實(shí)驗(yàn)所用的測(cè)試數(shù)據(jù)集都是相同的,但訓(xùn)練數(shù)據(jù)集略有差異,其他三種行人檢測(cè)方法訓(xùn)練所用的數(shù)據(jù)集是原始的INRIA數(shù)據(jù)集,而本文方法在訓(xùn)練兩個(gè)分類器時(shí)對(duì)INRIA數(shù)據(jù)集進(jìn)行了裁剪和歸一化。

        圖3給出了四種行人檢測(cè)方法的真正率和假正率指標(biāo)測(cè)試結(jié)果。很明顯,本文方法的真正率指標(biāo)要高于其他三種方法,而假正率指標(biāo)優(yōu)勢(shì)更加明顯。這是因?yàn)楸疚姆椒ú捎昧硕嗉?jí)濾波和分類策略,在運(yùn)動(dòng)檢測(cè)和紋理分類兩個(gè)階段已經(jīng)濾除了許多干擾區(qū)域,降低了這些區(qū)域可能引起的誤檢行人目標(biāo)的現(xiàn)象,從而大幅降低了假正率指標(biāo)。同時(shí),本文進(jìn)行行人分類時(shí)的圖像區(qū)域遠(yuǎn)小于原始圖像區(qū)域,那么在相同的多尺度圖像子塊構(gòu)建參數(shù)下本文方法得到的多尺度圖像子塊更貼近行人目標(biāo),再加上LeNet5網(wǎng)絡(luò)架構(gòu)的分類性能優(yōu)于SVM等經(jīng)典分類器,因此本文方法的真正率指標(biāo)也有提高。

        表2給出了四種行人檢測(cè)方法的平均檢測(cè)耗時(shí)指標(biāo),可見,本文方法的平均檢測(cè)耗時(shí)最小,遠(yuǎn)小于文獻(xiàn)[6-7]所述方法。這是因?yàn)楸疚姆椒ê臀墨I(xiàn)[8]所述方法在進(jìn)行行人分類前都濾除了圖像中的許多干擾區(qū)域,降低了檢測(cè)耗時(shí)。與文獻(xiàn)[8]相比,本文采用運(yùn)動(dòng)檢測(cè)和紋理分類兩級(jí)粗篩選,在大部分監(jiān)控場(chǎng)景下都可以濾除更多的干擾區(qū)域,降低平均檢測(cè)耗時(shí)。

        表2 平均檢測(cè)耗時(shí)指標(biāo)對(duì)比

        綜合以上測(cè)試結(jié)果及分析,本文方法的行人檢測(cè)性能優(yōu)于其他三種方法。

        3 結(jié) 語

        行人檢測(cè)在視頻監(jiān)控領(lǐng)域具有廣泛的應(yīng)用前景,針對(duì)這一應(yīng)用環(huán)境,本文提出了一種結(jié)合支持向量機(jī)和卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)方法。設(shè)計(jì)思想是:先采用運(yùn)算效率高的運(yùn)動(dòng)檢測(cè)方法和紋理分類方法,濾除不可能存在行人的背景區(qū)域;然后再在余下的區(qū)域上采用精細(xì)的行人分類方法得到可靠的行人檢測(cè)結(jié)果。其中,運(yùn)動(dòng)檢測(cè)選用VIBE方法,紋理分類提出一種結(jié)合灰度共生矩陣、主成分分析和支持向量機(jī)的紋理分類方法,行人分類是在多尺度圖像子塊上采用LeNet5卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)實(shí)現(xiàn)的。實(shí)驗(yàn)結(jié)果表明,采用本文方法可以快速、可靠檢測(cè)Caltech數(shù)據(jù)集上的行人目標(biāo),是一種面向視頻監(jiān)控應(yīng)用的有效行人檢測(cè)方法。

        [1] Hoang V D,Le M H,Jo K H.Hybrid cascade boosting machine using variant scale blocks based HOG features for pedestrian detection[J].Neurocomputing,2014,135(8):357-366.

        [2] Dollar P,Wojek C,Schiele B,et al.Pedestrian detection:An evaluation of the state of the art[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2012,34(4):743-761.

        [3] Zhang S,Bauckhage C,Cremers A B.Informed Haar-Like Features Improve Pedestrian Detection[C]//IEEE Conference on Computer Vision and Pattern Recognition.IEEE Computer Society,Washington,DC,USA,2014:947-954.

        [4] 孫銳,侯能干,陳軍.基于特征融合和交叉核SVM的快速行人檢測(cè)方法[J].光電工程,2014(2):53-62.

        [5] 肖德貴,辛晨,張婷,等.顯著性紋理結(jié)構(gòu)特征及車載環(huán)境下的行人檢測(cè)[J].軟件學(xué)報(bào),2014,25(3):675-689.

        [6] Yadav R P,Kutty K,Ugale S P.Implementation of Robust HOG-SVM based Pedestrian Classification[J].International Journal of Computer Applications,2015,114(19):10-16.

        [7] 魯超,滕國偉,鄒雪妹,等.一種適應(yīng)運(yùn)動(dòng)前景的快速行人檢測(cè)算法[J].電視技術(shù),2015,39(1):113-116.

        [8] Tian Y,Luo P,Wang X,et al.Pedestrian detection aided by deep learning semantic tasks[C]//Computer Vision and Pattern Recognition.IEEE,2014:5079-5087.

        [9] Kryjak T,Gorgon M.Real-time implementation of the ViBe foreground object segmentation algorithm[C]//Computer Science and Information Systems,2013:591-596.

        [10] Kuncheva L,Faithfull W J.PCA feature extraction for change detection in multidimensional unlabeled data[J].IEEE Transactions on Neural Networks & Learning Systems,2014,25(1):69-80.

        [11] Yang Z,Tao D,Zhang S,et al.Similar handwritten Chinese character recognition based on deep neural networks with big data[J].Journal on Communication,2014,35(9):184-189.

        APEDESTRIANDETECTIONMETHODBASEDONIMPROVEDCNNMULTISTAGECLASSIFICATION

        Yang Jie Yang Zhennan
        (SchoolofElectronicsandInformationEngineering,HunanUniversityofScienceandEngineering,Yongzhou425000,Hunan,China)

        We present an improved pedestrian detection method for video monitoring application, using support vector machines and convolutional neural networks. First, we located initial suspicious targets of interested area by motion detection, and then calculated the gray level co-occurrence matrix of image patches of these areas. Moreover, the principal component analysis method was used to extract the texture feature vector, and the support vector machine was used to classify the texture and filter out the interference region. Finally, multi-scale image blocks were constructed for the remaining area, the LeNet5 architecture of convolutional neural network was used to execute pedestrian classification. Experimental results on Caltech dataset show that this method has a high true positive rate and low false positive rate.

        Pedestrian detection Motion detection Gray level co-occurrence matrix Support vector machines Convolutional neural networks

        2017-03-21。湖南省科技計(jì)劃項(xiàng)目(2014FJ6095);永州市2016年度科技創(chuàng)新項(xiàng)目(永科發(fā)[2016]27號(hào));湖南科技學(xué)院計(jì)算機(jī)應(yīng)用技術(shù)重點(diǎn)學(xué)科資助。楊杰,副教授,主研領(lǐng)域:人工智能,計(jì)算機(jī)網(wǎng)絡(luò)。楊振南,講師。

        TP391

        A

        10.3969/j.issn.1000-386x.2017.08.039

        猜你喜歡
        分類區(qū)域檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        分類算一算
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        關(guān)于四色猜想
        分區(qū)域
        国产自拍视频免费在线观看| 国产精品公开免费视频| 国产精品系列亚洲第一| 国产精品亚洲最新地址| 中文字幕亚洲综合久久天堂av| 三叶草欧洲码在线| 色丁香色婷婷| 国产精品成人久久一区二区| 精品国产自在现线看久久| 成人aaa片一区国产精品| 国产天堂网站麻豆| 免费福利视频二区三区| 国产亚洲av成人噜噜噜他| 日韩精品内射视频免费观看| 热99精品| 久久久99精品国产片| 亚洲综合极品美女av| 天天鲁一鲁摸一摸爽一爽| 国产精品亚洲片夜色在线| 亚洲精品国产av成人网| 色婷婷一区二区三区四区成人网| 波多野结衣中文字幕久久| 国产欧美久久久精品影院| 国产中文字幕亚洲精品| 国产成人a在线观看视频免费| 日韩毛片在线| 免费在线观看视频专区| 亚洲成人av一二三四区| 三男一女吃奶添下面| 久久国产精品免费一区二区| 三级国产自拍在线观看| 国产动作大片中文字幕| 无码中文字幕在线DVD| 极品少妇被后入内射视| 日本一区二区三区视频网站| 久久精品娱乐亚洲领先| 日韩成人精品日本亚洲| 亚洲日本中文字幕乱码在线| 忘忧草社区www日本高清| av无码天一区二区一三区| 中文字幕亚洲高清精品一区在线|