亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合紋理與輪廓特征的多通道行人檢測(cè)算法

        2017-12-14 05:22:24韓建棟鄧一凡
        計(jì)算機(jī)應(yīng)用 2017年10期
        關(guān)鍵詞:矩形框輪廓行人

        韓建棟,鄧一凡

        (山西大學(xué) 計(jì)算機(jī)與信息技術(shù)學(xué)院,太原 030006) (*通信作者電子郵箱hanjiandong@sxu.edu.cn)

        結(jié)合紋理與輪廓特征的多通道行人檢測(cè)算法

        韓建棟*,鄧一凡

        (山西大學(xué) 計(jì)算機(jī)與信息技術(shù)學(xué)院,太原 030006) (*通信作者電子郵箱hanjiandong@sxu.edu.cn)

        針對(duì)在復(fù)雜場(chǎng)景下,聚合通道特征(ACF)的行人檢測(cè)算法存在檢測(cè)精度較低、誤檢率較高的問(wèn)題,提出一種結(jié)合紋理和輪廓特征的多通道行人檢測(cè)算法。算法由訓(xùn)練分類器和檢測(cè)兩部分組成。在訓(xùn)練階段,首先提取ACF特征、局部二值模式(LBP)紋理特征和ST(Sketch Tokens)輪廓特征,然后對(duì)提取的三類特征均采用Real AdaBoost分類器進(jìn)行訓(xùn)練;在檢測(cè)階段,應(yīng)用了級(jí)聯(lián)檢測(cè)的思想,初期使用ACF分類器處理所有實(shí)例,保留下來(lái)的少數(shù)實(shí)例應(yīng)用復(fù)雜的LBP及ST分類器進(jìn)行逐次篩選。實(shí)驗(yàn)采用INRIA數(shù)據(jù)集對(duì)算法進(jìn)行仿真,該算法的平均對(duì)數(shù)漏檢率為13.32%,與ACF算法相比平均對(duì)數(shù)漏檢率降低了3.73個(gè)百分點(diǎn)。實(shí)驗(yàn)結(jié)果表明LBP特征與ST特征能有對(duì)ACF特征進(jìn)行信息互補(bǔ),從而在復(fù)雜場(chǎng)景下去掉部分誤判,提高了行人檢測(cè)的精度,同時(shí)應(yīng)用級(jí)聯(lián)檢測(cè)保證了多特征算法的計(jì)算效率。

        聚合通道特征; Sketch Tokens特征; LBP特征; Real AdaBoost分類器; 級(jí)聯(lián)檢測(cè)

        0 引言

        對(duì)象檢測(cè)技術(shù)是計(jì)算機(jī)視覺(jué)中的一個(gè)重要研究課題。行人檢測(cè)作為對(duì)象檢測(cè)的一個(gè)子問(wèn)題,由于在汽車安全、監(jiān)控、機(jī)器人及人機(jī)交互等領(lǐng)域有著重要的應(yīng)用前景,成為對(duì)象檢測(cè)中的一個(gè)研究熱點(diǎn)[1-2]。由于其易受人的姿態(tài)變化、光照變化、復(fù)雜場(chǎng)景以及存在遮擋等問(wèn)題的影響,如何高效地進(jìn)行行人檢測(cè)成為一個(gè)很難的課題。

        國(guó)內(nèi)外很多學(xué)者對(duì)行人檢測(cè)算法作了總結(jié)[3-4],目前主流的檢測(cè)方法主要是統(tǒng)計(jì)分類學(xué)習(xí)的方法。2005年Dalal等[5]提出了基于方向梯度直方圖(Histogram of Oriented Gradient, HOG)的行人檢測(cè)算法,選用支持向量機(jī)(Support Vector Machine,SVM)作為分類器進(jìn)行檢測(cè),由于該特征能較好地刻畫(huà)行人,在當(dāng)時(shí)的行人檢測(cè)中取得了突破性的進(jìn)展;后來(lái)又被應(yīng)用于可變部件檢測(cè)(Deformable Part Model, DPM)[6-7]中,其主要思想是針對(duì)人姿態(tài)多變的問(wèn)題,建立根模型和部件模型,根模型確定行人整體信息,部件確定行人局部信息,該算法在當(dāng)時(shí)取得了很好的檢測(cè)性能。Wu等[8]提出了一個(gè)CENTRIST(Census Transform histogram)特征,然后分別訓(xùn)練兩個(gè)分類器,最后把兩個(gè)分類器級(jí)聯(lián)進(jìn)行行人檢測(cè)。由于單一特征具有自身一定的局限性,所以陸續(xù)出現(xiàn)一些融合多種特征的方法。Wang等[9]用HOG與局部二進(jìn)制模式(Local Binary Pattern, LBP)相結(jié)合,應(yīng)用積分圖快速計(jì)算提高速度,同時(shí)針對(duì)行人遮擋的問(wèn)題進(jìn)行了處理,證實(shí)了LBP特征能夠與HOG特征進(jìn)行互補(bǔ)。Walk等[10]為了更好地結(jié)合時(shí)空信息,利用局部部位間的顏色自相似性(Color Self-Simlarity, CSS)刻畫(huà)人體的結(jié)構(gòu)特征,同時(shí)與HOG特征和光流特征結(jié)合起來(lái),大大提高了檢測(cè)的精度。Dollar等[11]提出了積分通道特征(Integral Channel Features, ChnFtrs),對(duì)HOG特征進(jìn)行改進(jìn),同時(shí)結(jié)合LUV顏色信息提高檢測(cè)精度。文獻(xiàn)[12]對(duì)ChnFtrs作了改進(jìn),提出了聚合通道特征(Aggregated Channel Feature,ACF),由于其計(jì)算簡(jiǎn)單、檢測(cè)效率高等優(yōu)點(diǎn),很多檢測(cè)方法將ACF作為基準(zhǔn),被廣泛應(yīng)用于實(shí)時(shí)系統(tǒng)中。ST(Sketch Tokens)特征是由Lim等[13]提出的一種描述輪廓信息的中級(jí)特征,是一組用于表達(dá)圖像中各種局部邊緣信息的結(jié)構(gòu)圖,作者將其和ACF特征結(jié)合,驗(yàn)證了ST特征能夠彌補(bǔ)ACF的缺陷,從而提高了檢測(cè)精度。

        在統(tǒng)計(jì)分類學(xué)習(xí)的行人檢測(cè)算法中,分類器的構(gòu)建與特征的計(jì)算對(duì)檢測(cè)的結(jié)果起著關(guān)鍵的作用。由于現(xiàn)實(shí)環(huán)境的復(fù)雜性,導(dǎo)致很難用唯一特征來(lái)有效地刻畫(huà)行人。本文針對(duì)ACF算法在復(fù)雜場(chǎng)景下,由于其特征的局限性導(dǎo)致誤檢較多的問(wèn)題,引入LBP特征與ST特征,提出了基于多通道特征的改進(jìn)算法。為了提高算法的檢測(cè)速度,首先對(duì)ACF特征、LBP特征和ST特征分別訓(xùn)練三種特征分類器,然后利用三種分類器傳遞置信函數(shù)值的方式進(jìn)行級(jí)聯(lián)檢測(cè)。結(jié)果表明:LBP特征能夠刻畫(huà)人體區(qū)域的紋理信息,ST能夠刻畫(huà)行人整體的輪廓信息,二者與ACF特征形成有效的互補(bǔ),從而提高了檢測(cè)精度。

        1 相關(guān)理論

        基于統(tǒng)計(jì)學(xué)習(xí)的行人檢測(cè)算法,首先需要確定一種或一類能夠有效刻畫(huà)行人的特征,利于這些特征選擇合適的分類器進(jìn)行學(xué)習(xí)和檢測(cè)。一般的行人特征有梯度、輪廓、紋理和結(jié)構(gòu)等,分類器常采用SVM、Real AdaBoost等。

        1.1 特征提取

        特征的好壞決定最后的檢測(cè)準(zhǔn)確度,如何計(jì)算特征,以及計(jì)算什么特征是行人檢測(cè)技術(shù)中的關(guān)鍵。區(qū)分性強(qiáng)的特征,有利于分類器分類。本文分析場(chǎng)景中的行人,發(fā)現(xiàn)在行人區(qū)域除了梯度和特殊的顏色信息外還具有較強(qiáng)的紋理信息,身體具有獨(dú)特的輪廓信息。

        1.1.1 聚合通道特征

        聚合通道特征,簡(jiǎn)稱ACF,是對(duì)ChnFtrs的改進(jìn)。它應(yīng)用了梯度信息和顏色信息,計(jì)算方法是:首先,計(jì)算圖像的LUV 3通道特征、梯度幅值特征以及6個(gè)梯度直方圖特征。如圖1所示。然后,在10個(gè)通道內(nèi)求取特征,ChnFtrs是隨機(jī)選擇3萬(wàn)個(gè)矩形框,對(duì)矩形框內(nèi)的像素求和作為特征。而ACF算法是將圖像分成若干個(gè)4×4固定大小的塊,每個(gè)塊內(nèi)特征點(diǎn)的均值作為聚合通道特征。

        圖1 ACF可視化效果示例圖

        1.1.2 局部二值模式

        局部二值模式,簡(jiǎn)稱LBP,是由Ojala等[14]提出的一種描述紋理的特征,被廣泛應(yīng)用于人臉識(shí)別、表情識(shí)別等領(lǐng)域。原始的LBP特征是在3×3大小的窗口內(nèi),以窗口中心像素為閾值,將相鄰的8個(gè)像素的灰度值與其比較,若大于中心像素的灰度值,則該像素點(diǎn)被標(biāo)記為1;否則為0。如圖2所示。

        圖2 LBP特征編碼示意圖

        對(duì)應(yīng)的編碼值為:

        其中:P為鄰域像素點(diǎn)個(gè)數(shù);R為半徑;Ic和Ip分別為中心像素點(diǎn)和第p個(gè)鄰域像素點(diǎn)的灰度值;s(x)為階躍函數(shù)。s(x)的表達(dá)式為:

        二值化后所得到的環(huán)形0-1二值串中,將0到1或者1到0的跳變次數(shù)不超過(guò)2次所對(duì)應(yīng)的二進(jìn)制稱為等價(jià)模式(Uniform Pattern),其余歸并成一類,稱為混合模式。如01000000(2次跳變)為等價(jià)模式,而11011011(4次跳變)為混合模式。當(dāng)鄰域有P個(gè)像素點(diǎn)時(shí),共有P(P-1)+3種模式,其中混合模式有1種,其余為等價(jià)模式。如,當(dāng)P=8時(shí),等價(jià)模式只有58種。Ojala等認(rèn)為:在實(shí)際圖像中,等價(jià)模式占據(jù)了圖像中絕大多數(shù)的信息,使用等價(jià)模式可以對(duì)傳統(tǒng)的LBP算子進(jìn)行降維,而且可以減少噪聲的影響。因此,等價(jià)模式能夠更好地用于目標(biāo)檢測(cè)。

        1.1.3 ST特征

        ST特征是一組用于表達(dá)圖像中各種局部邊緣輪廓信息的結(jié)構(gòu)圖。包括:直線、T-路口、角點(diǎn)、曲線、平行線等。該特征具有對(duì)噪聲不敏感的特點(diǎn),有利于后期的分類。

        假設(shè)有n幅圖像,相應(yīng)的手繪輪廓的二值圖像集為S,在二值圖像Si(i=1,2,…,n)中,以輪廓點(diǎn)為中心像素的圖像塊(大小為35×35)記為sj(j=1,2,…),首先使用Daisy算法對(duì)每個(gè)圖像塊進(jìn)行描述,然后采用K-means算法進(jìn)行聚類,得到K種ST類,其中K取150。部分ST類如圖3所示。

        從n幅圖像中采集每個(gè)ST對(duì)應(yīng)的大小為35×35的圖像塊,同時(shí)裁剪中心像素不是輪廓點(diǎn)的圖像塊作為第151類。首先,對(duì)這些圖像塊提取特征,方法如下:

        1)第一類特征的提取。求取每個(gè)圖像塊的LUV通道、梯度幅值通道、4個(gè)方向的梯度方向通道。使用不同方差(分別為0、1.5和5)的高斯濾波器對(duì)梯度幅值通道進(jìn)行濾波,并采用方差0和1.5的高斯濾波器平滑4個(gè)方向的梯度方向通道。最后,將這14個(gè)梯度通道均采用方差為1的高斯濾波器平滑處理,這樣每個(gè)塊共有35×35×14=17 150個(gè)特征。

        2)第二類特征(自相關(guān)性特征)的提取。自相關(guān)特征能夠有效地刻畫(huà)每個(gè)圖像塊的相似度。將1)中得到的每個(gè)圖像塊分成m×m個(gè)子圖像塊,如:當(dāng)m=5時(shí),子圖像塊的大小為7×7。對(duì)于通道k,第i(i=1,2,…,m×m)個(gè)子圖像塊內(nèi)部的像素之和記為Sik,定義第i和第j個(gè)子圖像塊之間的相似度特征fijk:

        fijk=Sjk-Sik;i,j=1,2,…,m×m

        從而得到17 150+4 200=21 350維特征向量。

        其次,隨機(jī)挑選150 000個(gè)輪廓圖像塊(每個(gè)ST類1 000個(gè))和160 000個(gè)無(wú)輪廓的圖像塊(每個(gè)訓(xùn)練圖像800個(gè)),將它們以及對(duì)應(yīng)的ST類(標(biāo)簽)放到隨機(jī)森林里進(jìn)行訓(xùn)練。訓(xùn)練采用深度為20的25棵樹(shù)。

        最后,通過(guò)訓(xùn)練好的隨機(jī)森林檢測(cè)一個(gè)圖像的所有像素點(diǎn),輸出的值是每個(gè)ST類及背景的概率圖。將這150個(gè)ST類對(duì)應(yīng)的概率圖以及背景概率圖作為通道特征。

        圖3 部分Sketch Tokens類

        1.2 分類器

        Real AdaBoost分類器[15]是經(jīng)典AdaBoost分類器的一個(gè)擴(kuò)展,經(jīng)典AdaBoost分類器的每個(gè)弱分類器輸出為+1或-1,而Real AdaBoost的每個(gè)弱分類器輸出的是一個(gè)實(shí)數(shù)值。

        算法描述如下:

        給定訓(xùn)練集:(x1,y1),(x2,y2),…, (xN,yN),其中xi是長(zhǎng)度為m的特征向量,標(biāo)簽為yi∈{+1,-1},i=1,2,…,N。

        訓(xùn)練集上的樣本初始分布:D1(i)=1/N

        確定弱分類器的數(shù)量T,對(duì)式(1)~(6)進(jìn)行循環(huán)T次,得到T個(gè)弱分類器。

        1)將每一維特征的取值空間X劃分為若干個(gè)不相交的子空間X1,X2,…,Xn。

        2)計(jì)算每個(gè)子空間上的權(quán)重:

        其中:l∈{+1,-1}。

        3)計(jì)算每一個(gè)弱分類器的輸出:

        其中:ε是一個(gè)很小的正常量,用于平滑輸出;h(x)實(shí)際上是一個(gè)分段線性函數(shù),在每個(gè)子空間上都有不同的輸出值。

        4)計(jì)算歸一化因子:

        5)選擇讓Q最小的弱分類器h(x)作為該輪迭代的弱分類器:

        Qt=minQ,ht=arg minQ

        6)更新樣本的分布:

        Dt+1(i)=Dtexp(-yiht(xi))

        最后的強(qiáng)分類器H為:

        其中b是閾值。H函數(shù)的置信函數(shù)為:

        (1)

        2 改進(jìn)算法

        由于ACF只計(jì)算了顏色和梯度特征,誤檢率較高,考慮到行人具有較強(qiáng)的紋理和輪廓特征,本文引入了對(duì)噪聲不敏感的LBP紋理特征以及ST輪廓特征進(jìn)一步提高檢測(cè)的準(zhǔn)確度,降低誤檢率。

        2.1 特征計(jì)算方法

        LBP特征:首先將圖像轉(zhuǎn)換到LUV空間,在L通道上計(jì)算LBP特征,本文選擇P=8,并將跳變?yōu)?次的二值串歸并為一類,采用上文所述方法計(jì)算,共有57種等價(jià)模式,1種混合模式。將這些模式分別對(duì)應(yīng)成58幅圖,作為通道特征。

        映射成特征向量的方式跟ACF類似:將每個(gè)LBP直方圖通道分成d×d大小的圖像塊,最后串起來(lái)作為特征向量。

        ST特征:首先使用已經(jīng)訓(xùn)練好的隨機(jī)森林對(duì)正負(fù)樣本計(jì)算ST類及背景類概率圖,然后按照ACF的方式分大小為d×d的塊,求其平均值,作為新的特征值,并將其串起來(lái)形成特征向量。

        得到上述的特征之后,然后采用Real AdaBoost進(jìn)行訓(xùn)練學(xué)習(xí)。將每一維特征的取值空間分為n=256個(gè)子空間。由于樣本的特殊性,所有樣本的模板大小采用128×64。訓(xùn)練采用自舉法(Bootstrapping)進(jìn)行訓(xùn)練,共訓(xùn)練4輪,根據(jù)樣本集的大小、特征數(shù)量的大小來(lái)確定每輪的弱分類器個(gè)數(shù)分別是32、128、512、2 048,樹(shù)的深度取2。

        2.2 檢測(cè)流程

        具體檢測(cè)流程如圖4所示。其中,ACF分類器、LBP分類器和ST分類器都是事先單獨(dú)訓(xùn)練得到。檢測(cè)大體思路是通過(guò)三種分類器級(jí)聯(lián)對(duì)圖像進(jìn)行檢測(cè)。

        具體步驟為:

        步驟1 ACF分類器檢測(cè)采用的是軟級(jí)聯(lián)(Soft Cascade)[16],算法偽代碼如下:

        d=0

        Fori=1 toT

        d=d+h(x)

        ifdlt;b返回false,移動(dòng)窗口到下個(gè)位置檢測(cè);

        else 返回true,保存當(dāng)前候選區(qū)域矩形框的位置、大小和置信函數(shù)ConfACF

        其中:置信函數(shù)計(jì)算公式如式(1);d是累加的置信函數(shù);b是閾值,取b=0。

        為了去除重疊窗口,減少后面分類器的計(jì)算量,對(duì)其結(jié)果進(jìn)行后處理,后處理采用非極大值抑制原理。首先按照置信函數(shù)對(duì)所有候選區(qū)域進(jìn)行降序排列,若兩個(gè)矩形框重疊,則留下置信度高的矩形框。本文采用貪心策略,若當(dāng)前矩形框已經(jīng)被抑制,則不能再抑制比其置信度更低的矩形框。第i個(gè)矩形框記為Ri,area表示區(qū)域的面積,計(jì)算兩個(gè)矩形框的重疊度:

        設(shè)定閾值Th,如果overlap(Ri,Rj)gt;Th,則刪除置信度低的矩形框Rj;否則將其保留。

        步驟2 通過(guò)ACF分類器的檢測(cè)會(huì)得到一些帶有置信函數(shù)的目標(biāo)行人矩形框,重新計(jì)算矩形框內(nèi)的LBP特征,通過(guò)LBP分類器對(duì)ACF的檢測(cè)結(jié)果進(jìn)行篩選,同樣也會(huì)輸出一個(gè)置信函數(shù)ConfLBP,計(jì)算:

        S1=ConfACF+ConfLBP

        如果S1lt;b,則刪除當(dāng)前的矩形框。

        步驟3 通過(guò)ST分類器將保留下來(lái)的區(qū)域進(jìn)行二次篩查,并將得到置信函數(shù)ConfST和S1進(jìn)行累加:

        S2=S1+ConfST

        若S2lt;b,則刪除當(dāng)前的矩形框,最后得到最終的結(jié)果。

        圖4 檢測(cè)流程

        3 實(shí)驗(yàn)與分析

        算法的運(yùn)行環(huán)境:內(nèi)存為8 GB,CPU為intel酷睿i7處理器,主頻為3.6 GHz。

        實(shí)驗(yàn)采用的數(shù)據(jù)集:本文采用INRIA數(shù)據(jù)集,該數(shù)據(jù)集包含城市、海灘、山等各種場(chǎng)景。該數(shù)據(jù)集的訓(xùn)練集具有正樣本614張(包含2 416個(gè)行人),負(fù)樣本為1 218張;測(cè)試集的正樣本為288張(包含行人1 126個(gè)),負(fù)樣本453張。

        3.1 評(píng)價(jià)指標(biāo)

        二分類問(wèn)題中,根據(jù)分類器預(yù)測(cè)類別和真實(shí)類別可將樣本劃分為:真正例TP、假正例FP、真反例TN、假反例FP四種。查準(zhǔn)率P和查全率R定義為:

        本文評(píng)價(jià)算法指標(biāo)采用:平均對(duì)數(shù)漏檢率(Log-Average Miss Rate, LAMR)、MR-FPPI(Miss rate-False Positives Per Image)曲線和P-R曲線。

        3.2 參數(shù)的選取

        為了讓ACF檢測(cè)漏檢率達(dá)到最低,本文對(duì)非極大值抑制中閾值T的取值進(jìn)行了分析,如圖5所示。由圖可以看出,閾值T取0.58~0.6時(shí)漏檢率達(dá)到最低,本文取T=0.6。

        圖5 閾值對(duì)ACF漏檢率的影響

        計(jì)算LBP與ST特征時(shí)候,需要對(duì)圖像進(jìn)行分塊,本文分別選取了2×2、4×4、8×8、16×16分塊大小計(jì)算平均漏檢率,分析分塊大小對(duì)檢測(cè)精度的影響,如圖6所示。由圖6可知,LBP與ST均采用4×4的塊大小時(shí)檢測(cè)漏檢率最低。

        圖6 塊大小對(duì)漏檢率的影響

        3.3 仿真實(shí)驗(yàn)

        為了說(shuō)明本文算法的檢測(cè)效果,表1比較了本文算法及幾個(gè)經(jīng)典算法(HOG、HOG+LBP、ChnFtrs、ACF)的平均漏檢率(LAMR)。

        從表1可以看出本文算法的LAMR要遠(yuǎn)低于幾種經(jīng)典算法的LAMR。僅采用一級(jí)LBP篩查得到的LAMR為14.95%,經(jīng)過(guò)二級(jí)篩查檢測(cè)精度進(jìn)一步提高,LAMR為13.32%;本文算法與原始的ACF比較,LAMR降低了3.73個(gè)百分點(diǎn)。實(shí)驗(yàn)結(jié)果表明,通過(guò)結(jié)合多通道特征的檢測(cè)算法可以提高行人檢測(cè)的精度。

        表1 不同檢測(cè)算法錯(cuò)誤率比較

        對(duì)應(yīng)幾種算法的MR-FPPI曲線如圖7(a)所示,從中可看出本文算法的MR-FPPI曲線位于其他幾種算法的MR-FPPI曲線下方。圖7(b)為本文算法與ACF算法的P-R曲線圖,從中可看出ACF的P-R曲線完全被本文算法的P-R曲線“包圍”。由此分析本文算法要明顯優(yōu)于ACF算法。

        圖7 MR-FPPI曲線與P-R曲線

        為了能夠更好地說(shuō)明在復(fù)雜場(chǎng)景下的檢測(cè)情況,圖8列舉了四幅復(fù)雜場(chǎng)景下“單人”和“多人”檢測(cè)結(jié)果。

        圖8 檢測(cè)效果比較

        從圖8可知:在復(fù)雜場(chǎng)景下,ACF在顏色多變的背景處容易發(fā)生誤檢,本文利于LBP特征和ST特征對(duì)ACF特征進(jìn)行互補(bǔ),能夠一定程度上消除這些誤檢,提高了算法的精度。

        為了測(cè)試本文算法的檢測(cè)速度,對(duì)測(cè)試集的288幅圖像進(jìn)行檢測(cè),ACF的平均時(shí)間是0.14 s,ACF-LBP的平均時(shí)間是0.25 s,ACF-LBP-ST的平均時(shí)間是0.95 s,由此可知,本文算法主要時(shí)間開(kāi)銷來(lái)源于ST特征的計(jì)算。綜合分析,本文算法在時(shí)間開(kāi)銷的允許范圍內(nèi),有效地降低了檢測(cè)的LAMR,提高了算法精度。

        4 結(jié)語(yǔ)

        ACF算法速度快,在場(chǎng)景不復(fù)雜時(shí)具有較高的檢測(cè)精度,但是由于它只刻畫(huà)了顏色和梯度信息,在復(fù)雜場(chǎng)景下,有時(shí)會(huì)出現(xiàn)誤檢較多的現(xiàn)象,為了克服這一問(wèn)題,本文對(duì)ACF特征結(jié)合了LBP特征與ST特征對(duì)其進(jìn)行補(bǔ)充。同時(shí)在檢測(cè)中,為了提高算法效率本文采用了級(jí)聯(lián)思想,利用累加置信函數(shù)作為判別方式。在INRIA數(shù)據(jù)集進(jìn)行算法測(cè)試,證實(shí)了LBP特征與ST特征能夠有效彌補(bǔ)ACF算法對(duì)行人特征刻畫(huà)不全的缺陷,同時(shí)在此基礎(chǔ)上本文算法采用了級(jí)聯(lián)的方式提高效率,但是與ACF算法比較,檢測(cè)速度還是相對(duì)有所下降,同時(shí)在某些場(chǎng)景下仍然存在一些誤檢的情況,遇到姿態(tài)變化較大的行人也存在漏檢情況。未來(lái)完善的地方在于是否還有更好的特征可以對(duì)ACF算法進(jìn)行補(bǔ)充,在精度影響不大的情況下,如何進(jìn)一步提高算法的效率。

        References)

        [1] DOLLAR P, WOJEK C, SCHIELE B, et al. Pedestrian detection: an evaluation of the state of the art[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(4): 743-761.

        [2] 賈慧星, 張毓晉. 車輛輔助駕駛系統(tǒng)中基于計(jì)算機(jī)視覺(jué)的行人檢測(cè)研究綜述[J]. 自動(dòng)化學(xué)報(bào), 2007, 33(1): 84-90. (JIA H X, ZHANG Y J. A survey of computer vision based pedestrian detection for driver assistance system[J]. Acta Automatica Sinica, 2007, 33(1): 84-90.)

        [3] BENENSON R, OMRAN M, HOSANG J, et al. Ten years of pedestrian detection, what have we learned?[EB/OL]. [2017- 01- 10]. https://arxiv.org/pdf/1411.4304.pdf.

        [4] 蘇松志, 李紹滋, 陳淑媛, 等. 行人檢測(cè)技術(shù)綜述[J]. 電子學(xué)報(bào), 2012, 40(4): 814-820. (SU S Z, LIN S Z, CHEN S Y, at al. A survey on pedestrian detection[J]. Acta Electronica Sinica, 2012, 40(4): 814-820.)

        [5] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]// Proceedings of the 2005 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2005, 1: 886-893.

        [6] FELZENSZWALB P, MCALLESTER D, RAMANAN D. A discriminatively trained, multiscale, deformable part model[C]// Proceedings of the 2008 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2008:1-8.

        [7] FELZENSZWALB P, GIRSHICK R, MCALLESTER D, et al. Object detection with discriminatively trained part based models[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9): 1627-1645.

        [8] WU J, GEYER C, REHG J M. Real-time human detection using contour cues[C]// Proceedings of the 2011 IEEE International Conference on Robotics and Automation. Piscataway, NJ: IEEE, 2011.

        [9] WANG X, HAN T X, YAN S. An HOG-LBP human detector with partial occlusion handling[C]// Proceedings of the 2009 IEEE 12th International Conference on Computer Vision. Piscataway, NJ: IEEE, 2009: 32-39.

        [10] WALK S, MAJER N, SCHINDLER K, et al. New features and insights for pedestrian detection[C]// Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2010: 1030-1037.

        [11] DOLLAR P, TU Z, PERONA P, et al. Integral Channel Features[C]// Proceedings of the 2009 British Machine Vision Conference. London: BMVC Press, 2009: 1-11.

        [12] DOLLAR P, APPEL R, BELONGIE S, et al. Fast feature pyramids for object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(8): 1532-1545.

        [13] LIM J J, ZITNICK C L, DOLLAR P. Sketch tokens: a learned mid-level representation for contour and object detection[C]// Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2013: 3158-3165.

        [14] OJALA T, PIETIKAINEN M, HARWOOD D. A comparative study of texture measures with classification based on feature distributions[J]. Pattern Recognition, 1996, 19(3): 51-59.

        [15] SHAPIRE R E, SINGER Y. Improved boosting algorithms using confidence-rated predictions[J]. Machine Learning, 1999, 37(3): 297-336.

        [16] BOURDEV L, BRANDT J. Robust object detection via soft cascade[C]// CVPR 2005: Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2005, 2: 236-243.

        Multi-channelpedestriandetectionalgorithmbasedontexturalandcontourfeatures

        HAN Jiandong*,DENG Yifan

        (SchoolofComputerandInformationTechnology,ShanxiUniversity,TaiyuanShanxi030006,China)

        In order to solving the problem that the pedestrian detection algorithm based on Aggregated Channel Feature (ACF) has a low detection precision and a high false detection rate in complex scenes, a multi-channel pedestrian detection algorithm combined with features of texture and contour was proposed in this paper. The algorithm flows included training classifier and detection. In the training phase, the ACF, the texture features of Local Binary Patterns (LBP) and the contour features of Sketch Tokens (ST) were extracted, and trained separately by the Real AdaBoost classifier. In the detection phase, the cascading detection idea was used. The ACF classifier was used to deal with all objects, then the complicated classifier of LBP and ST were used to gradually filter the result of the previous step. In the experiment, the INRIA data set was used in the simulation of our algorithm, the results show that our algorithm achieves a Log-Average Miss Rate (LAMR) of 13.32%. Compared with ACF algorithm, LAMR is decreased by 3.73 percent points. The experimental results verify that LBP and ST can be used as a complementation of ACF. So some objects of false detection can be eliminated in the complicated scenes and the accuracy can be improved. At the same time, the efficiency of multi-feature algorithm is ensured by cascading detection.

        Aggregated Channel Feature (ACF); sketch tokens feature; Local Binary Pattern (LBP) feature; Real AdaBoost classifier; cascading detection

        2017- 04- 07;

        2017- 07- 01。

        國(guó)家自然科學(xué)基金資助項(xiàng)目(61602288)。

        韓建棟(1980—),男,山西文水人,講師,博士,CCF會(huì)員,主要研究方向:計(jì)算機(jī)視覺(jué)、數(shù)據(jù)挖掘; 鄧一凡(1992—),男,內(nèi)蒙古阿拉善左旗人,碩士研究生,主要研究方向:目標(biāo)檢測(cè)與跟蹤。

        1001- 9081(2017)10- 3012- 05

        10.11772/j.issn.1001- 9081.2017.10.3012

        TP391.41

        A

        This work is partially supported by the National Natural Science Foundation of China (61602288).

        HANJiandong, born in 1980, Ph. D., lecturer. His research interests include computer vision, data mining.

        DENGYifan, born in 1992, M. S. candidate. His research interests include target detection and tracking.

        猜你喜歡
        矩形框輪廓行人
        毒舌出沒(méi),行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        OPENCV輪廓識(shí)別研究與實(shí)踐
        基于實(shí)時(shí)輪廓誤差估算的數(shù)控系統(tǒng)輪廓控制
        多模態(tài)卷積神經(jīng)網(wǎng)絡(luò)的物體抓取檢測(cè)
        路不為尋找者而設(shè)
        一種汽車式起重機(jī)防傾翻方法的研究
        我是行人
        在線學(xué)習(xí)機(jī)制下的Snake輪廓跟蹤
        PowerPoint 2013圖片裁剪技巧兩則
        行人流綜述
        中文字幕日韩三级片| 国产免费视频一区二区| 激情视频国产在线观看| 在线观看午夜视频国产| 日本精品熟妇一区二区三区| 国产大学生自拍三级视频| 日韩精品免费在线视频一区| 成人丝袜激情一区二区| 欧美一区二区三区红桃小说| 精品国产高清一区二区广区| 一区二区三区国产精品| 日本一级片一区二区三区| 深夜放纵内射少妇| 中国农村熟妇性视频| 亚洲AV永久天堂在线观看| 亚洲精品成人网线在线播放va| 亚洲天堂av免费在线| 国产精品亚洲二区在线看| 国产一区二区三区在线电影| 日本乱子人伦在线视频| 国产av无码专区亚洲aⅴ| 久久少妇高潮免费观看| 人人妻人人添人人爽欧美一区| 日本乱偷人妻中文字幕在线| 中文字幕久久久久久精| 久久亚洲春色中文字幕久久久综合| 久久狼精品一区二区三区| 玩弄丰满奶水的女邻居 | 高清中文字幕一区二区三区| 国产精品久久国产精品99 gif| 久久亚洲国产成人精品性色| 亚洲色偷拍一区二区三区| 视频一区中文字幕日韩| 人人妻人人澡人人爽精品日本| 国产国拍亚洲精品mv在线观看| 97在线视频免费| 手机在线中文字幕国产| 可以直接在线看国产在线片网址 | 日韩av一区二区不卡在线| 熟妇人妻无乱码中文字幕真矢织江| 精品人妻人人做人人爽夜夜爽|