亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        視頻監(jiān)控下的行人性別檢測(cè)

        2018-11-17 02:35:12蘇寧陳臨強(qiáng)
        現(xiàn)代計(jì)算機(jī) 2018年29期
        關(guān)鍵詞:像素點(diǎn)人臉特征提取

        蘇寧,陳臨強(qiáng)

        (杭州電子科技大學(xué)計(jì)算機(jī)學(xué)院,杭州 310018)

        0 引言

        隨著計(jì)算機(jī)軟、硬件技術(shù)的快速發(fā)展,計(jì)算機(jī)處理圖像、視頻的能力也不斷提升,從而使得計(jì)算機(jī)視覺得到了飛速的發(fā)展,成為近些年來最火熱的研究方向之一。行人屬性分析作為計(jì)算機(jī)視覺的一部分也得到了空前的發(fā)展。行人的屬性信息例如性別、年齡、衣著、身高等,是行人最明顯的生物特征。行人性別識(shí)別基于行人識(shí)別,在視頻監(jiān)控和安全防護(hù)領(lǐng)域有著廣泛的應(yīng)用。先進(jìn)的行人搜索系統(tǒng)可以首先確定性別,縮小搜索范圍,并根據(jù)其他屬性信息進(jìn)一步執(zhí)行更準(zhǔn)確的搜索,大大提高了檢測(cè)的準(zhǔn)確率以及效率。

        性別的檢測(cè)主要是通過計(jì)算機(jī)算法提取人物的一些基本特征,再根據(jù)特征的差異來判斷性別。Shan[1]根據(jù)局部二值模式直方圖進(jìn)行性別識(shí)別,在LFW人臉數(shù)據(jù)庫(kù)中實(shí)現(xiàn)了94.81%的正確率。Xia等[2]提出了一種局部蓋博二值映射模式人臉表示方法,利用SVM(Support Vector Machine)進(jìn)行性別識(shí)別,在GAS-PEAL人臉數(shù)據(jù)庫(kù)中達(dá)到94.96%的準(zhǔn)確率。Yang等[3]利用局部三元模式和極限學(xué)習(xí)機(jī)進(jìn)行性別識(shí)別,在FERET數(shù)據(jù)庫(kù)中實(shí)現(xiàn)了95.625%的準(zhǔn)確率。Gil等[4]設(shè)計(jì)了一種基于卷積神經(jīng)網(wǎng)絡(luò)的方法進(jìn)行性別識(shí)別。Ail等[5]采用局部蓋博二值模式和三維人臉重建進(jìn)行性別識(shí)別,在LFW數(shù)據(jù)庫(kù)中獲得99.8%的準(zhǔn)確率。Hamid等[6]運(yùn)用主成分分析和模糊聚類的方法,在FG-NET數(shù)據(jù)庫(kù)中測(cè)試準(zhǔn)確率達(dá)到92.65%。閆敬文等[7]融合方向梯度直方圖和多尺度 LBP(Local Binary Patterns)特征,提取臉部梯度特征和局部紋理特征實(shí)現(xiàn)性別識(shí)別。汪濟(jì)民等[8]通過卷積神經(jīng)網(wǎng)絡(luò)提取人臉特征進(jìn)行性別識(shí)別。馬千里等[9]對(duì)人臉圖像分塊、融合五官特征加權(quán)的LBP特征提取的方法進(jìn)行性別檢測(cè)。

        根據(jù)現(xiàn)有的方法來看,基于人臉特征來進(jìn)行性別檢測(cè)的準(zhǔn)確率是最高的,但是在普通的監(jiān)控?cái)z像頭中,攝像頭的分辨率不高,距離遠(yuǎn)一些的人臉會(huì)變得很模糊,人臉信息都會(huì)丟失掉,通過提取人臉特征來進(jìn)行性別識(shí)別是相當(dāng)困難的,此時(shí)需要根據(jù)行人其他部位信息來進(jìn)行性別的檢測(cè)?;谶@種情況,以及受到卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺領(lǐng)域上廣泛應(yīng)用的啟發(fā)。本文提出一種根據(jù)卷積神經(jīng)網(wǎng)絡(luò)和特征提取相結(jié)合的算法對(duì)人物身體部位提取信息進(jìn)行性別檢測(cè)。該算法的優(yōu)點(diǎn)是通過人物的發(fā)型、穿著等局部信息,避開了對(duì)人臉的檢測(cè),能夠在攝像頭分辨率不高的情況下也能實(shí)現(xiàn)對(duì)人物性別檢測(cè),使得算法的應(yīng)用場(chǎng)景更加廣泛。

        1 基于高斯混合模型的前景目標(biāo)提取

        幀差法、光流法和背景差分法是前景目標(biāo)提取中比較典型的幾種方法。幀差法實(shí)現(xiàn)起來比較容易,但如果前景目標(biāo)速度過快,會(huì)產(chǎn)生虛影與空洞。光流法雖然適應(yīng)運(yùn)動(dòng)背景中的前景目標(biāo)檢測(cè),但計(jì)算復(fù)雜,且對(duì)于硬件的要求較高[10]。背景差分法在場(chǎng)景不變的情況下對(duì)圖像進(jìn)行背景建模,能夠很好地提取出前景目標(biāo)。

        由于目標(biāo)區(qū)域會(huì)存在一些非檢測(cè)目標(biāo)的晃動(dòng),例如波動(dòng)的水面和搖晃的樹葉,這些對(duì)于目標(biāo)檢測(cè)來說會(huì)有一定的干擾作用。為了盡量小地消除這些影響,可采用多個(gè)單高斯模型線性疊加的高斯混合模型對(duì)目標(biāo)區(qū)域進(jìn)行背景建模。

        1.1 建立背景模型

        在t時(shí)間段內(nèi),取0到t時(shí)刻的當(dāng)前幀圖像[F0,F(xiàn)1,F(xiàn)2,…,F(xiàn)t]。為了提升背景建模的精度,首先要對(duì)這t張圖像進(jìn)行高斯濾波從而減少拍攝時(shí)產(chǎn)生的噪聲,然后再將t張彩色圖像從R,G,B空間轉(zhuǎn)化為灰度空間,即:

        1.2 定義模型與初始化參數(shù)

        若[X0,X1,X2,…,Xt]表示樣本點(diǎn)的離散灰度值,則可用K的高斯分布來表示像素點(diǎn)Xt的概率:

        其中σi,t,k表示像素點(diǎn)X的均值,表示像素點(diǎn)X的方差,η(Xt|ui,t,k,σi,t,k)表示高斯分布,ωi,t,k表示單個(gè)高斯分布的權(quán)值。K表示混合高斯分布中峰值的個(gè)數(shù),由于像素點(diǎn)分布情況的不同,K的取值也不同,一般情況下取3-5個(gè)。

        1.3 運(yùn)動(dòng)目標(biāo)檢測(cè)

        將當(dāng)前圖像中像素點(diǎn)的值與模型根據(jù)公式(3)進(jìn)行比較:

        符合的即為背景目標(biāo),否則為前景目標(biāo)[11]。

        1.4 背景模型的更新

        若像素點(diǎn)屬于背景,則用此像素點(diǎn)更新背景得到新的背景模型。更新背景模型的公式如下:

        ρ=aη(Xt|ui,t,k,σi,t,k)

        其中a表示學(xué)習(xí)率,ρ表示模型適應(yīng)的學(xué)習(xí)因子。

        圖1 原圖

        圖2 運(yùn)動(dòng)目標(biāo)提取

        2 基于Hog的圖像特征提取

        由于一幅圖像的外形特征可以根據(jù)像素的邊緣分布來描述,Dalal和Triggs在2005年提出了使用Hog特征的描述算子[12](梯度方向直方圖)來表示圖像的外形特征。其特征提取過程如下:

        2.1 標(biāo)準(zhǔn)化Gamma空間和顏色空間

        對(duì)圖像進(jìn)行Gamma標(biāo)準(zhǔn)化,是為了削弱圖像對(duì)于特征提取產(chǎn)生的影響。由于后續(xù)步驟中block歸一化與Gamma標(biāo)準(zhǔn)化的作用相同,所以此過程對(duì)于結(jié)果來說影響并不是很大,故在后續(xù)提取hog特征的時(shí)候則不需要再進(jìn)行Gamma標(biāo)準(zhǔn)化。

        2.2 計(jì)算像素梯度

        模板算子選取的好壞,影響著hog特征提取的結(jié)果。根據(jù)多次試驗(yàn)的結(jié)果表明,使用一維離散微分模板(-1,0,+1)在圖像水平方向以及豎直方向上對(duì)像素進(jìn)行梯度計(jì)算的效果都比較好。由公式(5)和公式(6)計(jì)算像素點(diǎn)得到梯度模值與方向角。

        其中,G(x,y),H(x,y),α(x,y)分別表示像素點(diǎn)的梯度幅值、像素點(diǎn)的灰度值以及梯度方向。彩色圖像由于具有多個(gè)通道,可以計(jì)算出所有顏色通道的梯度,選取幅值最大的作為此像素點(diǎn)的梯度。

        2.3 統(tǒng)計(jì)單元內(nèi)梯度直方圖

        將訓(xùn)練圖像平分成多個(gè)正方形的細(xì)胞(cell),每一個(gè)細(xì)胞有8×8個(gè)像素,再將[-π/2,π/2]的梯度方向平分成9個(gè)區(qū)段(bin),然后統(tǒng)計(jì)在這9個(gè)區(qū)段上每一個(gè)cell內(nèi)所有像素的梯度直方圖,則每一個(gè)cell將會(huì)得到一個(gè)9維的特征向量。

        2.4 block歸一化直方圖

        一個(gè)block包含有2×2個(gè)cell,則一個(gè)block將得到36的特征向量,再使用L2-范數(shù)對(duì)block進(jìn)行歸一化,結(jié)果即為最后的特征向量。

        2.5 圖像的Hog特征

        訓(xùn)練時(shí)采用的圖像大小為 64×64,cell為 8×8,block為16×16,則一幅圖就會(huì)包含49個(gè)block,每一個(gè)block是36的向量,故一副64×64大小的圖像的Hog特征向量為49×36=1764維。

        3 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類

        3.1 介紹

        近年來發(fā)展起來的卷積神經(jīng)網(wǎng)絡(luò)在圖像分類和語音識(shí)別方面顯示出很大的優(yōu)勢(shì),由卷積層、激勵(lì)層、池化層、全連接層等組成的是最典型的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。其與實(shí)際的生物神經(jīng)網(wǎng)絡(luò)相似,能夠有效地降低網(wǎng)絡(luò)復(fù)雜度,這也是它在圖像處理方面的一大優(yōu)勢(shì)。

        3.2 LeNet卷積神經(jīng)網(wǎng)絡(luò)

        最早由Yann LeCun與Yoshua Bengio提出的LeNet是第一個(gè)真正多層結(jié)構(gòu)學(xué)習(xí)的算法,在手寫數(shù)字識(shí)別中具有很高的正確率[13,14],如圖3所示。

        圖3 手寫體數(shù)字識(shí)別

        對(duì)于圖像分類,需要設(shè)計(jì)多層的網(wǎng)絡(luò)結(jié)構(gòu)。當(dāng)網(wǎng)絡(luò)結(jié)構(gòu)為全連接時(shí),過多參數(shù)輸入會(huì)使得效率降低。例如對(duì)1000×1000的圖像進(jìn)行卷積,大約需要1000×1000×1000×1000個(gè)參數(shù)。為了降低參數(shù),可以使用局部卷積降低參數(shù)為 1000×1000×10×10≈100M。若再采用權(quán)值共享的策略,可以將卷積參數(shù)降到10×10。為了較好地保證圖片信息,設(shè)計(jì)多個(gè)卷積特征圖,將參數(shù)降至10K。如圖4所示。

        圖4 采用權(quán)重共享策略降低參數(shù)量

        3.3 本文結(jié)構(gòu)設(shè)計(jì)

        輸入層是32×32大小圖像,網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        第一層:卷積層(C1)。選用6個(gè)大小為5×5的卷積核進(jìn)行卷積操作,得到6個(gè)28×28的特征圖。

        第二層:下采樣層(S2)。使用2×2的窗口對(duì)C1進(jìn)行池化得到S2,此時(shí)每一個(gè)特征圖大小變?yōu)?4×14。

        第三層:卷積層(C3)。使用16個(gè)大小為5×5的卷積核對(duì)S2中得到的6個(gè)14×14的特征圖進(jìn)行卷積,再經(jīng)過加權(quán)組合得到16個(gè)10×10的特征圖。

        第四層:下采樣層(S4)。用2×2的窗口對(duì)C3中得到的特征圖進(jìn)行池化采樣得到S4,即16個(gè)5×5的特征圖。

        第五層:卷積層(C5)。使用大小為5×5的卷積核對(duì)S4所得特征圖進(jìn)行卷積,得到120個(gè)1×1的特征圖。

        第六層:全連接層(F6)。該層有84個(gè)節(jié)點(diǎn),與C5層得到的120維向量進(jìn)行全連接。

        第七層:輸出層。由于性別識(shí)別是一個(gè)二分類的問題,所以徑向基函數(shù)(RBF)單元組成的神經(jīng)元只有兩個(gè)。公式(7)為RBF的計(jì)算公式。

        圖5 網(wǎng)絡(luò)結(jié)構(gòu)示意圖

        4 本文算法流程與實(shí)驗(yàn)

        圖6 總體流程圖

        由于在低分辨率的攝像頭下,人臉特征提取會(huì)變得比較困難,所以根據(jù)人臉進(jìn)行性別檢測(cè)的方法就會(huì)行不通。但在這種情況下,行人的外觀特征相對(duì)容易提取。本文就是根據(jù)行人的頭部信息以及服裝的外形信息來進(jìn)行行人性別的檢測(cè)。對(duì)行人進(jìn)行分析就必須先從監(jiān)控視頻中檢測(cè)到行人,先使用卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練行人分類器來檢測(cè)行人。選取了900張MIT行人數(shù)據(jù)庫(kù)中的行人圖片為正樣本,由于圖片除了行人之外還有一些多余的場(chǎng)景,訓(xùn)練之前要先進(jìn)行裁剪。負(fù)樣本為無人、人群、汽車等圖片,選取了2000張圖片。訓(xùn)練樣本如圖7所示。

        圖7 行人訓(xùn)練圖片

        將單個(gè)行人從前景目標(biāo)中檢測(cè)出來后,對(duì)行人相應(yīng)部位進(jìn)行檢測(cè)即可得出性別結(jié)果。在檢測(cè)之前,需要對(duì)行人相應(yīng)部位進(jìn)行訓(xùn)練。

        圖8(a)是在監(jiān)控?cái)z像機(jī)下拍到的行人,(b)圖是將(a)圖中的行人進(jìn)行了截取,從圖中我們可以看出根據(jù)頭部信息是最能夠,也是最明顯的區(qū)分行人性別的一個(gè)特征。因?yàn)槟壳斑€沒有行人性別相關(guān)的數(shù)據(jù)庫(kù),所以本文使用的訓(xùn)練圖片是由拍攝的監(jiān)控視頻中摳取得到。其中男女訓(xùn)練樣本均為700張,包括面對(duì)攝像頭與背對(duì)攝像頭的照片,圖9是部分訓(xùn)練圖片。

        圖8 行人局部區(qū)域示意圖

        圖9 行人樣本集合

        從人體的身體結(jié)構(gòu)來看,不同人的相同部位的相對(duì)位置基本上是一樣的。所以根據(jù)此種情況,我們可以通過身體部位占人體的比例來進(jìn)行身體區(qū)域的分割,然后進(jìn)行區(qū)域特征提取。本文主要是對(duì)行人上半身進(jìn)行相應(yīng)的檢測(cè),所以說需要確定行人頭部、肩部以及腰部的比例系數(shù),從而得到局部重合的身體部位。比例系數(shù)是由選取的50個(gè)行人圖片計(jì)算得來,如下所示:

        a=0.15 b=0.20 c=0.50

        其中a代表頭部占全身的比例,b代表頭肩位置占全身的比例,c為上半身占全身的比例。

        取男、女各300張圖片作為訓(xùn)練樣本,因?yàn)楝F(xiàn)有的行人數(shù)據(jù)庫(kù)不適合做性別研究,所以將剩下男、女各400張圖片用作測(cè)試圖片。為了檢測(cè)本文算法的有效性,還增加了一組使用Hog特征提取行人頭部特征與衣著特征的對(duì)比實(shí)驗(yàn),結(jié)果如下:

        表1 傳統(tǒng)方法與本文方法對(duì)比結(jié)果

        最后,將訓(xùn)練好的分類器運(yùn)用到檢測(cè)出來的行人上,得到行人性別結(jié)果。部分結(jié)果如圖10所示:

        圖10 部分結(jié)果圖

        5 結(jié)語

        鑒于在視頻監(jiān)控下,受到距離限制以及攝像頭分辨率不高的因素,根據(jù)人臉進(jìn)行性別檢測(cè)已經(jīng)不能達(dá)到要求,本文提出了一種提取行人多個(gè)部位特征的方法進(jìn)行性別檢測(cè)。此方法避開了對(duì)行人臉部特征的提取,可以在攝像機(jī)分辨率不高的情況下對(duì)中等距離下的行人進(jìn)行性別檢測(cè)。盡管本文的方法在限定的條件下取得了一定的效果,但仍然存在一些不足,例如在遠(yuǎn)距離情況下、光線太壞或者太好的情況下都會(huì)削減正確率,所以還需要進(jìn)行進(jìn)一步的研究。

        猜你喜歡
        像素點(diǎn)人臉特征提取
        有特點(diǎn)的人臉
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        三國(guó)漫——人臉解鎖
        基于canvas的前端數(shù)據(jù)加密
        Bagging RCSP腦電特征提取算法
        基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
        馬面部與人臉相似度驚人
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
        長(zhǎng)得象人臉的十種動(dòng)物
        奇聞怪事(2014年5期)2014-05-13 21:43:01
        日本顶级片一区二区三区 | av无码一区二区三区| 久久久人妻精品一区bav| 国产精品国产三级国产专播下 | 国产日韩精品视频一区二区三区 | 久久亚洲精品无码va白人极品| 躁躁躁日日躁| 国产成人美女AV| 狠狠躁夜夜躁人人爽天天不卡| 亚洲天堂一区二区精品| 漂亮人妻出轨中文字幕| 欧美精品无码一区二区三区 | 亚洲aⅴ无码国精品中文字慕| 国产精品日本一区二区三区| av在线不卡一区二区| 亚洲天堂一区av在线| 久久久久av无码免费网| 国产一女三男3p免费视频 | 国产后入又长又硬| 亚洲国产人在线播放首页| 国产精品亚洲ΑV天堂无码| 久久九九av久精品日产一区免费 | 久久久久久久波多野结衣高潮 | 亚洲综合色视频在线免费观看| 亚洲长腿丝袜中文字幕| 白嫩丰满少妇av一区二区| 欧洲精品免费一区二区三区| 久久99精品久久久久久久清纯| 娇柔白嫩呻吟人妻尤物| 午夜精品一区二区三区视频免费看| 久久精品国产av一级二级三级| 日日噜噜夜夜狠狠va视频| 久久狠狠第一麻豆婷婷天天| 无码av专区丝袜专区| 一级内射免费观看视频| 丰满少妇高潮惨叫久久久| 人人爽久久涩噜噜噜av| 国产一级做a爱免费观看| 手机在线免费看av网站| 一区二区三区中文字幕脱狱者| 无码人妻精品一区二区三区9厂 |