鄭慧平 李旭健 張陽
摘要:針對(duì)背包、外套等干擾因素致使步態(tài)識(shí)別率降低的問題,提出一種分割加權(quán)的步態(tài)識(shí)別方法。首先通過幀差法與閾值分割相結(jié)合的方法得到動(dòng)態(tài)信息更加豐富的幀差閾值能量圖(FTDEI),將該能量圖分割為3部分,并對(duì)每部分添加相應(yīng)權(quán)重,然后利用Gabor小波對(duì)分割加權(quán)后的FTDEI進(jìn)行不同角度的特征提取,得到加權(quán)的濾波特征(SWA-Gabor),最后通過KNN分類器對(duì)SWA-Gabor特征進(jìn)行分類和識(shí)別。基于分割加權(quán)的步態(tài)識(shí)別方法能夠很好地避免背包等干擾因素的影響。為了驗(yàn)證該算法的識(shí)別效果,在中國(guó)科學(xué)院自動(dòng)化研究所CASIA-B步態(tài)數(shù)據(jù)庫上進(jìn)行實(shí)驗(yàn),結(jié)果表明,在攜帶背包和外套的情況下,該算法的識(shí)別率較其它算法提高了約5%,取得了很好的識(shí)別效果。
關(guān)鍵詞:步態(tài)識(shí)別;步態(tài)能量圖;分割加權(quán);Gabor小波;SWA-Gabor
DOI:10.11907/rjdk.181328
中圖分類號(hào):TP301
文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1672-7800(2018)007-0040-04
Abstract:Inordertosolvetheproblemthatthegaitrecognitionrateisdecreasedduetotheinterferencefactorssuchasbackpacksandjackets,asegmentationweightedgaitrecognitionmethodisproposed.Firstly,aframedifferencethresholdenergymap(FTDEI)isobtainedbycombiningframedifferencemethodwiththresholdsegmentation,whichobtainsricherdynamicinformationWedividetheenergymapintothreeparts,addcorrespondingweightstoeachpart,anduseGaborwavelettoextractthecharacteristicsofFTDEIfromdifferentangles.Weightedfilteringfeatures(SWA-Gabor)areobtained.Finally,SWA-GaborfeaturesareclassifiedandidentifiedbyKNNclassifier.Thegaitrecognitionmethodbasedonsegmentationweightingcanreducetheinfluenceofinterferencefactorssuchasbackpacksbyweighting.Inordertoverifytherecognitioneffectoftheproposedalgorithm,experimentsarecarriedoutonCASIA-Bgaitdatabase.Experimentalresultsshowthattherecognitionrateoftheproposedalgorithmisimprovedbyabout5%comparedwithotheralgorithmsinthecaseofcarryingbackpacksandouterwear.
KeyWords:gaitrecognition;GEI;segmentationweighting;GaborWavelet;SWA-Gabor
0引言
步態(tài)識(shí)別作為人體重要的生物特征識(shí)別之一,因其具有遠(yuǎn)距離、非接觸、可采集等優(yōu)點(diǎn),相比傳統(tǒng)的生物特征識(shí)別方法能夠很好地解決視頻距離遠(yuǎn)、人臉模糊以及其它無法進(jìn)行身份識(shí)別的情況,在智能監(jiān)控、案件偵破等領(lǐng)域有著重要研究意義,成為身份識(shí)別的重要研究方向和研究熱點(diǎn)[1-2]。
由于視頻采集時(shí)間間隔長(zhǎng),人體外觀可能會(huì)發(fā)生很大變化,例如外出攜帶背包,天氣寒冷時(shí)穿著大衣,這些明顯的外觀變化將直接改變?nèi)梭w輪廓,進(jìn)而影響識(shí)別結(jié)果,成為步態(tài)識(shí)別的一大難題[3]。為了克服外套和背包的影響,李孟歆等[4]提出只保留腿部局部信息,通過腿部運(yùn)動(dòng)變化進(jìn)行步態(tài)識(shí)別,該方法很好地避免了上身背包和穿大衣對(duì)步態(tài)識(shí)別的干擾,但因刪除了大量上身靜態(tài)信息,所以識(shí)別率沒有很大提升。
對(duì)此,本文提出分割加權(quán)的思想,將人體的FTDEI能量圖劃分為3部分:頭部、上身及腿部,由于人體頭部和腿部含有非常重要的信息,所以增加頭部和腿部相應(yīng)的權(quán)重,為了降低人體上身著裝和攜帶物的影響,首先通過算法策略判斷人體是否背包,如有背包則減小其權(quán)重。該方法既保留了人體運(yùn)動(dòng)的大量信息,又避免了背包因素的影響,最后用Gabor小波進(jìn)行特征提取,利用中科院自動(dòng)化所CASIA-B步態(tài)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),識(shí)別率較傳統(tǒng)方法提高了約5%。
1算法實(shí)現(xiàn)
1.1GEI生成策略
GEI步態(tài)能量圖是將一個(gè)周期內(nèi)的步態(tài)幀經(jīng)過二值化處理后,按其質(zhì)心點(diǎn)疊加重合,得到一幅平均步態(tài)輪廓圖像[5],以此作為步態(tài)特征進(jìn)行步態(tài)識(shí)別,該方法能夠簡(jiǎn)化單幀圖像的復(fù)雜性,用一張步態(tài)能量圖代替一個(gè)周期的序列幀;忽略各幀之間的關(guān)聯(lián)性,更多地考慮步態(tài)幀的統(tǒng)計(jì)特性,在步態(tài)識(shí)別上取得了很好的識(shí)別效果[6]。步態(tài)能量圖定義如下:
其中,N代表一個(gè)周期內(nèi)序列幀數(shù),t代表某一時(shí)刻的步態(tài)幀,x代表二維步態(tài)序列幀圖像中的橫坐標(biāo),y代表縱坐標(biāo),B代表二值輪廓圖,G代表最后得到的GEI灰度圖[7],圖1為90°視角下步態(tài)能量圖合成過程。
1.2FTDEI能量圖獲取
GEI圖像雖然相比于一些基于模型的特征提取方法具有易獲取、魯棒性強(qiáng)等優(yōu)點(diǎn)[8],但GEI圖像維數(shù)空間較高,含有較多冗余信息,為了突出關(guān)鍵動(dòng)態(tài)信息,減小靜態(tài)信息的影響,本文提出結(jié)合幀差法與閾值分割法獲取動(dòng)態(tài)能量圖。
基于幀差法與閾值分割法相結(jié)合獲取步態(tài)能量圖的具體步驟如下:
圖2中左側(cè)(a)為幀差圖像,(b)為一個(gè)步態(tài)周期內(nèi)幀差圖像的均值,(c)為幀差能量圖經(jīng)過閾值處理后的幀差閾值能量圖。
1.3SWA分割加權(quán)算法
為減少背包外套對(duì)于步態(tài)能量圖的影響,學(xué)者提出了不同的解決方法[10],文獻(xiàn)[4]提出將人體圖像進(jìn)行分割,只保留人體運(yùn)動(dòng)的腿部信息,通過腿部運(yùn)動(dòng)信息進(jìn)行識(shí)別,該方法避免了上身外觀改變對(duì)步態(tài)的影響,但相應(yīng)減少了頭部等重要信息,致使正常行走狀態(tài)下的識(shí)別率降低。
對(duì)此,本文提出一種分割加權(quán)的思想,用來降低背包、外套等干擾因素的影響。通過分割加權(quán)算法將FTDEI能量圖劃分為3部分,分別為D1、D2、D3,如圖3所示:D1為人體頭部信息,特征較穩(wěn)定,區(qū)分度較高;D2部分為人體上身部分,易受背包、外套等因素干擾;D3部分為信息豐富的腿部運(yùn)動(dòng)部分,含有較多的動(dòng)態(tài)信息。圖3為同一個(gè)人在不同狀態(tài)下的FTDEI能量圖,顯然,同一個(gè)人在不同狀態(tài)下獲得的能量圖在直觀上就有很大區(qū)別[11]。最后通過加權(quán)算法對(duì)每一部分進(jìn)行加權(quán),以突出不同部分的貢獻(xiàn)。
SWA分割加權(quán)算法中的分割算法如式(7)所示:
其中L(n)表示圖像的分割線,通過該分割線將動(dòng)態(tài)步態(tài)能量圖劃分為3部分。P表示幀差閾值能量圖中間黑色部分的點(diǎn)集,如圖4所示的中間黑色區(qū)域。公式中|x2-x1|表示點(diǎn)集P中同一水平線上x1與x2兩點(diǎn)的水平距離。Ymax表示集合P中y取得最大值。PYmin|x2-x1|表示x2與x1兩點(diǎn)之間水平距離最短時(shí)所對(duì)應(yīng)的y值,此時(shí)根據(jù)人體先驗(yàn)?zāi)P捅壤龍D可知,PY取值范圍為0.818Ymax 根據(jù)分割算法求得分割線后,下一步將進(jìn)行權(quán)重分配,SWA分割加權(quán)算法中的權(quán)重分配公式如下: 2基于SWA-Gabor的特征提取 FTDEI能量圖是通過幀差法與閾值分割相結(jié)合的方法獲得的動(dòng)態(tài)步態(tài)能量圖,該能量圖去除了大量靜態(tài)信息,保留了人在走路過程中的動(dòng)態(tài)信息。Gabor小波是描述圖像局部灰度分布的有力工具[12],并能在多尺度、角度和頻率域中有效地對(duì)圖像進(jìn)行表述,所以本文采用Gabor小波變換完成步態(tài)特征的提取。 鑒于Gabor濾波器參數(shù)的考慮,最終選用5個(gè)尺度和8個(gè)角度的Gabor小波[13]。將FTDEI能量圖與Gabor核函數(shù)進(jìn)行卷積運(yùn)算,取其幅值譜圖作為動(dòng)態(tài)區(qū)域圖像的Gabor特征,形成5個(gè)尺度、8個(gè)角度的40張Gabor特征圖[14],這樣原來的1個(gè)FTDEI特征對(duì)于GaborFTDEI變?yōu)?0個(gè),從GaborFTDEI到SWA-GaborFTDEI,需要引入權(quán)重向量,用W表示[15],如式(9)所示,w1、w2、w3分別代表了D1、D2、D3區(qū)域的權(quán)重,在后續(xù)分類的時(shí)候,會(huì)根據(jù)前文所提到的算法判斷是否含有背包,如果有就給W2一個(gè)比較小的權(quán)重。 SWA-GaborFTDEI的度量方法如式(10)所示。計(jì)算兩個(gè)樣本相似度的算法是計(jì)算這兩個(gè)樣本的所有GaborFTDEI特征的距離,并乘以相應(yīng)的權(quán)重,然后將每一部分GaborFTDEI特征的距離加權(quán)求和后得到SWA-GaborFTDEI特征的相似度[16]。Sb代表有背包時(shí)的相似度,Sub代表沒有背包時(shí)的相似度,觀察式(10)和式(11)可發(fā)現(xiàn)在計(jì)算SWA-GaborFTDEI相似度時(shí),唯一區(qū)別在于計(jì)算SWA-GaborFTDEI歐式距離時(shí)所乘的權(quán)重因子不同[17]。 其中Wi為背包狀態(tài)下相應(yīng)權(quán)重,Wui為沒有背包狀態(tài)下權(quán)重,W不是一個(gè)常量,Wi和Wui的取值是根據(jù)i的取值決定[18]。為了簡(jiǎn)化冗余的數(shù)據(jù),降低數(shù)據(jù)維度,方便后續(xù)分類操作,采用PCA對(duì)SWA-Gabor特征進(jìn)行降維[19],得到最終的步態(tài)特征,在此基礎(chǔ)上進(jìn)行分類識(shí)別。 3實(shí)驗(yàn)結(jié)果 為了驗(yàn)證基于SWA-Gabor特征提取算法的有效性,實(shí)驗(yàn)在CASIA-B步態(tài)數(shù)據(jù)庫上進(jìn)行,為了方便比較,這里統(tǒng)一采用了KNN分類器[20],GEI、AEI、FTDEI和SWA-Gabor特征對(duì)比如下: 圖5為攜包狀態(tài)下各種算法在各個(gè)視角下的識(shí)別率。從圖中可以看出,本文算法在各個(gè)視角下的識(shí)別準(zhǔn)確率比較穩(wěn)定,在攜帶背包的情況下平均識(shí)別率為73.1%,其它經(jīng)典算法的平均識(shí)別率為68.2%,相對(duì)于其它算法提高了約5%,有較明顯提高。衣著變化情況下各種方法在各個(gè)視角下的識(shí)別率如圖6所示。本文算法的平均識(shí)別率為77.2%,其它經(jīng)典算法平均識(shí)別率為73.7%,相對(duì)于其它算法在各個(gè)視角下均有明顯提高。 4結(jié)語 本文簡(jiǎn)要介紹了GEI能量圖生成策略,在此基礎(chǔ)上對(duì)GEI進(jìn)行優(yōu)化得到FTDEI能量圖,該能量圖去除了大量低頻信息,減少了信息冗余。為了降低背包、外套等干擾因素的影響,提出分割加權(quán)的思想,將FTDEI能量圖分為3部分,通過權(quán)重分配方法自適應(yīng)地得到每部分權(quán)重,并使用Gabor小波進(jìn)行特征提取,得到豐富的SWA-Gabor特征。為了驗(yàn)證本文特征提取算法的有效性,利用CASIA-B步態(tài)數(shù)據(jù)庫進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)表明,在有背包和外套干擾的情況下,本文提出的特征提取算法較傳統(tǒng)經(jīng)典算法在識(shí)別率上提高了約5%,取得了很好的識(shí)別效果。 參考文獻(xiàn): [1]盧官明,衣美佳.步態(tài)識(shí)別關(guān)鍵技術(shù)研究[J].計(jì)算機(jī)技術(shù)與發(fā)展,2015,25(7):100-106. [2]MURAYAMAJ.Identificationofapersonbasedongaitrecognition[A].TheSocietyofInstrumentandControlEngineers(SICE):2015:5.
[3]孫卓.基于序列輪廓特征的步態(tài)識(shí)別研究[D].西安:西安科技大學(xué),2017.
[4]李孟歆,姜佳楠,賈燕雯.基于步態(tài)能量圖的特征提取新方法[J].科技與創(chuàng)新,2016(22):75-76.
[5]王竣,王修暉.特征融合的多視角步態(tài)識(shí)別研究[J].中國(guó)計(jì)量大學(xué)學(xué)報(bào),2017,28(2):234-240+268.
[6]劉玉淑.基于時(shí)間保持能量圖和Radon變換的步態(tài)識(shí)別[J].計(jì)算機(jī)工程與應(yīng)用,2011,47(29):164-167.
[7]史東承,賈令堯,梁超等.基于相位一致性改進(jìn)的步態(tài)識(shí)別方法[J].計(jì)算機(jī)工程,2017,43(10):198-202+208.
[8]李凱,王國(guó)超.融合腿部局部特征的步態(tài)識(shí)別方法[J].計(jì)算機(jī)工程與設(shè)計(jì),2016,37(5):1340-1345.
[9]XINGXL,WANGKJ,YANT,etal.Completecanonicalcorrelationanalysiswithapplicationtomulti-viewgaitrecognition[J].PatternRecognition,2016,50(C):107-117.
[10]劉萍.與服飾、攜帶物無關(guān)的多視角下的步態(tài)識(shí)別[D].長(zhǎng)沙:國(guó)防科學(xué)技術(shù)大學(xué),2015.
[11]涂潤(rùn).非模型步態(tài)識(shí)別的算法研究[D].武漢:華中科技大學(xué),2015.
[12]楊曉超,周越,署光,等.基于Gabor相位譜和流型學(xué)習(xí)的步態(tài)識(shí)別方法[J].電子學(xué)報(bào),2009,37(4):753-757.
[13]SHAOH,WANGY.GaitrecognitionmethodbasedonintegratedGaborfeature[J].JournalofElectronicMeasurement&Instrumentation;,2017(4):87-93.
[14]王昳昀.基于集成Gabor特征的步態(tài)識(shí)別方法研究[D].沈陽:沈陽工業(yè)大學(xué),2017.
[15]ZORANZ,F(xiàn)ERDINANDVH.Efficientadaptivedensityestimationperimagepixelforthetaskofbackgroundsubtraction[J],PatternRecognitionLetters,2006,27(7):773-780.
[16]任勝兵,李興超等.基于人體動(dòng)靜態(tài)特征融合的步態(tài)識(shí)別算法研究[D].長(zhǎng)沙:中南大學(xué),2012.
[17]王磊.基于步態(tài)能量圖和加權(quán)質(zhì)量向量的步態(tài)識(shí)別研究[D].長(zhǎng)沙:湖南大學(xué),2010.
[18]肖德貴,王磊.基于加權(quán)行質(zhì)量向量的步態(tài)識(shí)別方法[J].計(jì)算機(jī)工程,2011,37(11):215-217.
[19]EKINCIM,AYKUTM.HumangaitrecognitionbasedonkernelPCAusingprojections[J].JournalofComputerScience&Technology;,2007(6):867-876.
[20]賈令堯.基于步態(tài)能量圖的身份識(shí)別算法研究[D].長(zhǎng)春:長(zhǎng)春工業(yè)大學(xué),2017.
(責(zé)任編輯:江艷)