亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多重圖像輪廓特征結(jié)合的步態(tài)識別算法

        2016-12-01 05:20:35趙志杰孫小英金雪松孫華東
        關(guān)鍵詞:數(shù)據(jù)庫特征

        趙志杰,孫小英,金雪松,孫華東,盧 鑫

        (1.哈爾濱商業(yè)大學(xué) 計算機與信息工程學(xué)院,150028哈爾濱;2. 哈爾濱工業(yè)大學(xué) 電子與信息工程學(xué)院 150001哈爾濱)

        ?

        多重圖像輪廓特征結(jié)合的步態(tài)識別算法

        趙志杰1,孫小英1,金雪松1,孫華東1,盧 鑫2

        (1.哈爾濱商業(yè)大學(xué) 計算機與信息工程學(xué)院,150028哈爾濱;2. 哈爾濱工業(yè)大學(xué) 電子與信息工程學(xué)院 150001哈爾濱)

        為提高圖像步態(tài)識別率,研究了一種基于圖像輪廓多特征的步態(tài)識別算法.該算法首先從圖像輪廓的基礎(chǔ)上選取了圖像步態(tài)的3個特征; 然后,通過建立不變矩、幀差百分比的動態(tài)特征,并結(jié)合改進的角度距離的靜態(tài)特征,實現(xiàn)了圖像輪廓特征的提取;最后,通過對傳統(tǒng)的K近鄰法改進,完成了圖像步態(tài)識別.實驗結(jié)果表明:單用靜態(tài)特征的步態(tài)識別率最高為91.94%;結(jié)合動態(tài)特征,并在改進分類器下獲得最高為99.19%的識別率.

        步態(tài)識別;輪廓;不變矩;幀差百分比;角度距離

        近年來,步態(tài)識別已是圖像處理領(lǐng)域一個熱點研究方向,卡內(nèi)基梅隆大學(xué)(Carnegie Mellon University,CMU)、麻省理工學(xué)院(MIT)、馬里蘭大學(xué)、英國的南安普頓大學(xué)為此做了眾多貢獻.中科院自動所是國內(nèi)較早開始步態(tài)識別研究的研究單位之一, 并提出了一種基于身體結(jié)構(gòu)和運動行為的步態(tài)識別算法[1].

        在步態(tài)識別研究中輪廓是關(guān)鍵的信息之一,文獻[2]提出一種基于輪廓分析的方法,利用輪廓線上的點到質(zhì)心的距離作為特征,該方法對外套等因素的影響比較敏感.文獻[3]在文獻[2]基礎(chǔ)上做了進一步的提高,將輪廓線分為上、下、左、右4部分,將這4部分分別投影在一個邊界框來構(gòu)成4個距離向量,該方法所用數(shù)據(jù)庫大多樣本少,在累計匹配當中第1次的識別率不高.文獻[4]運用幾何學(xué)理論進行識別.文獻[5]在文獻[4]基礎(chǔ)上通過改進,在同樣的數(shù)據(jù)庫上做了實驗,該方法并沒有與其他的方法進行對比.文獻[6]采用幀插法將半個周期的長度限制在固定的長度,進而求出邊界向量上每一個點在半個周期內(nèi)的變化曲線作為步態(tài)特征.由于該方法沒有考慮輪廓的預(yù)處理操作,對輪廓不完整的序列的識別率不高.文獻[7]結(jié)合了輪廓的時空相關(guān)特征和統(tǒng)計物理參數(shù),彌補了文獻[6]的輪廓不完整的影響.文獻[8]考慮的是輪廓外觀變化的影響.該文獻引用仿射不變矩(affine moment invariants, AMI)并采用最近鄰法來匹配識別.文獻[9-10]提出了基于關(guān)鍵幀的識別方法,這類方法會丟失序列中其他幀的信息,造成識別率的降低.文獻[11]通過分析人體運動的對稱性,采用廣義對稱性算子對人體的輪廓圖像和圖像序列的光流信息分別進行對稱映射從而獲取步態(tài)特征.文獻[12]在輪廓的基礎(chǔ)上提取空間分量、時間分量和小波能量分量作為步態(tài)特征,用支持向量機(SVM)分類器識別.文獻[13]利用輪廓的寬高比、面積、縱坐標變化、質(zhì)心變化曲線作為特征,獲得較高的識別率.文獻[14]采用輪廓的步態(tài)能量圖法進行步態(tài)識別.文獻[15]提出的基于部分輪廓頻域步態(tài)熵特征的識別算法,通過分析輪廓不同區(qū)域單獨考慮的識別效果來定義有效部分,識別率有明顯的提高.

        在上述算法中,針對輪廓不完整或者只考慮關(guān)鍵幀的情況,如文獻[15]考慮輪廓有效部分的情況,在提取特征的過程中,造成部分信息丟失從而導(dǎo)致識別率降低.在選取特征的過程中只考慮單一類型特征,如文獻[14]只是考慮輪廓在步態(tài)周期范圍內(nèi)的動態(tài)特征,該選取方法是不夠完善的.基于此,本文通過提取輪廓兩個完整周期的較低維數(shù)的靜態(tài)特征和動態(tài)特征,使得最終的特征更能反映不同個體之間的步態(tài)差異;同時動態(tài)特征也避免了輪廓不完整造成的影響.為進一步提高識別率,本文采用改進的K近鄰法進行分類識別.實驗驗證了該算法的有效性.

        1 算法總框架

        本文所提算法主要包括預(yù)處理、特征提取和分類識別3個模塊,具體流程如圖1所示.

        圖1 步態(tài)識別算法框圖

        2 預(yù)處理

        為了便于后期特征提取,需將圖像尺寸歸一化.圖2為歸一化尺寸的二值圖像及邊緣檢測后的二值圖像.根據(jù)步態(tài)序列輪廓面積變化求出每個步態(tài)樣本的周期曲線,一個步態(tài)序列的周期曲線如圖3所示.圖3中空心圓代表極大值,即人在雙腿著地分開最大時輪廓的面積,星號代表極小值,即雙腿并攏時輪廓的面積.連續(xù)3個極大值之間的幀為一個步態(tài)周期.

        圖2 歸一化及輪廓

        圖3 周期曲線

        3 特征提取

        特征的獲取應(yīng)該既簡單、有效,又能表示待識別的事物.首先,選取的角度距離特征作為本文步態(tài)特征的靜態(tài)特征,該特征是從輪廓內(nèi)考慮的幀內(nèi)信息;其次,選取的不變矩特征是從輪廓形狀的角度考慮,作為步態(tài)特征的第1個動態(tài)特征;最后,選取的幀差百分比特征,作為另一個動態(tài)特征,它是能夠反映整個周期內(nèi)輪廓的整體變化情況的,兩個動態(tài)特征同時也是對角度距離特征的一個彌補.

        3.1 角度距離特征提取

        文獻[16]是將輪廓線上一定間隔內(nèi)像素點個數(shù)作為特征,文獻[17]是將輪廓線采樣選取采樣點到質(zhì)心距離作為特征.對于輪廓不完整的步態(tài)序列,前者在表征步態(tài)時由于像素點缺失會有一定的誤差,后者在步態(tài)輪廓線的手臂和腿部的采樣點由于缺失而使特征曲線震蕩.本文在選取特征時,與前兩者的特征是不同的物理量,通過一定的改進,將兩者結(jié)合起來,既合理利用了一定角度下輪廓點的坐標值,又更加準確的表征了輪廓線的整體特征,使得特征曲線平滑.具體提取特征方法如下.

        1)求取人體輪廓質(zhì)心(Xc,Yc)為:

        (1)

        式中:N為圖像輪廓的像素點個數(shù);xi為第i個像素的橫坐標;yi為對應(yīng)像素的縱坐標.

        2)求取輪廓線上點到質(zhì)心方向與y坐標軸的夾角, 如

        (2)

        3)計算像素坐標到質(zhì)心的距離disth.選取num個間隔,每個間隔為(360/num)°,根據(jù)式(2),再結(jié)合間隔大小求出輪廓上第H個間隔里所有像素的坐標到質(zhì)心的距離disth;

        4)計算第H個間隔內(nèi)所有距離的均值,其表達式如

        (3)

        式中ω為每個區(qū)間內(nèi)不同的像素點數(shù).如圖4(a)所示,兩條線段所組成的區(qū)域為一個間隔.

        圖4(b)為一個樣本一個周期內(nèi)某一幀輪廓的角度距離特征向量曲線.將一個半步態(tài)周期中提取出的歸一化角度距離向量序列進行疊加求平均得到,最后的步態(tài)特征記作F1=[f1i1,f1i2,…,f1inum],i表示第i個樣本序列,如圖4(c)所示.

        圖4 角度距離特征曲線

        3.2 圖像不變矩特征提取

        文獻[18]中提到圖像的7個不變矩具有平移、旋轉(zhuǎn)、比例不變性,在目標識別、圖像匹配、形狀分析等領(lǐng)域得到了廣泛的應(yīng)用.

        對于任意非負整數(shù)p、q,二維圖像模式f(x,y),在平面R2上的p+q階矩定義為

        (4)

        式中:f(x,y)為圖像的灰度(密度),僅在有限R2平面上分段連續(xù);N為任意非負整數(shù).顯然,mpq由f(x,y)唯一確定,反之亦然.由于mpq不具有平移不變性,因此定義p+q階中心矩為

        (5)

        歸一化中心矩ηpq定義為:

        (6)

        以下只列出前3個不變矩為

        (7)

        在此將一定數(shù)目的圖像進行疊加壓縮為一幀圖像,如圖5(a)~5(c)所示,分別為3個不同人的疊加圖.求該幀圖像的7個不變矩,則該圖像不變矩特征可記作F3=[f3i1,f3i2,…,f3i7],i表示第i個樣本序列.以此作為衡量人的輪廓在空間上的特征變化,從而區(qū)分不同的類.

        圖5 不變矩特征

        3.3 幀差百分比特征提取

        個體的步態(tài)很難從單個圖片信息來確認個體之間的區(qū)別,步態(tài)本身是一種時空相關(guān)的運動,它的本質(zhì)特征是人體的姿勢隨著時間的變化而發(fā)生的有序變化序列.對于熟悉的人往往通過其走路的姿勢或者背影就能確定其身份,其中包含的有其平常走路的習(xí)慣速度和習(xí)慣姿勢,因此容易判斷.但對于不熟悉且走路相似的人之間的區(qū)別卻難以判斷,這就需要從細微的差別來區(qū)別個體,人體走路的加速度就能區(qū)分此細微差別.

        加速度是描述物體速度變化快慢的物理量,也即單位時間內(nèi)速度的改變量.文中考慮的是不同個體之間肢體運動的不同加速度,也即是人體抬腳走路的瞬間起步加速度的大小,加速度越大,幀間變化越明顯,反之不明顯.這樣從視頻幀的角度來看,相鄰兩幀之間在質(zhì)心重合的情況下重合面積就不一樣,也即是幀差百分比不同.因此,在一定程度上可以區(qū)別兩個不同個體.為了提高識別率,將幀間的不同變化信息作為整個步態(tài)識別的運動信息,也避免了只考慮幀內(nèi)信息的缺陷,因此,提出了幀差百分比的特征作為步態(tài)特征的一個動態(tài)特征.

        設(shè)圖像尺寸為M*L,每個樣本每個不同序列所選的幀數(shù)為n,用Ti,j(m,l)表示一個人的第i個序列的第j幀輪廓圖像對應(yīng)位置(m,l)像素值,則

        (8)

        式中Ei,n為第i個樣本序列的前n幀圖像的殘差百分比.為了便于分辨,加色顯示,如圖6(a)所示,為相鄰兩幀之間的步態(tài)差異.最終殘差幀在整幅圖的百分比情況,如圖6(b)所示.該特征維數(shù)為1,記作F2.

        圖6 幀差百分比特征

        4 步態(tài)識別

        4.1 相似性度量

        常用的相似性度量的方式有歐式距離、曼哈頓距離、切比雪夫距離、漢明距離、信息熵等.在此,選取歐式距離(euclidean distance)作為度量兩個樣本特征之間的相似性,公式如

        (9)

        式中:xiv為第i個樣本特征的第v個分量;yjv為第j個樣本特征的第v個分量;S為特征的維數(shù);Dij為兩個樣本特征之間的相似度,其值越小,表示二者越相似.

        4.2 分類識別

        通常所用的K近鄰分類器(theK-nearest neighbor classifier,KNN)忽略了相似度值所屬的權(quán)重大小,相當于將K個最近鄰的值得權(quán)值平均化,使得在某些算法中的識別率不是太高.本文在相似性度量時將待測樣本與訓(xùn)練樣本之間歐式距離的權(quán)重問題考慮在內(nèi),采用加權(quán)機制,距離越近的權(quán)重越大,反之,越小.為此,提出了一種改進K近鄰分類器(the modifiedK-nearest neighbor classifier)來對最終的特征進行分類識別.考慮到權(quán)重分配需要的是單調(diào)遞減的函數(shù).在此,選取反函數(shù)和指數(shù)函數(shù)的乘積作為權(quán)值函數(shù),如

        (10)

        式中:rN為權(quán)值歸一化系數(shù);b、x0分別為幅度調(diào)整參數(shù);Nx為歐式距離從小到大排序所對應(yīng)的序號.根據(jù)權(quán)值分配的原則,即距離最近的權(quán)值最大,反之越小,但是各個權(quán)值之間的偏差不能太大,本文選取標準偏差(standard deviation,SD)和平均絕對偏差(mean absolute deviation, MAD)兩個指標來進行對權(quán)值的確定.其中一個較小的SD,代表大部分的數(shù)值和其平均值之間差異較小,而MAD由于差值被絕對值化,不會出現(xiàn)正負抵消的情況,因此也能更好的反映數(shù)值誤差的實際情況.標準偏差(SD)和平均絕對偏差(MAD)定義為:

        (Nq=7)

        (11)

        式中:Nxi為對應(yīng)權(quán)值;Nq為權(quán)值的個數(shù).通過構(gòu)造以上兩個指標與b、x0兩個不同參數(shù)的函數(shù)關(guān)系,得出兩個指標的三維顯示圖如圖7,8所示.

        再求出兩個指標最小值所對應(yīng)的參數(shù)值,即為本文選定的參數(shù).由圖可知b=1,x0=1.圖9為所選參數(shù)對應(yīng)的歸一化權(quán)值針狀圖.

        圖7 標準偏差三維顯示圖

        圖8 平均絕對偏差三維顯示圖

        圖9 權(quán)值針狀圖

        5 結(jié)果與分析

        本文實驗是基于PC機Matlab7.12.0平臺完成

        的.采用中科院自動化所公開的大型步態(tài)數(shù)據(jù)庫CASIA-B[14]和卡內(nèi)基梅隆大學(xué)提供的CMU Mobo步態(tài)數(shù)據(jù)庫[19]進行實驗.CASIA-B數(shù)據(jù)庫包含124人(男93人,女31人),每人11個視角,每個視角下有3種行走狀態(tài)(普通條件、穿大衣、攜帶包裹條件).其中,正常狀態(tài)下有6個序列,其他各兩個序列.圖片尺寸大小為320×240,幀速率為25 幀/s.CMU Mobo步態(tài)數(shù)據(jù)庫在室內(nèi)跑步機上采集,共25人(男23人,女2人),每人6個視角,每個視角下有4種行走步態(tài)(慢走、快走、跑步機傾斜一定角度慢走、雙手拿球慢走),每人在每個狀態(tài)下記錄11 s,圖片尺寸為468×640,幀速率為30 幀/s.圖10為CMU Mobo步態(tài)數(shù)據(jù)庫中3個樣本圖片.本文實驗圖片統(tǒng)一歸一化尺寸為165×110.

        圖10 CMU Mobo步態(tài)數(shù)據(jù)庫樣本

        在實驗過程中,將CASIA-B數(shù)據(jù)庫中每個樣本90°視角的6個正常行走序列,分別選取其中3個序列作為訓(xùn)練序列,剩余3個作為識別序列,分別進行以上所有處理,獲得最終的訓(xùn)練特征和測試特征,分別輸入不同的分類器進行識別,進行10次實驗,結(jié)果見表1.表2是本文算法與文獻中算法在CASIA-B數(shù)據(jù)庫上的對比.為證明本文算法在不同數(shù)據(jù)庫上的識別效果,在CMU Mobo步態(tài)數(shù)據(jù)上同樣選取側(cè)面視角的3種步態(tài)(慢走、快走、雙手拿球慢走)進行了實驗.

        表1 不同特征不同分類器的識別結(jié)果

        表2 4種識別算法在CASIA-B上的識別率比較 %

        表1選取CASIA-B數(shù)據(jù)庫中全部樣本,采用單一角度距離特征、靜態(tài)角度距離特征和幀差百分比特征兩者結(jié)合、靜態(tài)角度距離特征和幀差百分比特征以及不變矩特征三者結(jié)合的方法,分別用KNN和改進KNN分別進行分類識別.表1中KNN法最高識別率為93.55%,改進KNN法最高識別率為99.19%.單一特征維數(shù)為60維,KNN法最高識別率為91.94%,改進KNN法最高識別率為96.77%,提高接近5個百分點.兩種特征結(jié)合后特征維數(shù)為61維,KNN法最高識別率為92.74%,改進KNN法最高識別率為98.39%.3種特征結(jié)合后維數(shù)為68維,KNN法最高識別率為93.55%,改進KNN法最高識別率為99.19%.顯然對于KNN法在特征維數(shù)增加的情況下,識別率的提高沒有改進KNN法好.從特征上看,通過增加特征,在采用同一分類器的基礎(chǔ)上,識別率相對于單個特征都有所提高;從分類器上看,兩種分類器無論是單個特征還是多個特征,都是改進KNN法識別率最高,而且特征維數(shù)越高,識別率越高.為了進一步表明算法識別效果,通過增加不同特征維數(shù)對應(yīng)的ROC曲線來說明算法的有效性.如圖11所示,橫坐標是錯誤接受率FAR(false acceptance rate),縱坐標是錯誤拒絕率FRR(false reject rate).由圖11可知,3種特征維數(shù)下,曲線都很接近坐標軸,等錯誤率都在0.25%之下.

        表2中文獻[13]是將時空運動特征和輪廓的物理參數(shù)結(jié)合的并通過確定性學(xué)習(xí)理論的識別算法,采用SVM分類器和最小錯誤準則進行分類,識別率為98.40%.文獻[14]是采用基于輪廓的步態(tài)能量圖法,并用最近鄰分類器進行分類識別,在CASIA-B 數(shù)據(jù)庫中90°視角的正常步態(tài)實驗識別率為97.60%.文獻[15]采用頻域步態(tài)能量熵的基于輪廓有效部分的識別算法,將有效部分之間的歐式距離作為相似性度量的標準進行分類,識別率為98.56%.通過對比可知,本文算法對步態(tài)識別效果有一定的提高.本文算法和表2中其他3種算法都是在統(tǒng)一的步態(tài)數(shù)據(jù)庫上進行實驗,該數(shù)據(jù)庫采集的步態(tài)序列的背景是比較單一的,在此條件下,其他3種算法識別率已很高,而本文算法識別率在此基礎(chǔ)上有一定的提高,在實際復(fù)雜背景的環(huán)境中,同樣會有提高,證明該算法有一定實用價值.另外,在CMU Mobo步態(tài)數(shù)據(jù)庫上也采用本文算法進行實驗,盡管該數(shù)據(jù)庫提供的前景背景分割圖片有很大的噪聲,但并沒有影響本文算法識別效果,表明該算法具有較好的魯棒性.

        圖11 ROC曲線

        6 結(jié) 論

        1)本文提出一種有效的步態(tài)識別算法,結(jié)合前人研究的基礎(chǔ)上,將兩種方法進行結(jié)合,提出一種改進的角度距離特征,作為步態(tài)序列圖象的靜態(tài)特征進行步態(tài)識別.

        2)為更加準確的表征步態(tài),提取了幀差百分比特征作為步態(tài)序列的動態(tài)特征進行步態(tài)識別.在增加維數(shù)不多的動態(tài)特征以后,識別率有了明顯提高.

        3)為了進一步提高識別率, 在分類識別的過程中,提出一種改進的K近鄰法,采用中科院自動化所提供的CASIA數(shù)據(jù)庫和卡內(nèi)基梅隆大學(xué)提供的CMU Mobo步態(tài)數(shù)據(jù)庫進行的相關(guān)實驗,證明了算法的有效性.

        [1] 中科院自動化所生物特征認證與測評中心.新興的步態(tài)識別技術(shù)[J].中國安防,2003(6):43-43.

        [2] WANG Liang, TAN Tieniu, NING Huazhong, et al. Silhouette analysis-based gait recognition for human identification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003,25(12):1505-1518.

        [3] EKINCI M. A new approach for human identification using gait recognition[J]. ICCSA, 2006,1216-1225.

        [4] SINGH J P, AGRAWAL S. An approach for human gait identification based on area[J]. IOSR Journal of Computer Engineering, 2013,10(3):43-47.

        [5] GANGOTIA P, SHRIVASTAVA G S, SINGH J P. An approach of human identification based on gait[J]. International Journal of Computer Applications, 2014,93(1): 33-36.[6] LEE C P, TAN A W C, TAN S C. Gait recognition via optimally interpolated deformable contours[J].Pattern Recognition Letters, 2013,34(6):663-669.[7] CHOUDHURY S D, TJAHJADI T. Silhouette-based gait recognition using procrustes shape analysis and elliptic fourier descriptors[J]. Pattern Recognition, 2012,45(9):3414-3426.

        [8] IWASHITA Y, UCHINO K, KURAZUME R. Gait-based person identification robust to changes in appearance[J]. Sensors(Basel), INNS, 2013,13(6):7884-7901.

        [9] ZHAO Guoying, CHEN Rui, LIU Guoyi, et al. Amplitude spectrum-based gait recognition[C]//Proceedings of the 10thIEEE International Conference and Workshops on Automatic Face and Gesture Recognition. Seoul, South Korea: IEEE Computer Society, 2004: 23-28. doi: http://doi.ieeecomputersociety.org/10.1109/AFGR.2004.1301504.

        [10]COLLINS R T, GROSS R, SHI Jianbo. Silhouette-based Human identification from body shape and gait[C]//Proceedings of the fifth IEEE International Conference on Automatic Face and Gesture Recognition. Washington, DC: IEEE Computer Society, 2002: 351-356.

        [11]HAYFRON-ACQUAH J B, NIXON M S,CATER J N.Automatic gait recognition by symmetry analysis[J]. Pattern Recognition Letters,2003, 24(13): 2175-2183. doi:10.1016/S0167-8655(03)00086-2.

        [12]SUDHA L R, BHAVANI R. Biometric authorization system using gait biometry[J]. International Journal of Computer Science, Engineering and Applications, 2011,1(4):1-13. doi: 10.5121/ijcsea.2011.1401.

        [13]ZENG Wei, WANG Cong, YANG Feifei. Silhouette-based gait recognition via deterministic learning[J].Pattern Recognition, 2014,47(11): 3568-3584.

        [14]YU Shiqi,TAN Daoliang, TAN Tieniu. A framework for evaluating the effect of view angle, clothing and carrying condition on gait recognition[C]// Proceedings of the 18thInternational Conference on Pattern Recognition.Washington, DC: IEEE, 2006:441-444. doi:10.1109/ICPR.2006.67.

        [15]ROKANUJJAMAN M, ISLAM M S, HOSSIAN M A, et al. Effective part-based gait identification using frequency-domain gait entropy features[J]. Multimedia Tools and Applications,2015,74(9):3099-3120. Doi:10.1007/s11042-013-1770-8.

        [16]王亮,胡衛(wèi)明,譚鐵牛. 基于步態(tài)的身份識別[J]. 計算機學(xué)報, 2003,26(3):353-360.

        [17]趙子健,吳曉娟,劉允才.基于角度直方圖的步態(tài)識別算法[J]. 計算機工程與科學(xué),2006,28(6):73-76.

        [18]BRGERON B P. Bioinformatics computing[M].Indianapolis, USA: Prentice Hall PTR, 2002.

        [19]GROSS R, SHI J . The CMU motion of body (mobo) database[R]. technical report. Robotic Institute, Carnegie Mellon University, Pittsburgh, PA, CMU-RITR-01-18, 2001.

        (編輯 張 紅)

        Gait recognition based on multiple image silhouette feature combination

        ZHAO Zhijie1,SUN Xiaoying1,JIN Xuesong1,SUN Huadong1,LU Xin2

        (1.School of Computer and Information Engineering, Harbin University of Commerce, 150028 Harbin, China; 2.School of Electronics and Information Engineering, Harbin Institute of Technology, 150001 Harbin, China)

        This paper proposes a gait recognition algorithm based on three kinds of features from the image′s silhouette. It extracts silhouette features by establishing dynamic information of invariant moment and percentage of frame difference, combining the modified angle distance of static information. It realizes the gait recognition via a modifiedKneighbor method. The experimental result shows that the recognition ratio achieves 91.94% with the static featureis only, and reaches 99.19% with the dynamic features under the improved classifier.

        gait recognition; silhouette; invariant moment; percentage of frame difference; point distance

        10.11918/j.issn.0367-6234.2016.04.031

        2015-04-21.

        國家自然科學(xué)基金(NSFC61401123);黑龍江省自然科學(xué)基金 (F201245).

        趙志杰(1963—), 男, 教授,博士生導(dǎo)師.

        趙志杰,zhijiezzz@aliyun.com.

        TP391.4

        A

        0367-6234(2016)04-0182-07

        猜你喜歡
        數(shù)據(jù)庫特征
        抓住特征巧觀察
        新型冠狀病毒及其流行病學(xué)特征認識
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        數(shù)據(jù)庫
        財經(jīng)(2017年15期)2017-07-03 22:40:49
        數(shù)據(jù)庫
        財經(jīng)(2017年2期)2017-03-10 14:35:35
        數(shù)據(jù)庫
        財經(jīng)(2016年15期)2016-06-03 07:38:02
        數(shù)據(jù)庫
        財經(jīng)(2016年3期)2016-03-07 07:44:46
        數(shù)據(jù)庫
        財經(jīng)(2016年6期)2016-02-24 07:41:51
        精品国产亚洲第一区二区三区 | 国产鲁鲁视频在线播放| AV中文字幕在线视| 在线a亚洲视频播放在线观看| 亚洲三级在线播放| 亚洲国产精品嫩草影院久久av | 大学生粉嫩无套流白浆| 国产肉丝袜在线观看| 国产91成人精品亚洲精品| 亚洲乱精品中文字字幕| 人妖在线一区二区三区| 国产强被迫伦姧在线观看无码| 亚洲依依成人亚洲社区| 欧美日韩国产在线成人网| 日本久久视频在线观看 | 激情人妻网址| 一区二区三区av在线| 欧美人与禽z0zo牲伦交| 亚洲精品自产拍在线观看| 97色偷偷色噜噜狠狠爱网站97| 日韩精品免费一区二区中文字幕| 痴汉电车中文字幕在线| 免费少妇a级毛片人成网| 内射交换多p国产| 无码精品一区二区三区免费16| 狂插美女流出白浆视频在线观看| 妺妺窝人体色www在线| 日本aⅴ大伊香蕉精品视频| 亚洲一区爱区精品无码| 久久天堂av色综合| 99麻豆久久精品一区二区| 国产又黄又硬又粗| 九九精品国产亚洲av日韩| 俺来也俺去啦久久综合网| 亚洲AV色欲色欲WWW| 日本一区二区在线播放| 国产精品无码一区二区三区在| 日本中文字幕一区二区高清在线 | 欧美性猛交99久久久久99按摩| 一本色道久久88亚洲精品综合| 天天爽天天爽天天爽|