亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于關(guān)節(jié)點(diǎn)定位的重點(diǎn)人群步態(tài)分類方法研究

        2023-06-22 18:32:33劉巖松沈馨沈喆
        現(xiàn)代信息科技 2023年2期

        劉巖松 沈馨 沈喆

        摘? 要:基于模型的主流步態(tài)識別方法通常過于關(guān)注下肢運(yùn)動而忽視上肢信息。為解決該方法中上肢信息利用率不足的問題,文章通過改進(jìn)的ZS細(xì)化算法提取到更完整的上肢骨架,同時(shí)提出一種基于關(guān)節(jié)點(diǎn)定位的步態(tài)特征提取方法應(yīng)用于重點(diǎn)人群步態(tài)分類。將細(xì)化所得人體骨架與行人輪廓圖相結(jié)合,定位全身10個(gè)關(guān)節(jié)點(diǎn)坐標(biāo)并建立人體模型,利用關(guān)節(jié)角度的時(shí)序特征進(jìn)行分類效果驗(yàn)證,在中科院CASIA-B數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明:該文所提取的步態(tài)特征有較高的識別性能,平均步態(tài)識別率為77.35%,同時(shí)使用上下肢進(jìn)行步態(tài)分類的平均召回率為84%,與僅采用下肢信息相比提高38%。

        關(guān)鍵詞:步態(tài)識別;人群分類;關(guān)節(jié)點(diǎn)定位;上肢特征

        中圖分類號:TP391.4? ? 文獻(xiàn)標(biāo)志碼:A? ? 文章編號:2096-4706(2023)02-0073-06

        Research on Gait Classification Method of Key Population Based on Joint Point Location

        LIU Yansong, SHEN Xin, SHEN Zhe

        (College of Civil Aviation, Shenyang Aerospace University, Shenyang? 110136, China)

        Abstract: The mainstream gait recognition methods based on model usually pay too much attention to the movement of lower limbs and ignore the information of upper limbs. In order to solve the problem of insufficient utilization of upper limb information in this method, a more complete upper limb skeleton is extracted through the improved ZS thinning algorithm, and a gait feature extraction method based on joint point localization is proposed to apply to the gait classification of key populations. The human skeleton obtained by thinning algorithm is combined with the pedestrian contour map to locate the coordinates of 10 joint points of the whole body. Then the human model could be established. The classification effect is verified by using the time series feature of joint angle, and the experiment is carried out on CASIA-B dataset of Chinese Academy of Sciences. The experimental results show that the gait features extracted in this paper have high recognition performance. The average gait recognition rate is 77.35%, and the average recall rate of gait classification using upper and lower limbs is 84%, which is 38% higher than that using only lower limb information.

        Keywords: gait recognition; population classification; joint point location; upper limb characteristic

        0? 引? 言

        最近幾年,國際局勢的復(fù)雜多變對國內(nèi)安全穩(wěn)定形勢造成較大壓力,公安部明確規(guī)定涉恐人員、涉穩(wěn)人員、涉毒人員、在逃人員、重大刑事犯罪前科人員、肇事精神病人、重點(diǎn)上訪人員七類人員為重點(diǎn)人員[1]。基于視頻圖像的目標(biāo)跟蹤技術(shù)近年來不斷發(fā)展[2],利用視頻監(jiān)控進(jìn)行重點(diǎn)人群分類使視頻監(jiān)控的利用效率得到提高,且有利于公共場所的安全管理與平穩(wěn)運(yùn)轉(zhuǎn)。利用步態(tài)特征進(jìn)行身份識別是生物特征識別領(lǐng)域的一個(gè)研究熱點(diǎn)[3,4],行人在肌肉力量、肌腱及骨骼、重心等方面的差異可以唯一標(biāo)識一個(gè)人,因此利用這些差異可以搭建出人體運(yùn)動模型或直接提取特征實(shí)現(xiàn)步態(tài)識別[5]。與其他生物識別特征相比,步態(tài)識別在目標(biāo)跟蹤方面的優(yōu)勢體現(xiàn)在遠(yuǎn)距離識別、非受控性、無需路人配合及難于隱藏偽裝等[6]。

        步態(tài)識別的研究方向可以分為基于非模型的和基于模型的方法[7,8]?;诜悄P偷牟綉B(tài)識別方法直接從人體輪廓中提取步態(tài)特征,主要分為基于步態(tài)圖像序列[9]的方法和基于步態(tài)能量圖[10]的方法?;谀P偷牟綉B(tài)識別方法是對運(yùn)動學(xué)模型的構(gòu)建,即對人體結(jié)構(gòu)實(shí)現(xiàn)建模,并且通過這些模型獲取特征表達(dá),常用的模型包括骨架[11]、橢圓[12]等。

        人體運(yùn)動由骨骼、肌肉以及關(guān)節(jié)協(xié)調(diào)完成,根據(jù)有關(guān)實(shí)驗(yàn)結(jié)論[13,14],人行走過程中,關(guān)節(jié)角度變化具有穩(wěn)定性,能夠反映出人行走時(shí)的步態(tài)變化。在以往的研究中[15,16],基于視頻的步態(tài)特征提取通常聚焦于下肢,上肢在運(yùn)動過程中的豐富信息被忽略[17],因此本文根據(jù)運(yùn)動過程中各關(guān)節(jié)角度的變化,提出一種基于全身模型的步態(tài)識別方法進(jìn)行重點(diǎn)人群分類,首先用改進(jìn)的ZS細(xì)化算法進(jìn)行人體骨架的提取,其次提出基于細(xì)化骨架的關(guān)節(jié)點(diǎn)定位方法,建立人體模型并計(jì)算出關(guān)節(jié)角度,最后以關(guān)節(jié)角度時(shí)間序列作為步態(tài)特征,進(jìn)行分類識別。在中科院公開的步態(tài)數(shù)據(jù)集中,隨機(jī)設(shè)定部分人為重點(diǎn)人員驗(yàn)證分類效果,實(shí)驗(yàn)結(jié)果顯示,上下肢特征同時(shí)輸入分類器中得到的分類召回率高于單獨(dú)使用上肢或下肢特征,并且證明本文算法能夠準(zhǔn)確區(qū)分重點(diǎn)人群與普通人群。

        1? 周期性骨架提取

        1.1? 步態(tài)周期檢測

        步態(tài)周期檢測是步態(tài)識別任務(wù)中的第一個(gè)關(guān)鍵環(huán)節(jié)[18],該環(huán)節(jié)能夠控制輸入序列的長度并影響識別的精度。通過檢測關(guān)鍵狀態(tài)可以直接實(shí)現(xiàn)步態(tài)周期檢測[19],一個(gè)步態(tài)周期中的4種關(guān)鍵狀態(tài)如表1所示。

        對人體輪廓的外接矩形的寬高比變化曲線進(jìn)行自相關(guān)分析可以獲取行人的關(guān)鍵狀態(tài)[20],寬高比變化圖中第一個(gè)極小值點(diǎn)對應(yīng)幀為步態(tài)周期中的狀態(tài)1,第二個(gè)極大值點(diǎn)為狀態(tài)2,第二個(gè)極小值點(diǎn)為狀態(tài)3,第三個(gè)極大值點(diǎn)對應(yīng)幀為狀態(tài)4。一個(gè)行人整個(gè)行走過程的寬高比變化圖如圖1所示。

        從圖1中可以看出,寬高比在第5、17、29、42、53幀達(dá)到極大值點(diǎn),在第11、23、35、48幀達(dá)到極小值點(diǎn),選取第一個(gè)極小值點(diǎn)到第三個(gè)極大值點(diǎn)之間的所有幀,即可得到該行人在90°視角下一個(gè)完整的步態(tài)周期,如圖2所示。

        1.2? 基于細(xì)化算法的人體骨架提取

        細(xì)化算法[21]是一種能夠保持原二值圖像拓?fù)浣Y(jié)構(gòu)的骨架提取算法,可應(yīng)用于人體骨架提取。而ZS細(xì)化算法[22]是一種并行算法,運(yùn)行速度快,且細(xì)化后曲線連接性好,但無法保證細(xì)化結(jié)果為單像素骨架。P1的八鄰域如圖3所示。

        ZS細(xì)化算法的操作步驟為:

        (1)首先將同時(shí)滿足以下條件的邊界點(diǎn)進(jìn)行標(biāo)記:

        a1:2≤N(P1)≤6

        a2:S(P1)=1

        a3:P2×P4×P6=0

        a4:P4×P6×P8=0

        a5:P2×P4×P8=0

        a6:P2×P6×P8=0

        其中N(P1)是P1的八鄰域中所有非零點(diǎn)的個(gè)數(shù),S(P1)是以P2,P3,…,P9為變化順序時(shí),該點(diǎn)值從0到1變化的次數(shù)總和,如果前四個(gè)條件中有任意條件不滿足,則S(P1)=2,像素點(diǎn)P1不會被刪除。

        (2)只執(zhí)行條件a5和a6,對所有邊界點(diǎn)檢驗(yàn)完畢后,刪除所有標(biāo)記點(diǎn)。

        重復(fù)進(jìn)行這兩個(gè)操作,直至沒有邊界點(diǎn)符合標(biāo)記的條件,則細(xì)化過程完畢,未被刪除的點(diǎn)構(gòu)成骨架,即細(xì)化后結(jié)果。

        條件a1可以保留骨架端點(diǎn),條件a2可以避免骨架線上端點(diǎn)之間的點(diǎn)被刪除;條件a3的作用是移除圖像中東南邊界的邊界點(diǎn),條件a4的作用是移除圖像中西北角的邊界點(diǎn);條件a5、a6使西北角的點(diǎn)或者東南角的點(diǎn)被刪除。

        提取結(jié)果如圖4所示,可以看出將ZS細(xì)化算法用于人體骨架提取,所得人體骨架可以清晰地描述人體骨架的走向并保持原圖像人體結(jié)構(gòu)。

        1.3? 基于改進(jìn)ZS細(xì)化算法的周期骨架提取

        圖5為ZS細(xì)化骨架提取結(jié)果,對比原輪廓圖可以看出當(dāng)一只手臂后擺且與軀干距離較近時(shí),后擺手臂結(jié)構(gòu)易被忽視,如圖6所示,針對后擺手臂缺失的問題,本文對ZS細(xì)化算法做出相應(yīng)的改進(jìn)。

        將條件a1改為3≤N(P1)≤6,該條件使連接數(shù)為2的邊界點(diǎn)被保留,同時(shí)亦增加圖像中的冗余像素。因此,本文引入消除模板[23],用來去除骨架斜線處的冗余像素點(diǎn)。消除模板如圖7所示。

        消除模板滿足的五個(gè)條件為:

        b1:(P2+P8=1)&&(P4+P5+P6+P9=0)

        b2:(P6+P8=1)&&(P2+P3+P4+P7=0)

        b3:(P6+P8=1)&&(P2+P3+P4+P7=0)

        b4:(P2+P4=1)&&(P3+P6+P7+P8=0)

        b5:P2+P4+P6+P8=3&&P3+P5+P7+P9=0

        消除條件b1~b4用于消除斜線冗余像素。當(dāng)N(P1)=3時(shí),P1點(diǎn)可能是分叉點(diǎn)或邊界點(diǎn),因此引入條件b5用于刪除分叉點(diǎn)處的非骨架像素。

        當(dāng)一只手臂后擺且與軀干相連時(shí),改進(jìn)后的ZS細(xì)化算法與ZS細(xì)化算法提取骨架的結(jié)果如圖8所示。

        改進(jìn)的ZS細(xì)化算法增加了消除模板,因此提取人體骨架的時(shí)間亦增加,但能夠解決后擺手臂骨架丟失的問題,同時(shí)不會增加冗余像素。

        2? 步態(tài)特征提取

        2.1? 基于改進(jìn)ZS細(xì)化算法的周期骨架提取

        從解剖學(xué)的角度看,人體是由骨、骨連接及骨骼肌組成[24],骨通過關(guān)節(jié)連成骨骼,構(gòu)成人體支架。在運(yùn)動中,骨起杠桿作用,關(guān)節(jié)是運(yùn)動的支點(diǎn),骨只能在關(guān)節(jié)上在一定范圍內(nèi)按一定自由度運(yùn)動,不能脫離關(guān)節(jié)[25]。基于這種運(yùn)動約束,本文根據(jù)圖9所示人體骨骼模型和細(xì)化所得人體骨架分析行人關(guān)節(jié)點(diǎn)位置。

        人體在行走過程中,后擺大臂與小臂成直線,后擺肘關(guān)節(jié)點(diǎn)始終在這條直線上,因此本文定位的10個(gè)關(guān)節(jié)點(diǎn)分別為頭部、肩關(guān)節(jié)點(diǎn)、前擺手肘關(guān)節(jié)點(diǎn)、兩個(gè)手腕關(guān)節(jié)點(diǎn)、髖關(guān)節(jié)點(diǎn)、兩個(gè)膝關(guān)節(jié)點(diǎn)、兩個(gè)踝關(guān)節(jié)點(diǎn)。各關(guān)節(jié)點(diǎn)連接關(guān)系如圖10所示。

        假設(shè)行人全部從右向左行走,以二值圖像的左上頂點(diǎn)為原點(diǎn)(0,0),向右為x軸正方向,向下為y軸正方向,建立坐標(biāo)系。遍歷行人狀態(tài)1圖像中像素為1的點(diǎn),由式(1)計(jì)算可得該行人人體高度H:

        H=y(tǒng)low-yhigh? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?(1)

        其中yhigh為像素點(diǎn)為1的最高點(diǎn)縱坐標(biāo),ylow為最低點(diǎn)縱坐標(biāo)。

        肩關(guān)節(jié)點(diǎn)與髖關(guān)節(jié)點(diǎn)易受衣著、背包等因素影響,且縱坐標(biāo)位置可由人體骨骼圖確定,因此根據(jù)縱坐標(biāo)橫向掃描輪廓圖進(jìn)行定位,其中髖關(guān)節(jié)點(diǎn)掃描結(jié)果有三種[26],如圖11所示。

        圖11中,結(jié)果一形成的原因是兩個(gè)手臂與軀干重疊或粘連,目標(biāo)區(qū)間即為該掃描區(qū)間;結(jié)果二是因?yàn)橐粋€(gè)手臂與軀干重疊或粘連,另一個(gè)手臂與軀干分離,目標(biāo)區(qū)間為第二個(gè)掃描區(qū)間;兩個(gè)手臂同時(shí)與軀干分離時(shí)為掃描結(jié)果三,目標(biāo)區(qū)間為最大掃描區(qū)間。

        肩關(guān)節(jié)點(diǎn)與髖關(guān)節(jié)點(diǎn)提取過程如表2所示。

        表2中,xsl表示肩部目標(biāo)區(qū)間的左端點(diǎn)橫坐標(biāo),Ls代表肩部寬度,xhl表示髖部目標(biāo)區(qū)間的左端點(diǎn)橫坐標(biāo),Lhip表示髖部寬度。

        當(dāng)手臂前擺且與軀干分離時(shí),易在骨架圖中尋得指尖Pfinger位置,以指尖Pfinger為圓心,手掌長度0.108H為半徑作圓,該圓與骨架的交點(diǎn)即為前擺手腕關(guān)節(jié)點(diǎn)Pwrist1。

        肘關(guān)節(jié)是小臂與大臂的交點(diǎn),大臂在運(yùn)動時(shí)無法脫離肩關(guān)節(jié),小臂始終與腕關(guān)節(jié)相連,因此前肘關(guān)節(jié)點(diǎn)的定位問題可以用解析幾何來分析,如圖12所示。

        已知前擺手腕關(guān)節(jié)點(diǎn)Pwrist1坐標(biāo)和肩關(guān)節(jié)點(diǎn)Pshoulder坐標(biāo),小臂長度0.145H,大臂長度0.188H,以Pwrist1為圓心,0.145H為半徑作圓,以Pshoulder為圓心,0.188H為半徑作圓,兩圓在圓心連線下方的交點(diǎn)即為前擺肘關(guān)節(jié)點(diǎn)Pelbow。

        由式(2)(3)(4)(5)分別可計(jì)算出頭部中心點(diǎn)、后擺手腕關(guān)節(jié)點(diǎn)、膝關(guān)節(jié)點(diǎn)、踝關(guān)節(jié)點(diǎn):

        Phead={(x, y) | y=0.065H,SK(x, y)=1}? ? ? ? (2)

        Pwrist2={(x, y) | SK(x, y)=1,disk(Pshoulder, Pwrist2)=0.24H}(3)

        Pknee={(x, y) | SK(x, y)=1,disk(Phip, Pknee)=0.245H}(4)

        Pankle={(x, y) | SK(x, y)=1,disk(Pknee, Pankle)=0.25H}(5)

        式中SK(x, y)表示骨架圖中(x, y)坐標(biāo)點(diǎn)像素值,disk(P1, P2)表示P1與P2之間的距離。

        依據(jù)上述方法所得關(guān)節(jié)點(diǎn)與文獻(xiàn)[15]方法相比,本文在下肢關(guān)節(jié)點(diǎn)定位的基礎(chǔ)上,準(zhǔn)確定位頭部、肩部、手腕以及前擺手肘關(guān)節(jié)點(diǎn)。將各關(guān)節(jié)點(diǎn)相連,即可得到完整的人體模型,如圖13所示。

        2.2? 關(guān)節(jié)角度計(jì)算與時(shí)序特征提取

        僅通過二值圖像無法判斷左右腳及左右手臂,因此本文僅討論關(guān)節(jié)點(diǎn)的前后,不考慮左右的區(qū)別。本文所用的關(guān)節(jié)角度如圖14所示。

        依據(jù)式(6)計(jì)算:

        (6)

        其中(xa, ya)表示在所求夾角邊上的關(guān)節(jié)點(diǎn)坐標(biāo),(xb, yb)表示所求夾角的頂點(diǎn)關(guān)節(jié)坐標(biāo)。

        由式(6)計(jì)算得關(guān)節(jié)角度在一個(gè)步態(tài)周期內(nèi)變化的時(shí)間序列,其中大腿和小腿4個(gè)關(guān)節(jié)角度定義為下肢關(guān)節(jié)角度、手臂、手肘及頸部4個(gè)關(guān)節(jié)角度定義為上肢關(guān)節(jié)角度,上下肢關(guān)節(jié)角度和軀干關(guān)節(jié)角度定義為全身關(guān)節(jié)角度。關(guān)節(jié)角度變化對比如圖15所示。

        從圖15中可以看出,不同行人的關(guān)節(jié)角度變化差異較大,而同一行人的時(shí)序相似。最直接的特征提取方法是通過基本統(tǒng)計(jì)量來進(jìn)行特征提取[27],因此本文選擇利用有量綱的時(shí)域特征來描述關(guān)節(jié)角度變化的時(shí)間序列,包括最大值、最小值、均值、方差、偏度、峰度以及熵,進(jìn)行歸一化處理后得到最后的特征向量。

        3? 實(shí)驗(yàn)數(shù)據(jù)統(tǒng)計(jì)與分析

        本文選擇中科院CASIA-B數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)集,選取數(shù)據(jù)集中124個(gè)人90°視角下,4個(gè)正常行走的序列作為訓(xùn)練集,1個(gè)正常行走的序列作為測試集,以MATLAB 2020b為實(shí)驗(yàn)平臺進(jìn)行兩部分的實(shí)驗(yàn)。一是對本文方法進(jìn)行步態(tài)識別實(shí)驗(yàn),用三種不同的分類器驗(yàn)證與分析本文方法的識別性能;二是進(jìn)行重點(diǎn)人群步態(tài)分類實(shí)驗(yàn),統(tǒng)計(jì)不同的特征分類的召回率和精確率作為實(shí)驗(yàn)結(jié)果,分析上下肢與全身關(guān)節(jié)角度特征對分類結(jié)果的影響。

        本文方法的步態(tài)識別結(jié)果如表3所示,從表中看,將全身關(guān)節(jié)角度作為步態(tài)特征進(jìn)行識別時(shí)識別率最高,下肢關(guān)節(jié)角度識別率最低,使用支持向量機(jī)作為分類器時(shí)識別率最高,最高識別率為82.26%。

        重點(diǎn)人群分類實(shí)驗(yàn)選擇將124個(gè)人中的隨機(jī)某五個(gè)人定義為重點(diǎn)人員,將支持向量機(jī)分類得到的標(biāo)簽作為小標(biāo)簽,是否為重點(diǎn)人員作為大標(biāo)簽。例如將前5名認(rèn)為是重點(diǎn)人員,其實(shí)際小標(biāo)簽為1~5,實(shí)際大標(biāo)簽全為2,若待測樣本中預(yù)測小標(biāo)簽為1~5中的任意數(shù),則該樣本的預(yù)測大標(biāo)簽為2。實(shí)驗(yàn)結(jié)果如表4所示。

        人群分類的精確率全部達(dá)到100%,即所識別的重點(diǎn)人員實(shí)際全為重點(diǎn)人員。從表4中看,單獨(dú)使用下肢關(guān)節(jié)角度特征進(jìn)行步態(tài)分類召回率僅為46%,單獨(dú)使用上肢關(guān)節(jié)角度特征召回率則為68%,利用全身關(guān)節(jié)角度特征進(jìn)行分類實(shí)驗(yàn)平均召回率能夠達(dá)到84%,即能夠在124個(gè)人當(dāng)中找出4.2名重點(diǎn)人員。

        從兩個(gè)實(shí)驗(yàn)的結(jié)果來看,本文方法解決了視頻圖像上肢信息利用率不足的問題,僅利用上肢關(guān)節(jié)角度進(jìn)行步態(tài)分類時(shí)效果并不低于下肢關(guān)節(jié)角度,甚至優(yōu)于下肢特征,而全身關(guān)節(jié)角度可以更好地表示步態(tài)特征

        4? 結(jié)? 論

        本文提出了一種基于關(guān)節(jié)點(diǎn)定位的步態(tài)分類方法,通過改進(jìn)的ZS細(xì)化算法獲取完整人體骨架,根據(jù)人體骨骼模型定位全身關(guān)節(jié)點(diǎn),計(jì)算出關(guān)節(jié)角度,并依據(jù)全身關(guān)節(jié)角度特征進(jìn)行步態(tài)識別,充分利用上肢信息。

        首先,根據(jù)寬高比變化曲線確定步態(tài)周期,在ZS細(xì)化算法的基礎(chǔ)上,保留邊界數(shù)為2的點(diǎn),同時(shí)引入消除模板,保留后擺手臂結(jié)構(gòu)且去除冗余像素點(diǎn),得到一個(gè)步態(tài)周期內(nèi)的人體骨架信息。

        其次,在人體運(yùn)動約束的基礎(chǔ)上,根據(jù)人體骨架信息和輪廓圖定位出全身10個(gè)關(guān)節(jié)點(diǎn),包括上肢手臂、手肘關(guān)節(jié),建立人體模型,以此計(jì)算出關(guān)節(jié)角度并得到關(guān)節(jié)角度時(shí)間序列的統(tǒng)計(jì)特征。

        最后,本文實(shí)驗(yàn)?zāi)康氖球?yàn)證本文所提取上肢特征對于步態(tài)分類的有效性,因此不同于當(dāng)前步態(tài)識別領(lǐng)域的研究成果,僅利用統(tǒng)計(jì)特征進(jìn)行分類驗(yàn)證,忽略了更多時(shí)域和頻域特征。

        后續(xù)工作包括以下兩點(diǎn):

        (1)進(jìn)一步提高關(guān)節(jié)點(diǎn)提取的魯棒性,研究如何在行人背包的狀態(tài)下得到精確的關(guān)節(jié)數(shù)據(jù),并從關(guān)節(jié)角度的時(shí)序變化中挖掘出更有效的特征。

        (2)在挖掘有效特征的基礎(chǔ)上,尋找精度更高的步態(tài)識別方法。

        參考文獻(xiàn):

        [1] 陳建,胡長海.淺析新形勢下重點(diǎn)人員動態(tài)管控對策 [J].河南警察學(xué)院學(xué)報(bào),2013,22(4):57-60.

        [2] 李璽,查宇飛,張?zhí)熘?深度學(xué)習(xí)的目標(biāo)跟蹤算法綜述 [J].中國圖象圖形學(xué)報(bào),2019,24(12):2057-2080.

        [3] 孫哲南,赫然,王亮,等.生物特征識別學(xué)科發(fā)展報(bào)告 [J].中國圖象圖形學(xué)報(bào),2021,26(6):1254-1329.

        [4] 柴艷妹,夏天,韓文英,等.步態(tài)識別研究進(jìn)展 [J].計(jì)算機(jī)科學(xué),2012,39(6):10-15+46.

        [5] 朱應(yīng)釗,李嫚.步態(tài)識別現(xiàn)狀及發(fā)展趨勢 [J].電信科學(xué),2020,36(8):130-138.

        [6] 王科俊,丁欣楠,邢向磊,等.多視角步態(tài)識別綜述 [J].自動化學(xué)報(bào),2019,45(5):841-852.

        [7] Singh J P,Jain S,Arora S,et al.A survey of behavioral biometric gait recognition: current success and future perspectives [J].Archives of Computational Methods in Engineering,2019,28(1):1-42.

        [8] 李貽斌,郭佳旻,張勤.人體步態(tài)識別方法與技術(shù) [J].吉林大學(xué)學(xué)報(bào):工學(xué)版,2020,50(1):1-18.

        [9] 王亮,胡衛(wèi)明,譚鐵牛.基于步態(tài)的身份識別 [J].計(jì)算機(jī)學(xué)報(bào),2003(3):353-360.

        [10] JU H,BIR B. Individual Recognition Using Gait Energy Image [J].Ieee Transactions on Pattern Analysis and Machine Intelligence,2005,28(2):316-322.

        [11] 劉玉棟,蘇開娜,馬麗.一種基于模型的步態(tài)識別方法 [J].計(jì)算機(jī)工程與應(yīng)用,2005(9):88-92.

        [12] LEE L,GRIMSON W E L. Gait analysis for recognition and classification [C]//Proceedings of Fifth IEEE International Conference on Automatic Face Gesture Recognition.Washington:IEEE,2002:1-8.

        [13] 楊年峰.人體運(yùn)動協(xié)調(diào)規(guī)律及其參數(shù)化描述 [D].北京:清華大學(xué),2001.

        [14] 馬越,丁浩.人行走過程中膝關(guān)節(jié)角度特征研究 [J].刑事技術(shù),2019,44(4):322-326.

        [15] 周倩,孫運(yùn)強(qiáng),姚愛琴,等.基于人體關(guān)節(jié)點(diǎn)定位的步態(tài)識別技術(shù)研究 [J].國外電子測量技術(shù),2019,38(1):52-56.

        [16] 初凱.基于下肢關(guān)節(jié)點(diǎn)運(yùn)動關(guān)系的特定人群步態(tài)識別 [J].山東農(nóng)業(yè)大學(xué)學(xué)報(bào):自然科學(xué)版,2020,51(6):1170-1174.

        [17] MOATAZ E,CHRISTOPHER K,JEONGHOON O,et al. Microsoft kinect can distinguish differences in over-ground gait between older persons with and without parkinson's disease [J].Medical Engineering and Physics,2016,44:1-7.

        [18] 徐怡博.步態(tài)周期檢測方法研究 [D].哈爾濱:哈爾濱工程大學(xué),2018.

        [19] 趙喜玲,張曉惠.基于動態(tài)特征和靜態(tài)特征融合的步態(tài)識別方法 [J].湘潭大學(xué)自然科學(xué)學(xué)報(bào),2017,39(4):89-91.

        [20] WANG L,TAN T,NING H Z,et al.Silhouette analysis-based gait recognition for human identification [J].IEEE Trans Pattern Anal Mach Intell,2003,25(12):1505-1518.

        [21] 韓建峰,宋麗麗.改進(jìn)的字符圖像細(xì)化算法 [J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2013,25(1):62-66.

        [22] ZHANG T Y,SUEN C Y. A fast parallel algorithm for thinning digital patterns [J].Commun ACM,1984,27(3):236-239.

        [23] 常慶賀,吳敏華,駱力明.基于改進(jìn)ZS細(xì)化算法的手寫體漢字骨架提取 [J].計(jì)算機(jī)應(yīng)用與軟件,2020,37(7):107-113+164.

        [24] 王晏.人體下肢運(yùn)動分析[D].大連:大連理工大學(xué),2005.

        [25] 王建輝,徐秀林.人體下肢動力學(xué)建模與仿真研究現(xiàn)狀 [J].中國康復(fù)理論與實(shí)踐,2012,18(8):731-733.

        [26] 孫怡,王晏,宋植官.基于圖像信息的人體下肢關(guān)節(jié)定位 [J].中國生物醫(yī)學(xué)工程學(xué)報(bào),2007(1):157-160.

        [27] 林珠,邢延.數(shù)據(jù)挖掘中適用于分類的時(shí)序數(shù)據(jù)特征提取方法 [J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2012,21(10):224-229.

        作者簡介:劉巖松(1963—),男,漢族,遼寧沈陽人,教授,碩士研究生,研究方向:交通信息工程及控制;沈馨(1995—),女,漢族,江蘇儀征人,碩士在讀,研究方向:交通信息工程及控制;沈喆(1980—),女,漢族,遼寧鞍山人,講師,博士,研究方向:圖像處理。

        收稿日期:2022-07-31

        基金項(xiàng)目:遼寧省教育廳青年科技人才“育苗”項(xiàng)目(JYT2020130);痕跡檢驗(yàn)鑒定技術(shù)公安部重點(diǎn)實(shí)驗(yàn)室開放課題(HJKF201907);公安部文件檢驗(yàn)重點(diǎn)實(shí)驗(yàn)室開放課題(FTKF202102)

        国产精品-区区久久久狼| 图片小说视频一区二区| 曰韩亚洲av人人夜夜澡人人爽 | 香港日本三级亚洲三级| 日韩AV无码一区二区三| 黄片午夜免费观看视频国产 | 精品久久一区二区av| 国产av在线观看久久| 99久久综合精品五月天| 亚洲AV无码成人品爱| 白白色青青草视频免费观看| 一区二区三区字幕中文| 一边吃奶一边摸做爽视频| 亚洲成a人片在线网站| 亚洲国产免费一区二区| 偷拍偷窥女厕一区二区视频| 日本爽快片18禁免费看| 中文AV怡红院| 国产精品国产三级国产专播| 公与淑婷厨房猛烈进出| 欧美成年黄网站色视频| 99久久精品国产片| 北条麻妃在线中文字幕| 亚洲成av人片在www| 初高中生精品福利视频| 久久久亚洲精品蜜臀av| 亚洲夫妻性生活免费视频| 日躁夜躁狠狠躁2001| 成人无码区免费AⅤ片WWW| 久久久黄色大片免费看| 欧美丰满熟妇bbb久久久| 免费的成年私人影院网站| 伊人久久婷婷综合五月97色| 国产精品自线一区二区三区| 亚洲日韩成人av无码网站| 国产一区二区三区4区| 国产精品一二三区亚洲| 无码字幕av一区二区三区| 日本丰满老妇bbw| 女同性黄网aaaaa片| 杨幂Av一区二区三区|