亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于CNN算法的步態(tài)識(shí)別模型研究

        2023-08-21 09:57:42張亦鳴王秋軼吳梓睿李文琳朱鵬宇丁浩
        無(wú)線互聯(lián)科技 2023年12期
        關(guān)鍵詞:深度學(xué)習(xí)

        張亦鳴 王秋軼 吳梓睿 李文琳 朱鵬宇 丁浩

        摘要:為解決傳統(tǒng)步態(tài)識(shí)別模型訓(xùn)練時(shí)間長(zhǎng)、識(shí)別準(zhǔn)確率低等問(wèn)題,文章構(gòu)建了能夠進(jìn)行深度學(xué)習(xí)的行走時(shí)步態(tài)特征數(shù)據(jù)庫(kù),通過(guò)對(duì)所選取特征的特定性、關(guān)聯(lián)性和穩(wěn)定性的研究,建立步態(tài)特征矩陣,利用Tensorflow設(shè)計(jì)CNN算法進(jìn)行深度學(xué)習(xí),使其能夠自動(dòng)實(shí)現(xiàn)基于行走時(shí)步態(tài)特征的個(gè)人識(shí)別。在27名實(shí)驗(yàn)者情況下,該模型的識(shí)別準(zhǔn)確率可達(dá)99%以上,且訓(xùn)練時(shí)間較短,優(yōu)于目前已發(fā)表的其他模型,對(duì)構(gòu)建更大數(shù)據(jù)庫(kù)的識(shí)別系統(tǒng)具有啟發(fā)意義。

        關(guān)鍵詞:步態(tài)識(shí)別;CNN算法;深度學(xué)習(xí)

        中圖分類號(hào):TP183? 文獻(xiàn)標(biāo)志碼:A

        0 引言

        隨著時(shí)代和科學(xué)技術(shù)的發(fā)展,出現(xiàn)越來(lái)越多的身份識(shí)別技術(shù),如肖軍[1]、張震[2]、姚越武[3]等在人臉識(shí)別、虹膜識(shí)別和指紋等的研究成果獲得廣泛應(yīng)用。步態(tài)識(shí)別技術(shù)作為生物識(shí)別的新興技術(shù)[4-6],雖然近年來(lái)獲得關(guān)注和發(fā)展,但由于特征穩(wěn)定性不及前文所述的特征,神經(jīng)網(wǎng)絡(luò)的計(jì)算較為復(fù)雜等原因,尚未得到普及。

        筆者通過(guò)查閱文獻(xiàn)等方式,發(fā)現(xiàn)當(dāng)前步態(tài)識(shí)別技術(shù)主要存在如下局限性:(1)尚無(wú)法實(shí)現(xiàn)個(gè)體的識(shí)別,只能實(shí)現(xiàn)對(duì)某些特定特征的種類識(shí)別。(2)直接利用原始坐標(biāo)數(shù)據(jù)進(jìn)行訓(xùn)練,計(jì)算量較大,且容易受到人所在的絕對(duì)位置的影響。

        為減小計(jì)算量的同時(shí)保證識(shí)別的準(zhǔn)確性,本實(shí)驗(yàn)構(gòu)建了能夠進(jìn)行深度學(xué)習(xí)的行走步態(tài)特征數(shù)據(jù)庫(kù),在訓(xùn)練前提取步態(tài)特征矩陣,并對(duì)其特定性、穩(wěn)定性和相互關(guān)聯(lián)程度進(jìn)行了論證,在減小后續(xù)訓(xùn)練計(jì)算量的同時(shí)實(shí)現(xiàn)了信息的挖掘,避免了人每次所在絕對(duì)位置的不同帶來(lái)的誤差。利用CNN算法進(jìn)行深度學(xué)習(xí)訓(xùn)練,以期得到較優(yōu)的訓(xùn)練結(jié)果,為構(gòu)建更大規(guī)模個(gè)體身份識(shí)別數(shù)據(jù)庫(kù)和計(jì)算方法提供相關(guān)技術(shù)支持。

        1 數(shù)據(jù)采集

        本實(shí)驗(yàn)采集了27名實(shí)驗(yàn)者,均健康狀況良好,無(wú)明顯不良行走習(xí)慣。本實(shí)驗(yàn)使用英國(guó) Vicon三維運(yùn)動(dòng)捕捉系統(tǒng)。系統(tǒng)以主動(dòng)紅外捕捉的方式獲取Marker點(diǎn)坐標(biāo)。精確度和分辨率可以滿足實(shí)驗(yàn)要求[7]。采集過(guò)程如下:

        (1)定義原點(diǎn)并校準(zhǔn)XYZ軸。其中,X軸方向?yàn)榭臻g前后方向,Y軸方向?yàn)榭臻g左右方向,Z軸為空間上下方向[8]。

        (2)實(shí)驗(yàn)者佩戴Marker點(diǎn)設(shè)備,佩戴部位如圖1所示。右足:第五趾前端(Marker 1)和足跟外側(cè)最突處(Marker 2);左足:兩個(gè)第五趾前端(Marker 3)和足跟外側(cè)最突處(Marker 4)。下肢共16個(gè)Marker點(diǎn),分別為:左小腿佩戴儀(Marker 5,6,9,10),右小腿佩戴儀(Marker 7,8,11,12),左大腿佩戴儀(Marker13,14,17,18),右大腿佩戴儀(Marker 15,16,19,20)。左右手臂共6個(gè)Marker點(diǎn),分別為左右手臂肱骨大結(jié)節(jié)處,左右手臂肘關(guān)節(jié)鷹嘴處,左右手臂橈骨遠(yuǎn)端

        骨骺(左臂Marker點(diǎn)依次為Marker 25,23,21,右臂Marker點(diǎn)依次為Marker 26,24,22)。腰部佩戴儀4個(gè)Marker點(diǎn)(Marker 27,28,29,30)。

        (1) 實(shí)驗(yàn)者沿X軸正方向自然行走,系統(tǒng)以100 Hz/s的頻率采集各個(gè)Marker點(diǎn)的三維坐標(biāo)。

        (2) 多次采集,每名實(shí)驗(yàn)者采集20次。

        2 步態(tài)特征模型建立

        2.1 周期截取

        數(shù)據(jù)采集時(shí)以一個(gè)復(fù)步為周期??紤]到人的單次普通步行過(guò)程可以分為起足、碾足、落足3個(gè)階段,故每個(gè)周期步的計(jì)時(shí)從左腳起足即足根部離開(kāi)地面開(kāi)始,到左腳第二次完成落足即足尖落至地面結(jié)束。繪制左足第五趾骨高度和左足足跟高度隨時(shí)間變化的圖像。通過(guò)最小峰值間隔MRD、峰值兩側(cè)最小相對(duì)高度MRH識(shí)別出所有峰,定義識(shí)別出的第一個(gè)峰時(shí)間為T1,最后一個(gè)峰對(duì)應(yīng)的為T2,從而定義一個(gè)模型周期T。計(jì)算方式如下:

        offset=[200-T1+T2]/2(1)

        T=(T2+offset)-(T1-offset)(2)

        式(2)中,(T1-offset)為周期起始幀,(T2+offset)為周期結(jié)束幀。本實(shí)驗(yàn)中MRD=35,MRH=8。

        2.2 特征選取

        為了表述方便,本文以Ni表示編號(hào)為i的Marker點(diǎn),以Xi、Yi、Zi分別表示編號(hào)為i的Marker點(diǎn)的X、Y、Z軸坐標(biāo)。利用空間幾何的方法對(duì)如下特征進(jìn)行計(jì)算:

        t時(shí)刻左右肘關(guān)節(jié)角度為αt1和αt2,使用大臂和小臂的夾角來(lái)表示,以右臂為例其計(jì)算方法為:

        αt1=arccosN23N21·N23N25N23N21×N23N25(3)

        αt2的計(jì)算與之類似。

        t時(shí)刻左右大臂相對(duì)于在XZ平面上相對(duì)于Z軸的擺動(dòng)角度為βt1和βt2,以右臂為例其計(jì)算方法為:

        βt1=arctanY23-Y25X23-X25(4)

        βt2的計(jì)算與之類似。

        t時(shí)刻左右膝關(guān)節(jié)在XZ平面投影的角度為γt1和γt2,反映了膝關(guān)節(jié)在前后方向上的角度變化;在YZ平面投影的角度δt1和δt2反映了是否存在X形腿、O形腿。設(shè)Marker 17,18、Marker 13,14、Marker 9,10、Marker 5,6的中點(diǎn)依次為點(diǎn)A、B、C、D,則其計(jì)算方法為:

        γt1=arccos(XA-XB)×(XD-XC)+(ZA-ZB)×(ZD-ZC)((XA-XB)2+((ZA-ZB)2×((XD-XC)2+((ZD-ZC)2(5)

        δt1=arccos(YA-YB)×(YD-YC)+(ZA-ZB)×(ZD-ZC)((YA-YB)2+((ZA-ZB)2×((YD-YC)2+((ZD-ZC)2(6)

        γt2、δt2的計(jì)算方式與之類似。

        t時(shí)刻左右踝關(guān)節(jié)角度為εt1和εt2,其計(jì)算方法為:

        εt1=arccosN3N1·DCN3N1×DC(7)

        εt2的計(jì)算方式與之類似。

        t時(shí)刻肩部?jī)啥说倪B線擺動(dòng)與Y軸形成的角度為θt,計(jì)算方法為:

        θt=arctanY26-Y25X26-X25(8)

        t時(shí)刻腰部擺動(dòng)與Y軸形成的角度為t,設(shè)Marker 27,29、Marker 28,30的中點(diǎn)分別為I、J,其計(jì)算方法為:

        t=arctanYJ-YIXJ-XI(9)

        t時(shí)刻雙足夾角為μt,反映了人行走時(shí)雙腳外展、直行或內(nèi)收的情況,其計(jì)算方法為:

        μt=arccosN23N21·N23N25N23N21×N23N25(10)

        t時(shí)刻左右手腕部與腰部中點(diǎn)Y坐標(biāo)的差值為dt1和dt2,反映了手臂內(nèi)擺程度的變化。設(shè)Marker27,28的中點(diǎn)為K,則其計(jì)算方法為:

        dt1=Y21-YK(11)

        dt2的計(jì)算方式與之類似。

        t時(shí)刻左右足跟與腰部中點(diǎn)Y坐標(biāo)的差值為dt3和dt4,反映了行走時(shí)步寬的情況。其計(jì)算方法為:

        dt3=Y3-YK(12)

        dt4的計(jì)算方式與之類似。

        每次采集的數(shù)據(jù)經(jīng)過(guò)如上模型計(jì)算后得到步態(tài)特征矩陣Aji(i表示實(shí)驗(yàn)對(duì)象編號(hào),j表示該實(shí)驗(yàn)對(duì)象的測(cè)量次數(shù))。

        2.3 對(duì)所選特征的考察與論證

        特定性:將2.2節(jié)得到的步態(tài)特征矩陣以實(shí)驗(yàn)者為單位進(jìn)行合并,分別檢驗(yàn)每個(gè)特征在不同實(shí)驗(yàn)者之間是否具有顯著差異性。以特征為單位分別進(jìn)行方差齊性檢驗(yàn)后,用不假定等方差中的塔姆黑尼檢驗(yàn)。顯著性結(jié)果為0.05時(shí),各個(gè)特征在不同個(gè)體之間具有顯著性差異的組數(shù)占總組數(shù)的比例均在90%左右,表明可以以此為依據(jù)區(qū)別個(gè)體。

        關(guān)聯(lián)性:利用偏相關(guān)分析研究特征之間相互影響的程度,并將相關(guān)性系數(shù)作為考察指標(biāo)。檢驗(yàn)結(jié)果表明,相關(guān)系數(shù)普遍分布在[-0.2,+0.2]之間,說(shuō)明特征之間相互關(guān)聯(lián)的程度較低,各個(gè)特征之間具有較強(qiáng)的獨(dú)立性,它們的相互組合是有意義的。

        穩(wěn)定性:利用成對(duì)樣本T檢驗(yàn)考察特征在同一個(gè)體的穩(wěn)定性,并以顯著性水平0.05作為評(píng)判依據(jù)。結(jié)果表明,各個(gè)特征穩(wěn)定性在55%~70%左右。考慮到實(shí)驗(yàn)者在各次采集中所穿著的衣物、鞋子以及身體狀態(tài)不同,符合現(xiàn)實(shí)中步態(tài)識(shí)別的客觀要求,故可以認(rèn)為特征具有相對(duì)穩(wěn)定性。

        3 CNN訓(xùn)練模型

        對(duì)每個(gè)特征矩陣,以列為單位線性歸一化(Min-Max Scaling)。為減少數(shù)據(jù)量偏少的影響,對(duì)每個(gè)個(gè)體的特征矩陣進(jìn)行復(fù)制3倍擴(kuò)充數(shù)據(jù)。

        本模型結(jié)構(gòu)由3個(gè)“卷積層—池化層”相連,最終由全連接層輸出。

        本模型其他主要超參數(shù)介紹如下:學(xué)習(xí)速率為0.01,迭代次數(shù)(Epoch)為50,卷積層使用Relu函數(shù)作為激活函數(shù),池化層進(jìn)行2×2大小的Maxpooling計(jì)算。全連接層使用Softmax作為激活函數(shù)。為提高模型的泛化能力,設(shè)置神經(jīng)元的隨機(jī)失活率為0.5。損失函數(shù)使用交叉熵函數(shù),與Softmax聯(lián)合使用,用它來(lái)衡量網(wǎng)絡(luò)的輸出與標(biāo)簽的差異,利用這種差異經(jīng)過(guò)反向傳播去更新網(wǎng)絡(luò)參數(shù)。

        4 實(shí)驗(yàn)結(jié)果與分析

        在訓(xùn)練50輪后,loss為0.022 8 ,accuracy為0.993 8 ,val_loss為0.0174 ,val_accuracy為0.993 8,并已經(jīng)收斂。

        Macro-F1是一種衡量多標(biāo)簽分類精確度的一種指標(biāo),是查準(zhǔn)率和精確率的調(diào)和平均數(shù)。經(jīng)過(guò)50輪訓(xùn)練后F1_score可以達(dá)到0.991 849,表明模型具有較高的識(shí)別準(zhǔn)確率和可信度。

        5 結(jié)語(yǔ)

        在27人的樣本下,與現(xiàn)有模型相比,該模型的訓(xùn)練耗時(shí)更短、準(zhǔn)確率更高。由于硬件設(shè)備等原因,目前難以構(gòu)建規(guī)模更大的數(shù)據(jù)庫(kù),尚無(wú)法驗(yàn)證提出的步態(tài)識(shí)別模型是否可以實(shí)現(xiàn)大規(guī)模應(yīng)用的要求。但對(duì)于小范圍內(nèi)的不同人,已經(jīng)擁有了很高的精度。因此,在將來(lái)采集設(shè)備進(jìn)一步發(fā)展,采集數(shù)據(jù)更加方便的情形下,本文可以為構(gòu)建更加高效的模型提供理論依據(jù)。

        參考文獻(xiàn)

        [1]肖軍.人臉識(shí)別技術(shù)在追逃工作中的應(yīng)用現(xiàn)狀與展望[J].刑事技術(shù),2016(2):137-141.

        [2]張震,劉博,李龍.一種多特征提取及融的虹膜識(shí)別方法[J].鄭州大學(xué)學(xué)報(bào)(工學(xué)版),2017(1):63-67.

        [3]姚越武,丁宏,馬繼雄,等.指紋自動(dòng)識(shí)別系統(tǒng)多種算法互補(bǔ)能力研究[J].刑事技術(shù),2017(5):385-388.

        [4]LEES A,VANRENTERGHEM J. The energetics and benefit of an arm swing in submaximal and maximal vertical jump performance[J].Journal of Sports Sciences,2006(1):51-57.

        [5]王亮,胡衛(wèi)明,譚鐵牛.基于步態(tài)特征的身份識(shí)別[J].計(jì)算機(jī)學(xué)報(bào),2003(3):353-360.

        [6]趙黎麗,侯正信.步態(tài)識(shí)別問(wèn)題的特點(diǎn)及研究現(xiàn)狀[J].中國(guó)圖像圖形報(bào),2006(2):151-161.

        [7]馬越,丁浩.人行走過(guò)程中膝關(guān)節(jié)角度特征研究[J].刑事技術(shù),2019(4):322-326.

        [8]王閃閃.GPS單基線姿態(tài)測(cè)量系統(tǒng)研究[D].長(zhǎng)春:長(zhǎng)春理工大學(xué),2010.

        (編輯 王永超)

        Research on a gait recognition model based on CNN algorithm

        Zhang? Yiming, Wang? Qiuyi, Wu? Zirui, Li? Wenlin, Zhu? Pengyu, Ding? Hao*

        (Jiangsu Police Institute, Nanjing 210000, China)

        Abstract:? In order to solve the problems of long training time and low recognition accuracy of traditional gait recognition models, a walking gait feature database capable of deep learning is built. Through the study of the specificity, relevance and stability of the selected features, a gait feature matrix is established. The CNN algorithm designed by Tensorflow is used for deep learning, so that it can automatically realize personal recognition based on walking gait features. In the case of 27 experimenters, the recognition accuracy of the model can reach more than 99%, and the training time is shorter, which is superior to other published models. It is instructive for building a recognition system with a larger database.

        Key words: gait recognition; CNN algorithm; deep learning

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類器的圖書(shū)館亂架圖書(shū)檢測(cè)
        搭建深度學(xué)習(xí)的三級(jí)階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        国产在线欧美日韩一区二区| 国产精品爽爽v在线观看无码| 中日韩精品视频在线观看| 久久99精品免费一区二区| 日韩精品极品在线观看视频| 伊人久久大香线蕉av色婷婷色| 人妻无码一区二区三区免费| 无码人妻精品一区二区三区66 | 色综合悠悠88久久久亚洲| 亚洲欧美一区二区成人片| 粗了大了 整进去好爽视频| 中文字幕人妻丝袜成熟乱| 美女露出奶头扒开内裤的视频| 一本一道av无码中文字幕麻豆| 国产又黄又大又粗视频| 国产成年无码久久久久下载| 久久精品亚洲熟女av麻豆| 亚洲国产av无码专区亚洲av| 国产人成午夜免电影观看| 国产肥熟女视频一区二区三区| 高清中文字幕一区二区| 日本公与熄乱理在线播放| 97日日碰日日摸日日澡| 亚洲av毛片在线播放| 亚洲av午夜福利精品一区| 国产精品免费久久久久影院 | 亚洲五码av在线观看| 国产精品久久久久一区二区三区| 欧美老熟妇欲乱高清视频| av无码特黄一级| 人妻少妇猛烈井进入中文字幕| 中文字幕日韩人妻不卡一区| 亚洲a∨天堂男人无码| 天堂精品人妻一卡二卡| 中文字幕人乱码中文字幕| 少妇被粗大的猛进69视频| 国产91精品丝袜美腿在线| 亚洲国产成人av二区| 亚洲啪啪综合av一区| 国产午夜精品美女裸身视频69| 久久一区二区三区少妇人妻|