亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        步態(tài)識(shí)別特征工程算法研究

        2019-07-03 03:12:40陸欣嬈
        現(xiàn)代商貿(mào)工業(yè) 2019年10期
        關(guān)鍵詞:算法

        陸欣嬈

        摘要:步態(tài)識(shí)別相比于人臉識(shí)別、指紋識(shí)別、虹膜識(shí)別等生物特征識(shí)別技術(shù),更有技術(shù)難度,且容易感知,不易偽裝,應(yīng)用更加廣泛,所以重點(diǎn)在步態(tài)識(shí)別技術(shù)。研究了步態(tài)識(shí)別的三大步驟,步態(tài)檢測(cè)、步態(tài)表征和步態(tài)識(shí)別。在此基礎(chǔ)上完成步態(tài)識(shí)別的商業(yè)應(yīng)用研究。

        關(guān)鍵詞:步態(tài)識(shí)別;結(jié)構(gòu)化特征;算法

        中圖分類號(hào):TB文獻(xiàn)標(biāo)識(shí)碼:Adoi:10.19311/j.cnki.1672-3198.2019.10.085

        1步態(tài)識(shí)別概述

        步態(tài)識(shí)別是生物特征識(shí)別領(lǐng)域一項(xiàng)新興的技術(shù),相比于人臉識(shí)別、指紋識(shí)別、虹膜識(shí)別等其他生物特征識(shí)別,它具有容易感知,非接觸性,難于隱藏和偽裝等優(yōu)點(diǎn)?;诖?,步態(tài)識(shí)別有非常廣泛的應(yīng)用,現(xiàn)已有大量綜述文章。

        步態(tài)分析不光是計(jì)算機(jī)視覺領(lǐng)域的課題,它是結(jié)合醫(yī)學(xué)、心理學(xué)方面的課題。而步態(tài)識(shí)別就是分析包含人體運(yùn)動(dòng)的圖像序列,通過人們走路的姿態(tài)進(jìn)行身份識(shí)別,通常包括步態(tài)檢測(cè)、步態(tài)表征和步態(tài)識(shí)別3個(gè)過程,其框架圖如圖1所示。

        一般步驟是:首先通過攝像頭去采集步態(tài)信息,然后通過背景估計(jì)等算法進(jìn)行步態(tài)檢測(cè),接著對(duì)步態(tài)序列輪廓區(qū)域作特征提取,對(duì)比步態(tài)數(shù)據(jù)庫,作最終的步態(tài)識(shí)別。

        2步態(tài)檢測(cè)

        步態(tài)檢測(cè)是從視頻中將背景信息過濾,只提取目標(biāo)物體——步態(tài)序列,從而截取步態(tài)信息,將人體步態(tài)輪廓區(qū)域從背景圖像中提取出來,其中包括背景估計(jì)、目標(biāo)檢測(cè)和形態(tài)學(xué)后處理等。有效分割步態(tài)輪廓區(qū)域是后期特征提取、目標(biāo)分類等處理的基礎(chǔ)。視頻序列中運(yùn)動(dòng)檢測(cè)不同于靜態(tài)信息識(shí)別,它更加復(fù)雜,包含的信息更多,現(xiàn)如今主要有4類方法去處理,而步態(tài)檢測(cè)也同樣適用:

        (1)基于特征的方法。首先觀察人體結(jié)構(gòu)學(xué)特征,將人體結(jié)構(gòu)學(xué)特征的變化與圖像序列中的變化建立一定的關(guān)系,并計(jì)算物體結(jié)構(gòu)學(xué)變化的運(yùn)動(dòng)參數(shù)。例如主動(dòng)輪廓法、采用邊緣和拐角作為特征去研究目標(biāo)物體的方法。

        (2)幀間差分法。就是結(jié)合連續(xù)的圖像序列之間的亮度變化來提取運(yùn)動(dòng)目標(biāo)?,F(xiàn)在有很多的研究是在傳統(tǒng)的幀間差分法基礎(chǔ)上,結(jié)合形態(tài)學(xué)和人體結(jié)構(gòu)特征來提取步態(tài)信息。這種方法簡(jiǎn)單易于實(shí)現(xiàn),但只能檢測(cè)目標(biāo)邊緣,無法檢出整個(gè)物體。

        (3)背景減除法。用當(dāng)前幀圖像去對(duì)比背景圖像,將區(qū)別小的區(qū)域定為背景區(qū)域,區(qū)別大的區(qū)域定為運(yùn)動(dòng)區(qū)域,從而將背景減除,只提取運(yùn)動(dòng)信息。該方法有一定的局限性,其對(duì)外界擾動(dòng)引起的場(chǎng)景變化特別敏感,一般要求背景靜止。

        (4)光流法。是一種基于灰度梯度基本不變的假設(shè)的目標(biāo)檢測(cè)算法,但其算法較為復(fù)雜,而且其基本假設(shè)在大多數(shù)步態(tài)識(shí)別中并不成立,抗噪性能差。

        在以前的步態(tài)檢測(cè)算法中,因?yàn)榇鎯?chǔ)的大多數(shù)是靜態(tài)圖片,所以背景減除法應(yīng)用較廣。但近年來,隨著研究偏向復(fù)雜背景和動(dòng)態(tài)信息,我們往往要結(jié)合幀間差分法和光流法這一類更適合做運(yùn)動(dòng)物體檢測(cè)的方法。應(yīng)用這些方法時(shí),往往要結(jié)合人體步態(tài)基本特征做具體檢測(cè),結(jié)合基于特征的方法。

        3步態(tài)表征

        步態(tài)表征就是步態(tài)特征提取,這些特征包括結(jié)構(gòu)化特征、非結(jié)構(gòu)化特征和融合特征。特征工程是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)研究重點(diǎn),步態(tài)識(shí)別也不例外。

        3.1結(jié)構(gòu)化特征方法

        結(jié)構(gòu)化特征方法是通過建立一個(gè)2D或3D模型來模擬人在步態(tài)行走時(shí)的結(jié)構(gòu)化模型。一種基礎(chǔ)的模型是基于腿部?jī)?nèi)鏈接鐘擺模型,將小腿基于大腿的運(yùn)動(dòng)模擬為鐘擺運(yùn)動(dòng),且符合一定的角度變化。在此基礎(chǔ)上又有人研發(fā)了動(dòng)態(tài)耦合鐘擺模型,將大腿的運(yùn)動(dòng)也模擬為鐘擺模型,把小腿的運(yùn)動(dòng)模擬為以大腿的末端為頂點(diǎn)的鐘擺模型,且其運(yùn)動(dòng)具有一定的周期性,各個(gè)人的運(yùn)動(dòng)符合一定的模式,正是這樣才可以做結(jié)構(gòu)化特征提取。

        另一種方法則是從另一種角度出發(fā),結(jié)合解剖學(xué)知識(shí),在人體側(cè)影中提取出頭、脖頸、肩、胸、骨盆、膝蓋和腳踝等各部位的位置參數(shù),并計(jì)算各個(gè)位置的運(yùn)動(dòng)學(xué)特征,最終構(gòu)建出2D人體桿狀模型。將多個(gè)靜態(tài)情況下的桿狀模型連接起來后,形成一個(gè)能識(shí)別的步態(tài)模式。此方法彌補(bǔ)了鐘擺模型沒有描述上肢運(yùn)動(dòng)的缺點(diǎn),后期應(yīng)用較廣,但對(duì)設(shè)備要求較高。

        還有一種方法也是利用是將人體側(cè)影圖像,將人體劃分成7個(gè)區(qū)域,每個(gè)區(qū)域用一個(gè)橢圓來表達(dá),用每個(gè)橢圓的質(zhì)心、長(zhǎng)短軸之比、長(zhǎng)軸的方向合家整個(gè)身體的質(zhì)心高度等29個(gè)特征參數(shù)來描述人體側(cè)影圖像,再和模板匹配進(jìn)行步態(tài)識(shí)別。和桿狀模型相比模糊了人體著裝對(duì)側(cè)影圖像的影響,但又因此損失了對(duì)人體上肢運(yùn)動(dòng)的描述。

        鑒于上述2D模型的局限性,有人采用了分層結(jié)構(gòu)模型對(duì)人體運(yùn)動(dòng)進(jìn)行分析;還有人則通過2D人體數(shù)據(jù)擬合3D人體運(yùn)動(dòng)模型,從而獲取,分析運(yùn)動(dòng)參數(shù)。

        結(jié)構(gòu)化特征方法通過建立模型,描述人在運(yùn)動(dòng)時(shí)整個(gè)身體各個(gè)部位的運(yùn)動(dòng),更易于捕捉變化的信息,因?yàn)檫\(yùn)動(dòng)的序列性、規(guī)律性,還能根據(jù)之前的運(yùn)動(dòng)估算后面的運(yùn)動(dòng)。但該類方法對(duì)步態(tài)序列的清晰度的要求度高,而且對(duì)動(dòng)態(tài)信息的計(jì)算量較大。

        3.2非結(jié)構(gòu)化特征方法

        非結(jié)構(gòu)化特征方法是從步態(tài)序列中提取基于人體輪廓、形狀所產(chǎn)生的各種統(tǒng)計(jì)時(shí)空模式特征。鑒于結(jié)構(gòu)化特征方法處理動(dòng)態(tài)步態(tài)信息時(shí)的計(jì)算量大,較耗時(shí)的特點(diǎn),它旨在通過提取人體輪廓,處理靜態(tài)信息從而分析步態(tài)信息,它的特點(diǎn)是計(jì)算量小、便于實(shí)時(shí)計(jì)算,但對(duì)于背景和光照信號(hào)比較敏感,而且一旦場(chǎng)景中出現(xiàn)遮擋現(xiàn)象,識(shí)別率便會(huì)下降。最常用的一種方法是采集人體輪廓,用組成輪廓的點(diǎn)到中心之間的連線的信息變化來表達(dá)步態(tài)特征;又有人基于這種一維步態(tài)信號(hào)上應(yīng)用小波包變換來提取步態(tài)特征,增強(qiáng)魯棒性;有人嘗試僅用輪廓的寬度描述人體形狀特征,但因人的步態(tài)是動(dòng)態(tài)信息,僅用輪廓信息太少,對(duì)步態(tài)信息描述不充分,步態(tài)提取的過程中會(huì)丟失一部分有用的信息,所以他們經(jīng)實(shí)驗(yàn)發(fā)現(xiàn),要將輪廓信息和整個(gè)側(cè)影圖像結(jié)合起來提取步態(tài)特征,才能取得比較好的效果。

        最近,又出現(xiàn)了一些新的非結(jié)構(gòu)表征算法。通過兩個(gè)不同人體運(yùn)動(dòng)圖片相對(duì)位置的變動(dòng),把圖片轉(zhuǎn)化成自相似圖,能量圖,步態(tài)流圖等,再算兩個(gè)圖之間的差。這個(gè)方法沒有結(jié)構(gòu)化特征準(zhǔn)確,但勝在計(jì)算量小,且比直接用兩個(gè)圖片計(jì)算更準(zhǔn)確。

        3.3融合特征方法

        融合特征方法是將人類多種特征融合起來進(jìn)行識(shí)別,一般有將不同的步態(tài)特征進(jìn)行融合和將步態(tài)特征和其他生物特征進(jìn)行融合兩種。

        在不同的特征融合中,有多種靜態(tài)特征和動(dòng)態(tài)特征相結(jié)合的方法,在特征結(jié)合間有不同的權(quán)重,給判斷兩步態(tài)相似度貢獻(xiàn)率更大的賦更高的權(quán)重,貢獻(xiàn)率低的賦低的權(quán)重,最后通過實(shí)驗(yàn)找到最優(yōu)的特征融合方法。融合之后的步態(tài)特征比任何單一步態(tài)特征的識(shí)別率更高,但效率可能會(huì)降低。

        4步態(tài)識(shí)別

        4.1KNN分類算法

        kNN分類算法(k-Nearest Neighbor),或稱K最近鄰分類算法,是一種監(jiān)督學(xué)習(xí)算法,是基于實(shí)例的學(xué)習(xí)方法中最基本、最簡(jiǎn)單的方法之一。K最近鄰,顧名思義就是k個(gè)距離最近的鄰居的意思。其算法大致為:已知一些訓(xùn)練數(shù)據(jù),當(dāng)一個(gè)新數(shù)據(jù)進(jìn)入的時(shí)候,就跟訓(xùn)練數(shù)據(jù)里的每個(gè)點(diǎn)求距離,找到k個(gè)和這個(gè)點(diǎn)距離最近的數(shù)據(jù),如果這個(gè)實(shí)例的K個(gè)最相似的實(shí)例(即特征空間中距離最近的點(diǎn))中的大多數(shù)屬于某一個(gè)類別,則這個(gè)實(shí)例也屬于這個(gè)類別。

        KNN算法簡(jiǎn)單,易于實(shí)現(xiàn),只需輸入數(shù)據(jù)而無需訓(xùn)練,結(jié)果依據(jù)k個(gè)對(duì)象得出而不是單一對(duì)象,這些都是它的優(yōu)勢(shì),它多被應(yīng)用于多分類問題。然而KNN算法需要存儲(chǔ)大量訓(xùn)練數(shù)據(jù),在存儲(chǔ)效率上是低效的,且它的準(zhǔn)確性很大程度上依賴于k值的選取,不同的k值對(duì)結(jié)果有很大影響,想要選取一個(gè)較為合適的k值只有前期反復(fù)試驗(yàn)調(diào)整。而且圖像的明暗度、圖像上的遮擋等都會(huì)使得距離計(jì)算出現(xiàn)很大的偏差從而導(dǎo)致錯(cuò)誤的判斷,這些都是KNN算法的缺陷。

        4.2線性分類算法

        鑒于KNN算法存儲(chǔ)效率低及計(jì)算時(shí)間長(zhǎng)等缺陷,我們需要另一種算法——線性分類算法。線性分類器由評(píng)分函數(shù)和損失函數(shù)組成,它通過特征的線性組合來進(jìn)行分類,在優(yōu)化過程中,將通過不斷變更評(píng)分函數(shù)的參數(shù),從而使損失函數(shù)值達(dá)到最小。評(píng)分函數(shù)是一種簡(jiǎn)單的線性映射,通常表達(dá)為:

        f(xi,W,b)=Wxi+b

        其中f為函數(shù),x為變量,W,b是函數(shù)的參數(shù),W通常叫作權(quán)重,b通常叫作偏差。

        我們的目的是通過學(xué)習(xí)輸入的訓(xùn)練數(shù)據(jù),得到合適的參數(shù)W,b,使得每個(gè)訓(xùn)練數(shù)據(jù)計(jì)算出來的分類情況和訓(xùn)練集中圖像數(shù)據(jù)的真實(shí)值相符。

        損失函數(shù)計(jì)算的是通過給定參數(shù)的評(píng)分函數(shù)計(jì)算得到的分?jǐn)?shù)與數(shù)據(jù)真實(shí)值不相符的程度,以此來定量表現(xiàn)當(dāng)前參數(shù)的好壞,當(dāng)損失函數(shù)值高的時(shí)候不相符程度大,此時(shí)需要根據(jù)不相符程度適當(dāng)調(diào)整參數(shù)值,從而通過不斷調(diào)整參數(shù)權(quán)重W和偏差b來找到最好的參數(shù)。

        與KNN算法相比,線性分類器在得到參數(shù)后只需保留參數(shù)即可,不再需要存儲(chǔ)訓(xùn)練數(shù)據(jù),大大節(jié)省了空間和效率,所以線性分類算法也可算作是KNN算法的高效應(yīng)用。

        4.3CNN算法

        卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks),又稱CNN算法,是一類包含卷積或相關(guān)計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)模型,是計(jì)算機(jī)深度學(xué)習(xí)的重要代表算法之一。卷積神經(jīng)網(wǎng)絡(luò)仿造生物的視知覺機(jī)制構(gòu)建,局部感知,類似于生物在看東西時(shí)會(huì)將目光聚集在很小的一塊區(qū)域,在卷積神經(jīng)網(wǎng)絡(luò)中,每個(gè)節(jié)點(diǎn)只連接到符合卷積核的圖像像素點(diǎn)上,使全連接變成局部連接,相比于普通的多層感知器的節(jié)點(diǎn)連接到一個(gè)圖像的每個(gè)像素點(diǎn)上,大大減少需要訓(xùn)練的權(quán)值參數(shù)數(shù)量。

        權(quán)值共享網(wǎng)絡(luò)結(jié)構(gòu)能夠進(jìn)一步減少權(quán)值參數(shù)數(shù)量,當(dāng)不同的圖像或者同一張圖像出現(xiàn)相同的特征時(shí)可以共用一個(gè)卷積核,減少重復(fù)的卷積核,從而進(jìn)一步減少權(quán)值參數(shù),加快運(yùn)算速度。

        卷積神經(jīng)網(wǎng)絡(luò)具有傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的較好容錯(cuò)性、自適應(yīng)性和較強(qiáng)自學(xué)習(xí)能力等優(yōu)點(diǎn),同時(shí)又具有可以自動(dòng)提取特征、具有良好的容錯(cuò)能力、可處理高維數(shù)據(jù)等優(yōu)勢(shì),是一種較為良好的算法,現(xiàn)已大量應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域。

        4.4步態(tài)識(shí)別的商業(yè)應(yīng)用

        近年來步態(tài)識(shí)別被逐漸投入商業(yè)應(yīng)用。2017年中國科學(xué)院自動(dòng)化所對(duì)外介紹了對(duì)步態(tài)識(shí)別的商業(yè)應(yīng)用,50米內(nèi),只需要被測(cè)試者走兩步路,幾秒鐘的時(shí)間,無需被測(cè)試者特意配合即可識(shí)別出被測(cè)試者的身份。北京的初創(chuàng)團(tuán)隊(duì)銀河水滴推出了全球首款步態(tài)識(shí)別成熟產(chǎn)品——步態(tài)檢索智能一體機(jī)“水滴神鑒”,為公安部門偵查破案、鎖定追蹤嫌疑人提供了巨大幫助。另外,步態(tài)識(shí)別也在被逐步應(yīng)用于生物醫(yī)學(xué)康復(fù)領(lǐng)域,將步態(tài)識(shí)別系統(tǒng)加入截肢病人的假肢中,使之與人類的健康腿的功能、相似度進(jìn)一步提高,形成真正的智能化假肢。目前各類科創(chuàng)團(tuán)隊(duì)正在致力于將硬件和軟件結(jié)合,將技術(shù)融入產(chǎn)業(yè),步態(tài)識(shí)別技術(shù)商用化正在逐漸落實(shí)。

        5總結(jié)

        步態(tài)識(shí)別算法包括KNN算法、線性分類算法和基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法,目前商用效果最好的是將這些算法相融合。步態(tài)識(shí)別有很大的應(yīng)用前景,也有很大的商業(yè)市場(chǎng),但同時(shí)也面臨很大的挑戰(zhàn),例如如何在人群密集出解決人群遮擋問題、在季節(jié)著裝變化大時(shí)如何準(zhǔn)確識(shí)別以及智能傳感設(shè)備對(duì)步態(tài)識(shí)別的影響,這些都需要我們進(jìn)一步探索和改進(jìn)。

        參考文獻(xiàn)

        [1]王修暉,嚴(yán)珂.基于連續(xù)密度隱馬爾可夫模型的人體步態(tài)識(shí)別[J].模式識(shí)別與人工智能,2016,29(08):709-716.

        [2]余杰.基于視頻的人體目標(biāo)跟蹤與識(shí)別技術(shù)研究[D].成都:電子科技大學(xué),2016.

        [3]盧官明,衣美佳.步態(tài)識(shí)別關(guān)鍵技術(shù)研究[J].計(jì)算機(jī)技術(shù)與發(fā)展,2015,25(07):100-106.

        [4]王欣,唐俊,王年.基于雙層卷積神經(jīng)網(wǎng)絡(luò)的步態(tài)識(shí)別算法[J].安徽大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,39(01):32-36.

        [5]馬玉良,馬云鵬,張啟忠,羅志增,楊家強(qiáng).GA-BP神經(jīng)網(wǎng)絡(luò)在下肢運(yùn)動(dòng)步態(tài)識(shí)別中的應(yīng)用研究[J].傳感技術(shù)學(xué)報(bào),2013,26(09):1183-1187.

        [6]柴艷妹,夏天,韓文英,李海峰.步態(tài)識(shí)別研究進(jìn)展[J].計(jì)算機(jī)科學(xué),2012,39(06):10-15+46.

        [7]余濤,鄒建華.基于Bayes規(guī)則與HMM相結(jié)合的步態(tài)識(shí)別方法研究[J].計(jì)算機(jī)學(xué)報(bào),2012,35(02):2386-2396.

        [8]王科俊,劉麗麗,賁晛燁,陳薇.基于步態(tài)能量圖像和2維主成分分析的步態(tài)識(shí)別方法[J].中國圖像圖形學(xué)報(bào),2009,14(12):2503-2509.

        [9]薛召軍,靳靜娜,明東,萬柏坤.步態(tài)識(shí)別研究現(xiàn)狀與進(jìn)展[J].生物醫(yī)學(xué)工程學(xué)雜志,2008,(05):1217-1221.

        [10]王科俊,侯本博.步態(tài)識(shí)別綜述[J].中國圖像圖形學(xué)報(bào),2007,(07):1152-1160.

        [11]趙黎麗,侯正信.步態(tài)識(shí)別問題的特點(diǎn)及研究現(xiàn)狀[J].中國圖像圖形學(xué)報(bào),2006,(02):151-161.

        猜你喜歡
        算法
        基于MapReduce的改進(jìn)Eclat算法
        Travellng thg World Full—time for Rree
        進(jìn)位加法的兩種算法
        基于CC2530的改進(jìn)TPSN算法
        基于BCH和HOG的Mean Shift跟蹤算法
        算法初步兩點(diǎn)追蹤
        基于增強(qiáng)隨機(jī)搜索的OECI-ELM算法
        一種改進(jìn)的整周模糊度去相關(guān)算法
        一種抗CPS控制層欺騙攻擊的算法
        Wiener核的快速提取算法
        人人妻人人狠人人爽天天综合网| 在线日本高清日本免费| 亚洲精品中文字幕码专区| 国产亚洲精品90在线视频| 亚洲日韩精品一区二区三区无码 | 日本一区午夜艳熟免费 | 国产精品99精品久久免费| 四虎影视永久地址www成人| 免费无码又爽又刺激高潮的视频网站| 亚洲国产不卡av一区二区三区| 久久精品国产黄片一区| 久久国产精品一区二区三区| 久久久久久无码av成人影院| 国产a v无码专区亚洲av| 岛国视频在线无码| 在线观看免费不卡网站| 人妻丰满熟妇aⅴ无码| 奇米影视777撸吧| 无码午夜剧场| 国产肉丝袜在线观看| 国产国拍亚洲精品永久69| 国产人妖直男在线视频| 桃红色精品国产亚洲av| 国产精品网站在线观看免费传媒| 国产偷窥熟女精品视频| 国内自拍第一区二区三区| 风流熟女一区二区三区| 国内免费高清在线观看| 久久久久亚洲av无码专区导航| AV在线中出| 精品少妇一区二区三区入口| 亚洲av无码无线在线观看| 怡红院免费的全部视频| 国产精品久久久久久久专区| 国产av自拍在线观看| 国产精品女老熟女一区二区久久夜| 国产女厕偷窥系列在线视频| 无遮挡十八禁在线视频国产制服网站| 91亚洲国产成人久久精品网站| 国产自拍偷拍精品视频在线观看| 亚洲欧美乱综合图片区小说区|