亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于單樣本學(xué)習(xí)的多特征人體姿態(tài)模型識(shí)別研究

        2021-04-01 07:24:20李國友李晨光王維江楊夢(mèng)琪杭丙鵬
        光電工程 2021年2期
        關(guān)鍵詞:動(dòng)作特征模型

        李國友,李晨光,王維江,楊夢(mèng)琪,杭丙鵬

        燕山大學(xué)工業(yè)計(jì)算機(jī)控制工程河北省重點(diǎn)實(shí)驗(yàn)室,河北 秦皇島 066004

        1 引 言

        人體姿態(tài)識(shí)別是計(jì)算機(jī)視覺研究的熱門課題,為人機(jī)交互、虛擬現(xiàn)實(shí)等領(lǐng)域的發(fā)展提供技術(shù)支持[1]。人體運(yùn)動(dòng)動(dòng)作的時(shí)變性以及運(yùn)動(dòng)場景的復(fù)雜變化性,導(dǎo)致人體姿態(tài)識(shí)別的實(shí)時(shí)性、準(zhǔn)確性和魯棒性不理想。因此,如何實(shí)時(shí)準(zhǔn)確地捕捉和識(shí)別人體姿態(tài)在計(jì)算機(jī)視覺領(lǐng)域引起了極高的關(guān)注。

        目前,人體姿態(tài)識(shí)別研究方法主要有基于統(tǒng)計(jì)的算法[2](隱馬爾科夫模型(HMM)、動(dòng)態(tài)貝葉斯網(wǎng)路(DBN)),基于模板的算法(模型、動(dòng)態(tài)規(guī)劃、動(dòng)態(tài)時(shí)間規(guī)整[3](DTW)),以及基于語法的算法(有限狀態(tài)機(jī)(FSM)、上下文無關(guān)文(CFG))。在針對(duì)人體姿態(tài)研究的算法中,基于模板匹配相比其他算法具有更好的識(shí)別準(zhǔn)確性和魯棒性,但是模型的建立需要大量數(shù)據(jù)且特征計(jì)算復(fù)雜[4]。李紅波等[5]提出了基于Kinect 骨骼數(shù)據(jù)的靜態(tài)三維手勢(shì)識(shí)別,通過獲取手部角度特征向量確定待測姿態(tài)模板,待測姿態(tài)與姿態(tài)模板進(jìn)行最佳姿態(tài)匹配,由于行為時(shí)間間隔的持續(xù)性和圖像噪聲影響,每幀圖像無法實(shí)時(shí)地檢測識(shí)別。Zhe 等人[6]提出了零件相似性的實(shí)時(shí)多人人體姿態(tài)識(shí)別,該算法采用自下而上(down-top approach)方法,首先對(duì)人體關(guān)鍵點(diǎn)進(jìn)行檢測,其次建立矢量場推測關(guān)鍵部位并進(jìn)行連接,最后采用深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)建特征圖像集進(jìn)行姿態(tài)預(yù)測;但該算法存在一定的局限性,只考慮了肢體關(guān)鍵點(diǎn)的位置信息,忽略了旋轉(zhuǎn)、尺度不變性,因而只能在局部區(qū)域進(jìn)行姿態(tài)預(yù)測連接。Pfitscher 等人[7]提出了基于卷積神經(jīng)網(wǎng)絡(luò)和FastDTW 的Kinect 手勢(shì)控制機(jī)器人的移動(dòng),對(duì)從Kinect 上捕捉獲取圖像的每幀關(guān)節(jié)信息進(jìn)行提取和處理,建立姿態(tài)動(dòng)作所有幀派生圖像,采用聯(lián)合訓(xùn)練和個(gè)人訓(xùn)練進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)(CNN)訓(xùn)練,最后將移動(dòng)機(jī)器人系統(tǒng)添加到訓(xùn)練好的系統(tǒng)中,根據(jù)姿態(tài)算法的分類結(jié)果控制機(jī)器人的移動(dòng)。趙海勇等人[8]提出了基于視頻流的運(yùn)動(dòng)人體行為識(shí)別,采用幀間差分法和改進(jìn)C-V 模型算法進(jìn)行運(yùn)動(dòng)人體分割,檢測運(yùn)動(dòng)目標(biāo)的輪廓曲線,對(duì)分割的輪廓進(jìn)行加權(quán)運(yùn)動(dòng)串分類,構(gòu)建動(dòng)作串時(shí)對(duì)不同的姿態(tài)賦予不同的權(quán)重,最后通過對(duì)全局運(yùn)動(dòng)信息和局部特征信息的異常行為進(jìn)行識(shí)別,該方法可有效地將全局信息和局部特征信息進(jìn)行互補(bǔ)加權(quán)串聯(lián)融合,特征點(diǎn)更加明顯,識(shí)別效果更好。Xu 等人[9]提出了多級(jí)深度運(yùn)動(dòng)圖的人體動(dòng)作識(shí)別,使用多級(jí)幀選擇采樣模型(MFSS),首先將輸入的深度圖像投影到三個(gè)正交的笛卡爾平面上,其次采用動(dòng)態(tài)圖和靜態(tài)圖(MSM)映射方法獲得動(dòng)態(tài)歷史圖像和靜態(tài)歷史圖像來表示姿態(tài),利用LBP 提取塊的MSM 的特征信息和使用Fisher 內(nèi)核整合塊,最后采用極限學(xué)習(xí)機(jī)(KELM)分類器進(jìn)行姿態(tài)識(shí)別。Vinyals等[10]提出了小樣本學(xué)習(xí)匹配網(wǎng)絡(luò),設(shè)計(jì)了匹配網(wǎng)絡(luò)(matching networks,新的神經(jīng)體系結(jié)構(gòu)),該網(wǎng)絡(luò)將標(biāo)記的實(shí)例映射到已標(biāo)記的小型支持集,且標(biāo)記的樣本無需調(diào)整就能適應(yīng)新的類型,并且損失函數(shù)使預(yù)測值和真實(shí)值的誤差最小化?,F(xiàn)階段人體姿態(tài)識(shí)別的研究取得了不錯(cuò)的成果,但基于模板匹配的研究忽略了姿態(tài)的時(shí)序性,對(duì)于姿態(tài)的瞬變性仍然存在技術(shù)漏洞。

        現(xiàn)階段對(duì)人體姿態(tài)識(shí)別仍然存在未定義姿態(tài)干擾等技術(shù)缺陷,導(dǎo)致識(shí)別的實(shí)時(shí)性和準(zhǔn)確性在一定程度上沒有達(dá)到預(yù)期效果。因此,本文針對(duì)模型特征提取和模型數(shù)據(jù)集訓(xùn)練,基于單樣本學(xué)習(xí)對(duì)獲取的圖像進(jìn)行映射訓(xùn)練,采用關(guān)節(jié)點(diǎn)向量角度和距離特征以及關(guān)節(jié)點(diǎn)成角平面與Kinect 的XOZ平面夾角,保證姿態(tài)特征的不變性,同時(shí)在姿態(tài)識(shí)別過程中保證特征點(diǎn)的高契合度。該方法對(duì)定義好的姿態(tài)模型識(shí)別準(zhǔn)確率達(dá)到98.29%,實(shí)時(shí)性也有所提高。

        2 人體骨骼數(shù)據(jù)集

        2.1 人體關(guān)節(jié)點(diǎn)簡介

        KinectV2 獲取深度圖像的原理是采用飛行時(shí)間(TOF)技術(shù)[11],傳感器發(fā)射紅外光通過物體反射的時(shí)間和相位差來確定深度信息。尤其在骨骼檢測和跟蹤方面有著強(qiáng)大的功能,可捕捉到25 個(gè)關(guān)節(jié)點(diǎn)信息,這25 個(gè)關(guān)節(jié)點(diǎn)能實(shí)時(shí)有效地反映出人體任意姿態(tài)[12],25個(gè)骨骼關(guān)節(jié)點(diǎn)如圖1 所示。

        圖中藍(lán)色標(biāo)注代表姿態(tài)的角度和距離特征的相關(guān)關(guān)節(jié)點(diǎn),這些關(guān)節(jié)點(diǎn)依次為SpineBase(脊柱基部)、HandLeft(左手)、ElbowLeft(左肘)、ShoulderLeft(左肩)、ShoulderRight(右肩)、ElbowRight(右肘)、HandRight(右手)。姿態(tài)的特征計(jì)算基于標(biāo)注關(guān)節(jié)點(diǎn)的三維坐標(biāo)實(shí)時(shí)信息。

        2.2 人體動(dòng)作識(shí)別數(shù)據(jù)集

        KinectV2 動(dòng)作數(shù)據(jù)識(shí)別數(shù)據(jù)集[13]可分為五種類型,每種類型既有相通性又有區(qū)別性,GAMING DATASRTS-G3D 數(shù)據(jù)集定義規(guī)劃了20 個(gè)游戲動(dòng)作;UTKINECT-ACTION3D DATASET 數(shù)據(jù)集基于RGB、深度和骨架節(jié)點(diǎn)位置定義了10 種動(dòng)作;FLORENCE 3D ACTIONS DATASET 數(shù)據(jù)集定義了9 個(gè)動(dòng)作;MSR ACTION3D 數(shù)據(jù)集通過記錄人體動(dòng)作序列,按動(dòng)作的時(shí)序性記錄了20 個(gè)動(dòng)作;NTU RGB+D ACTION RECOGNITION DATASET 數(shù)據(jù)集利用RGB 視頻、深度圖序列、3D 骨骼數(shù)據(jù)和紅外視頻捕捉動(dòng)作,但是該數(shù)據(jù)集依賴于三個(gè)KinectV2 攝像機(jī)同時(shí)捕捉,捕捉難度和數(shù)據(jù)處理分析難度大。動(dòng)作類型如圖2 所示。

        圖1 人體骨骼關(guān)節(jié)點(diǎn)示意圖Fig.1 Schematic diagram of human bone joints

        3 骨骼信息的多特征人體姿態(tài)模型識(shí)別

        3.1 基本流程

        人體姿態(tài)識(shí)別的核心內(nèi)容為:首先,進(jìn)行姿態(tài)捕捉、特征提取并標(biāo)定,其中特征標(biāo)定是將姿態(tài)動(dòng)作標(biāo)記為一個(gè)靜態(tài)標(biāo)簽的過程,一個(gè)靜態(tài)標(biāo)簽對(duì)應(yīng)一個(gè)特定的姿態(tài)。其次,采用單樣本學(xué)習(xí)模型匹配算法將待識(shí)別特征樣本與訓(xùn)練完成的特征模板庫進(jìn)行角度和距離特征匹配計(jì)算,并根據(jù)設(shè)定的閾值范圍進(jìn)行契合度對(duì)比,閾值范圍通過多次實(shí)驗(yàn)確定。最后,顯示識(shí)別結(jié)果的過程。圖3 為人體姿態(tài)識(shí)別流程圖。

        3.2 人體姿態(tài)特征提取

        由于骨骼信息的時(shí)變性,如何將不穩(wěn)定的骨骼信息進(jìn)行特征標(biāo)定并轉(zhuǎn)換得到構(gòu)建模型的特征信息是模型識(shí)別的關(guān)鍵。為使獲取的特征信息具有良好的魯棒性,本文提出了角度特征和距離特征。

        圖2 動(dòng)作類型示意圖Fig.2 Schematic diagram of action types

        圖3 人體姿態(tài)識(shí)別流程圖Fig.3 Flow chart of gesture recognition

        3.2.1 角度特征

        由于人體運(yùn)動(dòng)具有高自由度和非剛性的特點(diǎn),導(dǎo)致人體骨骼關(guān)節(jié)點(diǎn)運(yùn)動(dòng)隨意性很大,沒有特定的姿態(tài)作為匹配對(duì)象很難去識(shí)別,因此選取骨骼信息作為技術(shù)支撐[14]。在KinectV2 骨骼坐標(biāo)系下的25 個(gè)關(guān)節(jié)點(diǎn)都有獨(dú)立的三維坐標(biāo)信息,若直接采用25 個(gè)關(guān)節(jié)點(diǎn)的三維信息構(gòu)建人體姿態(tài),數(shù)據(jù)集維度達(dá)到75 維,姿態(tài)表征信息冗余,計(jì)算難度非常大。過多的關(guān)節(jié)點(diǎn)表征使識(shí)別結(jié)果容易錯(cuò)亂而達(dá)不到預(yù)期效果。角度特征的提取是基于骨骼結(jié)構(gòu)的不變性,關(guān)節(jié)點(diǎn)向量之間可以隨機(jī)組合成不同的向量角,向量角既可以高度表征姿態(tài)信息,又可以將與姿態(tài)動(dòng)作無關(guān)的信息進(jìn)行剔除,減少了數(shù)據(jù)集維度,可有效利用骨骼信息,從而使識(shí)別準(zhǔn)確性更高。

        本文選取角度組合數(shù)量多的上肢進(jìn)行特征提取,基于關(guān)節(jié)點(diǎn)的三維坐標(biāo)值構(gòu)建關(guān)節(jié)點(diǎn)向量,然后對(duì)關(guān)節(jié)向量組合成的夾角進(jìn)行計(jì)算。本文選取HandLeft-ElbowLeft-ShoulderLeft 構(gòu)建左上肢向量角和ShoulderRight-ElbowRight-HandRight 構(gòu)建右上肢向量角,對(duì)兩個(gè)關(guān)節(jié)向量角分別設(shè)定不同的角度構(gòu)建姿態(tài)特征模板庫。關(guān)節(jié)向量角如圖4 所示,θ1為構(gòu)建的左上肢向量角,θ2為右上肢向量角。

        圖5 為構(gòu)建的左上肢向量角示意圖,計(jì)算過程如下:

        1) 獲取關(guān)節(jié)點(diǎn)三維坐標(biāo)信息如下:

        HandLeft (a1,b1,c1),ElbowLeft (a2,b2,c2),ShoulderLeft (a3,b3,c3);

        2) 構(gòu)建關(guān)節(jié)點(diǎn)向量,定義左手肘到左手關(guān)節(jié)向量及左手肘到左肩膀關(guān)節(jié)點(diǎn)向量如下:

        圖4 關(guān)節(jié)向量角示意圖Fig.4 Schematic diagram of joint vector angle

        3) 計(jì)算向量α和β組成的向量夾角θ值:

        基于式(1)~式(5)的計(jì)算提取角度特征構(gòu)建人體姿態(tài)數(shù)據(jù)集[15],在姿態(tài)匹配識(shí)別過程,設(shè)定閾值d,當(dāng)θ計(jì)算值滿足取值范圍(θ-d)≤θ≤ (θ+d),即識(shí)別成功。

        3.2.2 距離特征

        角度特征可以有效地描述人體姿態(tài)類型,但在某些情況,采用距離特征能簡單快速地描述出姿態(tài),而且能準(zhǔn)確標(biāo)記出人體關(guān)節(jié)點(diǎn)的相對(duì)位置,避開了角度特征的干擾性?;陉P(guān)節(jié)點(diǎn)特征的提取,本文選取了人體骨骼比較穩(wěn)定的軀干和上肢關(guān)節(jié)點(diǎn),也是識(shí)別效果最佳的關(guān)節(jié)點(diǎn)。

        本文選取 SpineBase(脊柱基部)作為參考點(diǎn),Neck(脖頸)作為平面映射點(diǎn),HandLeft(左手)和HandRight(右手)為距離點(diǎn)進(jìn)行距離標(biāo)定,然后計(jì)算距離點(diǎn)到參考點(diǎn)三維坐標(biāo)距離。由于距離特征維度上的差異性和分離性,采用了X方向上的距離作為特征,距離特征如圖6 所示。

        特征距離計(jì)算過程如下:

        1) 獲取關(guān)節(jié)點(diǎn)的三維坐標(biāo)信息如下:

        SpineBase (x1,y1,z1),Neck (x2,y2,z2),HandLeft(x3,y3,z3),HandRight (x4,y4,z4);

        2) 計(jì)算X方向上的距離,選取脖頸為脊柱基點(diǎn)映射點(diǎn),X方向上的坐標(biāo)一致,只需計(jì)算手部位置到脖頸的距離。即距離特征x1=x2,計(jì)算如下:

        左手到脊柱基點(diǎn)的距離:

        圖5 左上肢向量角Fig.5 Vector angle of left upper limb

        右手到脊柱基點(diǎn)的距離:

        3) 設(shè)定定值f1和f2,比較(L1>f1) ∪(L2<f2)或(L1<f1) ∪(L2>f2),若滿足設(shè)定條件即特征對(duì)比成功。本文采用綜合角度特征和距離特征結(jié)合的方法,對(duì)人體姿態(tài)進(jìn)行準(zhǔn)確的標(biāo)定和描述,具有旋轉(zhuǎn)縮放不變性,滿足了不同人、不同角度和不同位置的姿態(tài)識(shí)別。

        圖6 距離特征示意圖Fig.6 Schematic diagram of distance characteristics

        3.3 姿態(tài)識(shí)別算法

        在人體姿態(tài)識(shí)別過程中,姿態(tài)特征提取和動(dòng)作識(shí)別尤為重要。本文提出了基于人體姿態(tài)關(guān)節(jié)點(diǎn)角度和距離特征的單樣本學(xué)習(xí)的模型匹配算法進(jìn)行動(dòng)作識(shí)別。該算法的核心思想是監(jiān)督學(xué)習(xí)領(lǐng)域的單樣本學(xué)習(xí)歸類,對(duì)小樣本進(jìn)行訓(xùn)練歸類,即訓(xùn)練一個(gè)數(shù)據(jù)端到另一個(gè)數(shù)據(jù)端的分類器[16],訓(xùn)練的樣本庫模型具有高度不變性,模型匹配方法將訓(xùn)練完成的數(shù)據(jù)庫模板與識(shí)別過程的靜態(tài)數(shù)據(jù)做歐氏距離計(jì)算,選擇契合度最高的樣本模板所屬類型作為識(shí)別結(jié)果。該算法具有計(jì)算復(fù)雜度低、實(shí)時(shí)性和準(zhǔn)確性高的特點(diǎn)。

        單樣本學(xué)習(xí)作為小樣本學(xué)習(xí)的特殊情況,每種類別只需提供一個(gè)樣本作為參考模板無需依賴海量的樣本數(shù)據(jù)。在單樣本學(xué)習(xí)的訓(xùn)練集中設(shè)定了多種類型,每種類型對(duì)應(yīng)一個(gè)樣本,在訓(xùn)練過程中,隨機(jī)抽取訓(xùn)練集中的C種類型,每種類型一個(gè)(one)樣本(所有的特征點(diǎn)集合)構(gòu)建meta-task[17],作為模型的support set(支持集)[18]輸入;然后從設(shè)定的類型數(shù)據(jù)抽取batch(批)樣本作為模板的batch set[19](預(yù)測對(duì)象),這種訓(xùn)練模式稱為one-way one-shot 單樣本學(xué)習(xí)。經(jīng)過多次訓(xùn)練,可得到包含一個(gè)類型所有特征點(diǎn)的meta-task。單樣本學(xué)習(xí)模型結(jié)構(gòu)如圖7 所示。

        對(duì)建立好的模型結(jié)構(gòu)進(jìn)行參數(shù)轉(zhuǎn)換,尋找已訓(xùn)練數(shù)據(jù)集和將要預(yù)測實(shí)驗(yàn)數(shù)據(jù)集的相似度,算法流程如下:

        1) 訓(xùn)練過程:定義一個(gè)包含多個(gè)樣本數(shù)據(jù)的支持集:

        將測試樣本數(shù)據(jù)進(jìn)行分類進(jìn)而得到他們各自的標(biāo)簽,即:

        其中:a用來計(jì)算度量測試樣本和訓(xùn)練樣本的契合度,即:

        其中:f為模型結(jié)構(gòu)中測試樣本編碼,g為訓(xùn)練樣本編碼,c為計(jì)算測試樣本到訓(xùn)練樣本的匹配距離[22]。

        定義一個(gè)支持集到測試數(shù)據(jù)映射為

        輸入一個(gè)測試數(shù)據(jù),計(jì)算測試數(shù)據(jù)到支持集S的距離度量[23]:

        將支持集樣本數(shù)據(jù)嵌入模型g反復(fù)優(yōu)化,也可通過修改測試樣本嵌入模型f將提取的特征反復(fù)優(yōu)化后得到每個(gè)姿態(tài)在不同情況下的數(shù)據(jù)集,即訓(xùn)練過程結(jié)束。

        2) 編碼樣本集:對(duì)于訓(xùn)練樣本數(shù)據(jù)集映射到預(yù)測數(shù)據(jù)的序列問題,本文選取長短期記憶(LSTM),旨在解決訓(xùn)練樣本冗余數(shù)據(jù)的干擾、匹配過程中動(dòng)作間隔和延遲時(shí)間的問題[25]。模型結(jié)構(gòu)中g(shù)(θ) 是一個(gè)雙向LSTM,作為單輸入(對(duì)應(yīng)支持集S中的每個(gè)樣本(x0,x1,x2,???)雙輸出(mi,ni)的典型遞歸神經(jīng)網(wǎng)絡(luò),將xi輸入到LSTM 進(jìn)行第一個(gè)編碼記為g′(xi),然后對(duì)于支持集S中的樣本xi進(jìn)行遞歸編碼:

        圖7 單樣本學(xué)習(xí)模型結(jié)構(gòu)Fig.7 One-shot learning model structure

        其中:ML表示長短期記憶函數(shù),mi,ni為雙向編碼支持集。

        3) 編碼測試集:考慮到支持集S中樣本xi的隨機(jī)性,可能在一定程度上出現(xiàn)序列紊亂現(xiàn)象,因此設(shè)定一個(gè)嵌入函數(shù)f(θ) :

        在迭代的每一步中,嵌入層f′(x) 輸出值不變,保證了測試數(shù)據(jù)的完整性。

        4 實(shí)驗(yàn)驗(yàn)證和分析

        4.1 實(shí)驗(yàn)環(huán)境

        本次實(shí)驗(yàn)硬件基于Windows 10 企業(yè)版的64 位操作系統(tǒng),處理器為Intel(R) Core(TM) i5-6400 CPU 主頻2.71 GHz,搭配內(nèi)存為8 GB,顯卡為NVIDIA GeForce GTX 750 Ti,二代Kinect for Windows 體感攝像頭;軟件基于Visual Studio 2017,Kinect SDK2.0,OpenCV3.4.1 視覺庫。

        4.2 實(shí)驗(yàn)設(shè)計(jì)

        本文通過對(duì)人體主要骨骼關(guān)節(jié)點(diǎn)進(jìn)行特征提取,建立模板庫,采用單樣本學(xué)習(xí)的模型匹配算法,實(shí)現(xiàn)人體姿態(tài)識(shí)別?;诮嵌群途嚯x特征定義了7 種姿態(tài),通過姿態(tài)識(shí)別結(jié)果驗(yàn)證本文算法的準(zhǔn)確性、實(shí)時(shí)性和魯棒性。

        4.3 姿態(tài)識(shí)別實(shí)驗(yàn)

        本次實(shí)驗(yàn)對(duì)定義的姿態(tài)進(jìn)行識(shí)別驗(yàn)證,為了使識(shí)別效果更好,經(jīng)過多次實(shí)驗(yàn)校正,角度特征閾值d=20,距離特征高度f1=0.45,f2=0.2時(shí),偏差在設(shè)定值范圍之內(nèi),識(shí)別效果最佳。角度特征姿態(tài)實(shí)驗(yàn)結(jié)果如圖8 所示,圖中左側(cè)字母代表姿態(tài)標(biāo)記,圓框代表模板庫樣本姿態(tài),骨骼和彩色圖像代表實(shí)時(shí)測試姿態(tài),方框顯示動(dòng)作名稱。

        距離特征姿態(tài)識(shí)別實(shí)驗(yàn)結(jié)果如圖9 所示,圖片顯示內(nèi)容和角度特征一致,距離特征只需計(jì)算左右手關(guān)節(jié)點(diǎn)到脊柱基部的設(shè)定距離,即可完成姿態(tài)識(shí)別。

        圖8 角度特征姿態(tài)識(shí)別結(jié)果示意圖Fig.8 Schematic diagram of recognition results of angular features

        圖9 距離特征姿態(tài)識(shí)別結(jié)果示意圖Fig.9 Schematic diagram of distance feature pose recognition results

        4.4 實(shí)驗(yàn)結(jié)果分析

        本文定義的姿態(tài)動(dòng)作標(biāo)記為A(舉起雙手)、B(手臂成一字型在胸前)、C(雙手叉腰)、D(左手向左伸直)、E(右手向右伸直)、F(左手舉起成90°右手自然下垂)、G(右手舉起成90°左手自然下垂)7 種。為驗(yàn)證本文算法的準(zhǔn)確性、實(shí)時(shí)性和魯棒性,實(shí)驗(yàn)過程中5 人進(jìn)行不同位置、不同身高體型、不同角度的實(shí)驗(yàn),姿態(tài)動(dòng)作10 次/人,實(shí)驗(yàn)結(jié)果如表1 所示。

        從表1 中可看出,動(dòng)作F 和G 識(shí)別錯(cuò)誤率相對(duì)較高。通過分析可知原因有兩點(diǎn):1) 特征點(diǎn)少,存在匹配誤差;2) 測試者沒有做出識(shí)別范圍內(nèi)的動(dòng)作。實(shí)驗(yàn)結(jié)果表明,本文基于角度特征和距離特征的平均識(shí)別率高達(dá)98.29%,準(zhǔn)確率較高。

        4.5 算法對(duì)比

        針對(duì)算法的識(shí)別率和實(shí)時(shí)性,選取六種算法作為對(duì)比對(duì)象,對(duì)比算法如下:

        1) 算法1:文獻(xiàn)[26]提出的通過提取梯度局部自相關(guān)(GLAC)特征來表征動(dòng)作相對(duì)應(yīng)的運(yùn)動(dòng)歷史圖像(MHI)和靜態(tài)歷史圖像(SHI)聯(lián)合表征動(dòng)作的算法。

        2) 算法2:文獻(xiàn)[7]提出的基于CNN 和FastDTW進(jìn)行聯(lián)合訓(xùn)練和個(gè)別訓(xùn)練的方法。

        3) 算法3:文獻(xiàn)[21]提出的姿態(tài)圖像生成特征代表特定的身體部位,然后將生成的特征饋送到SVM 中生成姿態(tài)學(xué)習(xí),識(shí)別預(yù)定義姿態(tài)模型的算法。

        4) 算法4:文獻(xiàn)[20]提出的基于分割技術(shù)將動(dòng)態(tài)表示和骨架特征序列匹配的識(shí)別方法。

        5) 算法5:文獻(xiàn)[24]提出的使用Gabor 小波提取圖像紋理特征和梯度空間邊緣分布(SEDG)計(jì)算形狀特征構(gòu)建擴(kuò)展多分辨特征(EMRF)模型的方法。

        6) 算法6:文獻(xiàn)[27]提出的定義一個(gè)由三元素組成的姿態(tài)描述符,使用Fisher Vector(FV)對(duì)描述符進(jìn)行編碼的算法。

        為證明本文提出算法的優(yōu)異性,本文提出的算法與六種算法的平均識(shí)別率和平均識(shí)別時(shí)間進(jìn)行對(duì)比,對(duì)比結(jié)果如表2 所示。

        從表2 對(duì)比可得出:

        表1 七種姿態(tài)識(shí)別結(jié)果Table 1 Recognition results of seven gestures

        表2 七種算法識(shí)別率對(duì)比Table 2 Comparison of recognition rates of seven algorithms

        1) 算法1 的平均識(shí)別率為97.3%,該算法通過聯(lián)合使用運(yùn)動(dòng)歷史圖像(MHI)和靜態(tài)歷史圖像(SHI)兩種功能的動(dòng)作表示方法,首先對(duì)提取的動(dòng)作進(jìn)行12-正規(guī)化協(xié)作表示分類器(12-CRC),然后對(duì)測試動(dòng)作評(píng)估識(shí)別。該算法主要提取圖像的紋理特征,將特征傳遞給GLAC 構(gòu)建數(shù)據(jù)集,但該算法容易混淆特征相似的動(dòng)作,且數(shù)據(jù)集的構(gòu)建需要大量的數(shù)據(jù)作為支撐。

        2) 算法2 的平均識(shí)別率為90.78%,該算法利用姿態(tài)的所有幀創(chuàng)建圖像,進(jìn)而卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練,在匹配控制中運(yùn)用FastDTW 進(jìn)行識(shí)別。雖采用CNN 對(duì)姿態(tài)訓(xùn)練,有效地解決了訓(xùn)練過程特征點(diǎn)丟失和冗余,但實(shí)時(shí)性和準(zhǔn)確性并沒達(dá)到預(yù)期效果。

        3) 算法3 的平均識(shí)別率逼近本文識(shí)別率,為98.14%。該算法采用了主成分分析對(duì)姿態(tài)特征評(píng)估,將評(píng)估的特征饋送到SVM 生成姿態(tài)學(xué)習(xí)。該算法的高識(shí)別率依據(jù)了主要關(guān)節(jié)點(diǎn)的提取和評(píng)估,但同一主關(guān)節(jié)點(diǎn)不同姿態(tài)存在干擾性,出現(xiàn)誤識(shí)情況。

        4) 算法4 的平均識(shí)別率為97.80%,該算法將骨架特征序列劃分為關(guān)鍵姿態(tài)和運(yùn)動(dòng)段姿態(tài),構(gòu)建高置信度的框架集,最后利用形狀動(dòng)態(tài)時(shí)間規(guī)整(shapeDTW)測量兩個(gè)特征序列的運(yùn)動(dòng)特征段距離。該算法有效地分割骨架特征,高置信度的框架集提高了識(shí)別率,但骨架特征信息具有連續(xù)性和瞬變性,影響運(yùn)動(dòng)特征段的提取。

        5) 算法5 的平均識(shí)別率為96.16%,該算法通過模糊推理模型從視頻序列中選取單個(gè)關(guān)鍵圖像,然后計(jì)算選取圖像的紋理和形狀特征,構(gòu)建多分辨率的特征描述模型并通過SVM 分類器進(jìn)行識(shí)別的算法。該算法對(duì)特征進(jìn)行分類提取,且構(gòu)建的多分辨率特征模型消弱了場景的干擾,但處理圖像旋轉(zhuǎn)縮放性能力和實(shí)時(shí)性較差。

        6) 算法6 的平均識(shí)別率為93.07%,該算法使用3D 骨架信息構(gòu)建三元素姿態(tài)描述符,使用極限學(xué)習(xí)機(jī)(ELM)對(duì)編碼的描述符進(jìn)行訓(xùn)練。該算法采用時(shí)空動(dòng)作描述符構(gòu)建人體姿態(tài)框架,解決了姿態(tài)識(shí)別過程中序列丟幀問題,但編碼描述符的計(jì)算復(fù)雜,三元素的特征提取一定程度上導(dǎo)致識(shí)別時(shí)間增加,實(shí)時(shí)效果減弱。

        本文算法的平均識(shí)別率相對(duì)高了幾個(gè)百分點(diǎn),針對(duì)算法1 特征點(diǎn)相似,本文從角度和距離特征進(jìn)行識(shí)別,拓展了姿態(tài)動(dòng)作集,且對(duì)特征相似的姿態(tài)進(jìn)行標(biāo)定區(qū)分;有效的特征點(diǎn)提取解決了算法2 數(shù)據(jù)丟失和冗余現(xiàn)象;解決了算法3 中姿態(tài)互擾問題;解決了算法4 關(guān)鍵特征提取問題,且本算法的容錯(cuò)率更高;針對(duì)算法5 受場景影響,本算法排除了場景的干擾且具有旋轉(zhuǎn)縮放不變性,解決了算法6 中對(duì)框架模型依賴性高,且本算法特征計(jì)算量小。通過對(duì)比平均識(shí)別時(shí)間,本文算法識(shí)別時(shí)間只有32 ms,識(shí)別時(shí)間更短。本算法不僅提高了識(shí)別率,且實(shí)時(shí)性更好。

        5 結(jié) 論

        本文基于KinectV2 采集骨骼數(shù)據(jù),通過對(duì)獲取骨骼關(guān)節(jié)的三維坐標(biāo)信息進(jìn)行角度和距離特征提取,采用單樣本學(xué)習(xí)的模型匹配方法,解決了特征提取和特征向量構(gòu)建的問題,運(yùn)用數(shù)學(xué)矢量角和余弦值將構(gòu)建的特征向量組合成角度,每個(gè)姿態(tài)特征向量角設(shè)定一個(gè)匹配閾值,匹配過程中測試姿態(tài)特征向量角在閾值范圍之內(nèi)則匹配成功。實(shí)驗(yàn)結(jié)果表明,本文算法提高了人體姿態(tài)識(shí)別的抗干擾性、準(zhǔn)確性、實(shí)時(shí)性和魯棒性。

        猜你喜歡
        動(dòng)作特征模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        動(dòng)作描寫要具體
        抓住特征巧觀察
        畫動(dòng)作
        動(dòng)作描寫不可少
        3D打印中的模型分割與打包
        综合偷自拍亚洲乱中文字幕| 久久精品国产只有精品96| 二区三区亚洲精品国产| 国产三级黄色大片在线免费看| 精品久久久久久久久午夜福利| 亚洲成a人片在线观看无码| 日本女优中文字幕看片| 国产白浆一区二区三区佳柔 | 欧洲国产精品无码专区影院| 中文字幕一区二区三区| 人成午夜大片免费视频77777| 午夜dj在线观看免费视频| 国产视频在线一区二区三区四区| 国产亚洲精品视频网站| 亚洲欧美综合精品成人网站| 国产欧美日韩精品a在线观看| 老熟女熟妇嗷嗷叫91| 日本黄网色三级三级三级| 国产成人精品亚洲日本在线观看 | 国产av天堂亚洲av刚刚碰| 久久无码专区国产精品| 成人免费xxxxx在线视频| 亚洲视频中文字幕更新| 中文字幕亚洲精品久久| 免费特级毛片| 久久精品亚洲精品毛片| 久久久国产熟女综合一区二区三区| 领导边摸边吃奶边做爽在线观看 | 亚洲国产综合精品一区最新| 久久国产劲爆∧v内射-百度| 日本无遮挡吸乳呻吟视频| 午夜无码熟熟妇丰满人妻| 亚洲中文字幕精品视频| 亚洲精品午夜无码专区| 一本大道东京热无码中字| 亚洲国产av午夜福利精品一区| 黑人大群体交免费视频| 最近中文字幕视频高清| 99久久精品国产亚洲av天| 亚洲亚色中文字幕剧情| 亚洲第一无码xxxxxx|