龐海波 李占波 丁友東
(1.鄭州大學(xué) 軟件技術(shù)學(xué)院, 河南 鄭州450002; 2.上海大學(xué) 影視藝術(shù)技術(shù)學(xué)院, 上海200072)
動(dòng)態(tài)手勢(shì)是運(yùn)動(dòng)的手勢(shì),與靜態(tài)手勢(shì)有所不同,在圖像處理中它由一組序列圖像組成,對(duì)應(yīng)著模型參數(shù)空間中的一條軌跡.不同用戶做的同一類型動(dòng)態(tài)手勢(shì),其空間和時(shí)間尺度是不同的,甚至同一個(gè)用戶前后兩次做的同一類型動(dòng)態(tài)手勢(shì)在空間和時(shí)間尺度上也有差異.因此,如何表示同一類型手勢(shì)并消除同一類型手勢(shì)存在的時(shí)空差異,是動(dòng)態(tài)手勢(shì)識(shí)別需要解決的關(guān)鍵問(wèn)題[1].
動(dòng)態(tài)手勢(shì)的表示方法可以分為基于表觀的表示方法和基于模型的表示方法.基于表觀的表示方法采用圖像序列上的顏色信息或者灰度信息對(duì)人的運(yùn)動(dòng)進(jìn)行分析[2],但不同人種的膚色有很大差別,因此該方法的應(yīng)用容易受到限制[3].其次,背景通常相差也比較大,因此對(duì)顏色特征提取也需要進(jìn)行動(dòng)態(tài)建模[4].基于模型的表示方法通常要計(jì)算圖像運(yùn)動(dòng)參數(shù),常見的手勢(shì)模型參數(shù)包括目標(biāo)軌跡、光流及速度等.Molina 等[5]先分割手勢(shì),然后結(jié)合手勢(shì)形態(tài)學(xué)的輪廓和手勢(shì)運(yùn)動(dòng)模型識(shí)別動(dòng)態(tài)手勢(shì).Fan[6]在跟蹤目標(biāo)時(shí)引入了一種動(dòng)態(tài)更新模板機(jī)制.Liu 等[7]提出了目標(biāo)特征點(diǎn)的相關(guān)生成關(guān)系.Wang 等[8]提出了用于手勢(shì)識(shí)別的基于動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)的分層視覺模型,該模型利用快速差分顏色跟蹤算法對(duì)運(yùn)動(dòng)軌跡進(jìn)行跟蹤和運(yùn)動(dòng)判斷,取得了不錯(cuò)的效果,但需要先分割手勢(shì)再提取特征.Sgouropoulos 等[9]提出了一種基于自組織神經(jīng)網(wǎng)絡(luò)和隱馬爾可夫模型的手勢(shì)識(shí)別系統(tǒng),該系統(tǒng)能夠適應(yīng)較多的光照?qǐng)龊希?jì)算過(guò)于復(fù)雜.
動(dòng)態(tài)時(shí)間規(guī)整(DTW)[10]是具有非線性時(shí)間歸一化效果的模式匹配算法,該算法希望找到一個(gè)時(shí)間規(guī)整函數(shù),能將測(cè)試模式的時(shí)間軸非線性地映射到參考模式的時(shí)間軸上,使得測(cè)試模式和參考模式達(dá)到最大程度的重疊,從而消除兩個(gè)時(shí)空模式之間的時(shí)間尺度差別.DTW 算法更適合于采樣頻率高的語(yǔ)音識(shí)別,而基于視覺的動(dòng)態(tài)手勢(shì)識(shí)別采樣率通常較低,因此不太適合直接使用DTW 方法.HMM[11]存在模型選擇難度大、參數(shù)訓(xùn)練過(guò)程復(fù)雜和時(shí)間較長(zhǎng)等問(wèn)題,當(dāng)動(dòng)態(tài)手勢(shì)在時(shí)間尺度上變化比較大時(shí),上述方法受到很大的限制.因此,解決動(dòng)態(tài)手勢(shì)時(shí)間尺度的變化問(wèn)題是一個(gè)迫切需要解決的問(wèn)題.Itakura[12]將規(guī)劃路徑限制到平行四邊形,計(jì)算開銷顯著減少,但匹配識(shí)別率較低.Sakoe 等[13]在規(guī)劃路徑上合并路權(quán)重,計(jì)算過(guò)程麻煩,開銷較大.Black 等[14]在概率框架下使用DTW,將手勢(shì)軌跡的規(guī)整量和手勢(shì)類型結(jié)合成一個(gè)統(tǒng)一的狀態(tài)量,以待識(shí)別軌跡為觀測(cè)值,找到基于當(dāng)前觀測(cè)的最優(yōu)狀態(tài)估計(jì).Cheng 等[15]提出了一種基于圖像分類的動(dòng)態(tài)時(shí)間規(guī)整算法的3D 手勢(shì)識(shí)別方法,該方法顯著提高了識(shí)別性能.本質(zhì)上,動(dòng)態(tài)手勢(shì)可以利用一個(gè)在空間上隨時(shí)間推移而變化的表面或者輪廓進(jìn)行描述,因此本研究試圖建立動(dòng)態(tài)手勢(shì)的一個(gè)時(shí)空模型,并利用該模型實(shí)現(xiàn)對(duì)動(dòng)態(tài)手勢(shì)的識(shí)別,以提高動(dòng)態(tài)手勢(shì)識(shí)別對(duì)空間和時(shí)間尺度的魯棒性.
動(dòng)態(tài)手勢(shì)識(shí)別很重要的一個(gè)任務(wù)就是提取動(dòng)態(tài)手勢(shì)高層次語(yǔ)義,或者對(duì)動(dòng)態(tài)手勢(shì)進(jìn)行抽象層次的描述,因?yàn)榭衫眠@些高層次語(yǔ)義或者高層次描述區(qū)分不同的動(dòng)態(tài)手勢(shì).由于文中的研究和應(yīng)用不考慮人手的非剛體運(yùn)動(dòng),不關(guān)注手勢(shì)本身的旋轉(zhuǎn)等信息,因此利用一些能夠描述運(yùn)動(dòng)的動(dòng)態(tài)屬性構(gòu)建動(dòng)態(tài)手勢(shì)模型.動(dòng)態(tài)手勢(shì)的運(yùn)動(dòng)通??梢杂梢恍╈o態(tài)形狀或者輪廓構(gòu)成,這些靜態(tài)形狀序列或者輪廓序列是伴隨著手勢(shì)執(zhí)行過(guò)程中的時(shí)間序列而產(chǎn)生的.提取不同動(dòng)態(tài)手勢(shì)每一時(shí)刻的輪廓信息,將所有時(shí)刻的輪廓信息按時(shí)間順序組合成矩陣,構(gòu)成動(dòng)態(tài)手勢(shì)輪廓模型(DGCM),并依據(jù)該模型進(jìn)行動(dòng)態(tài)手勢(shì)識(shí)別.
利用背景減除法獲得實(shí)驗(yàn)者的動(dòng)態(tài)手勢(shì)圖像,然后提取實(shí)驗(yàn)者手勢(shì)對(duì)象,如圖1(b)給出了圖1(a)圖像減除背景后得到的二值圖像.
從圖1(a)的左下角進(jìn)行邊界跟蹤,獲得二值圖像手勢(shì)邊界輪廓,最終提取的輪廓信息如圖1(c)所示.
在圖1(c)中,選擇輪廓上的每一個(gè)點(diǎn)到質(zhì)心的距離構(gòu)成形狀上下文描述符描述該輪廓.但由于實(shí)驗(yàn)者個(gè)體差異等因素的影響,提取的輪廓魯棒性較差,因此,文中提出如下的解決方案.
假設(shè)一個(gè)輪廓含有N 個(gè)邊界點(diǎn),需要得到采樣點(diǎn)個(gè)數(shù)為L(zhǎng).
(1)如果L<N<2L,則可以直接對(duì)手勢(shì)的輪廓進(jìn)行等間隔采樣,獲得L 個(gè)采樣點(diǎn).
(2)如果N>2L,則將手勢(shì)按照比例因子進(jìn)行縮小,保證縮小后手勢(shì)輪廓含有的采樣點(diǎn)個(gè)數(shù)N'滿足
(3)如果N≤L,則將手勢(shì)按照比例因子進(jìn)行放大,該比例因子η 需要滿足
將手勢(shì)放大后輪廓含有的采樣點(diǎn)數(shù)N'=L.
將在動(dòng)態(tài)手勢(shì)連續(xù)t 幀圖像上獲取的手勢(shì)輪廓描述符定義為Dt,
圖2給出了輪廓點(diǎn)的遍歷過(guò)程,從圖像手勢(shì)的左下角輪廓點(diǎn)Pa開始,順時(shí)針遍歷所有輪廓點(diǎn),經(jīng)過(guò)點(diǎn)Pb,最后回到輪廓點(diǎn)Pa的前一個(gè)輪廓點(diǎn).da和db分別是點(diǎn)Pa和點(diǎn)Pb到質(zhì)心的歐氏距離.
假設(shè)一個(gè)動(dòng)態(tài)手勢(shì)由t 幀組成,可以將Dt組合成一個(gè)大小為t×L 的矩陣M,
保證動(dòng)態(tài)手勢(shì)第一幀輪廓向量D1位于矩陣最后一行,最后一幀輪廓向量Dt位于矩陣第一行,則稱M為構(gòu)建的動(dòng)態(tài)手勢(shì)輪廓平面圖.給該二維空間平面添加一個(gè)時(shí)間軸,堆?;瘯r(shí)間序列上的每一個(gè)輪廓描述符,如圖2(b)所示.
圖2 輪廓描述子和歸一化距離Fig.2 Contour descriptor and normalized distance
設(shè)x 軸指示輪廓點(diǎn),y 軸指示時(shí)間序列,代表幀數(shù),圖3(a)顯示了動(dòng)態(tài)手勢(shì)“畫三角形”提取的每一幀圖像手勢(shì)輪廓構(gòu)成的圖像.三維圖像的x 軸顯示輪廓采樣點(diǎn)個(gè)數(shù)為120,y 軸給出了手勢(shì)動(dòng)作持續(xù)的幀數(shù)是52.圖3(b)的二維平面圖x 軸表示采樣點(diǎn)個(gè)數(shù),y 軸代表幀數(shù).
圖3 手勢(shì)“畫三角形”輪廓圖Fig.3 Contour of gesture “Draw triangle”
為了建立手勢(shì)輪廓圖像模型庫(kù),需要實(shí)驗(yàn)者以適中的速度反復(fù)多次執(zhí)行同一類型動(dòng)作.
圖4是“畫三角形”動(dòng)態(tài)手勢(shì)小時(shí)間尺度運(yùn)動(dòng)產(chǎn)生的三維和二維平面圖.
圖4 手勢(shì)“畫三角形”小時(shí)間尺度運(yùn)動(dòng)手勢(shì)輪廓圖Fig.4 Short-time scale contour of gesture “Draw triangle”
假設(shè)在訓(xùn)練集中執(zhí)行最慢的動(dòng)態(tài)手勢(shì)的時(shí)間尺度是smax=t,且同一動(dòng)態(tài)手勢(shì)連續(xù)相鄰時(shí)間尺度間隔ε 幀,那么每個(gè)動(dòng)態(tài)手勢(shì)所具有的不同時(shí)間尺度的個(gè)數(shù)為t/ε,即
通過(guò)在時(shí)間軸上線性插值獲得任意時(shí)間尺度的動(dòng)態(tài)手勢(shì)輪廓圖像:
式中,Ms代表尺度為s 時(shí)的動(dòng)態(tài)手勢(shì)輪廓圖像,φ(·)為時(shí)間軸上的線性插值函數(shù).
分別計(jì)算這些不同時(shí)間尺度的手勢(shì)輪廓圖像的均值圖像和方差圖像,并將它們組成手勢(shì)輪廓模型庫(kù),即
式中,Mjs(x,y)、μs(x,y)和σs(x,y)分別為訓(xùn)練集中第j 個(gè)平面圖像在時(shí)間尺度s 時(shí)的手勢(shì)輪廓圖像、均值圖像和方差圖像.圖5所示為手勢(shì)“畫圓”輪廓圖像的均值、方差圖像.
圖5 手勢(shì)“畫圓”輪廓的均值圖像和方差圖像Fig.5 Mean images and variance images of gesture“Draw circle”contour
對(duì)訓(xùn)練集中的每一種手勢(shì)都進(jìn)行上述處理,獲得訓(xùn)練集中每一種動(dòng)態(tài)手勢(shì)的均值圖像組和方差圖像組,它們構(gòu)成了動(dòng)態(tài)手勢(shì)輪廓模型庫(kù),然后利用測(cè)試集中的圖像對(duì)動(dòng)態(tài)手勢(shì)進(jìn)行分類識(shí)別.
給定一個(gè)測(cè)試手勢(shì)的輪廓均值圖像和方差圖像M,其時(shí)間尺度為s,如果s≤smax,則計(jì)算該尺度輪廓模型和訓(xùn)練集中所有同尺度輪廓模型的相似度;如果s>smax,那么先將該動(dòng)態(tài)手勢(shì)M 的時(shí)間尺度s壓縮到時(shí)間尺度smax,再與訓(xùn)練集中所有在smax尺度上的模型進(jìn)行相似度計(jì)算.即
式中,1≤k≤K,K 是訓(xùn)練集中所有動(dòng)態(tài)手勢(shì)類型的個(gè)數(shù),Mt0s是需要測(cè)試的動(dòng)態(tài)手勢(shì)在時(shí)間尺度s 上的模型,Gks是訓(xùn)練集中動(dòng)態(tài)手勢(shì)k 在時(shí)間尺度s 上的模型,M't0s是由M 利用式(6)插值得到的,f(·)是相似度計(jì)算函數(shù).
相關(guān)信息不僅描述了不同模型之間的統(tǒng)計(jì)依賴信息,而且考慮了手勢(shì)運(yùn)動(dòng)的時(shí)間信息[16],基于相關(guān)信息的相似度函數(shù)fC的計(jì)算式為
式中,μs(i)和σs(i)分別是訓(xùn)練集中第i 個(gè)手勢(shì)模型在時(shí)間尺度s 上的均值圖像和方差圖像,Ms是時(shí)間尺度為s 的測(cè)試手勢(shì)輪廓模型,Ni是圖像的像素個(gè)數(shù),fC是匹配程度值.
在動(dòng)態(tài)手勢(shì)識(shí)別中,不同個(gè)體或者相同個(gè)體在不同時(shí)間做的手勢(shì)的速率會(huì)有很大差異,在進(jìn)行尺度規(guī)整時(shí)會(huì)出現(xiàn)很大的波動(dòng),誤匹配率比較高.
假設(shè)參考手勢(shì)輪廓圖像定義為
式中,S 為時(shí)間尺度,ai為i(i=1,2,…,t)時(shí)刻輪廓采樣點(diǎn)向量.待測(cè)試的手勢(shì)輪廓圖像定義為
式中,R 為時(shí)間尺度,bi為i(i=1,2,…,t)時(shí)刻的輪廓采樣點(diǎn)向量.通常R≠S,但與前述一樣,要求采樣點(diǎn)數(shù)相同,即輪廓采樣點(diǎn)形成的向量維數(shù)要相同.
改進(jìn)的動(dòng)態(tài)時(shí)間規(guī)整IDTW 的具體過(guò)程如下:
1)給定輸入手勢(shì)時(shí)空輪廓向量
并假設(shè)規(guī)整后輸出時(shí)空輪廓向量為
2)對(duì)于每個(gè)輪廓向量bi,m,計(jì)算它們從時(shí)間0 到時(shí)間R 的累積采樣點(diǎn)的值Ci,m,
3)將時(shí)間軸按時(shí)間ts等間隔劃分到S-1 個(gè)時(shí)間片,
4)根據(jù)式(15),利用線性插值法估計(jì)第i 個(gè)采樣點(diǎn)從時(shí)間0 到時(shí)間ts的累加和C′i,ts,
6)輸出經(jīng)過(guò)時(shí)間規(guī)整的采樣點(diǎn)序列
將上述測(cè)試手勢(shì)輪廓圖像B 和參考手勢(shì)輪廓圖像A 在時(shí)間尺度上進(jìn)行對(duì)齊處理,將在時(shí)間尺度上規(guī)整對(duì)齊后的測(cè)試手勢(shì)輪廓圖像定義為
文中實(shí)驗(yàn)選用了文獻(xiàn)[2]中的12 類動(dòng)態(tài)手勢(shì),如圖6所示.其中G1,G2,…,G12分別是“畫圓”、“畫三角形”、“畫矩形”、“畫弧線”、“畫水平直線”、“畫垂直線”、“移動(dòng)”、“復(fù)制”、“撤銷”、“交換”、“刪除”和“關(guān)閉”手勢(shì).
圖6 動(dòng)態(tài)手勢(shì)集Fig.6 Dynamic gesture set
圖7 不同尺寸和采樣點(diǎn)數(shù)時(shí)的ROC 曲線Fig.7 ROC curves with different sizes and different sampling point numbers
選擇5 個(gè)受試者,讓每個(gè)受試者依次將12 類動(dòng)態(tài)手勢(shì)分別以不同的時(shí)間尺度和空間尺度執(zhí)行5次,攝像頭記錄5 個(gè)受試者的手勢(shì)運(yùn)動(dòng)視頻,視頻尺寸為320×240,共錄制的300 段視頻按照手勢(shì)類型分為12 類,每類包含25 個(gè)相同類型動(dòng)態(tài)手勢(shì)的視頻.考慮到視頻尺寸的影響,也在尺寸為40×30 的視頻上進(jìn)行實(shí)驗(yàn).分別對(duì)輪廓等間隔采樣80 和120個(gè)點(diǎn);采用“交叉驗(yàn)證”法隨機(jī)選擇225 個(gè)訓(xùn)練視頻和75 個(gè)測(cè)試視頻,利用相關(guān)信息近似度量方法(CI)、原始動(dòng)態(tài)時(shí)間規(guī)整方法(DTW)和改進(jìn)動(dòng)態(tài)時(shí)間規(guī)整方法(IDTW)分別進(jìn)行100 次試驗(yàn),統(tǒng)計(jì)每種方法的平均識(shí)別率.
圖7給出了不同尺寸和采樣點(diǎn)數(shù)時(shí)獲得的平均受試者工作特征(ROC)曲線.從圖中可知,相關(guān)信息近似度量方法和改進(jìn)動(dòng)態(tài)時(shí)間規(guī)整方法的性能比較接近,原始動(dòng)態(tài)時(shí)間規(guī)整方法因沒(méi)有在時(shí)間尺度上進(jìn)行對(duì)齊處理而導(dǎo)致其整體AUC 值偏低.
當(dāng)圖像尺寸為320×240 時(shí),采樣點(diǎn)數(shù)對(duì)相關(guān)信息近似度量方法識(shí)別率的影響不大,而當(dāng)圖像尺寸為40×30 時(shí),采樣點(diǎn)數(shù)對(duì)識(shí)別率的影響較大.無(wú)論采樣點(diǎn)數(shù)取80 或者120,當(dāng)圖像尺寸增加時(shí),識(shí)別率都有較大的提升.另外,隨著圖像尺寸的增加,采樣點(diǎn)數(shù)對(duì)識(shí)別率的影響逐漸減弱.
表1給出了利用3 種時(shí)間規(guī)整方法獲得的識(shí)別率.從表中可知,改進(jìn)動(dòng)態(tài)時(shí)間規(guī)整方法比原始動(dòng)態(tài)時(shí)間規(guī)整方法有更高的識(shí)別率.
表1 3 種方法的平均識(shí)別率比較Table1 Comparison of mean recognition rates among three methods
當(dāng)圖像尺寸降低時(shí)輪廓點(diǎn)數(shù)減少,導(dǎo)致提取手勢(shì)輪廓點(diǎn)的誤差較大.另外,隨著采樣點(diǎn)數(shù)的增加,輪廓描述手勢(shì)更加準(zhǔn)確,識(shí)別率都有明顯的提升.
相關(guān)信息近似度量方法沒(méi)有復(fù)雜的時(shí)間尺度對(duì)齊操作,故其時(shí)間性能最好;而改進(jìn)動(dòng)態(tài)時(shí)間規(guī)整方法因前期引入了時(shí)間尺度對(duì)齊操作,故其時(shí)間開銷增加.
當(dāng)圖像尺寸為320×240、采樣點(diǎn)數(shù)為120 時(shí),3種方法對(duì)12 種手勢(shì)(見圖6)的識(shí)別率如圖8所示.從圖中可以看出:CI 和DTW 方法對(duì)12 種手勢(shì)的識(shí)別精度總體上相當(dāng),CI 方法略有優(yōu)勢(shì);IDTW 方法對(duì)簡(jiǎn)單動(dòng)態(tài)手勢(shì)(如G4、G5、G6)的識(shí)別率與其他兩種方法非常接近,沒(méi)有明顯的優(yōu)勢(shì),對(duì)較為復(fù)雜手勢(shì)(如G1、G2、G3等)的識(shí)別率有明顯的優(yōu)勢(shì),但對(duì)復(fù)雜動(dòng)態(tài)手勢(shì)G11的識(shí)別率優(yōu)勢(shì)不明顯.這表明,與DTW方法相比,IDTW 方法能夠提高對(duì)較為復(fù)雜手勢(shì)的識(shí)別率,但對(duì)簡(jiǎn)單和復(fù)雜動(dòng)態(tài)手勢(shì)的識(shí)別率很接近.
圖8 尺寸為320×240、采樣點(diǎn)數(shù)為120 時(shí)CI、DTW 和IDTW 方法對(duì)12 種動(dòng)態(tài)手勢(shì)的識(shí)別率Fig.8 Recognition rates of 12 kinds of gestures by using CI,DTW and IDTW methods with the size of 320×240 and the sampling point number of 120
文中提出了一種新的動(dòng)態(tài)手勢(shì)識(shí)別框架,包括動(dòng)態(tài)手勢(shì)輪廓特征提取和建模、利用相關(guān)信息或改進(jìn)動(dòng)態(tài)時(shí)間規(guī)整方法進(jìn)行識(shí)別;將在時(shí)間序列上提取的手勢(shì)輪廓構(gòu)成動(dòng)態(tài)手勢(shì)輪廓圖像,計(jì)算出同一類型手勢(shì)在多個(gè)時(shí)間尺度上的動(dòng)態(tài)手勢(shì)輪廓圖像的均值圖像和方差圖像,以提高動(dòng)態(tài)手勢(shì)輪廓圖像在采樣點(diǎn)數(shù)和時(shí)間尺度上的魯棒性;將這些均值圖像和方差圖像組成動(dòng)態(tài)手勢(shì)輪廓模型庫(kù),利用相關(guān)信息近似度量方法和改進(jìn)動(dòng)態(tài)時(shí)間規(guī)整方法計(jì)算待測(cè)試動(dòng)態(tài)手勢(shì)與模型庫(kù)中參考動(dòng)態(tài)手勢(shì)輪廓模型之間的相似度.實(shí)驗(yàn)結(jié)果表明,文中動(dòng)態(tài)手勢(shì)輪廓模型對(duì)時(shí)間尺度有較強(qiáng)的魯棒性,利用改進(jìn)動(dòng)態(tài)時(shí)間規(guī)整方法可取得比傳統(tǒng)動(dòng)態(tài)時(shí)間規(guī)整方法更高的識(shí)別率.
[1]周航.基于計(jì)算機(jī)視覺的手勢(shì)識(shí)別系統(tǒng)研究[D].北京:北京交通大學(xué)信息科學(xué)研究所,2007.
[2]顧立忠.基于表觀的手勢(shì)識(shí)別及人機(jī)交互技術(shù)研究[D].上海:上海交通大學(xué)自動(dòng)化系,2008.
[3]Khan Rehanullan,Hanbury Allan,Sto¨ttinger Julian,et al.Color based skin classification [J].Pattern Recognition Letters,2012,33(2):157-163.
[4]Sun Hung-Ming.Skin detection for single images using dynamic skin color modeling [J].Pattern Recognition,2010,43(4):1413-1420.
[5]MolinaJavier,Escudero-Vin~oloMarcos,SignorielloAlessandro,et al.Real-time user independent hand gesture recognition from time-of-flight camera video using static and dynamic models [J].Machine Vision and Applications,2011,24(1):187-204.
[6]Fan Lixin.A feature-based object tracking method using online template switching and feature adaptation [C]//Proceedings of the 6th International Conference on Image and Graphics.Hefei:ICIG,2011:707-713.
[7]Liu Yu,Zhou Wei,Yin Huagang,et al.Tracking based on SURF and superpixel [C]//Proceedings of the 6th International Conference on Image and Graphics.Hefei:IEEE,2011:714-719.
[8]Wang W H A,Tung C L.Dynamic hand gesture recognition using hierarchical dynamic Bayesian networks through low-level image processing [C]//Proceedings of the Seventh International Conference on Machine Learning and Cybernetics.Kunming:IEEE,2008:3247-3253.
[9]Sgouropoulos Kyriakos,Stergiopoulou Ekaterini,Papamarkos Nikos.A dynamic gesture and posture recognition system [J].Journal of Intelligent and Robotic Systems:Theory and Applications,2014,76(2):283-296.
[10]Neumann GerHard,Maass Wolfgang,Peters Jan.Learning complex motions by sequencing simpler motion templates [C]//Proceedings of the 26th Annual International Conference on Machine Learning.New York:ACM,2009:753-760.
[11]王西穎,戴國(guó)忠,張習(xí)文,等.基于HMM-FNN 模型的復(fù)雜動(dòng)態(tài)手勢(shì)識(shí)別[J].軟件學(xué)報(bào),2008,19(9):2302-2312.Wang Xi-ying,Dai Guo-zhong,Zhang Xi-wen,et al.Recognition of complex dynamic gesture based on HMM-FNN model[J].Journal of Software,2008,19(9):2302-2312.
[12]Itakura F.Minimum prediction residual principle applied to speech recognition, acoustics [J].IEEE Transactions on Speech and Signal Processing,1975,23(1):67-72.
[13]Sakoe H,Chiba S.Dynamic programming algorithm optimization for spoken word recognition,acoustics [J].IEEE Transactions on Speech and Signal Processing,1978,26(1):43-49.
[14]Black M,Jepson A.A probabilistic framework for matching temporal trajectories:condensation-based recognition of gestures and expressions [C]//Proceedings of the 5th European Conference on Computer Vision.Berlin/Heidelberg:Springer,1998:909-924.
[15]Cheng Hong,Dai Zhongjun,Liu Zicheng.Image-to-class dynamic time warping for 3D hand gesture recognition[C]//Proceedings of 2013 IEEE International Conference on Multimedia and Expo.San Jose:IEEE,2013:1-6.
[16]Pluim Josien P W,Maintz J B Antoine,Viergever Max A.Mutual information based registration of medical images:a survey [J].IEEE Transactions on Medical Image,2003,22(8):986-1004.