洪小嬌,彭淑娟,柳 欣
(華僑大學(xué)計算機科學(xué)與技術(shù)學(xué)院,福建 廈門 361021)
隨著運動捕獲技術(shù)的快速發(fā)展,大量真實的人體運動數(shù)據(jù)廣泛應(yīng)用于計算機游戲、計算機動畫及計算機仿真等多個領(lǐng)域中。運動捕獲(Mocap)數(shù)據(jù),作為一組具有時序性的特殊運動序列,能夠精準地描述人體在一段時間內(nèi)的姿態(tài)變化。目前,為了保證運動數(shù)據(jù)的準確性和連續(xù)性,捕獲設(shè)備大多采用高頻采樣方法進行數(shù)據(jù)采集,這勢必會造成大量數(shù)據(jù)冗余。為了有效地管理以及重用捕獲到的人體運動數(shù)據(jù),研究人員的研究重心逐漸從運動數(shù)據(jù)的獲取轉(zhuǎn)向運動數(shù)據(jù)的處理。一種典型的運動數(shù)據(jù)處理方法是利用關(guān)鍵幀序列來對人體運動捕獲數(shù)據(jù)進行概括性的描述,使其能夠真實地反映原始運動序列所表示的運動語義。有效的關(guān)鍵幀提取方法能減少數(shù)據(jù)存儲容量和加快數(shù)據(jù)的處理速度,對后續(xù)的運動壓縮、運動檢索和運動合成等實際應(yīng)用具有重要意義。
近年來,運動捕獲數(shù)據(jù)的關(guān)鍵幀提取方法引起了國內(nèi)外眾多研究學(xué)者的廣泛關(guān)注,代表性的關(guān)鍵幀提取方法主要有兩種:等間隔采樣法和自適應(yīng)采樣法。等間隔采樣法思想簡單、易于實現(xiàn),對節(jié)奏平緩的運動序列,關(guān)鍵幀提取的效果優(yōu)異;但在處理運動節(jié)奏有快慢變化的運動序列時,容易產(chǎn)生關(guān)鍵幀冗余或者遺漏現(xiàn)象。相比之下,采用自適應(yīng)采樣法,能在很大程度上避免上述問題的出現(xiàn)。自適應(yīng)采樣法主要有兩類:第一類是曲線簡化技術(shù)[1],其主要思想是把運動序列中的每一幀數(shù)據(jù)看成高維空間曲線上的一個點,提取曲線上的部分局部極值點作為關(guān)鍵幀。然而,該類方法以簡單的歐氏距離度量幀間差異,忽略了運動序列的時序性和運動數(shù)據(jù)本身的結(jié)構(gòu)特性,容易造成某些關(guān)鍵幀的丟失。文獻[2]引入骨骼夾角作為運動特征,提出了一種基于分層曲線簡化的關(guān)鍵幀提取方法,具有較強的運動概括能力,但引入的單一幾何運動特征集在某些情況下會忽略運動局部細節(jié)特性,也可能丟失部分運動節(jié)奏突變的關(guān)鍵幀。第二類是聚類技術(shù),文獻[3]對序列中相似運動姿態(tài)進行聚類,每類的首幀作為關(guān)鍵幀。然而,隨著運動數(shù)據(jù)增大,得到的關(guān)鍵幀可能會有冗余和部分偏差現(xiàn)象。文獻[4]則運用過濾技術(shù)去除其中一些冗余幀,得到的最終關(guān)鍵幀集合較好地表達了運動序列的內(nèi)容。針對歐氏距離無法很好地度量幀間差異,一些研究者提出新的度量標準:以人體各關(guān)節(jié)上總的旋轉(zhuǎn)變化作為幀間距[5],通過比較幀間距的變化情況來確定關(guān)鍵幀;并定義了重建誤差作為度量標準[6],較好地實現(xiàn)了數(shù)據(jù)實時壓縮。此外,其它關(guān)鍵幀提取方法還包括:文獻[7]則提取以重建誤差或壓縮率為目標的關(guān)鍵幀集合,具有良好的實時壓縮效果;文獻[8]結(jié)合曲線簡化和聚類兩種技術(shù)的自適應(yīng)采樣方法;文獻[9]在分割運動序列排除一些不重要幀的基礎(chǔ)上基于尺度不變特征變換提取關(guān)鍵幀,其特征具有很好的魯棒性。上述方法提取的關(guān)鍵幀雖然能較好地概括某些運動內(nèi)容,但這些方法沒有細致地考慮運動序列的局部拓撲結(jié)構(gòu)特性并常常忽略冗余信息的干擾,以致于提取的關(guān)鍵幀序列在揭示運動精確語義方面有一定偏差。
針對上述問題,一種可行的措施是利用特征選擇算法來尋找更具判別性的人體運動特征。遺傳算法是一種常用的特征選擇算法,如文獻[10]利用混合遺傳算法直接對運動捕獲數(shù)據(jù)進行選擇,其提取的關(guān)鍵幀能較好地概括原始運動序列的內(nèi)容,但因遺傳算法隨機產(chǎn)生初始種群,其得到的實驗結(jié)果具有一定的不穩(wěn)定性。另外,費舍爾分值FS (Fisher Score)[11]和拉普拉斯分值LS(Laplacian Score)[12]也是兩種常用且高效的特征選擇方法。作為一種典型的特征選擇方法,F(xiàn)S對每個特征獨立打分,但容易產(chǎn)生次優(yōu)子集特征;同時,打分時還需要分類信息,無法直接應(yīng)用于運動捕獲數(shù)據(jù)。相比之下,LS[12]不必考慮此類問題,其性能優(yōu)于使用單一方差的特征選擇方法,且接近于FS。因此,本文在前期工作的基礎(chǔ)上提出了一種基于LS 特征選擇的運動捕獲數(shù)據(jù)關(guān)鍵幀提取方法,通過過濾式特征選擇方法中的拉普拉斯分值法,關(guān)注于運動序列的局部拓撲結(jié)構(gòu)特性,動態(tài)選擇更具判別性的人體運動特征。實驗結(jié)果表明,該方法提取的關(guān)鍵幀能很好地描述運動序列的內(nèi)容,且具有良好的概括能力。
LS特征選擇是基于拉普拉斯特征映射和局部保留投影LPP(Locality Preserving Projection)提出的一種無監(jiān)督過濾式特征選擇算法[12]。此方法采用樣本的局部特征來評價特征集合,認為局部結(jié)構(gòu)特征比全局結(jié)構(gòu)特征更重要且更有效。并且,對于兩個樣本,如果它們的距離越小,那么屬于同類的概率就越大。在采用LS算法進行特征選擇時,需優(yōu)先遵守“局部結(jié)構(gòu)保持”準則。
Lr表示第r個特征,用fri表示第r個樣本第i個特征,則第r個樣本特征表示為fr=[fr1,fr2,…,frm]T。LS算法描述如下:
(1)對于給定樣本X∈Rm×d,構(gòu)造最近鄰圖Gx=(V,E)表示樣本的局部結(jié)構(gòu)。節(jié)點集合V為V=X,節(jié)點與節(jié)點的連接邊E為:E={(xi,xj)|ifxiis connected withxjclosely,i≠j,xi,xj∈V}。G的權(quán)重矩陣S∈Rm×m定義如下:
(1)
其中,t為合適的常量;S用于描述樣本局部結(jié)構(gòu)特征。
(2)定義D=diag(S1),1=[1,1,…,1]T,L=D-S。
為了選擇較好的特征,必須使得目標函數(shù)Lr最?。?/p>
(2)
其中:
∑ij(fri-frj)2Sij=
(3)
Var(fr)=∑i(fri-μr)2Dii
(4)
(5)
(3)標準化fr,使得:
1
(6)
計算第r個特征的LS:
(7)
根據(jù)計算得出Lr,選取前n(1≤n≤m)個Lr值較小的特征作為合適的樣本特征。
人體具有復(fù)雜的物理拓撲結(jié)構(gòu),同時,其運動序列具有時序性。一般來說,人體簡化模型可以看作是由關(guān)節(jié)以及由關(guān)節(jié)連接的骨骼段組成。如圖1a所示,本文采用CMU[13]中ASF格式的人體骨架模型進行人體表示。該人體模型是由31個關(guān)節(jié)點及關(guān)節(jié)之間的骨骼構(gòu)成的層次結(jié)構(gòu)模型,共有62個自由度。自由度分為平移自由度和旋轉(zhuǎn)自由度兩種。每個關(guān)節(jié)有0、1、2、3或6個自由度,其中根關(guān)節(jié)有6個自由度:3個全局平移自由度和3個局部旋轉(zhuǎn)自由度。在運動數(shù)據(jù)中,每一幀數(shù)據(jù)描述一種運動姿態(tài),而每個姿態(tài)是由具有62個自由度的骨架模型確定(p∈R62)。那么,運動捕獲數(shù)據(jù)序列是由T個有序的姿態(tài)p構(gòu)成,其中,T表示幀數(shù)。
Figure 1 Skeleton model and two kinds of representative features圖1 骨架模型及兩種代表性的特征
骨架特征是運動序列內(nèi)容中最基本的元素,該特征提取越準確,最終得到的關(guān)鍵幀越精確。另外,人體骨架關(guān)于脊椎軸對稱,提取的特征應(yīng)是對稱的?;诖?,本文選取兩種具有代表性、對稱性的特征向量:文獻[14]中的角度特征向量(見圖1b,f1~f8,8個特征向量)和文獻[15]中的中心距離特征向量(見圖1c,f9~f20,12個特征向量)。
文獻[15]提取四肢到根節(jié)點的中心距離特征,簡單直觀,由此方法得到的關(guān)鍵幀序列能較好地表示原運動序列的內(nèi)容。但是,僅由幾個中心距離特征還不能完整地表示一個姿態(tài),鑒于此,本文同時選取了另一種代表性的特征向量,即文獻[14]提取的角度特征,共提取了20個特征向量。根據(jù)三角形邊角邊定理,中心距離特征向量和角度特征向量組合后的特征向量能更好地表示人體的空間姿態(tài)。這樣,從數(shù)學(xué)上來看,62維數(shù)據(jù)可降至20維,得到的運動序列可表示為{p}={R20}。由于中心距離特征與角度特征屬于不同類型的特征,需對提取的兩類特征向量分別做歸一化處理,歸一化后的運動序列可以表示為{p*}={R20}。
由于組合后的特征子向量間存在相關(guān)性,對于運動數(shù)據(jù)的表示存在冗余,其中某些特征子向量甚至?xí)﹃P(guān)鍵幀提取造成干擾。此外,較少的特征能減少計算量,提高關(guān)鍵幀的提取效率。為此,使用LS特征選擇算法對組合后的特征向量進行篩選,依據(jù)其評分結(jié)果選取能夠較好地揭示局部運動信息并更具判別性的特征子向量(根據(jù)多次實驗經(jīng)驗,選擇前6個特征,效果最優(yōu))。接著,基于選擇后的特征子向量構(gòu)建綜合特征函數(shù),函數(shù)曲線上極值點集合則為候選關(guān)鍵幀集合。由于候選關(guān)鍵幀集合中存在一些時間上相近的或姿態(tài)上相似的相鄰幀,因此還需要一個精選過程。根據(jù)時間閾值約束和姿態(tài)相似判別策略,利用改進的k-means算法對候選關(guān)鍵幀集合進行聚類篩選,從而得到最終關(guān)鍵幀集合,其算法流程如圖2所示。
Figure 2 Algorithm flow chart圖2 算法流程示意圖
具體算法描述如下:
輸入:原始數(shù)據(jù)集,即運動序列amc文件和相應(yīng)的asf骨架文件以及目標壓縮率threshold。
輸出:keySet={key(i)|i=1,2,…,round(frames×threshold)},其中keySet為目標關(guān)鍵幀集合,frames為序列的幀數(shù)。
步驟1初始化。按照對應(yīng)的人體骨架模型,將該運動序列轉(zhuǎn)化為矩陣:data∈Rframes×62。
步驟2提取兩種代表性的特征向量?;谖墨I[14,15],分別提取角度特征向量angleFeature及中心距離特征向量centerFeature。
步驟3歸一化處理。分別對兩種特征向量進行歸一化,記作centerFeature*和angleFeature*,其特征向量組合則記為:feature=[centerFeature*angleFeature*]。
步驟4LS特征選擇。利用LS對feature打分得到分值向量l∈Rm*1,并選擇分值較小的n(n 步驟5生成綜合特征函數(shù)η。根據(jù)l*生成feature*特征權(quán)重向量WT=1-l*/sum(l*),其中1=[1…1]T,并對WT進行歸一化,生成綜合特征函數(shù)η=WT·feature*。 步驟6生成初始候選關(guān)鍵幀集合C?;跇O值判別原理,選擇綜合特征函數(shù)上的局部極值點,將其對應(yīng)的幀數(shù)依次加入到初始候選關(guān)鍵幀集合C。然后,將等間隔采樣法提取的關(guān)鍵幀加入到初始候選關(guān)鍵幀集合C中。 步驟7生成精選關(guān)鍵幀集合C*。根據(jù)綜合特征函數(shù)η以及初始候選幀序列集合C生成的數(shù)據(jù)集X={x|x(i,1)=C(i),x(i,2)=η(x(i,1))}。根據(jù)時間閾值約束和姿態(tài)相似判別策略,以等間隔采樣法提取的關(guān)鍵幀為初始中心,基于k-means聚類算法,對X進行聚類,聚成round(frames×threshold)類。其中每類的代表幀即為關(guān)鍵幀,構(gòu)成精選關(guān)鍵幀集合C*,即最終關(guān)鍵幀集合。 采用上述方法提取關(guān)鍵幀,關(guān)注運動序列的局部結(jié)構(gòu)特征,較好地表示運動序列中人體運動姿態(tài),且提取的關(guān)鍵幀很好地概括了整個運動序列。 實驗采用CMU[13]提供的運動捕獲數(shù)據(jù)序列,采樣頻率為120幀每秒,自由度為62,在Matlab環(huán)境下進行仿真實驗,實驗中默認壓縮率為2%。為測試本文算法的有效性,實驗選取三組典型的運動序列Seq1、Seq2、Seq3 (其運動復(fù)雜程度和運動語義見表1),并與經(jīng)典算法進行比較。 Table 1 Sequences used in experiment 相對于運動序列Seq1和Seq2,由于Seq3較長且運動語義復(fù)雜程度高,所以更具典型性,在此詳細分析其實驗結(jié)果。根據(jù)運動語義可人工地將Seq3劃分為跳躍(1~451)和跑步(491~700)兩個動作,其中(452~490)為過渡階段。圖3為Seq3的綜合特征函數(shù)波形圖,曲線上凹凸點為本文算法候選關(guān)鍵幀,其中三角標記為本文算法提取得到的最終關(guān)鍵幀序列。由于至今尚沒有規(guī)范化提取關(guān)鍵幀的統(tǒng)一標準,因此,本文將各算法實驗結(jié)果與人工提取的關(guān)鍵幀進行視覺上的比較。從圖3可以粗略地看出,本文算法最接近于人工提取關(guān)鍵幀,其次是分層曲線簡化法,最后是等間隔采樣法。表2為Seq3各關(guān)鍵幀提取法實驗結(jié)果對比。對于表2中子序列過渡部分,關(guān)鍵幀提取方法各提取一幀,人工提取459幀,分層曲線簡化法提取的458幀最接近此幀,其次是本文算法提取的464幀,從視覺上看姿態(tài)幾乎無差異。人工提取的1~126幀間,等間隔采樣法提取了55、109兩幀,顯示了該方法在節(jié)奏慢的部分過采樣的問題;分層曲線簡化方法中提取了12、62和112三幀,有同樣的問題;而本文算法只提取了一幀55幀。雖然跑步幀數(shù)少于跳躍幀數(shù),但該序列中跑步節(jié)奏較跳躍快些,故人工提取關(guān)鍵幀反而比跳躍部分多1幀。對于跑步子序列,等間隔采樣法提取4幀,分層曲線簡化法提取3幀,而本文算法提取5幀。 Figure 4 Postures corresponding to each algorithm in Seq3圖4 Seq3各算法提取的關(guān)鍵幀對應(yīng)的姿態(tài)圖 子序列提取的關(guān)鍵幀數(shù)及具體的關(guān)鍵幀(幀)跳躍(1~451)過渡(452~490)跑步(491~700)人工提取6(1,126,189, 244,319, 372)1(459)7(515,569,601,624,647,668,700)等間隔采樣9(1,55,109,163,217,271,325,379,433)1(487)4(541,595,649,700)分層曲線簡化10(1,12,62,112,189,252,316, 367,382,404)1(458)3(559,647,700)本文算法8(1,55,128,168,193,252,326,382)1(464)5(557,593,648,681,700) Figure 3 Key frames extracted from each algorithm in Seq3圖3 Seq3各關(guān)鍵幀提取算法提取的關(guān)鍵幀 圖4為Seq3序列四種算法提取的關(guān)鍵幀對應(yīng)的姿態(tài)圖。從圖4中可以看出,人工提取的第二幀關(guān)鍵幀是126幀(姿態(tài)描述:雙手舉起,并超過頭頂,躍起),本文算法提取的128幀是時間上和姿態(tài)上最接近的關(guān)鍵幀。人工提取的第三幀為189幀(姿態(tài)描述:雙手自然放下,站立),等間隔采樣法沒有提取到接近的關(guān)鍵幀,分層曲線簡化方法提取的恰好是189幀,本文算法提取的是193幀,雖然相差4幀,但從視覺上看,姿態(tài)幾乎無差異。由于等間隔采樣法的天然局限性,在跳躍部分變化節(jié)奏慢,過采樣,而在跑步部分變化節(jié)奏快,欠采樣;分層曲線簡化法對原始序列有很好的概括能力,但忽略了一些姿態(tài)邊界幀,譬如681幀;而本文算法選取的運動特征能較好地保留運動序列的局部結(jié)構(gòu)特征和有效信息。 為定量評價本文算法的有效性,建立兩個評價指標:幀間距離誤差FD(Frame Distance)和姿態(tài)距離誤差PD(Posture Distance)。同時,將本文算法得到的關(guān)鍵幀集合F=keySet與人工提取的關(guān)鍵幀mF進行比較。為了保證評價的可信度,本文對實驗數(shù)據(jù)多次人工提取關(guān)鍵幀,取綜合結(jié)果作為最終人工提取關(guān)鍵幀。其中,(F-mF)表示算法提取的關(guān)鍵幀與最近的人工關(guān)鍵幀的距離,取其平均值來衡量運動序列幀間距離誤差FD,姿態(tài)距離誤差PD則利用Frobenius范數(shù)度量。FD、PD及評價函數(shù)J分別定義如下: FD=averg(F-mF) (8) (9) J=FD′PD (10) 其中,u為關(guān)鍵幀幀數(shù),v為運動序列的空間維度, ‖*‖F(xiàn)為Frobenius范數(shù),spXyz為原始運動數(shù)據(jù)轉(zhuǎn)換到歐幾里德空間中的高維數(shù)據(jù)。FD和PD值越小,算法的概括力和表現(xiàn)力越強。 表3為不同算法對Seq1~Seq3序列關(guān)鍵幀提取誤差。從其對比數(shù)據(jù)中可以看出,對等間隔采樣法,幀間距離誤差FD分別為15、11和18,其準確性很大程度上依賴于運動序列的節(jié)奏。對本文算法,幀間距離誤差變化不大,其準確性比較穩(wěn)定,與分層曲線簡化法的效果相近??偟膩碚f,本文算法的幀間距離誤差和姿態(tài)距離誤差最小,等間隔采樣法的誤差最大。主要原因在于等間隔采樣法忽略了運動序列的內(nèi)容,如運動節(jié)奏;分層曲線簡化法對所有特征進行處理,其中部分冗余子特征干擾了關(guān)鍵幀的提取。 Table 3 Extracted error in different sequences 本文算法考慮了原始運動序列的語義和運動特性,以Seq3為例,圖5為Seq3中LS特征選擇得到的特征子向量(選取前6個,效果最優(yōu)),特征子向量的重要性依次為:頭部運動角度特征、右臂彎曲程度、左臂彎曲程度、右腿彎曲程度、左腿彎曲程度以及右脛距離特征。本文算法采用LS算法對全部特征進行選擇,較好地避免了冗余子特征對提取關(guān)鍵幀的干擾;同時,由于運動序列的固有特性,在較短時間段可能呈現(xiàn)幀間姿態(tài)相似性特點,本文算法基于姿態(tài)相似判別策略和時間閾值約束,能對候選關(guān)鍵幀進行有效的篩選。 表3中實驗結(jié)果表明,對于不同運動復(fù)雜程度和運動語義的序列,與等間隔采樣法和分層曲線簡化法相比,本文算法提取關(guān)鍵幀序列最接近于人工提取關(guān)鍵幀,且具有較小的誤差率和較高的準確率。 Figure 5 Subfeatures selected by LS in seq3圖5 Seq3 LS特征選擇得到的特征子向量 從以上對比實驗可以看出,本文算法提取的關(guān)鍵幀序列,能較好地彌補等間隔采樣法的不足,避免分層曲線簡化法的特征干擾問題,對于原始運動序列具有良好的概括性和適應(yīng)性。綜上所述,本文提出的關(guān)鍵幀提取算法是有效的。 為動態(tài)選擇具備判別性的人體運動特征,本文提出了一種基于LS特征選擇的關(guān)鍵幀提取算法。首先,基于兩種代表性的特征向量將原始高維運動數(shù)據(jù)空間映射到低維空間,這樣產(chǎn)生的特征數(shù)據(jù)能很好地保留運動序列的局部結(jié)構(gòu)特征和有效信息。接著,通過LS算法選擇組合后的特征向量,構(gòu)建綜合特征函數(shù)并依據(jù)極值判別原理,得到初始候選關(guān)鍵幀序列。最后,以等間隔采樣法提取的關(guān)鍵幀作為初始中心,通過k-means算法去除部分冗余關(guān)鍵幀,以得到最終關(guān)鍵幀集合。與等間隔采樣法和分層曲線簡化法相比,本文算法提取的關(guān)鍵幀對原運動序列具有更好的概括性、較小的誤差率和較高的準確率。在今后工作中,我們將考慮能夠較好揭示運動語義的普適特征向量進行關(guān)鍵幀提取,并進一步研究基于提取關(guān)鍵幀的插值效果進行序列拼接,合成滿足用戶需求的新序列。此外,考慮到動作捕獲數(shù)據(jù)過程中往往不可避免地參雜一些噪聲和離群值,下一步的工作是對含有噪聲干擾的運動捕獲數(shù)據(jù)做恢復(fù),以改善捕獲數(shù)據(jù)質(zhì)量,接著基于恢復(fù)后的數(shù)據(jù)提取關(guān)鍵幀序列。 [1] Lim I S, Thalmann D. Key-posture extraction out of human motion data[C]∥Proc of the 23rd Annual International Conference of the IEEE, 2001:1167-1169. [2] Xiao Jun, Zhuang Yue-ting, Wu Fei, et al. A group of novel approaches and a toolkit for motion capture data reusing[J]. Multimedia Tools and Applications, 2010, 47(3):379-408. [3] Liu Feng, Zhuang Yue-ting, Wu Fei, et al. 3D motion retrieval with motion index tree[J]. Computer Vision and Image Understanding, 2003, 92(2):265-284. [4] Liu Dian-ting, Shyu M L, Chen Chao, et al. Within and between shot information utilisation in video key frame extraction[J]. Journal of Information & Knowledge Management, 2011, 10(3):247-259. [5] Shen Jun-xing, Sun Shou-qian, Pan Yun-he. Key-frame extraction from motion capture data[J]. Journal of Computer-Aided Design & Computer Graphics, 2004,16(5):719-723.(in Chinese) [6] Liu Yun-gen, Liu Jin-gang. Key frame extraction from motion capture data by optimal reconstruction error[J]. Journal of Computer-Aided Design & Computer Graphics, 2010,22(4):670-675. (in Chinese) [7] Cai Mei-ling, Zou Bei-ji, Xin Guo-jiang. Extraction of key-frame from motion capture data based on pre-selection and reconstruction error optimization[J]. Journal of Computer-Aided Design & Computer Graphics, 2012, 24(11):1485-1492. (in Chinese) [8] Bulut E, Capin T. Key frame extraction from motion capture data by curve saliency[C]∥Proc of the 20th Annual Conference on Computer Animation and Social Agents, 2007:182-185. [9] Wu Zhen-yu,Wu Rui-qing,Yu Hong-yang,et al.Key frame extraction towards Kernel-SIFT identification[C]∥Proc of 2013 International Conference on Advanced Computer Science and Electronics Information (ICACSEI 2013),2013:163-166. [10] Liu Xian-mei, Hao Ai-min, Zhao Dan. Optimization-based key frame extraction for motion capture animation[J]. The Visual Computer,2013, 29(1):85-95. [11] Gu Quan-quan, Li Zhen-hui, Han Jia-wei. Generalized fisher score for feature selection[C]∥Proc of the 27th Annual Conference on Uncertainty in Artificial Intelligence, 2011:266-273. [12] He Xiao-fei, Cai Deng, Niygoi P. Laplacian score for feature selection[C]∥Proc of Advances in Neural Information Processing Systems, 2005:507-514. [13] CMU graphics lab motion capture database[DB/OL].[2013-10-15]. http://mocap.cs.cmu.edu. [14] Yang Yue-dong, Wang Li-li, Hao Ai-min, et al. Human motion capture data segmentation based on geometric features[J]. Journal of System Simulation,2007,19(10):2229-2234. (in Chinese) [15] Peng Shu-juan. Key frame extraction using central distance feature for human motion data[J]. Journal of System Simulation, 2012, 24(3):565-569. (in Chinese) 附中文參考文獻: [5] 沈軍行,孫守遷,潘云鶴. 從運動捕獲數(shù)據(jù)中提取關(guān)鍵幀[J]. 計算機輔助設(shè)計與圖形學(xué)學(xué)報, 2004,16(5):719-723. [6] 劉云根,劉金剛. 重建誤差最優(yōu)化的運動捕獲數(shù)據(jù)關(guān)鍵幀提取[J]. 計算機輔助設(shè)計與圖形學(xué)學(xué)報, 2010,22(4):670-675. [7] 蔡美玲,鄒北驥,辛國江. 預(yù)選策略和重建誤差優(yōu)化的運動捕獲數(shù)據(jù)關(guān)鍵幀提取[J]. 計算機輔助設(shè)計與圖形學(xué)學(xué)報, 2012, 24(11):1485-1492. [14] 楊躍東,王莉莉,郝愛民,等. 基于幾何特征的人體運動捕獲數(shù)據(jù)分割方法[J]. 系統(tǒng)仿真學(xué)報,2007,19(10):2229-2234. [15] 彭淑娟. 基于中心距離特征的人體運動序列關(guān)鍵幀提取[J]. 系統(tǒng)仿真學(xué)報,2012,24(3):565-569.4 實驗結(jié)果與分析
4.1 實驗
4.2 實驗分析
5 結(jié)束語