亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人體行為識(shí)別中骨骼特征信息的雞群優(yōu)化選擇算法

        2017-10-13 22:33:31唐鳳宣士斌范曉杰
        數(shù)碼設(shè)計(jì) 2017年2期
        關(guān)鍵詞:特征優(yōu)化信息

        唐鳳,宣士斌*,范曉杰

        ?

        人體行為識(shí)別中骨骼特征信息的雞群優(yōu)化選擇算法

        唐鳳,宣士斌*,范曉杰

        (廣西民族大學(xué)信息科學(xué)與工程學(xué)院,南寧,530006)

        隨著低成本深度傳感器的出現(xiàn),人體行為識(shí)別研究吸引了很多研究人員。由于這些設(shè)備提供了身體關(guān)節(jié)的三維位置等骨骼數(shù)據(jù),使得基于骨骼的人體行為識(shí)別變得簡(jiǎn)單。但這些關(guān)節(jié)特征的信息存在部分冗余或者不必要的關(guān)節(jié)點(diǎn)信息,從而降低識(shí)別精度。為此,提出了用改進(jìn)的CSO(Chicken Swarm Optimization)算法來(lái)優(yōu)化關(guān)節(jié)點(diǎn)信息的方法,過(guò)濾一些不必要的關(guān)節(jié)點(diǎn)的特征信息,提高了識(shí)別精度。改進(jìn)的CSO算法引入“佳點(diǎn)集”和OS(Ordered Subsets)方法,利用“佳點(diǎn)集”均勻化初始種群;利用OS方法將整個(gè)有序種群分成了3個(gè)部分,在進(jìn)行位置更新時(shí),引入猴群算法中的望-眺過(guò)程來(lái)比擬雞群在覓食的過(guò)程中尋找食物的眺望過(guò)程作為其修正公式,加快了算法的收斂速度并且避免算法陷入局部最優(yōu)。實(shí)驗(yàn)結(jié)果表明,提出的方法在UTKinect和Florence3D數(shù)據(jù)集上測(cè)試得到的精度分別達(dá)到98.01%和93.77%。

        行為識(shí)別;特征選擇;雞群優(yōu)化算法;佳點(diǎn)集;有序子集

        引言

        人類(lèi)具有從視覺(jué)信息感知人體動(dòng)作的非凡能力,能夠準(zhǔn)確地定位人、物并跟蹤人體運(yùn)動(dòng),通過(guò)分析人與物體的交互可以知道人們?cè)谧鍪裁床⑶彝茢嗥湟鈭D。自動(dòng)識(shí)別與理解人體動(dòng)作在許多人工智能系統(tǒng)中是非常重要的,在智能視頻監(jiān)控、人機(jī)交互、視頻分析與檢索以及機(jī)器人等領(lǐng)域中廣泛地應(yīng)用。尤其是微軟Kinect等的出現(xiàn),這些設(shè)備提供了身體關(guān)節(jié)的三維位置等骨骼數(shù)據(jù),然后用各種描述子對(duì)相關(guān)的運(yùn)動(dòng)信息進(jìn)行描述識(shí)別。

        文獻(xiàn)[1]用固定長(zhǎng)度的圓柱體表示相對(duì)關(guān)節(jié)肢體距離和關(guān)節(jié)角之間的信息,該文章的主要貢獻(xiàn)就是采用了數(shù)據(jù)驅(qū)動(dòng)的馬爾可夫鏈蒙特卡爾理論方法,不需要很大的數(shù)據(jù)集,但是他們的方法對(duì)快速運(yùn)動(dòng)和背景比較敏感。文獻(xiàn)[2]用了Plagemann 等人提出的基于15個(gè)肢體部分的運(yùn)動(dòng)學(xué)鏈模型,并提出用一個(gè)平滑的似然函數(shù)來(lái)定位追蹤身體的位置,但是在一些系統(tǒng)中(Grest et al.[3], 2005; Knoop et al.[4], 2009)的快速的運(yùn)動(dòng)環(huán)境下會(huì)導(dǎo)致模糊或者追蹤定位失敗。文獻(xiàn)[5]從一個(gè)3D點(diǎn)云中粗糙的評(píng)估整個(gè)身體模型,他們首先找到身體的中心和外部邊界點(diǎn),姿勢(shì)的表示就簡(jiǎn)單地用這些點(diǎn)組成的向量來(lái)表示,方便定位和追蹤,但是得到的精度主要依靠先驗(yàn)的身體姿勢(shì)。文獻(xiàn)[6]用文獻(xiàn)[7]中的方法實(shí)現(xiàn)了對(duì)20個(gè)關(guān)節(jié)點(diǎn)的追蹤,并且用傅立葉金字塔來(lái)建立關(guān)節(jié)特征向量之間時(shí)間模式的模型,他的主要工作是采用了Actionlet Ensemble (AE)方法,這個(gè)方法可以處理骨骼追蹤的錯(cuò)誤并能得到類(lèi)內(nèi)之間更好的特征,但是他沒(méi)有考慮骨骼局部的相對(duì)關(guān)系。文獻(xiàn)[8]采用了基于李群的幾何關(guān)系對(duì)人體行為進(jìn)行識(shí)別,主要的貢獻(xiàn)是用旋轉(zhuǎn)和平移表示不同肢體部分之間的3D幾何關(guān)系模型。

        文獻(xiàn)[8]中使用的是相對(duì)關(guān)節(jié)之間的幾何關(guān)系,所以得到的關(guān)節(jié)點(diǎn)的信息比較多。對(duì)于一些行為或者姿勢(shì)只用到了手臂或者手上的一些信息,卻包括了整個(gè)身體肢體特征的信息。比如說(shuō)舉東西這個(gè)動(dòng)作只用到了手臂上的信息,而其他的關(guān)節(jié)信息就變的冗余了,并且比較容易與其他行為產(chǎn)生混淆;走的這個(gè)動(dòng)作只有下半身的關(guān)節(jié)坐標(biāo)會(huì)產(chǎn)生相應(yīng)的變化,而上半身的只有在水平方向有相應(yīng)的變化,而在縱向和垂向兩個(gè)方向上沒(méi)有相應(yīng)的變化。這些多余的關(guān)節(jié)特征信息會(huì)降低識(shí)別的精度,因此關(guān)節(jié)的哪些信息對(duì)識(shí)別性能有較高的價(jià)值并拋棄關(guān)節(jié)的哪些特征成為了一個(gè)重點(diǎn)考慮的對(duì)象。

        本文提出了一個(gè)改進(jìn)的雞群智能優(yōu)化方法來(lái)選擇關(guān)節(jié)的有用信息以提高行為的識(shí)別精度,將雞群的位置信息對(duì)應(yīng)到骨骼特征的選擇中去,實(shí)現(xiàn)算法對(duì)特征信息的選擇。因?yàn)橹悄軆?yōu)化算法對(duì)初始值的依賴(lài)性比較大,所以改進(jìn)的CSO算法引入佳點(diǎn)集方法對(duì)種群初始化,以達(dá)到均勻化初始種群的目的,預(yù)防種群過(guò)早陷入局部最優(yōu)。還引入了OS方法,將整個(gè)有序種群分成了3個(gè)部分,在進(jìn)行位置更新的時(shí)候,也就是在迭代過(guò)程中,引入猴群算法中的望-眺過(guò)程來(lái)比擬雞群在覓食的過(guò)程中尋找食物的眺望過(guò)程作為其修正公式,加快了算法的收斂速度并且避免算法陷入局部最優(yōu)。最后將行為的識(shí)別精度作為算法的適應(yīng)度函數(shù)得到相應(yīng)的實(shí)驗(yàn)結(jié)果。

        1 相關(guān)工作

        1.1 基于李群的骨骼表示

        在這一部分中,我們首先介紹基于李群[9]的行為識(shí)別方法。由于三維剛體運(yùn)動(dòng)是歐幾里德群的一部分,作者提出的骨骼表示是基于李群的基礎(chǔ)上進(jìn)行的。即將整個(gè)視頻中的骨骼變化表示成一個(gè)曲率流形。在關(guān)節(jié)位置的計(jì)算上面,分別采用了關(guān)節(jié)位置的計(jì)算和相對(duì)關(guān)節(jié)位置的計(jì)算,然后在李氏空間中分別對(duì)它們進(jìn)行旋轉(zhuǎn)和平移操作,形成兩種描述子的方法,由20個(gè)關(guān)節(jié)點(diǎn),19個(gè)肢體組成的人體骨骼圖如圖1所示。

        圖1 由20個(gè)關(guān)節(jié)點(diǎn),19個(gè)肢體組成的人體骨骼圖

        Figure1.Human Skeleton is composed of 20 joints and 19 limbs

        第一種描述子:關(guān)節(jié)位置(Joint positions—JP)。在第t幀肢體j的位置可以定義為,肢體的位置定義為其中,表示的是肢體的數(shù)目。直接將關(guān)節(jié)位置隨著時(shí)間的變化作為行為的一種描述子。

        第二種描述子:基于李群的相對(duì)關(guān)節(jié)位置(Relative Joint position based on lie groups—Li_JP)。根據(jù)第一種描述子得到了關(guān)節(jié)的位置,則肢體之間的相對(duì)位置表示方式為,其中;以此類(lèi)推計(jì)算所有的兩兩肢體的相對(duì)位置數(shù)據(jù)。

        得到肢體的相對(duì)關(guān)節(jié)之后,將其中一個(gè)肢體相對(duì)于另一個(gè)肢體進(jìn)行旋轉(zhuǎn)平移,如文獻(xiàn)[8]中所示。在兩個(gè)相對(duì)肢體部分的局部坐標(biāo)系,其中一個(gè)向另一個(gè)旋轉(zhuǎn)平移示意圖如圖2所示。

        圖2 在兩個(gè)相對(duì)肢體部分的局部坐標(biāo)系,其中一個(gè)向另一個(gè)旋轉(zhuǎn)平移示意圖。

        Figure 2.In the local coordinate,the schematic view of two opposite limbs and one of them translate and rotate to another one

        (2)

        由于肢體的長(zhǎng)度不會(huì)隨著幀數(shù)的變化而變化,所以?xún)芍w的相對(duì)幾何關(guān)系可以用式(3)和(4)來(lái)表示:

        (4)

        (6)

        將整個(gè)人體看作是一個(gè)點(diǎn),用DTW[10](Dynamic Time Warping)方法,一個(gè)行為就產(chǎn)生了一條曲線(xiàn)。用傅立葉描述子對(duì)曲線(xiàn)進(jìn)行描述,將得到的傅立葉描述子用一個(gè)三層時(shí)間金字塔表示,并將每個(gè)部分長(zhǎng)度的1/4作為其低頻系數(shù)[6],得到整個(gè)視頻的特征描述子。

        由于文獻(xiàn)計(jì)算的是相對(duì)肢體之間的幾何關(guān)系,所以對(duì)于取點(diǎn)越多的骨骼文獻(xiàn)計(jì)算量就越大,最后產(chǎn)生的關(guān)節(jié)的信息也會(huì)產(chǎn)生很大的冗余或者不必要的肢體特征,這些肢體特征對(duì)行為識(shí)別的精度造成一定的負(fù)面的影響,從而降低識(shí)別精度。本文在這個(gè)基礎(chǔ)上引入了改進(jìn)的智能算法對(duì)最后的識(shí)別精度進(jìn)行優(yōu)化,并且取得了較好的結(jié)果。

        1.2 雞群算法

        雞群算法是MENG Xianbing[11]等人提出的基于雞群搜索行為的隨機(jī)優(yōu)化算法,他們模擬了雞群的行為并且它們之間存在等級(jí)制度。

        整個(gè)算法概括如下:

        1. 將整個(gè)雞群分成若干個(gè)群體,每一個(gè)群體均有一只公雞,若干只母雞和小雞組成,母雞中還包含帶小雞的雞媽媽。

        2. 不同的雞有不同的移動(dòng)規(guī)律,在一個(gè)具體的等級(jí)制度下,它們之間存在競(jìng)爭(zhēng)關(guān)系。適應(yīng)度值大的作為公雞,最小的最為小雞,其他的是母雞,其中母雞與小雞的關(guān)系是隨機(jī)建立的。

        3. 雞群中的等級(jí)制度,群內(nèi)關(guān)系以及小雞與母雞的關(guān)系要在數(shù)代之后才更新。

        4. 群體里的雞隨著它們的組員公雞尋找食物,并且他們阻止其他種群的雞來(lái)偷吃它們的食物。小雞跟隨雞媽媽一起尋找食物,并可以隨機(jī)偷食其他雞找到的食物。在雞群里,具有支配地位的個(gè)體優(yōu)先于其他個(gè)體先找到食物。

        根據(jù)上述的規(guī)則對(duì)每一類(lèi)雞分別制定相應(yīng)的位置更新公式,迭代,直到滿(mǎn)足迭代條件停止。所有只雞,它們?cè)跁r(shí)間的位置表示方法是,該公式表示第個(gè)體第維在時(shí)間迭代的值。表示的是雞群搜索食物的維空間。

        整個(gè)雞群中三種類(lèi)型的雞,每一個(gè)個(gè)體根據(jù)自身的種類(lèi)不同更新公式不同,公雞對(duì)應(yīng)于雞群中適應(yīng)度值最好的個(gè)體,其對(duì)應(yīng)的位置更新公式如下:

        (8)

        母雞跟隨它們所在的群體尋找食物,并且可以隨機(jī)偷取其他雞找到的食物,占有更多主導(dǎo)地位的母雞比其他個(gè)體更容易找到食物,也就是說(shuō)適應(yīng)度值越大的母雞在競(jìng)爭(zhēng)中的優(yōu)勢(shì)越大。則母雞的位置更新公式如下:

        其中,

        (10)

        根據(jù)上面算法的相關(guān)描述,小雞的位置更新數(shù)學(xué)公式表示如下:

        (11)

        2 人體行為識(shí)別中骨骼特征的雞群優(yōu)化選擇算法

        2.1 佳點(diǎn)集初始化

        智能優(yōu)化算法的收斂過(guò)程中,很大程度的依賴(lài)于生成的初始值,若產(chǎn)生的初始值太極端,可能很難得到收斂的值。因此引入數(shù)論中的佳點(diǎn)集對(duì)初始值均勻化[12],如圖3,在區(qū)域[1,1]之間隨機(jī)生成600個(gè)點(diǎn)。若使用佳點(diǎn)集法產(chǎn)生的點(diǎn)是均勻分布在圖像中如圖a,若未使用,則生成的點(diǎn)則是散亂的分布在圖像中如圖b。因此使用佳點(diǎn)集可以有效的預(yù)防算法過(guò)早陷入局部最優(yōu),并提高搜索效率,a佳點(diǎn)集生成的點(diǎn)圖; b、隨機(jī)生成的點(diǎn)圖如圖3 a、b所示。

        圖3. a、佳點(diǎn)集生成的點(diǎn)圖;

        Figure 3. a. A dot plot is generated by good point set ;

        圖 3. b、隨機(jī)生成的點(diǎn)圖

        Figure 3. b. A dot plot is generated by random.

        2.2 基于有序子集(OS)的雞群優(yōu)化算法(Chicken Swarm Optimization based on ordered subsets —OS_CSO)

        在有序子集的方法中,將整個(gè)數(shù)據(jù)集分成T個(gè)有序子集。其中的子集水平定義為這些子集的數(shù)目。每次迭代時(shí)使用相應(yīng)的更新公式對(duì)子集內(nèi)的每個(gè)數(shù)據(jù)進(jìn)行修正,這樣所有的子集中的數(shù)據(jù)就被修正一次,得到的整個(gè)數(shù)據(jù)集就被更新了T次,完成一次迭代過(guò)程。與傳統(tǒng)的迭代更新算法相比較,在相同的時(shí)間和計(jì)算量的基礎(chǔ)下,數(shù)據(jù)集被多更新了T次,因此有序子集方法具有加快收斂速度的作用。我們將這個(gè)方法應(yīng)用到雞群優(yōu)化算法中來(lái),以此提高算法的收斂速度。

        在雞群優(yōu)化算法中,整個(gè)算法分成的是三個(gè)子集,分別是公雞,母雞,小雞三個(gè)群體,各個(gè)子集水平則為公雞,母雞,小雞對(duì)應(yīng)的群體個(gè)數(shù)。每次迭代的時(shí)候我們效仿猴群算法[13]中望-眺的過(guò)程作為OS方法中的修正公式。雞群在尋找食物的過(guò)程中,可以通過(guò)眺望的過(guò)程,在視野范圍內(nèi)尋找優(yōu)于當(dāng)前位置的點(diǎn),然后去食物更多的位置覓食。相應(yīng)的步驟如下:

        2)若是更新后的群體比未更新的群體的適應(yīng)度值大,則用更新后的群體替代以前的群體,得到新的適應(yīng)度值,反之則不替換。

        其中,在對(duì)應(yīng)雞群更新位置公式的時(shí)候,其他雞群的位置保持不變,計(jì)算相應(yīng)的適應(yīng)度值。以此類(lèi)推,得到最后的實(shí)驗(yàn)結(jié)果。因?yàn)樵贠S方法中引入了雞群的眺望動(dòng)作,在提高算法的收斂速度的同時(shí)也避免算法陷入局部最優(yōu)。

        2.3 人體行為識(shí)別中骨骼特征的雞群優(yōu)化選擇算法

        當(dāng)使用骨骼特征向量的時(shí)候,特征向量信息的選擇成了值得考慮的問(wèn)題,由于這些特征信息可能包含降低識(shí)別精度的不相關(guān)或者冗余的信息。事實(shí)上,不相關(guān)或者冗余的信息對(duì)有用的特征信息的影響比較大,大多數(shù)的分類(lèi)器不能區(qū)分開(kāi)它們。所以特征的選擇在于找到優(yōu)化分類(lèi)的子集,以找到更好的分類(lèi)性能,得到更高的分類(lèi)精度。

        比如對(duì)于跑跟走的兩個(gè)動(dòng)作,兩者之間需要的關(guān)節(jié)特征是差不多的,但是跑的時(shí)候人體的軀干上的縱坐標(biāo)會(huì)發(fā)生一定的變化,而對(duì)于走路的這個(gè)姿勢(shì)幾乎是不變的,所以這個(gè)時(shí)候人體軀干上縱坐標(biāo)的特征對(duì)于走的這個(gè)姿勢(shì)就顯得冗余了,而且可能會(huì)讓分類(lèi)器混淆對(duì)這兩個(gè)動(dòng)作正確的判斷。如果我們將軀干上縱坐標(biāo)的特征用0表示,表示沒(méi)有選擇這個(gè)特征。這樣子即使走的這個(gè)姿勢(shì)在軀干的縱坐標(biāo)上有輕微的變化也不會(huì)影響最后的分類(lèi)的結(jié)果,也對(duì)行為識(shí)別產(chǎn)生了一定的魯棒性,提高了分類(lèi)器的識(shí)別精度。最后的實(shí)驗(yàn)結(jié)果顯示選擇了之后的關(guān)節(jié)信息降低了動(dòng)作之間的混淆程度,大大的提高了動(dòng)作的識(shí)別精度。

        本文主要的貢獻(xiàn)是用改進(jìn)的CSO算法選擇關(guān)節(jié)特征信息。將個(gè)體的關(guān)節(jié)特征信息選擇編碼成一個(gè)布爾數(shù)組,數(shù)組的值表示對(duì)于該特征信息在識(shí)別系統(tǒng)中選或者不選。需要注意的是,數(shù)組的維數(shù)在不同的模型中已經(jīng)選擇好了,也就是識(shí)別特征信息的數(shù)目是確定的,也就是雞群覓食的搜索空間。在整個(gè)算法的計(jì)算過(guò)程中,我們將位置搜索空間固定在和之間,其中,搜索空間為維,對(duì)應(yīng)于文中關(guān)節(jié)特征的總數(shù)目。由于計(jì)算的是雞群的最優(yōu)位置,在這個(gè)過(guò)程中會(huì)產(chǎn)生小數(shù),我們?cè)O(shè)計(jì)若產(chǎn)生的數(shù)是大于等于0.5(按實(shí)驗(yàn)的經(jīng)驗(yàn)取值),則向上取整,反之向下取整。再根據(jù)這個(gè)數(shù)組進(jìn)行計(jì)算,0表示的是不選,1表示的是選擇。需要注意的是迭代更新的位置是在按上述規(guī)則取值之前的數(shù)據(jù)計(jì)算的,所以取值后的操作是不影響位置的更新,只會(huì)影響適應(yīng)度大小的求解。最后再把得到的行為識(shí)別精度作為適應(yīng)度函數(shù)值。參照?qǐng)D1建立的模型表一所示。

        表 1 骨骼特征信息選擇模型

        在大多數(shù)使用相對(duì)骨骼位置和骨骼位置進(jìn)行特征計(jì)算的文獻(xiàn)中,學(xué)者們使用的是全部肢體或者關(guān)節(jié)的所有信息進(jìn)行特征表示,但不是所有的肢體或關(guān)節(jié)特征對(duì)最后的識(shí)別有用,相反,有的肢體或關(guān)節(jié)特征會(huì)混淆最后的識(shí)別,導(dǎo)致精度下降。我們提出基于CSO算法的特征選擇[14],對(duì)信息進(jìn)行優(yōu)化,選取有效的關(guān)節(jié)特征進(jìn)行識(shí)別。算法流程如下:

        2. 評(píng)估初始種群的適應(yīng)度值,將種群的代數(shù)設(shè)為0;

        3. 判斷種群的代數(shù)是否大于最大的迭代次數(shù),如果大于,則停止計(jì)算,輸出相應(yīng)的最大適應(yīng)度值(識(shí)別精度),否則轉(zhuǎn)向第4步;

        5. 根據(jù)得到的適應(yīng)度值排序,并建立一個(gè)等級(jí)制度,得到一個(gè)有序子集。將一個(gè)雞群劃分成若干個(gè)群體并確定小雞與雞媽媽的關(guān)系。轉(zhuǎn)向第6步。

        6. 根據(jù)公式7得到公雞的位置更新公式,根據(jù)OS方法,用公式12替代公式7中的位置信息,計(jì)算適應(yīng)度值,小雞和母雞的位置信息不變。若得到的適應(yīng)度值比未替代之前的適應(yīng)度值大,則替代式7,否則不替代。其中,的值取為0.25。根據(jù)式9和11分別得到母雞和小雞的位置更新公式,跟公雞的位置更新處理一致。其中,的值分別取為0.2和0.1(按實(shí)驗(yàn)的經(jīng)驗(yàn)取值)。轉(zhuǎn)向第7步。

        7. 更新雞群中個(gè)體當(dāng)前最優(yōu)位置和雞群的全局個(gè)體最優(yōu)位置,迭代次數(shù)加1,并轉(zhuǎn)向第3步。

        在用改進(jìn)的CSO算法對(duì)特征選擇進(jìn)行優(yōu)化的過(guò)程中,由于智能優(yōu)化算法對(duì)初始值的依賴(lài)性很強(qiáng),一個(gè)好的初始值可能會(huì)讓算法很快得到全局最優(yōu),反之,也有可能讓算法陷入局部最優(yōu),針對(duì)這個(gè)問(wèn)題,我們提出了佳點(diǎn)集對(duì)算法的初始值進(jìn)行了優(yōu)化處理,得到一個(gè)分布比較均勻的初始值,可避免算法過(guò)早陷入局部最優(yōu)。然后根據(jù)群體的位置信息決定骨骼特征信息在計(jì)算的過(guò)程中是選還是不選。在算法的位置更新上,也就是在迭代的過(guò)程中,引入了OS方法,將整個(gè)群體分成了三個(gè)子集,在一定的程度上加快了算法的收斂性并避免陷入局部最優(yōu)。

        3 實(shí)驗(yàn)分析

        本文在數(shù)據(jù)集UTKinect-Action[15]和Florence3D-Action[16]上進(jìn)行比較,為了使得人體骨骼在場(chǎng)景中的位置數(shù)據(jù)不變,所有的三維關(guān)節(jié)位置坐標(biāo)均從世界坐標(biāo)系轉(zhuǎn)換為以人體的髖關(guān)節(jié)為坐標(biāo)中心的局部坐標(biāo)系中。在所有的實(shí)驗(yàn)中,我們均采用3層傅立葉時(shí)間金字塔得到描述系數(shù),并使用每個(gè)部分的1/4作為低頻系數(shù)。最后均采用動(dòng)態(tài)時(shí)間規(guī)劃、傅立葉時(shí)間金字塔和線(xiàn)性SVM(Support Vector Machine)方法對(duì)得到的描述子進(jìn)行分類(lèi)。

        UTKinect-Action數(shù)據(jù)集:這個(gè)數(shù)據(jù)集用一個(gè)固定的Kinect傳感器獲得。它由10個(gè)行為組成,分別為:walk, sit_down, stand_ up, pick _ up, carry, thow, push, pull, wave_ hands, clap_ hands。這10個(gè)行為由10個(gè)不同的人來(lái)演示。每一個(gè)人展示每一個(gè)行為2次,其中一個(gè)是無(wú)效的,總共產(chǎn)生199個(gè)行為序列。這個(gè)數(shù)據(jù)集提供了20個(gè)關(guān)節(jié)點(diǎn)的三維位置信息,由于視點(diǎn)和類(lèi)內(nèi)的變化,識(shí)別這個(gè)數(shù)據(jù)集是一項(xiàng)充滿(mǎn)挑戰(zhàn)的任務(wù)。

        Florence3D-Action數(shù)據(jù)集:這個(gè)數(shù)據(jù)集用一個(gè)固定的Kinect傳感器獲得。它由9個(gè)行為組成,分別為:wave, drink, answer phone, clap, tight lace, sit down, stand up, read wath, bow。這9個(gè)行為有10個(gè)不同的人來(lái)演示,每一個(gè)人對(duì)于每一個(gè)行為重復(fù)2次或者3次??偣伯a(chǎn)生215個(gè)行為序列。這個(gè)數(shù)據(jù)集提供了15個(gè)關(guān)節(jié)點(diǎn)的三維坐標(biāo)位置。由于類(lèi)內(nèi)的多變性(一些行為在一些序列中用左手而在另一些序列中用右手),并且有一些行為的表現(xiàn)方式也比較相似,像喝水和打電話(huà)這兩個(gè)行為的動(dòng)作就比較的相似,對(duì)這個(gè)數(shù)據(jù)集的識(shí)別也是一項(xiàng)比較有挑戰(zhàn)性的任務(wù)。

        表2顯示了關(guān)節(jié)位置(JP)方法在數(shù)據(jù)集UTKinect-Action和Florence3D-Action中的識(shí)別率。在數(shù)據(jù)集UTKinect-Action中,在JP的基礎(chǔ)上使用了CSO方法之后數(shù)據(jù)集的識(shí)別率比之前方法的精度提高了1.44%,在JP的基礎(chǔ)上使用了改進(jìn)的CSO方法之后比原來(lái)方法的精度提高了2.33%。在數(shù)據(jù)集Florence3D-Action中,使用CSO方法和改進(jìn)的CSO方法數(shù)據(jù)集的識(shí)別精度分別提高了2.44%和3.77%。

        表2 關(guān)節(jié)位置(JP)方法在數(shù)據(jù)集UTKinect和Florence3D上不同方法識(shí)別率的比較

        Table 2 The comparison of different methods’ recognition rate base on JP in UTKinect dataset and

        表3顯示了基于李群的關(guān)節(jié)位置(Li_JP)方法在數(shù)據(jù)集UTKinect和Florence3D上不同方法識(shí)別率。在數(shù)據(jù)集UTKinect-Action中,在Li_JP的基礎(chǔ)上使用了CSO方法之后數(shù)據(jù)集的識(shí)別精度比之前的方法提高了0.52%,在Li_JP的基礎(chǔ)上使用了改進(jìn)的CSO方法之后比原來(lái)方法的精度提高了0.93%。從得到的數(shù)據(jù)上分析,算法的識(shí)別精度在改進(jìn)后提高的不是特別明顯,主要的原因是Li_JP的識(shí)別精度在UTKinect-Action已經(jīng)很高了,每一次精度的提高都是一種挑戰(zhàn),更是一種突破,因此,算法的改進(jìn)還是有效的。在數(shù)據(jù)集Florence3D-Action中,使用CSO方法和改進(jìn)的CSO 方法數(shù)據(jù)集的識(shí)別精度分別提高了1.63%和2.89%。

        表3 基于李群的關(guān)節(jié)位置(Li_JP)方法在數(shù)據(jù)集UTKinect和Florence3D上不同方法識(shí)別率的比較

        Table 2 The comparison of different methods’ recognition rate base on Li_JP in UTKinect dataset and Florence3D dataset

        在數(shù)據(jù)集UTKinect和Florence3D上生成的混淆矩陣的數(shù)據(jù)如圖4所示。

        從得到的混淆矩陣可以看出,在圖4a中,數(shù)據(jù)集UTKinect數(shù)據(jù)集中throw和push、clap-Hands、pull; walk和pick_up比較容易產(chǎn)生了混淆。在圖4b中,只有throw和push,pull,clap_hands比較容易產(chǎn)生混淆。圖a和圖b分別是在未優(yōu)化關(guān)節(jié)點(diǎn)信息特征和使用了改進(jìn)的雞群優(yōu)化算法優(yōu)化關(guān)節(jié)點(diǎn)信息特征的基礎(chǔ)上得到的混淆矩陣,從兩個(gè)圖的對(duì)比上可以看出,優(yōu)化后的pick_up, throw等動(dòng)作的識(shí)別精度提高了,并且throw和pull,clap_hands的混淆率降低了。在圖4c中,drink和wave、answer phone;answer phone 和read watch、clap、read watch;read watch和wave、answer phone、clap產(chǎn)生了比較明顯的混淆。在圖d中,drink和answer phone;answer phone 和drink、clap;read watch和clap產(chǎn)生了比較明顯的混淆。從兩幅圖的對(duì)比上看,使用了改進(jìn)的雞群優(yōu)化算法進(jìn)行特征選擇后改善了read watch 和drink、answer phone等比較容易混淆的動(dòng)作,從得到的單個(gè)動(dòng)作的識(shí)別精度上看,wave,drink, answer phone等動(dòng)作的識(shí)別精度明顯得到了提高。綜合以上兩個(gè)實(shí)驗(yàn)的對(duì)比,說(shuō)明了使用改進(jìn)的雞群優(yōu)化算法對(duì)關(guān)節(jié)點(diǎn)信息特征選擇可以減少動(dòng)作之間的混淆并且提高識(shí)別精度。因此,也進(jìn)一步說(shuō)明了提出的算法的有效性。

        圖4 混淆矩陣a、b是基于UTKinect數(shù)據(jù)集方法JP和JP用改進(jìn)的CSO方法—Li_JP得到的混淆矩陣;c、d是基于Florence3D數(shù)據(jù)集用同樣的兩種方法得到的混淆矩陣。

        Figure 4.a and b are confusion matrix base on JP and JP using improved CSO-Li_JP in UTKinect dataset respectively;c and d are confusion matrix base on same methods in Florence3D dataset respectively;

        數(shù)據(jù)集Florence3D中喝水和打電話(huà)這兩個(gè)動(dòng)作比較容易混淆,因?yàn)槎际窃陬^部上面的相關(guān)動(dòng)作,并且手臂對(duì)頭部也會(huì)有一定的遮擋的作用,使得計(jì)算機(jī)更加容易混淆,因此這也是以后我們需要努力與改進(jìn)的方向??偟膩?lái)說(shuō),這幾種混淆的動(dòng)作大多是同一肢體上的運(yùn)行,所以比較容易產(chǎn)生混淆。這也是視頻行為識(shí)別的難點(diǎn)之一。

        改進(jìn)后算法的收斂性和識(shí)別精度均得到了提高,在兩個(gè)數(shù)據(jù)集上的Li_JP方法上同時(shí)使用CSO方法和改進(jìn)的CSO方法舉例說(shuō)明。如圖5_a所示,表示的是在數(shù)據(jù)集UTKinect-Action上算法的收斂性和識(shí)別精度,從圖中可以直觀(guān)的看出,改進(jìn)后的算法無(wú)論在識(shí)別精度還是在收斂速度上均優(yōu)于為改進(jìn)的算法。我們將算法的迭代次數(shù)設(shè)置為400代,從圖中可以看出,改進(jìn)前算法的迭代收斂代數(shù)在第270代左右,而改進(jìn)后算法在160代左右就收斂了,并且精度也有所提高。如圖5_b所示,和圖5_a類(lèi)似,表示的是Florence3D-Action數(shù)據(jù)集上的識(shí)別精度和算法的收斂速度,也能得到和上個(gè)數(shù)據(jù)集一樣的結(jié)果。我們將算法的迭代次數(shù)設(shè)置為250代,從圖中可以看出,改進(jìn)前算法的迭代收斂代數(shù)在第200代左右,而改進(jìn)后算法在120代左右就收斂了,并且精度也有所提高。實(shí)驗(yàn)證明說(shuō)明OS方法對(duì)算法的收斂速度有一定的提高作用并且有利于實(shí)驗(yàn)識(shí)別精度的提高,并且都這兩個(gè)不同的數(shù)據(jù)集都達(dá)到了期望的結(jié)果,UTKinect-Action dataset收斂曲線(xiàn);Florence3D-Action dataset收斂曲線(xiàn)如圖5 a、b所示。

        圖5 a、UTKinect-Action dataset收斂曲線(xiàn)b、Florence3D-Action dataset收斂曲線(xiàn)

        Figure 5 a. The convergence curve of UTKinect-Action dataset b.The convergence curve of Florence3D-Action dataset

        提出的這個(gè)方法也優(yōu)于許多已經(jīng)存在的基于這兩個(gè)數(shù)據(jù)集的方法,如表4。在同一個(gè)數(shù)據(jù)集上,提出的方法比文獻(xiàn)15中的Histograms of 3Dionts方法得出的識(shí)別精度高了7.09%,比文獻(xiàn)17中Random forests方法高了10.11%。比文獻(xiàn)16中的Multi-part Bag-of-Poses方法高出11.77%。

        表4 與其他方法的實(shí)驗(yàn)結(jié)果比較

        Table 4 Comparison with other methods’ experimental results

        4 結(jié)語(yǔ)

        在本文中,我們將一個(gè)人體骨骼看作是一個(gè)點(diǎn),將一個(gè)行為看作是一條曲線(xiàn)。建立三維位置的關(guān)節(jié)模型,最后對(duì)該曲線(xiàn)用傅立葉時(shí)間金字塔描述,得到相應(yīng)的描述子。對(duì)描述子用改進(jìn)的CSO算法進(jìn)行優(yōu)化,用線(xiàn)性SVM對(duì)優(yōu)化后的描述子分類(lèi),得到分類(lèi)結(jié)果。在用改進(jìn)的CSO算法對(duì)關(guān)節(jié)進(jìn)行選擇的時(shí)候,將種群的位置與關(guān)節(jié)的選擇對(duì)應(yīng)起來(lái),由于在位置更新的時(shí)候相應(yīng)的位置數(shù)據(jù)會(huì)產(chǎn)生小數(shù)的情況,我們?cè)O(shè)定當(dāng)位置信息大于某個(gè)小數(shù)時(shí)則向上取1,否則取0。取后的實(shí)驗(yàn)數(shù)據(jù)并不影響種群的位置更新,再用得到的識(shí)別精度作為適應(yīng)度函數(shù)值。改進(jìn)的CSO算法引入佳點(diǎn)集的方法對(duì)種群初始化,預(yù)防種群過(guò)早陷入局部最優(yōu)。還引入了OS方法,將整個(gè)有序種群分成了3個(gè)部分,在進(jìn)行位置更新的時(shí)候,也就是在迭代過(guò)程中,引入猴群算法中的望-眺的過(guò)程來(lái)比擬雞群在覓食的過(guò)程中尋找食物的眺望過(guò)程作為其修正公式,加快了算法的收斂速度。實(shí)驗(yàn)結(jié)果表明本文提出的方法比其他很多方法在這兩個(gè)數(shù)據(jù)集得到的結(jié)果均要高出很多。由于在這兩個(gè)數(shù)據(jù)集中沒(méi)有涉及到人與人之間的交互運(yùn)動(dòng),所以在以后的工作中,我們要更加注重研究人與人之間的交互活動(dòng)以及在更加嘈雜的壞境中得到更高的識(shí)別精度。

        [1] Siddiqui, M., Medioni, G., 2010. Human pose estimation from a single view point, real-time range sensor. In: 2010 IEEE Computer Society Conf. on ComputerVision and Pattern Recognition Workshops (CVPRW), pp. 1-8.

        [2] Ganapathi, V., Plagemann, C., Koller, D., Thrun, S., 2010. Real time motion capture using a single time-of-flight camera. In: 2010 IEEE Conf. on Computer Vision and Pattern Recognition (CVPR), pp. 755-762.

        [3] Grest, D., Woetzel, J., Koch, R., 2005. Nonlinear body pose estimation from depth images. In: Proc. of the 27th DAGM Conf. on Pattern Recognition. Springer-Verlag, Berlin, Heidelberg, pp. 285-292.

        [4] Knoop, S., Vacek, S., Dillmann, R., 2009. Fusion of 2D and 3D sensor data for articulated body tracking. Robot. Autonom. Systems 57, 321-329.

        [5] Schwarz, L.A., Mateus, D., Castaneda, V., Nava, N., 2010. Manifold learning for tofbased human body tracking and activity recognition. In: British Machine Vision Conf. (BMVC).

        [6] J. Wang, Z. Liu, Y. Wu, and J. Yuan. Mining Actionlet Ensemble for Action Recognition with Depth Cameras. In CVPR, 2012. 2, 5, 7.

        [7] Shotton, J., Girshick, R., Fitzgibbon, A., Sharp, T., Cook, M., Finocchio, M., Moore, R.,Kohli, P., Criminisi, A., Kipman, A., Blake, A., 2012. Efficient human poseestimation from single depth images. IEEE Trans. Pattern Anal. Machine Intell., 1.

        [8] Raviteja Vemulapalli.Human Action Recognition by Representing 3D Skeletons as Points in a Lie Group.IEEE Conference on Computer Vision & Pattern Re..., 2014: 588-595

        [9] B. Hall. Lie Groups, Lie Algebras, and Representations: An Elementary Introduction. Springer, 2003. 3.

        [10] 孫燾, 夏斐, 劉洪波. 基于動(dòng)態(tài)規(guī)劃求解時(shí)間序列DTW中心[J]. 計(jì)算機(jī)科學(xué), 2015(12) : 278-282. (Sun T, Xia F, Liu H B . Calculating DTW Center of Time Series Using Dynamic Planning[J]. Computer Science,2015(12) : 278-282. )

        [11] MENG X B, LIU Y, GAO X Z, et al. A new bio-inspired algorithm: chicken swarm optimization[C]/ /5th International Conference on Swarm Intelligence. Hefei: Springer International Publishing, 2014: 86-94.

        [12] 李志俊, 程家興. 基于數(shù)論佳點(diǎn)集的遺傳算法初始種群均勻設(shè)計(jì)[J]. 電腦與信息技術(shù). 2007(04). 29-32.(Zhi-jun LI ,Jia-xing CHENG Uniform Design of Initial Population of Genetic Algorithm Based on Good Point Set.Computer and Information Technology.2007(04).29-32.)

        [13] 陳信, 周永權(quán). 基于猴群算法和單純法的混合優(yōu)化算法[J]. 計(jì)算機(jī)科學(xué). 2013(11)。248-254. (Xin C,Yongquan Z.Hybrid Algorithm Based on Monkey Algorithm and Simple Method. Computer Science. 2013(11): 248-254.)

        [14] 黃煒, 黃志華.一種基于遺傳算法和SVM的特征選擇[J]. 計(jì)算機(jī)技術(shù)與發(fā)展. 2010(06): 21-24. (Huang W, Huang Z H.Feature Selection Based on Genetic Algorithm and SVM[J]. Computer Technology and Development.2010(06):21-24.)

        [15] L. Xia, C. C. Chen, and J. K. Aggarwal. View Invariant Human Action Recognition Using Histograms of 3D Joints. In CVPRW, 2012. 2, 3, 5, 7.

        [16] L. Seidenari, V. Varano, S. Berretti, A. D. Bimbo, and P. Pala. Recognizing Actions from Depth Cameras as Weakly Aligned Multi-part Bag-of-Poses. In CVPRW, 2013. 2, 5, 7.

        [17] Y. Zhu, W. Chen, and G. Guo. Fusing Spatiotemporal Features and Joints for 3D Action Recognition. In CVPRW, 2013. 3, 6, 7.

        Selecting Optimal Skeletal Features Information in Human Action Recognition by Chicken Swarm Optimization

        TANG Feng, XUAN Shibin*, FAN Xiaojie

        (College of Information Science and Engineering, GuangXi University for Nationalities, Nanning, Guangxi, 530006, China)

        With the low-cost depth sensors developed, human action recognition has attracted the attention of many researchers. Since these devices provided skeletal data consisting of 3D positions of body joints, human action recognition became simple. But these might contain irrelevant or redundant features information of body joints that could cut down recognition accuracy. An improved CSO (Chicken Swarm Optimization) is used to optimize features information of body joints by filtering unnecessary data. The Good Point Set and OS (Ordered Subsets) are added to the improved CSO algorithm. The Good Point Set is used to uniform initial population .The OS method divides entire ordered population into three parts correspondingly. During the process of updating position information, the Monkey Algorithm’s gaze afar motion is regarded as the process of gazing afar when chicken looking for food, and revised formula is established. It improved the convergence speed of algorithm and avoided falling into local optimal. The proposed approach has been tested on UTKinect-Action dataset and Florence3D-Action dataset. Experimental results show that our method gains test accuracy with 98.01% and 93.77% respectively.

        action recognition;features selection;improved CSO;Good Point Set;Ordered Subsets

        10.19551/j.cnki.issn1672-9129.2017.02.02

        TP39

        A

        1672-9129(2017)02-0009-008

        2016-12-14;

        2017-01-09。

        本課題研究受廣西自然科學(xué)基金(2015GXNSFAA139311)資助(National Natural Science Foundation of Guangxi, China (2015GXNSFAA139311))

        宣士斌,廣西民族大學(xué)信息科學(xué)與工程學(xué)院。

        E-mail:sbinx@qq.com

        引用:唐鳳, 宣士斌, 范曉杰. 人體行為識(shí)別中骨骼特征信息的雞群優(yōu)化選擇算法[J]. 數(shù)碼設(shè)計(jì), 2017, 6(2): 9-16.

        Cite:Tang Feng, Xuan Shibin, Fan Xiaojie. Selecting Optimal Skeletal Features Information in Human Action Recognition by Chicken Swarm Optimization[J]. Peak Data Science, 2017, 6(2): 9-16.

        猜你喜歡
        特征優(yōu)化信息
        超限高層建筑結(jié)構(gòu)設(shè)計(jì)與優(yōu)化思考
        民用建筑防煙排煙設(shè)計(jì)優(yōu)化探討
        關(guān)于優(yōu)化消防安全告知承諾的一些思考
        一道優(yōu)化題的幾何解法
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀(guān)察
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        展會(huì)信息
        線(xiàn)性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        日韩欧美亚洲综合久久影院ds| 国产自拍视频一区在线| 人妻少妇满足中文字幕| 永久黄网站免费视频性色| 亚洲中文无码成人影院在线播放| 97久久综合区小说区图片区| 蜜桃高清视频在线看免费1| 男人女人做爽爽18禁网站| 欧美日韩精品一区二区三区不卡| 成人无码网www在线观看| 久久精品国产亚洲av四区| 亚洲色图片区| 色婷婷欧美在线播放内射| 免費一级欧美精品| 少妇被按摩出高潮了一区二区| 无码欧美毛片一区二区三| 欧美日韩另类视频| 91青青草免费在线视频| 亚洲综合网国产精品一区| 欧洲freexxxx性少妇播放| 亚洲另在线日韩综合色| 亚洲乱码av中文一区二区第八页| 亚洲精品国产成人片| 好大好硬好爽免费视频| 免费无码黄网站在线观看| 精品露脸熟女区一粉嫩av| 久久久久亚洲av无码专区首jn| 国产精品亚洲А∨天堂免下载| 国产av大片久久中文字幕| 人妻av中文字幕久久| 亚洲av无码乱观看明星换脸va| 国产精品麻豆A在线播放| 日韩亚洲无吗av一区二区| 精品少妇人妻av无码久久| 久久国产影视免费精品| 国产蜜桃传媒在线观看| 亚洲av日韩av天堂久久| 国产一及毛片| 国产一区二区三区免费在线播放| 国产精品无码dvd在线观看| 久久婷婷综合色丁香五月|