亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Kinect的實(shí)時(shí)手勢(shì)識(shí)別方法

        2018-06-19 12:58:38王學(xué)璠王志鋒
        關(guān)鍵詞:方法

        田 元,王學(xué)璠,王志鋒,陳 加,姚 璜

        (華中師范大學(xué) 教育信息技術(shù)學(xué)院,湖北 武漢 430079)

        0 引 言

        在人機(jī)交互中,手勢(shì)能生動(dòng)表達(dá)大量交互信息。目前,手勢(shì)識(shí)別主要有依靠穿戴設(shè)備的方法[1,2]和利用RGB攝像頭的方法[3-8]。依靠穿戴設(shè)備能準(zhǔn)確提取手勢(shì)且有較高辨識(shí)度,如MAZUMDAR D提出的基于顏色手套的識(shí)別方法[1],用戶穿戴特殊紅色手套進(jìn)行手勢(shì)識(shí)別,但這對(duì)手部活動(dòng)造成不便,無(wú)法識(shí)別用戶指尖。利用RGB攝像頭的識(shí)別方法主要有:基于膚色模型和基于分類學(xué)習(xí)的識(shí)別方法?;谀w色模型的手識(shí)別方法通過(guò)皮膚顏色分割手部進(jìn)行識(shí)別,如張文清等提出的一種基于手勢(shì)識(shí)別的智能輸入[5],雖然識(shí)別率較高但易把與膚色相近部位判斷為手部;俞博等提出的基于手指角度的方法[6],該方法依賴光照,易受背景影響?;诜诸悓W(xué)習(xí)的識(shí)別方法主要運(yùn)用HMM、Adaboost學(xué)習(xí)等算法結(jié)合SIFT等特征進(jìn)行識(shí)別,識(shí)別率高,如李東潔等提出的BP神經(jīng)網(wǎng)絡(luò)和PSO算法相結(jié)合的識(shí)別方法[7],這種方法需采集大量樣本、訓(xùn)練時(shí)間長(zhǎng)、效率較低。

        許多研究者利用深度信息研究手勢(shì)識(shí)別[9-12],如劉鑫辰等提出的用RGB-D攝像頭獲取3D空間分析指尖數(shù)量[9],但當(dāng)不同手勢(shì)指尖點(diǎn)數(shù)量相同時(shí)無(wú)法進(jìn)行區(qū)分;談家譜等利用Kinect獲取骨骼信息跟蹤手部位置,結(jié)合膚色分割提取手部[10],這種方法受膚色分割法局限,難以保證手勢(shì)的旋轉(zhuǎn)、平移和縮放不變性,實(shí)時(shí)性不高。

        為克服上述問(wèn)題,本文提出一種基于Kinect的實(shí)時(shí)手勢(shì)識(shí)別方法,可以準(zhǔn)確識(shí)別常用的10種計(jì)數(shù)手勢(shì)。首先利用Kinect獲取人體深度數(shù)據(jù)與骨骼位置,記錄手掌中心和手肘中心關(guān)節(jié)的坐標(biāo);然后根據(jù)關(guān)節(jié)點(diǎn)位置分析深度圖像快速得出人體手部區(qū)域,根據(jù)手部區(qū)域中閉合曲線的包圍面積篩選出準(zhǔn)確的手部輪廓,并分析手部輪廓和手掌中心關(guān)節(jié)點(diǎn)位置修正手掌中心點(diǎn);再根據(jù)手部輪廓查找手指指尖位置,判斷是否存在彎曲手指,確定手部特征點(diǎn);最后通過(guò)特征點(diǎn)匹配進(jìn)行手勢(shì)識(shí)別。該方法能夠在復(fù)雜背景下準(zhǔn)確、高效地識(shí)別操控者的手勢(shì),能夠克服光照變化和膚色差異的影響,并且算法簡(jiǎn)便、具有良好的實(shí)時(shí)性,能夠識(shí)別彎曲手指,并保證手勢(shì)的旋轉(zhuǎn)、平移以及縮放不變性,可以適應(yīng)體感交互的需求。

        1 手部輪廓提取

        1.1 分割手部區(qū)域

        微軟的Kinect體感設(shè)備可實(shí)時(shí)獲取RGB彩色圖像、深度圖像以及人體關(guān)節(jié)點(diǎn)的三維坐標(biāo)。本文利用Kinect獲取圖像的深度信息后,若檢測(cè)到人體,則分析深度圖像直方圖,根據(jù)閾值T,將圖像分為人體和背景兩部分,用白色區(qū)域表示人體,黑色區(qū)域表示背景。然后利用提取的人體骨骼中手掌中心t、手肘中心r、頭部中心點(diǎn)h和脖子中心點(diǎn)n的位置,計(jì)算頭部中心點(diǎn)h和脖子中心點(diǎn)n之間的歐式距離c。以手掌中心點(diǎn)t為中心在圖像中取一個(gè)半徑為0.8×c的圓形區(qū)域。剔除圓形區(qū)域外的人體信息以及區(qū)域內(nèi)與手掌中心深度值相差0.1 m的人體信息,得到人體手部信息。將手部像素點(diǎn)填充白色,其余像素點(diǎn)填充黑色,獲得一幅只包含人體手部區(qū)域的二值圖I1。

        1.2 獲取手部輪廓

        提取I1中以t為中心、c為半徑的圓形鄰域,在鄰域內(nèi)進(jìn)行中值濾波,快速消除手部區(qū)域附近的噪聲,過(guò)濾部分非手部像素,平滑圖像邊緣,得到圖像I2。然后用Canny算法對(duì)圖像I2進(jìn)行邊緣檢測(cè),得到近似手形的曲線點(diǎn)集,即圖像邊緣曲線頂點(diǎn)序列。對(duì)所得的曲線頂點(diǎn)序列進(jìn)行過(guò)濾,計(jì)算每條曲線所包圍的連通區(qū)域的面積,排除面積小的干擾區(qū)域,篩選出面積最大且頂點(diǎn)數(shù)大于等于3的曲線,即為手部輪廓。按以下步驟對(duì)手部輪廓進(jìn)行多邊形逼近,得到一個(gè)多邊形的頂點(diǎn)序列pi(i為頂點(diǎn)序列號(hào)且i≥3)。

        步驟1 連接輪廓上首尾兩點(diǎn)S和E,形成一條線段SE,即輪廓的弦;

        步驟2 計(jì)算輪廓上到線段SE距離最大的點(diǎn)M,并求距離d;

        步驟3 比較d與給定的閾值thr,若d≤thr,則SE就是輪廓的近似。

        步驟4 若d≥thr,則將SE分為SM和EM兩條線段,然后分別對(duì)SM和EM重復(fù)進(jìn)行步驟1~步驟3。

        步驟5 重復(fù)上述步驟,直到所有線段分割完,依次連接每個(gè)M點(diǎn),得到輪廓的近似多邊形。

        多邊形逼近過(guò)程如圖1所示,圖1(a)為進(jìn)行多邊形逼近前的手部輪廓,圖1(b)~圖1(d)為分割過(guò)程,圖1(e)為獲得的近似多邊形。從圖1(a)和圖1(e)的對(duì)比可以看出,該近似多邊形和手部輪廓形狀相似度高,但頂點(diǎn)數(shù)量較少,消耗的存儲(chǔ)空間更少,更平滑。

        圖1 多邊形逼近過(guò)程

        2 手部特征提取

        手部特征是手勢(shì)識(shí)別的依據(jù)與關(guān)鍵,特征提取算法的好壞直接影響著手勢(shì)識(shí)別的效率。根據(jù)人體手部形態(tài)特征,手指定位可以準(zhǔn)確地描述手勢(shì)。目前有些研究者選取指尖點(diǎn)作為特征點(diǎn),雖然能在一定程度上描述手勢(shì),但難以在保證手勢(shì)旋轉(zhuǎn)、平移、縮放不變性的同時(shí)也能檢測(cè)到彎曲的手指。本文提出一種手部特征提取方法,首先求取手掌中心和手掌大小;然后逆時(shí)針掃描近似多邊形的頂點(diǎn)序列,檢測(cè)出近似多邊形的凸包點(diǎn);再根據(jù)手掌大小和凸包點(diǎn)到手掌中心點(diǎn)的距離,計(jì)算比例閾值,查找出伸直的手指指尖和指根位置;最后結(jié)合手肘關(guān)節(jié)點(diǎn)位置,計(jì)算手掌中心點(diǎn)t到手肘中心點(diǎn)r的方向,由這個(gè)方向可以檢測(cè)到非伸直手指的特征點(diǎn)。具體方法如下:

        (1)在多邊形的頂點(diǎn)序列中查找凸包點(diǎn)與凹陷點(diǎn)

        首先,建立一個(gè)堆棧S,將多邊形頂點(diǎn)p0、p1壓入堆棧S。從i=2開始逆時(shí)針遍歷多邊形的頂點(diǎn)序列pi(2≤i<多邊形的頂點(diǎn)個(gè)數(shù)),根據(jù)由Sj-1指向Sj的向量判斷頂點(diǎn)pi的方向,方向判斷的方法如圖2所示,圖2(a)中pi的方向?yàn)橄蛴肄D(zhuǎn),圖2(b)中pi的方向?yàn)橄蜃筠D(zhuǎn)。若方向向左轉(zhuǎn),則將頂點(diǎn)pi壓入堆棧;若方向向右轉(zhuǎn),則將Sj彈出堆棧。當(dāng)算法終止時(shí),堆棧S中僅包含多邊形凸包點(diǎn)中的頂點(diǎn),其順序?yàn)閭€(gè)各頂點(diǎn)在邊界上出現(xiàn)的逆時(shí)針方向排列的順序。

        然后,逆時(shí)針依次計(jì)算多邊形頂點(diǎn)序列上的兩個(gè)相鄰?fù)拱c(diǎn)之間的每個(gè)點(diǎn)到兩個(gè)凸包點(diǎn)的歐氏距離,將距離最大的點(diǎn)存儲(chǔ)到凹陷點(diǎn)集中,得到多邊形的每個(gè)凸包點(diǎn)對(duì)應(yīng)的凹陷點(diǎn)序列,如圖2(c)所示,圖中每一條實(shí)線段對(duì)應(yīng)一對(duì)凸包點(diǎn)和凹陷點(diǎn),其中距離手心較遠(yuǎn)的點(diǎn)表示凸包點(diǎn),距離手心較近點(diǎn)表示凹陷點(diǎn)。

        圖2 查找凸包和計(jì)算指尖

        (2)計(jì)算手掌中心點(diǎn)g和手掌大小maxdist

        掃描圖像所有像素點(diǎn),位于多邊形內(nèi)并且與多邊形距離最大的點(diǎn)為最大內(nèi)切圓圓心g,到多邊形的歐氏距離為內(nèi)切圓的半徑maxdist。半徑為maxdist的圓大小近似等于手掌心的區(qū)域。

        (3)修正手掌中心點(diǎn)t

        由于人體體態(tài)差異和測(cè)量存在誤差,直接用Kinect獲取到的手掌關(guān)節(jié)點(diǎn)t不穩(wěn)定也不準(zhǔn)確,尤其在手指彎曲或者握拳的情況下對(duì)手掌中心的定位誤差很大。所以要利用前面計(jì)算得到的g來(lái)修正手掌中心點(diǎn)t,引入權(quán)重系數(shù)ω。計(jì)算方法如下

        (1)

        (4)計(jì)算指尖與指根

        濾除手掌下部(如圖3(a)中矩形范圍內(nèi))的凸包點(diǎn)和凹陷點(diǎn),并剔除圖2(c)中實(shí)線段長(zhǎng)度過(guò)短或過(guò)長(zhǎng)的凸包點(diǎn)和凹陷點(diǎn)。方法如下。

        圖3 手掌下部和計(jì)算指尖

        設(shè)向量A由手掌中心t指向凸包點(diǎn)f,向量B由手掌中心t指向手肘中心r。若向量A和向量B之間的夾角為銳角,即向量的點(diǎn)乘為正數(shù),則剔除此手掌下部的凸包點(diǎn)f和它對(duì)應(yīng)的凹陷點(diǎn)b(如圖3(a)中實(shí)心點(diǎn)f、b)。根據(jù)人體生理學(xué),以手心面的視角看手掌占整個(gè)手部長(zhǎng)度的3/5,以手背的視角看手指與四指比例相等。計(jì)算手掌上部的凸包點(diǎn)f與手掌中心點(diǎn)t的歐氏距離dis1和手掌上部的凹陷點(diǎn)b與手掌中心點(diǎn)t的歐氏距離dis2(如圖3(a)中空心點(diǎn)f、b),若滿足dis1>1.8×maxdist且dis2>maxdist,就將該凸包點(diǎn)與對(duì)應(yīng)的凹陷點(diǎn)構(gòu)成的線段記錄為手指,凸包點(diǎn)對(duì)應(yīng)指尖部分,凹陷點(diǎn)對(duì)應(yīng)指根部分,如圖3(b)所示。并計(jì)算手指?jìng)€(gè)數(shù)N。此方法可以保持旋轉(zhuǎn)、平移和縮放不變性。

        (5)獲取多邊形的包圍特征點(diǎn)

        沿手掌中心點(diǎn)t到手肘中心點(diǎn)r的方向掃描圖像,計(jì)算多邊形的最高點(diǎn)坐標(biāo)o、最內(nèi)點(diǎn)坐標(biāo)e。如圖4所示,虛線表示掃描線,空心點(diǎn)表示最高點(diǎn)o,實(shí)心點(diǎn)表示最內(nèi)點(diǎn)e。

        圖4 獲取包圍特征點(diǎn)

        3 手勢(shì)匹配

        本文所提出的方法可以識(shí)別如圖5所示的10種傳統(tǒng)計(jì)數(shù)手勢(shì)。手勢(shì)一到六以及手勢(shì)八都是伸直手指的手勢(shì),手勢(shì)七和手勢(shì)九是半伸直手指的手勢(shì),而且手勢(shì)九存在彎曲手指的特征,手勢(shì)十沒有伸出手指。根據(jù)以上描述結(jié)合提取的特征數(shù)據(jù)N、f、b、t、r、e、o、maxdist,可以將其量化為以下六級(jí)分類標(biāo)準(zhǔn)。

        圖5 本文識(shí)別的傳統(tǒng)計(jì)數(shù)手勢(shì)

        第一級(jí)分類標(biāo)準(zhǔn)是手指?jìng)€(gè)數(shù)N(0≤N≤5)。

        第二級(jí)分類標(biāo)準(zhǔn)是圖像坐標(biāo)系中每個(gè)手指對(duì)應(yīng)的指尖點(diǎn)f與手掌中心點(diǎn)t和手肘中心點(diǎn)r連線的垂直距離Distance,如圖6所示。計(jì)算方法如下

        (2)

        (3)

        圖6 Distance

        第三級(jí)分類標(biāo)準(zhǔn)是每個(gè)指尖間的歐式距離Fingdis。

        第四級(jí)分類標(biāo)準(zhǔn)是每個(gè)手指的指根點(diǎn)和手掌中心t的相對(duì)位置dotZ。設(shè)向量A由手掌中心t指向指根點(diǎn)b,向量B由手掌中心t指向手肘中心r。計(jì)算方法如下

        dotZ=(bx-rx)×(rx-tx)+(by-ry)×(ry-ty)

        (4)

        第五級(jí)分類標(biāo)準(zhǔn)是多邊形的包圍特征點(diǎn)e、o和多邊形最大內(nèi)接圓maxdist的關(guān)系rEO。判斷方法如下

        (5)

        第六級(jí)分類標(biāo)準(zhǔn)是凹洞檢測(cè),方法如下:掃描多邊形的包圍特征點(diǎn)o和e之間的點(diǎn),若全部位于多邊形內(nèi)部,則判定為無(wú)凹洞;否則,判定有凹洞,如圖7所示,白色粗線表示被掃描的像素,空心點(diǎn)表示o,實(shí)心點(diǎn)表示e,圖7(a)和圖7(c)為左右手手勢(shì)七且無(wú)凹洞的情況,圖7(b)和圖7(d)為左右手手勢(shì)九且有凹洞的情況。

        圖7 凹洞檢測(cè)

        手勢(shì)識(shí)別方法如下:

        步驟1 若N=0且rEO=1,則判定手勢(shì)為十;若N=0且rEO≠1,進(jìn)行凹洞檢測(cè)。若有凹洞,則判定為手勢(shì)九;若無(wú)凹洞,則判定為手勢(shì)七;否則執(zhí)行步驟9;

        步驟2 若N=1,且滿足以下條件:-25

        步驟3 若N=2,且兩個(gè)手指都滿足條件:-20

        步驟4 若N=2,且其中一個(gè)手指滿足以下條件條件:-50

        步驟5 若N=2,且其中一個(gè)手指滿足以下條件:-500,則判定為手勢(shì)六;否則執(zhí)行步驟9;

        步驟6 若N=3,且3個(gè)手指都滿足以下條件:-30

        步驟7 若N=4,且4個(gè)手指都滿足以下條件:-30

        步驟8 若N=5,則判定為手勢(shì)五;否則執(zhí)行步驟9;

        步驟9 獲取下一幀圖像數(shù)據(jù),重復(fù)步驟1到步驟8。

        4 實(shí)驗(yàn)結(jié)果分析

        本文實(shí)驗(yàn)的硬件設(shè)備為一臺(tái)二代Kinect體感設(shè)備XBOX ONE,計(jì)算機(jī)處理器為Intel Core i5-5200U@2.20 GHz,4 GB內(nèi)存。實(shí)驗(yàn)的軟件環(huán)境為:Windows 10操作系統(tǒng)、Microsoft Visual Studio2013和OpenCV以及Kinect for Windows SDK 2.0軟件開發(fā)包。實(shí)驗(yàn)中所有圖像分辨率為512×424。

        本文隨機(jī)選取了10個(gè)人進(jìn)行測(cè)試,測(cè)試者需要將手心方向正對(duì)攝像頭,站在距離體感設(shè)備0.5m-1m的范圍內(nèi),每人左右手各測(cè)試10種手勢(shì)10次,每個(gè)手勢(shì)共測(cè)試100次。測(cè)試結(jié)果見表1。

        表1 實(shí)驗(yàn)結(jié)果

        從表1可以看出,此方法對(duì)手勢(shì)二、三、四、八、九的識(shí)別率較高,接近100%,對(duì)手勢(shì)一、五、六、七、十的識(shí)別率也能達(dá)到95%以上,所有手勢(shì)的平均識(shí)別率為98.7%。

        文獻(xiàn)[6]提出構(gòu)造手指尖到手掌中心的線段作為手部骨架,計(jì)算手部骨架間的角度;以角度的大小和檢查指尖數(shù)量進(jìn)行分類的方法??梢宰R(shí)別手勢(shì)一到九,但手勢(shì)七和九定義為伸直手指的手勢(shì)。文獻(xiàn)[10]提出利用Kinect獲取手部位置,結(jié)合膚色分割法提取手部。然后利用行像素變化次數(shù)獲取掌心,并通過(guò)分析輪廓與掌心間的距離曲線來(lái)提取指尖點(diǎn),通過(guò)靜態(tài)手勢(shì)特征分析識(shí)別手勢(shì)。

        將本文方法與文獻(xiàn)[6]和文獻(xiàn)[10]提出的方法進(jìn)行對(duì)比,結(jié)果見表2。由表2可以得出,文獻(xiàn)[6]的平均識(shí)別率為96.78%,文獻(xiàn)[10]對(duì)手勢(shì)一到九的平均識(shí)別率為98.43%,本文方法的平均識(shí)別率為98.83%。而且,文獻(xiàn)[6]中的手勢(shì)七和八以及九都定義為伸直手指的手勢(shì),并不是日常約定俗成的手勢(shì),雖然容易識(shí)別但降低了實(shí)用性與舒適感,不能滿足自然人機(jī)交互方式的要求。文獻(xiàn)[10]雖然能識(shí)別彎曲手指,但不能保證手勢(shì)的旋轉(zhuǎn),影響了操縱者的交互體驗(yàn),帶來(lái)很大不便。本文方法克服了以上不足,能夠在手勢(shì)旋轉(zhuǎn)的情況下得到正確的識(shí)別結(jié)果。

        表2 3種識(shí)別方法對(duì)比

        為了證明本文方法的旋轉(zhuǎn)、平移、縮放不變性,分別在操縱者手部旋轉(zhuǎn)、平移以及前進(jìn)后退的情況下進(jìn)行了實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如圖8所示。由圖8可以看出,手勢(shì)在發(fā)生平移、旋轉(zhuǎn)、縮放的情況下,也能獲得正確的識(shí)別結(jié)果。

        圖8 平移、旋轉(zhuǎn)、縮放測(cè)試

        為了證明本文方法在光照發(fā)生明顯變化條件下的魯棒性,在實(shí)驗(yàn)過(guò)程中使光線由明到暗發(fā)生變化,實(shí)驗(yàn)結(jié)果如圖9(a)所示,第一行為真實(shí)的測(cè)試場(chǎng)景,第二行為對(duì)應(yīng)的識(shí)別結(jié)果。從圖中可以看出,當(dāng)光線由正常光照變化到嚴(yán)重不足時(shí),本文方法也能正確識(shí)別手勢(shì)。

        圖9 光照條件變化和復(fù)雜背景測(cè)試

        為了證明本文方法在復(fù)雜背景環(huán)境下的魯棒性,本文在復(fù)雜環(huán)境下進(jìn)行了實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如圖9(b)所示,測(cè)試者在實(shí)驗(yàn)過(guò)程中不斷有其他人出現(xiàn)甚至有其他的人手進(jìn)行干擾,在這種情況下,本文方法也能準(zhǔn)確的識(shí)別手勢(shì)。

        在實(shí)驗(yàn)的過(guò)程中,本文讓測(cè)試者戴上白色的棉布手套,如圖10所示。在這種情況下,若采用基于膚色模型的手勢(shì)識(shí)別方法,識(shí)別正確率會(huì)受到手套顏色的影響而大大降低,而采用本文的方法能夠準(zhǔn)確的識(shí)別手勢(shì)。

        圖10 戴白布手套測(cè)試

        在實(shí)時(shí)性方面,本文方法的平均處理速度為每秒20~30幀,具有良好的實(shí)時(shí)性,各個(gè)步驟的平均處理時(shí)間見表3。

        表3 各個(gè)步驟平均處理時(shí)間

        5 結(jié)束語(yǔ)

        本文主要研究了一種基于Kinect的實(shí)時(shí)手勢(shì)識(shí)別方法。主要通過(guò)運(yùn)用Kinect體感設(shè)備獲取深度信息和骨骼位置信息,然后提取人體手部信息并分析手部輪廓,再提取手掌中心點(diǎn)和指尖、指根以及包圍特征,并結(jié)合手肘關(guān)節(jié)點(diǎn)的位置進(jìn)行分析與手勢(shì)匹配,能夠準(zhǔn)確實(shí)時(shí)的識(shí)別10種常用的計(jì)數(shù)手勢(shì)。通過(guò)實(shí)驗(yàn)結(jié)果可以得出,手勢(shì)二、三、四、八、九的平均識(shí)別率為99.7%,手勢(shì)一、五、六、七、十的平均識(shí)別率為97.7%。除此之外,本文方法還能消除復(fù)雜背景和顏色差異以及光照變化的干擾,允許手勢(shì)發(fā)生旋轉(zhuǎn)、平移以及縮放,具有良好魯棒性。本文的手勢(shì)方法識(shí)別可以應(yīng)用在很多領(lǐng)域中,如數(shù)字教學(xué)、虛擬游戲、智能家庭等。在未來(lái)的工作中,可以與動(dòng)作識(shí)別相結(jié)合,實(shí)現(xiàn)更豐富的手勢(shì)識(shí)別。

        參考文獻(xiàn):

        [1]Zhu Y,Yang Z,Yuan B.Vision based hand gesture recognition[C]//Proceedings of the International Conferenceon Ser-vice Sciences.Washington:IEEE Computer Society,2013:260-265.

        [2]Mubashira Zaman,Soweba Rahman,Tooba Rafique,et al.Hand gesture recognition using color markers[C]//Procee-dings of the 16th International Conference on Hybrid Intelligent Systems.New York:Springer-Verlag New York Inc,2017:1-10.

        [3]Jeong J,Jang Y.Max-min hand cropping method for robust hand region extraction in the image-based hand gesture recognition[J].Soft Computing,2015,19(4):815-818.

        [4]Nasri S,Behrad A,Razzazi F.Spatio-temporal 3D surface matching for hand gesture recognition using ICP algorithm[J].Signal Image & Video Processing,2015,9(5):1205-1220.

        [5]ZHANG Wenqing,LI Fenlan,OU Haiyan.Intelligent input with gesture recognition[J].Computer Systems & Applications,2014,23(10):167-171(in Chinese) [張文清,李芬蘭,歐海燕.基于手勢(shì)識(shí)別的智能輸入[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2014,23(10):167-171.]

        [6]YU Bo,CHEN Yongqiang,WANG Shuangyi,et al.Static gesture recognition algorithm based on characteristics of finger angle[J].Journal of Xihua University Natural Science,2014,33(1):69-71(in Chinese).[俞博,陳永強(qiáng),王雙一,等.基于手指角度特征的靜態(tài)手勢(shì)識(shí)別算法[J].西華大學(xué)學(xué)報(bào)(自然科學(xué)版),2014,33(1):69-71.]

        [7]LI Dongjie,LI Junxiang,ZHANG Yue,et al.Gesture recognition of data glove based on PSO-improved BP neural network[J].Electric Machines and Control,2014,18(8):87-93(in Chinese).[李東潔,李君祥,張?jiān)?等.基于PSO改進(jìn)的BP神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)手套手勢(shì)識(shí)別[J].電機(jī)與控制學(xué)報(bào),2014,18(8):87-93.]

        [8]CHEN Qijun,ZHU Zhenjiao,GU Shuang.Hand gesture re-cognition based on Fourier description and HMM[J].Control Engineering of China,2012,19(4):634-638(in Chinese).[陳啟軍,朱振嬌,顧爽.基于傅立葉描述子和HMM的手勢(shì)識(shí)別[J].控制工程,2012,19(4):634-638.]

        [9]LIU Xinchen,FU Huiyuan,MA Huadong.Real-time fingertip tracking and gesture recognition using RGB-D camera[J].Computer Science,2014,41(10):50-52(in Chinese).[劉鑫辰,傅慧源,馬華東.基于RGB-D攝像頭的實(shí)時(shí)手指跟蹤與手勢(shì)識(shí)別[J].計(jì)算機(jī)科學(xué),2014,41(10):50-52.]

        [10]TAN Jiapu,XU Wensheng.Fingertip detection and gesture recognition method based on Kinect[J].Journal of Computer Applications,2015,35(6):1795-1800(in Chinese).[談家譜,徐文勝.基于Kinect的指尖檢測(cè)與手勢(shì)識(shí)別方法[J].計(jì)算機(jī)應(yīng)用,2015,35(6):1795-1800.]

        [11]FU Qian,SHEN Junchen,ZHANG Qianying,et al.Gesture recognition with Kinect for automated sign language translation[J].Journal of Beijing Normal University(Natural Science),2013,49(6):586-592(in Chinese).[付倩,沈俊辰,張茜穎,等.面向手語(yǔ)自動(dòng)翻譯的基于Kinect的手勢(shì)識(shí)別[J].北京師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,49(6):586-592.]

        [12]ZHAO Aifang,PEI Dong,WANG Quanzhou,et al.Gesture recognition fused with multi-information in complex environment[J].Computer Engineering and Applications,2014,50(5):180-184(in Chinese).[趙愛芳,裴東,王全州,等.復(fù)雜環(huán)境中多信息融合的手勢(shì)識(shí)別[J].計(jì)算機(jī)工程與應(yīng)用,2014,50(5):180-184.]

        猜你喜歡
        方法
        中醫(yī)特有的急救方法
        中老年保健(2021年9期)2021-08-24 03:52:04
        高中數(shù)學(xué)教學(xué)改革的方法
        化學(xué)反應(yīng)多變幻 “虛擬”方法幫大忙
        變快的方法
        兒童繪本(2020年5期)2020-04-07 17:46:30
        學(xué)習(xí)方法
        可能是方法不對(duì)
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        最有效的簡(jiǎn)單方法
        山東青年(2016年1期)2016-02-28 14:25:23
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        九九久久精品大片| 国产成人无码精品久久二区三区| 精品国产一区二区三区免费| 尤物视频一区二区| 精品国产一区二区三区久久狼| 国产精品人伦一区二区三| 少妇精品无码一区二区三区 | 国产精品久久久天天影视| 无码尹人久久相蕉无码| 福利一区视频| 永久免费中文字幕av| 美丽的小蜜桃在线观看| 97人妻精品一区二区三区| 波多野结衣视频网址| 久久亚洲精品国产精品婷婷| 国产一区二区三区av免费| 99久久精品午夜一区二区| 亚洲av无码av在线播放| 精品国产又大又黄又粗av| av天堂最新在线播放| 久久久久久无码av成人影院| 国产在线一91区免费国产91| 久久一二三四区中文字幕| 亚洲女人毛茸茸粉红大阴户传播| 国产顶级熟妇高潮xxxxx| 亚洲国产A∨无码影院| 久久精品国产亚洲av专区| 欧美肥妇毛多水多bbxx水蜜桃| 囯产精品一品二区三区| 久久青草亚洲AV无码麻豆| 中文字幕日韩精品永久在线| 日韩精品久久无码中文字幕 | 麻豆国产在线精品国偷产拍| 欧美日韩精品乱国产| 精品日本免费观看一区二区三区 | 精品老熟女一区二区三区在线| 亚洲精品天天影视综合网| 精品少妇一区二区三区视频| 少妇被搞高潮在线免费观看| 亚洲av成人一区二区三区本码 | 国产精品jizz观看|