亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)深度信息的手勢(shì)分割與定位

        2017-04-17 05:13:28林海波王圣彬
        計(jì)算機(jī)應(yīng)用 2017年1期
        關(guān)鍵詞:內(nèi)切圓圓心手勢(shì)

        林海波,王圣彬,張 毅

        (國(guó)家信息無(wú)障礙研發(fā)中心(重慶郵電大學(xué)),重慶 400065)

        (*通信作者電子郵箱1357503397@qq.com)

        基于改進(jìn)深度信息的手勢(shì)分割與定位

        林海波,王圣彬*,張 毅

        (國(guó)家信息無(wú)障礙研發(fā)中心(重慶郵電大學(xué)),重慶 400065)

        (*通信作者電子郵箱1357503397@qq.com)

        針對(duì)基于Kinect深度信息分割的手勢(shì)往往包含手腕易造成后續(xù)手勢(shì)誤識(shí)別的問(wèn)題,提出一種改進(jìn)深度信息的手勢(shì)分割與定位算法。首先,基于深度信息閾值限定在實(shí)驗(yàn)空間中檢測(cè)出手勢(shì)二值圖;然后,根據(jù)普通手勢(shì)特征,提出基于手勢(shì)端點(diǎn)檢測(cè)和可變閾值算法分割出準(zhǔn)確手勢(shì)。為得到穩(wěn)定的分割效果,對(duì)分割手勢(shì)進(jìn)行形態(tài)學(xué)處理,最后選取基于手勢(shì)重心坐標(biāo)和最大內(nèi)切圓圓心坐標(biāo)的聯(lián)合手勢(shì)定位法定位手勢(shì)。實(shí)驗(yàn)結(jié)果表明,該手勢(shì)分割方法比已有分割方法更準(zhǔn)確可靠,聯(lián)合手勢(shì)定位比Kinect軟件開(kāi)發(fā)工具包骨骼數(shù)據(jù)定位和手勢(shì)重心定位穩(wěn)定,無(wú)奇異點(diǎn)。

        深度信息;手勢(shì)分割;手勢(shì)定位;可變閾值;最大內(nèi)切圓

        Chongqing400065,China)

        0 引言

        隨著計(jì)算機(jī)技術(shù)的發(fā)展,基于機(jī)器視覺(jué)的手勢(shì)識(shí)別作為一種很有前途的人機(jī)交互技術(shù),一直是一個(gè)值得研究的課題[1]。在手勢(shì)識(shí)別中,手勢(shì)分割與定位為手勢(shì)軌跡提取和手勢(shì)識(shí)別奠定了基礎(chǔ)?;谏疃刃畔⒌哪w色分割較新[2],首先獲取Kinect深度信息,運(yùn)用深度閾值分割手勢(shì)[3-4],但膚色檢測(cè)遍歷每幀整幅圖像,消耗時(shí)間長(zhǎng),實(shí)時(shí)性差,不同膚色人群差異、光照環(huán)境變化以及類(lèi)膚色物體都對(duì)手勢(shì)檢測(cè)造成小部分手腕的干擾[5-6]。文獻(xiàn)[7-9]等融合深度信息和彩色圖像分割出手勢(shì),但不能避免光照影響,降低了手勢(shì)分割的魯棒性。文獻(xiàn)[10-11]再次深度分割手勢(shì)與手腕,對(duì)兩部分距離變換運(yùn)算求各自的距離灰度圖像中心點(diǎn),連接兩中心點(diǎn)取垂直平分線,此方法較準(zhǔn)確地將手勢(shì)和手腕分開(kāi),但計(jì)算量大。

        因此,本文提出一種改進(jìn)深度信息的手勢(shì)分割與定位算法,融合深度信息與可變閾值算法分割出準(zhǔn)確手勢(shì),消除類(lèi)膚色以及光照環(huán)境變化的干擾,并在黑暗環(huán)境下得到良好的手勢(shì)檢測(cè)結(jié)果,魯棒性好,減少了計(jì)算量;并聯(lián)合手勢(shì)重心坐標(biāo)和最大內(nèi)切圓圓心坐標(biāo)準(zhǔn)確定位出手勢(shì)位置,提高了輪椅控制的穩(wěn)定安全性。

        1 改進(jìn)深度信息的手勢(shì)分割算法

        1.1 基于深度信息閾值限定的手勢(shì)檢測(cè)

        在手勢(shì)識(shí)別中,準(zhǔn)確檢測(cè)手勢(shì)是關(guān)鍵。本文規(guī)定手勢(shì)正對(duì)Kinect攝像頭,并將其馬達(dá)限定在向上約10°角度。根據(jù)華南理工大學(xué)麥健樺[3]的深度閾值手勢(shì)分割法,將深度信息獲取范圍限定在距離Kinect攝像頭d1和d2之間,但不能滿足輪椅精確安全的控制。為了更穩(wěn)定精確,進(jìn)一步縮小(d2-d1)的值,本文設(shè)定d1=250 mm,d2=450 mm,最大限度消除實(shí)驗(yàn)空間之外復(fù)雜環(huán)境的干擾,當(dāng)類(lèi)似深度有干擾物體時(shí),對(duì)深度圖像進(jìn)行直方圖分析,計(jì)算區(qū)分手勢(shì)與干擾物體的閾值,通過(guò)該閾值對(duì)深度圖像進(jìn)行處理得到手勢(shì)圖像,獲得較優(yōu)分割效果,手勢(shì)實(shí)驗(yàn)空間設(shè)定如圖1所示,坐標(biāo)系{V}為手勢(shì)空間基坐標(biāo)系。

        根據(jù)已有的基于深度閾值手勢(shì)檢測(cè)的文獻(xiàn)[3-4,12],RGB圖、深度灰度圖(將深度值在d1和d2之間的像素點(diǎn)線性化到灰度區(qū)間[1,254],小于d1和大于d2的令灰度值為0和255)和手勢(shì)二值圖(對(duì)深度灰度圖二值化,手勢(shì)灰度值為255,其余為0)容易獲得,結(jié)果如圖2所示。用矩陣G(i,j)表示圖2(b)深度灰度圖對(duì)應(yīng)位置的像素灰度值,二值矩陣H1表示圖2(c)手勢(shì)二值圖,目標(biāo)手勢(shì)的值為1,否則為0。G和H1均為m×n矩陣,m和n是圖像的像素高和像素寬。

        圖1 手勢(shì)實(shí)驗(yàn)空間設(shè)定

        圖2 三種手勢(shì)圖像

        1.2 基于可變閾值的手勢(shì)分割

        如圖2(c)所示,基于深度信息閾值限定檢測(cè)的手勢(shì)不準(zhǔn)確,有手腕區(qū)域,干擾后面的手勢(shì)軌跡提取和手勢(shì)識(shí)別,而文獻(xiàn)[10-11]通過(guò)距離變換計(jì)算手勢(shì)與手腕兩部分,計(jì)算量大。通過(guò)研究普通手勢(shì)特征,本文提出比文獻(xiàn)[10-11]更為簡(jiǎn)便穩(wěn)定的基于可變閾值算法分割出準(zhǔn)確手勢(shì),計(jì)算量較小。

        在手勢(shì)實(shí)驗(yàn)空間中,研究了普通手勢(shì)特性,手指基本上向上或左右傾斜向上。圖2(c)手勢(shì)二值圖中很快找到最高點(diǎn)M和最低點(diǎn)N,如圖3所示,其中a是MN線段的任意垂線,P是交點(diǎn),設(shè):

        MP=λMN

        (1)

        式(1)中,若能找到恰當(dāng)?shù)目勺冮撝祬?shù)λ,就能將手勢(shì)和手腕準(zhǔn)確分開(kāi)。

        圖3 準(zhǔn)確手勢(shì)分割

        圖3中點(diǎn)M和N的獲取易受孤立點(diǎn)、孔洞等噪聲干擾,分割圖像邊界不夠光滑,導(dǎo)致準(zhǔn)確獲取點(diǎn)M和N存在偏差,因此采用形態(tài)學(xué)處理方法消除干擾,即在手勢(shì)二值圖中提取連通區(qū)域,統(tǒng)計(jì)出各連通區(qū)域大小,通過(guò)閾值門(mén)限去除較小的孤立點(diǎn),采用形態(tài)學(xué)中的閉運(yùn)算消除手勢(shì)圖像內(nèi)部的孔洞,得到準(zhǔn)確手勢(shì)二值圖,記作矩陣H2。

        (2)

        (3)

        2 改進(jìn)的聯(lián)合手勢(shì)定位算法

        2.1 手勢(shì)重心定位算法

        手勢(shì)定位是控制輪椅安全穩(wěn)定的基礎(chǔ),對(duì)實(shí)驗(yàn)空間中手勢(shì)實(shí)時(shí)準(zhǔn)確定位,實(shí)際是對(duì)手勢(shì)軌跡的提取[13],手勢(shì)軌跡是動(dòng)態(tài)手勢(shì)的重要特征。在實(shí)驗(yàn)空間中,建立基坐標(biāo)系{V},設(shè)手勢(shì)重心坐標(biāo)為(xg,yg,zg),zg為手勢(shì)深度平均灰度值,手勢(shì)定位公式為:

        (4)

        其中:G(i,j)H3(i,j)表示兩同型矩陣相同位置元素相乘;xg,yg單位為像素;zg的值在區(qū)間[0,255]內(nèi),表示灰度值。SH3表示手勢(shì)大小,單位為像素?cái)?shù),(xg,yg,zg)即為手勢(shì)定位坐標(biāo)點(diǎn)。

        2.2 最大內(nèi)切圓定位算法

        基于手勢(shì)形狀特征,采用最大內(nèi)切圓法定位手勢(shì)。設(shè)手勢(shì)像素點(diǎn)集為T(mén),手勢(shì)邊緣像素點(diǎn)集為E,E?T。點(diǎn)t∈T是手勢(shì)內(nèi)的像素點(diǎn),點(diǎn)e∈E是手勢(shì)邊緣像素點(diǎn),對(duì)任意ti∈T,有:

        (5)

        其中:xti,yti和xej,yej表示點(diǎn)ti和ej的橫縱坐標(biāo),故di表示點(diǎn)ti到手勢(shì)邊緣的最小距離。對(duì)所有di,為了盡量減少浮點(diǎn)運(yùn)算和冗余計(jì)算,結(jié)合手掌特征,定義掌心坐標(biāo)及手掌半徑為:

        (6)

        取得R的ti為最大內(nèi)切圓圓心,相應(yīng)的xti和yti為圓心坐標(biāo)。式(5)和(6)用畫(huà)內(nèi)切圓確定半徑R,計(jì)算流程如圖4。

        圖4中定義了一個(gè)初始半徑,這是容許的最小半徑,若以此半徑不能畫(huà)圓,則表示此目標(biāo)找不到足夠?qū)挻蟮牟糠?,所以不是目?biāo)手勢(shì)。圖5直觀地展示了最大內(nèi)切圓法獲取手勢(shì)圓心和半徑的原理,在目標(biāo)手勢(shì)內(nèi),以點(diǎn)A為圓心畫(huà)的圓最大,故點(diǎn)A是最大內(nèi)切圓圓心,該圓半徑是手勢(shì)半徑。

        圖4 最大內(nèi)切圓法定位流程

        圖5 最大內(nèi)切圓法示意圖

        圖6是實(shí)際采用最大內(nèi)切圓法獲取的手勢(shì)圓心和半徑。其中,四個(gè)候選目標(biāo)被標(biāo)記成不同顏色,A和B目標(biāo)滿足面積的條件,經(jīng)過(guò)內(nèi)部點(diǎn)消除處理,而C和D目標(biāo)面積較小,分辨率較低,無(wú)法識(shí)別,為節(jié)省開(kāi)支,不再對(duì)它們作后續(xù)處理。由于目標(biāo)B以初始半徑不能畫(huà)圓而無(wú)法定位,所以也不是手勢(shì)。目標(biāo)A滿足全部條件,通過(guò)本文方法處理后,定位到手勢(shì),并找到手勢(shì)半徑。

        圖6 最大內(nèi)切圓法實(shí)驗(yàn)結(jié)果

        2.3 聯(lián)合手勢(shì)重心和最大內(nèi)切圓圓心定位算法

        Nikhil等[14]采用放射線法比較準(zhǔn)確地定位手勢(shì),但放射線法并不簡(jiǎn)便,會(huì)產(chǎn)生大量冗余數(shù)據(jù),于是本文首先采用手勢(shì)重心定位手勢(shì)。重心定位法對(duì)圖形邊緣平滑度要求不高,在手勢(shì)二值化過(guò)程中速度較快,在定位中易出現(xiàn)奇異點(diǎn)。由于可變閾值分割是基于一定實(shí)驗(yàn)空間條件下分割手勢(shì)的,若手勢(shì)異常運(yùn)動(dòng)會(huì)超出實(shí)驗(yàn)空間,出現(xiàn)手臂干擾,手勢(shì)重心定位準(zhǔn)確度降低。而最大內(nèi)切圓定位法是基于手勢(shì)形狀特征并采用定點(diǎn)運(yùn)算定位手勢(shì),在實(shí)驗(yàn)環(huán)境中實(shí)時(shí)計(jì)算運(yùn)動(dòng)手勢(shì)最大內(nèi)切圓圓心的軌跡運(yùn)動(dòng),避免了手腕的干擾,擴(kuò)大了算法的應(yīng)用范圍;但最大內(nèi)切圓定位法只獲取了圓心二維坐標(biāo),缺少手勢(shì)區(qū)域的平均深度灰度值z(mì)g,即豎坐標(biāo)。為了彌補(bǔ)兩種定位法的不足,本文聯(lián)合手勢(shì)重心和最大內(nèi)切圓圓心的定位算法,將重心與圓心的二維坐標(biāo)中點(diǎn)作為手勢(shì)定位的二維位置,zg作為手勢(shì)豎坐標(biāo),從而得到聯(lián)合定位結(jié)果,提高了手勢(shì)定位準(zhǔn)確度,同時(shí)獲取手掌半徑R,為后續(xù)手勢(shì)軌跡提取、手勢(shì)跟蹤與識(shí)別也起著非常重要的作用。聯(lián)合手勢(shì)定位流程如圖7所示。

        圖7 聯(lián)合手勢(shì)定位流程

        3 實(shí)驗(yàn)比較與分析

        3.1 手勢(shì)分割實(shí)驗(yàn)

        為驗(yàn)證本文算法的有效性,通過(guò)實(shí)驗(yàn)進(jìn)行研究。MicrosoftKinect(XBOX360)深度攝像頭是在軟件KinectforWindowsSoftwareDevelopmentKit-v1.7及Kinect驅(qū)動(dòng)軟件下進(jìn)行視覺(jué)信息采集,使用MicrosoftVisualStudio2010開(kāi)發(fā)環(huán)境及Matlab2012a軟件在CPU為3.30GHz、內(nèi)存容量為3.19GB計(jì)算機(jī)上進(jìn)行編譯與仿真。在手勢(shì)分割中,由于手勢(shì)在Kinect視景范圍內(nèi)目標(biāo)小,選取Kinect高分辨率的深度數(shù)據(jù)格式為深度圖像高480像素,寬640像素。考慮到Kinect性能最優(yōu),設(shè)定實(shí)驗(yàn)空間d1=250 mm,d2=450 mm,實(shí)驗(yàn)結(jié)果如圖8所示。

        圖8 不同條件下手勢(shì)分割對(duì)比

        3.2 手勢(shì)定位實(shí)驗(yàn)

        在Kinect自身坐標(biāo)系下,Kinect能夠提供人體骨骼數(shù)據(jù)格式[13](包括手勢(shì)的人體主要20個(gè)骨骼點(diǎn)三維坐標(biāo)),這是微軟通過(guò)特殊算法對(duì)整個(gè)人體在視覺(jué)場(chǎng)景中的深度信息估算得到的。因此,可以直接讀取手勢(shì)骨骼點(diǎn)獲取手勢(shì)軌跡信息,骨骼數(shù)據(jù)和深度數(shù)據(jù)幀頻率都為30Hz,手勢(shì)在Kinect場(chǎng)景內(nèi)做螺旋運(yùn)動(dòng),骨骼數(shù)據(jù)定位到手勢(shì)軌跡點(diǎn);但在出現(xiàn)手勢(shì)與身體自遮擋時(shí)易跳變[15],如圖9中點(diǎn)gm,而且骨骼數(shù)據(jù)定位軌跡易重疊,如圖10(a)所示。

        圖9 異常手勢(shì)動(dòng)作軌跡

        圖10 手勢(shì)定位效果對(duì)比

        手勢(shì)重心定位軌跡有奇異點(diǎn)干擾,如圖10(b)所示,因此本文提出聯(lián)合手勢(shì)重心和最大內(nèi)切圓圓心的定位算法,選取手勢(shì)重心和最大內(nèi)切圓圓心的中點(diǎn)作為手勢(shì)捕捉,對(duì)于可能出現(xiàn)異常手勢(shì)動(dòng)作軌跡,可采用球面閾值限定算法處理,將1 s分成3個(gè)時(shí)間片計(jì)算平均軌跡點(diǎn),取異常手勢(shì)球面限定閾值τr=100,得到手勢(shì)初始軌跡和處理后的軌跡效果,如圖10(c)所示,使手勢(shì)更穩(wěn)定且降低了軌跡冗余度。圖10中x、y軸單位pixel表示像素,z軸(grey value)表示灰度值,由圖10(a)、圖10(b)和圖10(c)對(duì)比效果,骨骼數(shù)據(jù)手勢(shì)定位易跳變、重疊,手勢(shì)重心定位存在異常軌跡點(diǎn),本文算法的手勢(shì)定位效果更穩(wěn)定,對(duì)異常手勢(shì)軌跡點(diǎn)有一定的抵制能力。

        4 結(jié)語(yǔ)

        本文提出了一種改進(jìn)深度信息的手勢(shì)分割與定位算法,通過(guò)引入可變閾值去除手腕對(duì)手勢(shì)進(jìn)行分割并形態(tài)學(xué)處理,使得手勢(shì)分割效果更準(zhǔn)確;針對(duì)手勢(shì)定位的不穩(wěn)定問(wèn)題,提出聯(lián)合手勢(shì)重心坐標(biāo)和最大內(nèi)切圓圓心坐標(biāo)的手勢(shì)定位法準(zhǔn)確可靠地定位出手勢(shì),并采用球面閾值限定法處理異常手勢(shì)動(dòng)作軌跡,為后續(xù)高精度手勢(shì)軌跡提取、手勢(shì)跟蹤與識(shí)別提供了有力保證,實(shí)驗(yàn)結(jié)果證明了該改進(jìn)算法的可行性與有效性。然而本文只在Matlab上仿真手勢(shì)軌跡點(diǎn),實(shí)用性不足,因此下一步的研究目標(biāo)是把手勢(shì)定位軌跡應(yīng)用到智能輪椅平臺(tái)上。

        )

        [1]LIUX,FUJIMURAK.Handgesturerecognitionusingdepthdata[C]//ProceedingsoftheSixthIEEEInternationalConferenceonAutomaticFaceandGestureRecognition.Piscataway,NJ:IEEE, 2004: 529-534.

        [2] 羅元,何超,王艷,等.基于深度預(yù)分割結(jié)合Camshift跟蹤算法的動(dòng)態(tài)手勢(shì)識(shí)別方法[J].半導(dǎo)體光電,2015,36(1):155-159.(LUOY,HEC,WANGY,etal.Anoveldynamichandgesturerecognitionmethodbasedondepthpre-segmentationcombiningwithCamshifttrackingalgorithm[J].SemiconductorOptoelectronics, 2015, 36(1): 155-159.)

        [3] 麥健樺.基于自然手勢(shì)的機(jī)器人控制[D].廣州:華南理工大學(xué),2013:12-14.(MAIJH.Roboticcontrolbasedonnaturalgesture[D].Guangzhou:SouthChinaUniversityofTechnology, 2013: 12-14.)

        [4] 李振.基于手勢(shì)識(shí)別的遠(yuǎn)程控制機(jī)械手的設(shè)計(jì)[D].武漢:武漢理工大學(xué),2014:22-29.(LIZ.Designofremotecontrolofmanipulatorbasedongesturerecognition[D].Wuhan:WuhanUniversityofTechnology, 2014: 22-29.)

        [5]YANGWJ,WANGCM.Depthinformationandmotioncontextfeaturebaseddynamichandgesturedetectionandrecognition[J].JournalofInformationandComputationalScience, 2015, 12(10): 3775-3782.

        [6]LEET,HOLLERERT.HandyAR:markerlessinspectionofaugmentedrealityobjectsusingfingertiptracking[C]//Proceedingsofthe2007IEEEInternationalSymposiumonWearableComputers.Washington,DC:IEEEComputerSociety, 2007: 83-90.

        [7]RENZ,YUANJ,MENGJ,etal.Robustpart-basedhandgesturerecognitionusingKinectsensor[J].IEEETransactionsonMultimedia, 2013, 15(5): 1110-1120.

        [8]ELSAADANYOS,ABDELWAHABMM.Real-time2DHoG-2DPCAalgorithmforhandgesturerecognition[C]//ICIAP2013:Proceedingsofthe17thInternationalConferenceonImageAnalysisandProcessing,LNCS8157.Berlin:Springer, 2013: 601-610.

        [9]YAOY,ZHANGF,FUY.Real-timehandgesturerecognitionusingRGB-Dsensor[M]//ComputerVisionandMachineLearningwithRGB-DSensors.NewYork:SpringerInternationalPublishing, 2014: 289-313.

        [10]QINS,ZHUX,YANGY,etal.Real-timehandgesturerecognitionfromdepthimagesusingconvexshapedecompositionmethod[J].JournalofSignalProcessingSystems, 2014, 74(1): 47-58.

        [11]QINS,ZHUX,YUH,etal.Real-timemarkerlesshandgesturerecognitionwithdepthcamera[M]//AdvancesinMultimediaInformationProcessing—PCM2012.Berlin:Springer, 2012: 186-197.

        [12] 陳子毫.基于深度信息的手勢(shì)檢測(cè)與跟蹤[D].廣州:華南理工大學(xué),2012:20-29.(CHENZH.Gesturedetectionandtrackingbasedondepthinformation[D].Guangzhou:SouthChinaUniversityofTechnology, 2012: 20-29.)

        [13]SUAREZJ,MURPHYRR.Handgesturerecognitionwithdepthimages:Areview[C]// 2012IEEERO-MAN:Proceedingsofthe21stIEEEInternationalSymposiumonRobotandHumanInteractiveCommunication.Piscataway,NJ:IEEE, 2012: 411-417.

        [14] NIKHIL S, MOHAN S, RAMYA B, et al.Design and development of a DSP processor based reconfigurable hand gesture recognition system for real time applications [C]// Proceedings of the 2010 International Conference on Signal and Image Processing.Piscataway, NJ: IEEE, 2010: 39-44.

        [15] 張世輝,張煜婕,孔令富.一種基于深度圖像的自遮擋檢測(cè)方法[J].小型微型計(jì)算機(jī)系統(tǒng),2010,31(5):964-968.(ZHANG S H, ZHANG Y J, KONG L F.Self-occlusion detection approach based on depth image [J].Journal of Chinese Computer Systems, 2010, 31(5): 964-968.)

        This work is supported by the Scientific and Technological Research Project Funds of Chongqing Municipal Education Commission (KJ130512).

        LIN Haibo, born in 1965, M.S., professor.His research interests include intelligent system and robot.

        WANG Shengbin, born in 1989, M.S.candidate.His research interests include pattern recognition.

        ZHANG Yi, born in 1966, Ph.D., professor.His research interests include mobile robot navigation, multi-mode human-machine interaction.

        Gesture segmentation and positioning based on improved depth information

        LIN Haibo, WANG Shengbin*, ZHANG Yi

        (NationalEngineeringResearchandDevelopmentCenterforInformationAccessibility(ChongqingUniversityofPostsandTelecommunications),

        Aiming at the problem that segmented gesture by Kinect depth information usually contains wrist data, which easily causes subsequent false gesture recognition, a gesture segmentation and positioning algorithm based on improved depth information was proposed.Firstly, the gesture binary image was detected based on depth information threshold limit in experimental space.Secondly, according to characteristics of common gestures, accurate gesture was segmented by gesture endpoint detection and variable threshold algorithm.In order to obtain stable segmentation results, morphological processing of segmented gesture was conducted.Lastly, the gesture positioning algorithm was proposed based on the method of combining gesture gravity center coordinates and maximum inscribed circle center coordinates.The experimental results show that the proposed gesture segmentation method has better accuracy and stability than the existing algorithm.The combined gesture positioning is more stable than gesture gravity center positioning and skeletal data positioning of Kinect Software Development Kit (SDK) and it has no singular points.

        depth information; gesture segmentation; gesture positioning; variable threshold; maximum inscribed circle

        2016-08-20;

        2016-09-06。 基金項(xiàng)目:重慶市教委科學(xué)技術(shù)研究項(xiàng)目(KJ130512)。

        林海波(1965—),男,重慶人,教授,碩士,主要研究方向:智能系統(tǒng)與機(jī)器人; 王圣彬(1989—),男,江蘇徐州人,碩士研究生,主要研究方向:模式識(shí)別; 張毅(1966—),男,重慶人,教授,博士,主要研究方向:機(jī)器人導(dǎo)航、多模人機(jī)交互。

        1001-9081(2017)01-0251-04

        10.11772/j.issn.1001-9081.2017.01.0251

        TP391.413

        A

        猜你喜歡
        內(nèi)切圓圓心手勢(shì)
        二次曲線的一個(gè)類(lèi)似圓心的性質(zhì)
        三個(gè)偽內(nèi)切圓之間的一些性質(zhì)
        與三角形的內(nèi)切圓有關(guān)的一個(gè)性質(zhì)及相關(guān)性質(zhì)和命題
        挑戰(zhàn)!神秘手勢(shì)
        V字手勢(shì)的由來(lái)
        一種偽內(nèi)切圓切點(diǎn)的刻畫(huà)辦法
        以圓周上一點(diǎn)為圓心作圓的圖的性質(zhì)及應(yīng)用
        僅與邊有關(guān)的Euler不等式的加強(qiáng)
        勝利的手勢(shì)
        四種方法確定圓心和半徑
        欧美成人一区二区三区在线观看| 91精品啪在线观九色 | 日本一区二区三区视频免费观看| 肥老熟妇伦子伦456视频| 无码任你躁久久久久久久| 亚洲黄色电影| av无码电影一区二区三区| 亚洲一区二区三区在线激情| 国内嫩模自拍诱惑免费视频| 丝袜美腿一区二区三区| 亚洲av电影天堂男人的天堂| 人妻被猛烈进入中文字幕| 丰满少妇又爽又紧又丰满动态视频| 亚洲av三级黄色在线观看| 大学生粉嫩无套流白浆| 国产欧美日韩精品a在线观看| 中文字幕第一页亚洲观看| 成人激情视频一区二区三区 | 亚洲av成人一区二区三区本码| 国产成人亚洲精品无码av大片| 国产乱理伦片在线观看| h动漫尤物视频| 国产视频一区2区三区| 日韩乱码人妻无码系列中文字幕| 欧美寡妇xxxx黑人猛交| 欧美视频第一页| 国产青青草自拍视频在线播放| 日本一区二区国产精品| 日本少妇春药特殊按摩3| 久久精品国产亚洲av高清漫画| 成年人免费黄色h网| 国产视频一区2区三区| 中文人妻av久久人妻水蜜桃| 精品人妻va出轨中文字幕| 北岛玲日韩精品一区二区三区| 国产剧情亚洲一区二区三区| 老鲁夜夜老鲁| 国产在视频线精品视频| 午夜福利不卡无码视频| 少妇久久一区二区三区| 亚洲一区二区三区小说|