亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于計(jì)算機(jī)視覺的3D手勢(shì)交互系統(tǒng)

        2016-04-12 00:00:00霍鵬飛
        現(xiàn)代電子技術(shù) 2016年17期

        摘 要: 隨著計(jì)算機(jī)的廣泛發(fā)展,鍵盤、鼠標(biāo)等傳統(tǒng)的人機(jī)交互方式很難滿足用戶自然、便捷的交互需求。研究手勢(shì)建模、人手跟蹤和手勢(shì)交互系統(tǒng)的應(yīng)用成為熱點(diǎn)趨勢(shì)。提出了一種簡(jiǎn)化的2D人手模型,該模型將人手建模為掌心點(diǎn)和5根手指,同時(shí)設(shè)計(jì)了一種基于粒子群優(yōu)化(PSO)算法的人手跟蹤方法,通過(guò)建模人手的生理和運(yùn)動(dòng)學(xué)約束關(guān)系,實(shí)現(xiàn)了基于2D/3D人手模型的PSO人手跟蹤,該手勢(shì)交互系統(tǒng)框架更具適用性和擴(kuò)展性,融合了語(yǔ)義和反饋信息,提高了人手跟蹤的魯棒性和手勢(shì)識(shí)別的準(zhǔn)確度。

        關(guān)鍵詞: 人手跟蹤; 人機(jī)交互; 手勢(shì)識(shí)別; 粒子群優(yōu)化; 計(jì)算機(jī)視覺

        中圖分類號(hào): TN911.73?34; TM417 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2016)17?0026?04

        手勢(shì)是人們?nèi)粘I钪凶畛S玫慕涣鞣绞街?,具有很?qiáng)的表意功能,與鍵盤、鼠標(biāo)等傳統(tǒng)交互設(shè)備相比,具有自然、直觀、友好、便捷等特點(diǎn),更符合人們的交流習(xí)慣[1]。但是,由于手勢(shì)本身具有多樣性、多義性、多變性和時(shí)空差異性等特點(diǎn),背景環(huán)境復(fù)雜多變、不可預(yù)知,加之人手自由度高而靈活,使得基于視覺的手勢(shì)交互成為一個(gè)極富挑戰(zhàn)性的多學(xué)科交叉的研究課題?;谝曈X的手勢(shì)交互技術(shù)和方法的研究,不僅在人工智能、模式識(shí)別、機(jī)器學(xué)習(xí)等學(xué)科中具有重要的理論意義,在智能化的學(xué)習(xí)、工作以及生活中也具有非常廣泛的應(yīng)用前景[2]。基于視覺的手勢(shì)交互技術(shù)是實(shí)現(xiàn)新一代人機(jī)交互不可缺少的一項(xiàng)關(guān)鍵技術(shù)。

        1 二維人手跟蹤方法

        1.1 2D人手建模

        3D人手模型雖然能夠更加完備地建模人手參數(shù)空間,且有利于恢復(fù)3D人手信息,但由于3D人手模型維度高、參數(shù)空間復(fù)雜,且人手模型參數(shù)的渲染過(guò)程及模型投影過(guò)程都很復(fù)雜,故很難達(dá)到實(shí)時(shí)。而簡(jiǎn)化的2D人手模型,自由度相對(duì)較低,參數(shù)空間小,且省略了復(fù)雜的渲染、投影過(guò)程,在執(zhí)行時(shí)間和效率上更具優(yōu)勢(shì),且2D人手模型在一般情況下能夠滿足應(yīng)用需要,達(dá)到實(shí)時(shí)性要求,所以更具有實(shí)際應(yīng)用性。

        在二維空間中對(duì)人手進(jìn)行建模,該人手模型由一個(gè)手掌和5根手指組成,如圖1(a)所示,其中每根手指用其英文單詞的大寫首字母表示,則5根手指的集合可以表示為[F=]{T,I,M,R,L}。將整個(gè)人手表示成32維的向量[S=c(x,y);P,]其中[c(x,y)]是手掌矩形框的中心點(diǎn)坐標(biāo),用來(lái)表示人手的全局運(yùn)動(dòng);[P=(kif,dif)f∈F,i∈{1,2,3}]是5根手指的參數(shù)集合,每根手指用3個(gè)直線段[(kif,dif)]表示,[kif]和[dif]分別表示手指[f]中第[i]段指節(jié)的斜率和截距,如圖1(b)所示。目前,嘗試使用手指間的夾角作為參數(shù),這樣幾乎可將人手參數(shù)空間減半,還可避免斜率為無(wú)窮時(shí)的復(fù)雜計(jì)算[3]。

        參考3D人手骨架模型的約束關(guān)系,同樣為2D人手模型引入約束[4]。假設(shè)已知各個(gè)手指指節(jié)的長(zhǎng)度和寬度,每個(gè)手指即可用2個(gè)角度表示,一個(gè)角度表示根指節(jié)與圖像平面的夾角,另一個(gè)角度表示中指節(jié)與圖像平面的夾角,根據(jù)根指節(jié)、中指節(jié)夾角與中指節(jié)、端指節(jié)夾角之間的線性約束關(guān)系,即可由中指節(jié)與圖像平面夾角推導(dǎo)得到端指節(jié)與圖像平面的夾角。

        1.2 基于PSO的二維人手跟蹤

        1.2.1 預(yù)處理

        采用從RGB?D傳感器獲得的彩色圖[I]和與之對(duì)應(yīng)的深度圖[D]作為原始輸入數(shù)據(jù)。其中,[I]和[D]都是640×480的矩陣,且[D]中的每個(gè)深度值對(duì)應(yīng)彩色圖[I]中的一個(gè)像素值[5]。對(duì)深度圖[D]進(jìn)行閾值操作,得到目標(biāo)人手區(qū)域,并進(jìn)行平滑、去噪,得到新產(chǎn)生的深度圖[Od;]然后,對(duì)彩色圖[I]進(jìn)行預(yù)處理,獲得膚色圖[Os;]將[Os]和[Od]進(jìn)行融合并二值化作為評(píng)價(jià)假設(shè)人手參數(shù)的真實(shí)觀測(cè)數(shù)據(jù)[O。]

        1.2.2 搜索空間

        每根手指用3條直線段[(kif,dif)]表示,其中[kif]和[dif]分別表示手指[f]中第[i]段指節(jié)的斜率和截距,再加上表示人手全局運(yùn)動(dòng)的手掌中心點(diǎn)[c(x,y)],則整個(gè)人手可表示為32維向量[S=c(x,y);P]的形式,[P=(kif,dif)f∈F,i∈1,2,3]是5根手指的參數(shù)集合。人手參數(shù)空間即構(gòu)成PSO的優(yōu)化搜索空間,且參數(shù)的取值范圍服從線性約束。考慮到手指指節(jié)線段之間的斜率線性約束關(guān)系,在計(jì)算過(guò)程中可以化簡(jiǎn)降維,從而減少計(jì)算量,提高PSO優(yōu)化搜索的時(shí)間性能[6]。

        1.2.3 目標(biāo)函數(shù)

        為了度量人手假設(shè)參數(shù)[h]與真實(shí)觀測(cè)幀[O]之間的差異,從而尋找出與真實(shí)觀測(cè)幀[O]最為接近的人手參數(shù)[h,]需要建立一個(gè)適應(yīng)度評(píng)測(cè)函數(shù)[E(?)],即PSO優(yōu)化求解中的目標(biāo)函數(shù)。將目標(biāo)函數(shù)[E(?)]定義為:

        [E(O,h,C)=P(h)+λk?D(O,h,C)] (1)

        式中:[λk]是歸一化因子;[C]表示攝像機(jī)的校準(zhǔn)參數(shù);[P(?)]用于懲罰無(wú)效的人手假設(shè);[D(?)]用于度量真實(shí)觀測(cè)幀[O]與人手假設(shè)[h]之間的不一致性。在本文中只考慮[D(?),]首先將假設(shè)人手參數(shù)[h]模型化,然后以表示手指指節(jié)的直線段為中軸線,以固定寬度為指長(zhǎng),通過(guò)渲染生成人手剪影,最后將其與真實(shí)觀測(cè)得到的人手目標(biāo)區(qū)域進(jìn)行異或操作,從而得到兩者之間的差值,并使其最小化。

        1.2.4 PSO優(yōu)化

        假設(shè)粒子群的粒子個(gè)數(shù)為[N,]迭代次數(shù)為[M。]在原始PSO方法中,隨機(jī)產(chǎn)生[N]個(gè)粒子,或是采用搜索空間的均勻分布作為粒子群的初始位置,其初始速度均為[0;]利用時(shí)序關(guān)系約束并減小有效搜索空間,即將上一幀的人手跟蹤結(jié)果及其隨機(jī)擾動(dòng)產(chǎn)生的鄰近位置作為當(dāng)前幀粒子群的初始位置信息[7]。每一幀真實(shí)觀測(cè)[O]對(duì)應(yīng)一個(gè)優(yōu)化求解問題。在人手參數(shù)搜索空間[S]中,通過(guò)最小化PSO方法的目標(biāo)函數(shù)[E(?)]進(jìn)行求解,并將最優(yōu)人手假設(shè)[hmax]作為當(dāng)前觀測(cè)幀的輸出,其中:

        [hmax=arg minhE(O,h,C)] (2)

        對(duì)于視頻序列中的每一幀[O,]在第[k+1]次迭代中,第[i]個(gè)粒子的速度更新公式為:

        [vk+1,i=ω(vk,i+c1r1(Pk,i-hk,i)+c2r2(Gk-hk,i))] (3)

        式中:[ω]為收縮因子;[c1]和[c2]為加速系數(shù)(又稱為學(xué)習(xí)因子),分別調(diào)節(jié)向個(gè)體最優(yōu)粒子和全局最優(yōu)粒子方向運(yùn)動(dòng)的最大步長(zhǎng);[r1]和[r2]是服從[0,1]均勻分布的隨機(jī)數(shù);[hk.i]表示第[k]次迭代時(shí)第[i]個(gè)粒子的當(dāng)前位置,也即人手參數(shù)空間中的某個(gè)點(diǎn)(對(duì)應(yīng)一個(gè)人手假設(shè));[vk,i]表示第[k]次迭代時(shí)第[i]個(gè)粒子的速度矢量,且每一維度[d]都限定在某個(gè)速度變化范圍[-vdmax,vdmax]之內(nèi);[Pk,i]表示至目前的前[k]次迭代中第[i]個(gè)粒子的自身局部最優(yōu)位置;[Gk]表示至目前的前[k]次迭代中所有粒子的全局最優(yōu)位置。粒子當(dāng)前位置的更新公式為:

        [hk+1,i=hk,i+vk+1,i] (4)

        即粒子的當(dāng)前位置是粒子在上次迭代中的位置矢量與當(dāng)前粒子速度矢量之和。第[i]個(gè)粒子的自身局部最優(yōu)位置[Pk+1,i]的更新公式為:

        [Pk+1,i=hk+1,i,F(xiàn)(hk+1,i)

        所有粒子的全局最優(yōu)位置[Gk+1]的更新公式為:

        [Gk+1=Pk+1,l,l=arg mini(F(Pk+1,i))] (6)

        在經(jīng)過(guò)[M]次迭代后,所有粒子的全局最優(yōu)位置[Gk(k=M)]就是當(dāng)前觀測(cè)幀[O]的最優(yōu)人手假設(shè)[hmax。]將[hmax]及其[N-1]個(gè)隨機(jī)擾動(dòng)產(chǎn)生的鄰近位置作為下一觀測(cè)幀對(duì)應(yīng)粒子群的初始位置信息[h0,i,]從而進(jìn)行下一幀的PSO優(yōu)化人手估計(jì)。

        2 三維人手跟蹤方法

        2.1 基于PSO的三維人手跟蹤

        2.1.1 搜索空間

        人手模型參數(shù)空間即構(gòu)成搜索空間。根據(jù)27個(gè)自由度的人手骨架模型,加之各手指運(yùn)動(dòng)角度范圍的靜態(tài)約束和手指運(yùn)動(dòng)指節(jié)之間的動(dòng)態(tài)約束,人手模型參數(shù)向量從27維降至15維:其中,拇指自由度由5降為2,中指自由度由4降為1,其他三根手指自由度均由4降為2,人手的全局位置信息表示有3個(gè)自由度,人手的旋轉(zhuǎn)角度表示有3個(gè)自由度[8]。所以,搜索空間是15維的模型參數(shù)空間,每個(gè)參數(shù)服從線性約束關(guān)系。

        2.1.2 目標(biāo)函數(shù)

        在得到3D人手模型的參數(shù)表示后,即對(duì)模型參數(shù)進(jìn)行評(píng)估,以獲得與真實(shí)觀測(cè)最為匹配的人手模型參數(shù)。已知人手假設(shè)參數(shù)[h]和攝像機(jī)校準(zhǔn)參數(shù)[C,]通過(guò)渲染技術(shù)得到[h]的渲染深度圖[rd(h,C),]并將其與對(duì)應(yīng)觀測(cè)幀的深度圖[Od]匹配,得到二值匹配深度圖[rm(h,C)。]也就是說(shuō),當(dāng)渲染深度圖[rd]與觀測(cè)深度圖[Od]相同像素位置的深度值之差小于預(yù)定義深度閾值[dm]或觀測(cè)深度圖[Od]相應(yīng)位置的深度丟失(深度值為零)時(shí),[rm]相應(yīng)像素位置的深度值設(shè)為1,否則設(shè)為0。然后,將[rm]與真實(shí)觀測(cè)的膚色圖[Os]進(jìn)行比較。

        定義一個(gè)目標(biāo)函數(shù)[E(h,O)]用來(lái)度量當(dāng)前觀測(cè)幀對(duì)應(yīng)的膚色和深度圖[O]與給定假設(shè)人手配置[h]渲染生成的二值匹配深度圖[rm]之間的差異,如式(7)所示:

        [E(h,O)=D(O,h,C)+λk?kc(h)] (7)

        式中:[λk=2]是歸一化因子;函數(shù)[D(?)]被定義為:

        [D(O,h,C)=min(Od-rd,dM)(Os∨rm)+τ+λ1-2(Os∧rm)(Os∧rm)+(Os∨rm)] (8)

        式中:第一項(xiàng)表示建模真實(shí)觀測(cè)[O]與人手假設(shè)配置[h]之間增強(qiáng)深度差異的絕對(duì)值;第二項(xiàng)表示建模假設(shè)人手配置與真實(shí)觀測(cè)之間的膚色像素差異;[λ]是歸一化常數(shù),需在整幅特征圖像上求和。

        式(7)中,函數(shù)[kc]表示對(duì)運(yùn)動(dòng)學(xué)和生理學(xué)上難以實(shí)現(xiàn)的人手配置的懲罰項(xiàng):

        [kc(h)=p∈Q-min(φ(p,h),0)] (9)

        式中:[Q]表示拇指除外的三個(gè)相鄰手指對(duì);[φ]表示給定假設(shè)人手配置[h]中手指之間外伸?內(nèi)收的角度差;取常量[λ=20,][λk=10,]預(yù)定義深度閾值[dm=1]cm,[dM=]4 cm。

        2.1.3 優(yōu)化處理

        (1) PCA主要步驟

        假設(shè)給定[N]個(gè)[D]維的樣本[h,]由于存在噪音和數(shù)據(jù)冗余,它們并不分布在整個(gè)[RD]空間,而只分布在[RD]的某個(gè)子空間中。首先,通過(guò)子空間方法尋找符合某種準(zhǔn)則的[d]個(gè)基向量[wi∈RD,i=1,2,…,d;]然后,將高維數(shù)據(jù)投影到這[d]個(gè)基向量確定的子空間中,即[zi=Whi]且[W=(w1,w2,…,wd)T]。經(jīng)變換[zi]下降到[d]維,在保持絕大部分原始高維數(shù)據(jù)信息的同時(shí),達(dá)到了降維的目的,具體步驟如下所述:

        (1) 計(jì)算[h=(h1,h2,…,hN)T]的協(xié)方差矩陣,計(jì)算公式如下:

        [S=i=1N(hi-μ)(hi-μ)T, μ=1Ni=1Nhi] (10)

        (2) 對(duì)矩陣[S]進(jìn)行特征值分解:[SW=WΛ,]其中[W]和[Λ]如式(11)所示,將特征值[λ]按從大到小降序排列:

        [W=(w1,w2,…,wd)T,Λ=diag(λ1,λ2,…,λD)] (11)

        (3) 使用前[d]個(gè)特征值作為子空間的基底,設(shè)為矩陣[L=(l1,l2,…,ld)T,][L]中的單位基向量之間彼此正交;

        (4) 原始數(shù)據(jù)[h=(h1,h2,…,hN)T]通過(guò)線性轉(zhuǎn)換[Z=Lh]得到新的數(shù)據(jù)表示[Z,]此時(shí)每個(gè)樣本維度為[d,]從而達(dá)到了降維的目的。

        通常用[αi=λijλj]表示主成分[zi]的方差貢獻(xiàn)率,稱[i=1Kαi]為前[K]個(gè)主成分的方差累計(jì)貢獻(xiàn)率。因此,選擇主成分個(gè)數(shù)的方法是增大[K]值,直到近似數(shù)據(jù)與真實(shí)數(shù)據(jù)的誤差平方在可允許誤差范圍內(nèi),通常取[K]使得其方差累計(jì)貢獻(xiàn)率達(dá)到98%。

        2.2 實(shí) 驗(yàn)

        在實(shí)驗(yàn)室光照條件下,使用微軟的Kinect傳感器采集無(wú)標(biāo)記人手運(yùn)動(dòng)的彩色圖像序列和與之對(duì)應(yīng)的深度圖像序列作為實(shí)驗(yàn)室數(shù)據(jù),圖像大小為640×480。實(shí)驗(yàn)是在CPU為Interl CoreTM 2 Quad Q9550,內(nèi)存為4 GB的普通PC機(jī)上完成的。當(dāng)粒子個(gè)數(shù)[N=60,]最大迭代次數(shù)[M=40]時(shí),人手跟蹤結(jié)果及其性能達(dá)到最優(yōu)。實(shí)驗(yàn)結(jié)果表明,基于3D人手骨架模型的PSO人手跟蹤方法在復(fù)雜背景下能獲得較精確、魯棒性較好的人手跟蹤結(jié)果。

        3 基于視覺的手勢(shì)交互應(yīng)用

        3.1 手勢(shì)交互系統(tǒng)框架

        在現(xiàn)有手勢(shì)交互系統(tǒng)的基礎(chǔ)上,構(gòu)建了一種具有可擴(kuò)展性的基于視覺的手勢(shì)交互系統(tǒng)框架,如圖2所示,以適應(yīng)不同的應(yīng)用環(huán)境和操作需求。同時(shí),由于基于視覺的手勢(shì)識(shí)別方法具有參數(shù)獲取不夠準(zhǔn)確、識(shí)別率不夠高等特點(diǎn),本框架通過(guò)引入多通道反饋機(jī)制,以便實(shí)時(shí)地在線修正參數(shù)誤差以提高識(shí)別率,從而提供更好的用戶體驗(yàn)。

        3.1.1 模塊劃分

        基于視覺的手勢(shì)交互系統(tǒng)框架包括上、下兩層:頂層交互界面反饋層和底層數(shù)據(jù)處理層。其中,底層數(shù)據(jù)處理層又可分為三大模塊:感知模塊,手勢(shì)識(shí)別模塊和交互模塊。其中,感知模塊由[N]個(gè)攝像頭組成,負(fù)責(zé)交互手勢(shì)動(dòng)作的圖像序列采集工作;手勢(shì)識(shí)別模塊將手勢(shì)識(shí)別過(guò)程劃分為數(shù)據(jù)預(yù)處理、人手定位、人手跟蹤、連續(xù)手勢(shì)分割、手勢(shì)識(shí)別五個(gè)階段;交互模塊的功能是根據(jù)手勢(shì)識(shí)別結(jié)果語(yǔ)義信息,在預(yù)先定義好的手勢(shì)任務(wù)邏輯和底層操作庫(kù)的指導(dǎo)下,給出系統(tǒng)響應(yīng)或提示。

        3.1.2 反饋機(jī)制

        在手勢(shì)交互系統(tǒng)框架中加入顯式和隱式兩層反饋機(jī)制,在保證系統(tǒng)時(shí)效性的基礎(chǔ)上,又能及時(shí)反饋系統(tǒng)信息,從而讓操作用戶擁有良好的操作體驗(yàn)和真實(shí)的沉浸感。為給用戶提供良好的操作體驗(yàn)和真實(shí)沉浸感,本文針對(duì)視覺數(shù)據(jù)流的3個(gè)不同處理階段,采用3種不同的界面反饋形式:手勢(shì)自反饋、識(shí)別結(jié)果反饋、系統(tǒng)響應(yīng)反饋。

        基于語(yǔ)義反饋的手勢(shì)識(shí)別系統(tǒng),如圖3所示。首先,在預(yù)定義交互手勢(shì)基元庫(kù)的指導(dǎo)下,根據(jù)預(yù)定義手勢(shì)組合規(guī)則,對(duì)連續(xù)手勢(shì)分割的結(jié)果——手勢(shì)基元序列進(jìn)行分析,輸出識(shí)別結(jié)果。當(dāng)結(jié)果不滿意時(shí),則根據(jù)交互手勢(shì)語(yǔ)義信息,對(duì)前面各模塊的參數(shù)進(jìn)行調(diào)整:如調(diào)整圖像序列采集所使用的Camera個(gè)數(shù)及其所占權(quán)重,調(diào)整連續(xù)手勢(shì)的分割規(guī)則權(quán)值,以最大化可能的分割決策等。在各模塊參數(shù)得到更新后,重新進(jìn)行手勢(shì)識(shí)別過(guò)程,如此循環(huán),直到得到滿意的識(shí)別結(jié)果為止。

        3.2 基于視覺手勢(shì)的影像交互系統(tǒng)

        3.2.1 系統(tǒng)流程

        以交互影像系統(tǒng)為應(yīng)用背景,以基于視覺的手勢(shì)交互技術(shù)為支撐,實(shí)現(xiàn)了基于視覺手勢(shì)的影像交互系統(tǒng),系統(tǒng)的框架和操作流程如圖4所示,分為輸入、交互、輸出三個(gè)階段。

        3.2.2 系統(tǒng)演示

        (1) 手勢(shì)控制場(chǎng)景圖片

        在手勢(shì)控制場(chǎng)景圖片實(shí)驗(yàn)中,系統(tǒng)控制命令由右手手勢(shì)表達(dá)。其中,五指并攏表示標(biāo)定初始幀,表示手勢(shì)交互的開始;使用手指之間張角的大小控制虛擬場(chǎng)景圖片(本實(shí)驗(yàn)采用虛擬圓球)的縮放尺度,即圓球隨著手指之間張角變大/變小進(jìn)行相應(yīng)的放大/縮小;使用手勢(shì)與圖像平面之間的夾角控制圓球的旋轉(zhuǎn)角度,從而讓圓球球心與中指一直保持在同一條直線上;握拳手勢(shì)表示退出交互系統(tǒng)。手勢(shì)控制場(chǎng)景圖片的演示截圖如圖5所示。

        (2) 手勢(shì)控制影像交互

        在手勢(shì)控制影像交互實(shí)驗(yàn)中,同樣用右手手勢(shì)控制系統(tǒng)命令。首先,按照舞臺(tái)劇或情景劇的模式設(shè)計(jì)并拍攝各節(jié)視頻段,以及中間過(guò)程需要的道具圖片,并定義手勢(shì)與系統(tǒng)命令的映射關(guān)系。在沒有用戶參與交互的情況下,各段視頻按照預(yù)先設(shè)定的順序播放,當(dāng)播放至選擇階段,系統(tǒng)彈出提示界面,并定位在當(dāng)前幀,當(dāng)用戶根據(jù)提示信息和自己的意愿進(jìn)行選擇,做出相應(yīng)的動(dòng)作和手勢(shì)。手勢(shì)捕捉系統(tǒng)實(shí)時(shí)對(duì)當(dāng)前手勢(shì)進(jìn)行預(yù)處理、分析和識(shí)別,當(dāng)手勢(shì)被識(shí)別后,直接調(diào)用或觸發(fā)系統(tǒng)命令,實(shí)時(shí)反饋或響應(yīng),獲得預(yù)期的視覺效果或視頻播放序列。

        4 結(jié) 論

        人手建模、手勢(shì)跟蹤以及手勢(shì)交互系統(tǒng)框架在基于手勢(shì)識(shí)別的交互應(yīng)用中是非常重要的三個(gè)方面。本文首先提出了一種簡(jiǎn)化的2D人手模型,并通過(guò)添加各個(gè)手指之間以及手指指節(jié)之間的運(yùn)動(dòng)約束,從而將整個(gè)人手表示為12維向量的形式;然后提出了一種基于粒子群優(yōu)化(PSO)的人手跟蹤方法,并分別實(shí)現(xiàn)了基于2D簡(jiǎn)化人手模型和3D骨架模型的PSO人手跟蹤方法,采用PSO方法在人手模型參數(shù)空間尋找與真實(shí)觀測(cè)最為匹配的假設(shè)人手配置作為跟蹤結(jié)果輸出;最終,完成了一種具有可擴(kuò)展性的融合語(yǔ)義和反饋信息的手勢(shì)交互系統(tǒng)框架,實(shí)現(xiàn)了一種基于視覺手勢(shì)的影像交互系統(tǒng)。

        參考文獻(xiàn)

        [1] REKIMOTO J. GestureWrist and GesturePad: unobtrusive wea?rable interaction devices [C]// Proceedings of the Fifth IEEE International Symposium on Wearable Computers. Zurich: IEEE, 2001: 21?27.

        [2] 武匯岳,張鳳軍,劉玉進(jìn),等.UIDT:基于視覺的手勢(shì)界面關(guān)鍵技術(shù)研究[J].計(jì)算機(jī)學(xué)報(bào),2009(10):2030?2041.

        [3] 李清水,方慮剛,沈模衛(wèi).手勢(shì)識(shí)別技術(shù)及其在人機(jī)交互中的應(yīng)用[J].人類工效學(xué),2002,8(1):27?33.

        [4] 任海兵,祝遠(yuǎn)新,徐光佑,等.基于視覺手勢(shì)識(shí)別的研究綜述[J].電子學(xué)報(bào),2000,28(2):118?121.

        [5] 王西穎,張習(xí)文,戴國(guó)忠.一種面向?qū)崟r(shí)交互的變形手勢(shì)跟蹤方法[J].軟件學(xué)報(bào),2007,18(10):2423?2433.

        [6] 陳守滿,朱偉,王慶春.圖片操作的手勢(shì)動(dòng)態(tài)識(shí)別系統(tǒng)[J].現(xiàn)代電子技術(shù),2012,35(22):4?6.

        [7] ZHOU H, LIN D J, HUANG T S. Static hand gesture recognition based on local orientation histogram feature distribution model [C]// Proceedings of 2004 IEEE Conference on Computer Vision and Pattern Recognition Workshop. Washington, D. C.: IEEE, 2004: 161?167.

        [8] 朱衛(wèi)華,劉國(guó)穩(wěn),肖沛,等.基于SoC的數(shù)據(jù)采集與交互系統(tǒng)設(shè)計(jì)[J].現(xiàn)代電子技術(shù),2014,37(2):127?130.

        一区二区三区国产精品| 久久亚洲精品成人av| 国产精品国产三级农村妇女| yy111111少妇影院| 欧美自拍视频在线| 久久综合一本中文字幕| 丰满少妇被爽的高潮喷水呻吟| 亚洲av无码一区东京热| 天堂在线资源中文在线8| 亚洲处破女av日韩精品| 午夜a福利| 亚洲av免费看一区二区三区| 成午夜福利人试看120秒| 夜夜躁狠狠躁日日躁2022| 97久久超碰国产精品2021| 久久91精品国产91久久麻豆| 久久久亚洲av成人乱码| 综合色就爱涩涩涩综合婷婷| 久久久久99精品国产片| 天堂岛国精品在线观看一区二区| 亚洲天堂av一区二区| 国产69精品久久久久久久| 成人片黄网站色大片免费观看cn| 国产亚洲精品福利在线| 日本一区二区三区激视频| 日韩精品无码熟人妻视频| 欧美熟妇色ⅹxxx欧美妇| 国产成人精品无码一区二区老年人| 精品精品国产三级av在线 | 久久精品国产日本波多麻结衣| 少妇无码av无码去区钱| 91九色精品日韩内射无| 亚洲精品一区二区三区麻豆| 亚洲中文字幕无码久久2020| 亚洲日韩精品AⅤ片无码富二代| 中国男男女在线免费av| 亚洲精品www久久久| 免费无遮挡无码视频在线观看 | 免费国产黄线在线播放| 亚洲天堂一区二区三区| 欧美激情在线播放|