亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        虛擬現(xiàn)實交互游戲中的手勢識別

        2019-06-27 10:36:04陳立李穎昉劉志遠王禮華王艷柏
        科技創(chuàng)新與應用 2019年20期
        關鍵詞:手勢識別卷積神經(jīng)網(wǎng)絡虛擬現(xiàn)實

        陳立 李穎昉 劉志遠 王禮華 王艷柏

        摘 要:隨著虛擬現(xiàn)實技術的發(fā)展和手勢識別技術的不斷提升,人們對自然交互的方式不斷提出迫切需求。對于交互體驗的游戲而言,尤為突出。此前的研究主要利用普通攝像頭采集圖像,獲取手勢的運動形態(tài)及像素信息,無法獲得具有深度信息手勢的三維特征。隨著Leap Motion等深度傳感器的出現(xiàn),更多的深度信息可以被獲取,為識別復雜的手勢提供了可靠的數(shù)據(jù)保障。文章使用一種基于深度經(jīng)網(wǎng)絡的游戲交互手勢識別系統(tǒng),與以往的方法相比,具有更好的性能。

        關鍵詞:虛擬現(xiàn)實;手勢識別;卷積神經(jīng)網(wǎng)絡

        中圖分類號:TP393 文獻標志碼:A 文章編號:2095-2945(2019)20-0022-03

        Abstract: With the development of virtual reality technology and the continuous improvement of gesture recognition technology, people continue to put forward an urgent need for the way of natural interaction. For interactive experience of the game, especially prominent. Previous studies mainly used ordinary cameras to collect images to obtain the motion form and pixel information of gestures, but could not obtain the three-dimensional features of gestures with depth information. With the emergence of depth sensors such as Leap Motion, more depth information can be obtained, which provides a reliable data guarantee for the recognition of complex gestures. In this paper, a game interactive gesture recognition system based on depth neural network is used, which has better performance than the previous methods.

        Keywords: virtual reality; gesture recognition; convolution neural network

        引言

        近年來,在人機交互、機器人學、計算機游戲等眾多的領域中[1,2],手勢識別[3,4]吸引了越來越多學者的研究興趣。其中,人機交互從最初的簡單通過二維圖像界面交互發(fā)展到了更為直觀的自然手勢或姿態(tài)的交互。Leap Motion等深度傳感器的出現(xiàn),可以獲取更多的深度信息,為識別復雜的手勢提供了可靠的數(shù)據(jù)保障。本文使用深度神經(jīng)網(wǎng)絡處理交互游戲中的手勢識別,經(jīng)實驗,有良好的性能。

        1 深度傳感器Leap Motion

        Leap Motion通過雙目視覺以及紅外攝像頭,來獲取每一幀的手部幾何數(shù)據(jù),將數(shù)據(jù)綁定模型中的手部骨骼,在虛擬場景中呈現(xiàn)虛擬手。Leap Motion以圖像中的數(shù)據(jù)幀作為采集的基本單位,將識別到的幾何信息封裝在一個Frame實例中。表1中列出了其中的數(shù)據(jù)類型和意義。

        Leap Motion采集到的數(shù)據(jù)格式為一組基于時間的序列信息,記錄的是每個時刻下的序列元素,包含了手勢位移變化、手勢角度變化、手型彎曲變化和手指變化四個特征維度的數(shù)據(jù)集合。本文通過設定手勢采集起始點和結束點的閾值,解決采集判斷問題,定義動態(tài)手勢的語義及手勢特征并進行分解提取和存儲。最后,通過對提取的數(shù)據(jù)進行歸一化處理,以降低后續(xù)模型訓練的計算成本。

        2 手勢識別

        基于視覺的手勢識別通常分為:手勢檢測與分割、手勢建模和手勢識別三個階段。通常根據(jù)圖像信息之間的向量差,或根據(jù)手部信息比如膚色、手型輪廓等來做檢測或者分割。手勢建模則是基于圖像的信息向量序列進行模型分析,比如手部輪廓、向量特征、區(qū)域直方圖或運動向量軌跡特征等。手勢識別是通過對手勢區(qū)域進行分割后對圖像進行特征值提取,再對手勢進行建模,可將參數(shù)空間中的動態(tài)點集合映照到該片區(qū)域中的里某些子集里。一般的手勢識別過程如圖1所示。

        有許多國內(nèi)外學者開展了手勢識別的相關研究。如:Zhou和Du[5]比較了人類動物情感機器人觸摸數(shù)據(jù)集(HAART)中手勢識別的各種深度學習算法的性能,包括二維CNN、三維CNN和LSTMS,比較了GM LSTMS、LRCNS和3D CNN在社交觸摸手勢識別任務中的表現(xiàn)。其所提出的3D CNN方法的識別精度達到76.1%,明顯優(yōu)于其它算法。文中卷積層為4層,每層卷積核的數(shù)目分別為16-32-64-128。與8-16-32-64和32-64-128-256相比,3D CNN獲得了最佳性能。Jung等人[6]應用了4種不同的方法和54種特征,如平均和最大壓力、壓力變異性、每行和每列的平均壓力、每幀的接觸面積,使用留一交叉驗證用來評估算法的性能。其中分類準確率分別為,Bayesian分類器采用前饋網(wǎng)絡訓練60%,支持向量機(SVM)57%(SD=11%),決策樹算法48%。

        3 卷積神經(jīng)網(wǎng)絡(CNN)

        受Hubel和Wiesel對貓視覺皮層電生理研究啟發(fā),有人提出卷積神經(jīng)網(wǎng)絡(CNN),其在手寫數(shù)字識別領域,一直保持領先。最近,卷積神經(jīng)網(wǎng)絡在多個方向持續(xù)發(fā)力,在語音識別、人臉識別、通用物體識別、運動分析、自然語言處理甚至腦電波分析方面均有突破。卷積神經(jīng)網(wǎng)絡通常包含卷積層、線性整流層、池化層和分類層。

        3.1 卷積層

        卷積層由若干卷積單元組成,每個卷積單元的參數(shù)都是通過反向傳播算法優(yōu)化得到的。卷積運算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低級的特征如邊緣、線條和角等層級,更多層的網(wǎng)絡能從低級特征中迭代提取更復雜的特征。每個卷積操作都由步幅、卷積核大小和零填充指定。步幅是一個正整數(shù),它決定了滑動步幅。在同一卷積運算中使用的所有卷積核上,卷積核大小必須是固定的。零填充主要是為了在輸入矩陣的邊緣包含數(shù)據(jù)。在沒有零填充的情況下,卷積輸出的大小比輸入的小。因此,網(wǎng)絡大小通過具有多個卷積層而縮小,這限制了網(wǎng)絡中卷積層的數(shù)量。而零填充可以防止網(wǎng)絡的收縮,并在網(wǎng)絡體系結構中提供無限的深層結構。

        3.2 線性整流層

        使用非線性單元的主要目的是調(diào)節(jié)或切斷產(chǎn)生的輸出。CNN中有幾種非線性函數(shù),校正線性單元(ReLU)是應用于各種領域的最常見的非線性單元之一。

        3.3 池化層

        池化層的引入,主要是為了減少輸入的維度。常用的如Max Pooling,是一個廣泛的和有希望的方法,因為它提供了顯著的結果,通常可降低輸入尺寸大小的75%。

        3.4 分類層

        SoftMax層是證明分類分布的一種很好的方法,主要用于輸出層,是輸出值的標準化指數(shù)[7]。這個函數(shù)是可微的,表示輸出的一定概率。此外,指數(shù)元素增加了最大值概率。

        4 本文方法

        本文使用CNN和傳感器數(shù)據(jù)對游戲交互手勢進行分類識別,具體實現(xiàn)畫圓、畫叉、向左劃、向右劃、向上劃、向下劃、向前劃和向后劃8種手勢的分類。其中,主要的困難在于找不到一個最佳的CNN架構。為此,本文首先定義網(wǎng)絡的輸入和輸出結構,具體結構見表2。LeapMotion以超過每秒200幀的速度追蹤手部移動,每個樣本都是一個640×240的矩陣。本文采集實驗了5~50幀數(shù)的數(shù)據(jù),為有效實現(xiàn),輸入幀數(shù)固定為25,并對具有短幀的樣本使用零填充。網(wǎng)絡輸入(640×240×25)為CNN提供了一個巨大的輸入

        量,并且計算成本很高。因此使用固定長度分割樣本,將每個樣本劃分為子樣本。當幀數(shù)不能完全被給定的子樣本長度整除時,對于幀數(shù)小于給定子樣本的用零填充。該方法具有以下優(yōu)點:

        (1)訓練神經(jīng)網(wǎng)絡的樣本數(shù)量增加,具體數(shù)量由幀長度決定。幀長度短的表示附加的子樣本信息較少,反之亦然。

        (2)從主樣本的一部分獲得了子樣本。

        (3)在接收到固定幀數(shù)的數(shù)據(jù)后識別手勢。

        本文使用傳感器中的輸出數(shù)據(jù)作為計算分類,具有8個類的SoftMax函數(shù)是方法的輸出。在CNN中,卷積階段的輸出特征圖數(shù)量等于使用的卷積核數(shù)量。因此,在卷積層中使用的卷積核的增加會導致輸出特征映射的增加。通過輸入通道增加,從而增加卷積運算,如前所述,卷積運算的計算成本很高。

        5 結論

        對于交互手勢的分類識別,本文方法使用Python語言實現(xiàn),Jupyter NoteBook作為開發(fā)環(huán)境,深度學習框架使用Keras和TensorFlow。輪數(shù)為50,批量大小為250,簡單隨機梯度下降(SGD)作為學習函數(shù);動量項為0.9,學習率分別為1、0.5、0.1、0.05和0.001。在每10個周期中,通過前一批數(shù)據(jù)搜索一個新的學習率,并選擇損失最小的學習。并在算法中進行了二次采樣,產(chǎn)生了更多的訓練數(shù)據(jù),提高了正確的分類率,表3為本文方法的識別率。該方法不需要數(shù)據(jù)預處理或人工特征提取,可以端到端應用。其次,可以在接收到少量的傳感器數(shù)據(jù)后識別分類。

        參考文獻:

        [1]Kumar S, Singh S K, Singh R, et al. Deep Learning Framework for Recognition of Cattle Using Muzzle Point Image Pattern[J]. Measurement, 2017,116.

        [2]Yawei Hou, Huailin Zhao. Handwritten Digit Recognition Based on Depth Neural Network[C]. ICIIBMS 2017-2nd International Conference on Intelligent Informatics and Biomedical Sciences , Nov.24-26,2017, Okinawa, Japan. P35-38.

        [3]Tian C, Liu J, Peng Z M. Acceleration Strategies for Speech Recognition Based on Deep Neural Networks[J]. Applied Mechanics & Materials, 2014,556-562:5181-5185.

        [4]Zhang Q , Yang L T , Chen Z , et al. A survey on deep learning for big data[J]. Information Fusion, 2018,42:146-157.

        [5]N. Zhou and J. Du, "Recognition of social touch gestures using 3D convolutional neural networks," in Proceedings of Chinese Conference on Pattern Recognition, November 2016,Changsha,China, pp. 164-173.

        [6]M. M. Jung, M. Poel, R. Poppe, and D. K. Heylen, "Automatic recognition of touch gestures in the corpus of social touch,"Journal on Multimodal User Interfaces, 2017, vol. 11, no. 1,pp. 81-96.

        [7]Nnhacks,https://nnhacks.github.io/A_Simple_Introduction_to_Soft

        max_Function.html, 2017.

        猜你喜歡
        手勢識別卷積神經(jīng)網(wǎng)絡虛擬現(xiàn)實
        風口上的虛擬現(xiàn)實
        商周刊(2017年24期)2017-02-02 01:42:55
        基于深度卷積神經(jīng)網(wǎng)絡的物體識別算法
        基于手勢識別的工業(yè)機器人操作控制方法
        基于紅外的非接觸式手勢識別系統(tǒng)設計
        基于嵌入式的智能手表設計
        虛擬現(xiàn)實技術向科幻小說借靈感
        海外星云(2016年7期)2016-12-01 04:18:00
        復雜背景下的手勢識別方法
        深度學習算法應用于巖石圖像處理的可行性研究
        軟件導刊(2016年9期)2016-11-07 22:20:49
        基于深度卷積網(wǎng)絡的人臉年齡分析算法與實現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡的樹葉識別的算法的研究
        国产午夜精品综合久久久| 国偷自产一区二区免费视频| 亚洲av无码国产精品色午夜洪| 亚洲国产中文在线二区三区免| 国产成人精品aaaa视频一区| 美国又粗又长久久性黄大片| 久久人妻一区二区三区免费| 亚洲色欲久久久综合网东京热| 国产乱子伦农村叉叉叉| 国产夫妻av| 国产三级在线看完整版| 中文字幕一区乱码在线观看| 亚洲夫妻性生活免费视频| 精品无码国产一区二区三区av| 长腿校花无力呻吟娇喘的视频| 日韩av中出在线免费播放网站| 亚洲中文字幕一区高清在线| 亚洲最近中文字幕在线| 日韩av无码精品一二三区| 亚洲国产成人va在线观看天堂| 久久91精品国产91久| 少妇被躁到高潮和人狍大战| 亚洲综合色区一区二区三区| 日日碰狠狠添天天爽| 无码日韩AⅤ一区二区三区| 日韩精品有码中文字幕在线| 国产av剧情久久精品久久| 国产午夜精品av一区二区麻豆| 海角国精产品一区一区三区糖心| 色综合久久精品中文字幕| 国产视频一区二区三区免费| 国产精品一区二区三区免费视频| 亚洲熟妇久久国产精品| 无限看片在线版免费视频大全| av网站影片在线观看| 青青草手机在线观看视频在线观看| 亚洲人成影院在线无码按摩店| 亚洲xxxx做受欧美| 少妇av免费在线播放| 谷原希美中文字幕在线| 亚洲av无码成人精品区狼人影院|