楊文斌, 楊會(huì)成, 魯 春, 朱文博
(安徽工程大學(xué) 電氣工程學(xué)院,安徽 蕪湖 241000)
隨著智能設(shè)備的發(fā)展,人機(jī)交互技術(shù)逐漸成為研究熱點(diǎn)。人臉、手勢(shì)、表情、身體姿態(tài)等是人機(jī)交互最直觀、最主要的方式。其中人臉識(shí)別技術(shù)最成熟[1-2],目前已廣泛應(yīng)用于門(mén)禁、考勤、信息安全等領(lǐng)域。相較于人臉識(shí)別,基于手勢(shì)的人機(jī)交互方式則更靈活,具有更大的操作空間。從最早期的數(shù)據(jù)手套獲取手勢(shì)信息[3],到目前通過(guò)深度相機(jī)獲取手勢(shì)信息[4],手勢(shì)識(shí)別技術(shù)也取得了長(zhǎng)足的發(fā)展[5]。手勢(shì)識(shí)別一般分為兩個(gè)大的方向,即動(dòng)態(tài)手勢(shì)識(shí)別和靜態(tài)手勢(shì)識(shí)別。動(dòng)態(tài)手勢(shì)識(shí)別要獲取手勢(shì)運(yùn)動(dòng)軌跡等動(dòng)態(tài)信息。靜態(tài)手勢(shì)識(shí)別核心在于獲取好的手勢(shì)特征,以便于對(duì)手勢(shì)進(jìn)行分類(lèi)識(shí)別。本文主要對(duì)靜態(tài)手勢(shì)的識(shí)別進(jìn)行研究。靜態(tài)手勢(shì)識(shí)別的一般步驟為輸入圖像、預(yù)處理、特征提取、分類(lèi)識(shí)別。常見(jiàn)的手勢(shì)識(shí)別方法一般包括以下3大類(lèi)。
(1) 基于模板匹配的方法[6-8]。這類(lèi)算法主要通過(guò)選取匹配特征,可以是手勢(shì)的區(qū)域特征或者邊緣特征,將輸入的手勢(shì)圖片與保存的模板進(jìn)行相似度匹配。此類(lèi)方法的局限性在于隨著手勢(shì)種類(lèi)的增加,該種方法的識(shí)別率會(huì)逐漸降低。
(2) 基于人工神經(jīng)網(wǎng)絡(luò)的方法[9-11]。人工神經(jīng)網(wǎng)絡(luò)可逼近任意復(fù)雜非線性映射、采用分布式運(yùn)行且具有學(xué)習(xí)分類(lèi)特性。但采用此種方法容易陷入過(guò)擬合,且淺層的網(wǎng)絡(luò)學(xué)習(xí)能力有限,導(dǎo)致識(shí)別效果一般。
(3) 基于概率統(tǒng)計(jì)模型的方法[12-14]。隱馬爾科夫模型是其中的典型方法,該方法包括狀態(tài)轉(zhuǎn)移和觀察值輸出雙重隨機(jī)過(guò)程,需要的參數(shù)較多,導(dǎo)致識(shí)別速度較慢。
深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)的一大分支,近年來(lái)在圖像識(shí)別、語(yǔ)音識(shí)別等領(lǐng)域迅速崛起[15]。其中,卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一種網(wǎng)絡(luò)結(jié)構(gòu),其網(wǎng)絡(luò)結(jié)構(gòu)具有共享權(quán)值的特點(diǎn),更類(lèi)似于生物神經(jīng)網(wǎng)絡(luò),因此減少了權(quán)值參數(shù)數(shù)量,降低了網(wǎng)絡(luò)模型的復(fù)雜度。當(dāng)輸入為多維圖像時(shí),避免了傳統(tǒng)圖像識(shí)別復(fù)雜的特征提取和重建過(guò)程,故在圖像識(shí)別領(lǐng)域取得了廣泛應(yīng)用。2012年,基于卷積神經(jīng)網(wǎng)絡(luò)的AlexNet[16]在ILSVRC比賽中取得了很好的成績(jī)。在此之后,卷積神經(jīng)網(wǎng)絡(luò)逐漸成為研究熱點(diǎn),出現(xiàn)了GoogLeNet[17]、VGGNet[18]、ResNet[19]等一批優(yōu)秀的卷積神經(jīng)網(wǎng)絡(luò)模型。本文結(jié)合膚色特征和卷積神經(jīng)網(wǎng)絡(luò)對(duì)手勢(shì)進(jìn)行分類(lèi)識(shí)別。首先通過(guò)橢圓膚色模型提取出樣本圖片中的手勢(shì)區(qū)域并過(guò)濾掉手勢(shì)的復(fù)雜背景,得到二值化的手勢(shì)樣本。然后通過(guò)本文設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得出手勢(shì)識(shí)別模型。實(shí)驗(yàn)表明:該模型對(duì)于給定種類(lèi)的手勢(shì)具有良好的識(shí)別效果。
膚色區(qū)別于大多數(shù)的背景顏色,在不同顏色空間下膚色有著不同的區(qū)域分布。目前常用的顏色空間主要分為3種:RGB顏色空間、HSV顏色空間和YCrCb顏色空間。RGB顏色空間是圖片存儲(chǔ)和顯示最常用的顏色空間。在RGB空間下,膚色的紅色、綠色、藍(lán)色3個(gè)分量都受到亮度信息的影響,在不同亮度情況下,膚色點(diǎn)分布有著較大的差異,因此不適合膚色分割。HSV顏色空間將圖像分為色度、飽和度、亮度3個(gè)分量。由于圖像的亮度信息被分離開(kāi),因此理論上在HSV顏色空間下,膚色可以在色度分量上進(jìn)行區(qū)分。但現(xiàn)實(shí)情況下,亮度的改變會(huì)導(dǎo)致色度隨之變化,且膚色點(diǎn)在HSV空間下的分布并不密集,因此膚色在HSV空間下進(jìn)行分割的效果也不太理想。YCrCb顏色空間將圖像分為亮度分量和色度分量,其中色度分量又分為紅色色度Cr和藍(lán)色色度Cb兩個(gè)分量。在YCrCb空間下,膚色受亮度影響較小,且膚色點(diǎn)在Cr、Cb分量上比較集中。因此本文采用YCrCb空間進(jìn)行膚色特征的提取。RGB空間到Y(jié)CrCb空間的轉(zhuǎn)換公式為
(1)
在YCrCb顏色空間下,常見(jiàn)的膚色檢測(cè)方法包括:閾值判定法(非參數(shù)估計(jì)法)、單高斯模型、混合高斯模型、貝葉斯模型以及橢圓膚色模型等。閾值判定法利用膚色聚類(lèi)特性,直接劃分出膚色在Cr、Cb分量上的閾值(77≤Cb≤127,133≤Cr≤173),對(duì)膚色點(diǎn)進(jìn)行判定。該種方法處理速度較快,但誤檢率較高,容易將非膚色區(qū)域劃分為膚色。單高斯模型主要通過(guò)膚色在Cr-Cb平面上的分布建立高斯模型,將輸入像素點(diǎn)與膚色高斯模型進(jìn)行相似度計(jì)算,分離出膚色點(diǎn)。該模型均值和協(xié)方差都由樣本確定,因此受樣本影響較大。由于膚色在Cr-Cb平面上符合橢圓分布,相對(duì)于復(fù)雜的高斯膚色模型,橢圓膚色模型利用以下兩個(gè)公式來(lái)匹配兩個(gè)色度分量的距離。
(2)
(3)
判決準(zhǔn)則:
(4)
由判決準(zhǔn)則得出二值化的膚色圖像,分割出手勢(shì)部分。
由于現(xiàn)實(shí)場(chǎng)景下手勢(shì)背景十分復(fù)雜,通過(guò)橢圓膚色模型分割出的二值化手勢(shì)圖像可能受到與膚色相同的背景色以及噪點(diǎn)的影響,因此本文對(duì)橢圓膚色模型得出的二值化的膚色圖像求最大連通域,得出膚色最大連通域即當(dāng)前手勢(shì)。然后求得當(dāng)前手勢(shì)像素點(diǎn)最小外接矩,截取出手勢(shì)區(qū)域,歸一化成200×200大小,做形態(tài)學(xué)處理得到最終手勢(shì)樣本,如圖1所示。
圖1 手勢(shì)樣本處理過(guò)程
1989年,YAN L C提出的LeNet網(wǎng)絡(luò),是卷積神經(jīng)網(wǎng)絡(luò)的第一篇經(jīng)典之作。LeNet網(wǎng)絡(luò)后被廣泛應(yīng)用于美國(guó)銀行支票的手寫(xiě)體識(shí)別。近些年來(lái),深度學(xué)習(xí)逐漸成為研究熱點(diǎn)。由于卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別上的優(yōu)良表現(xiàn),逐漸被研究者們所重視,也出現(xiàn)了越來(lái)越多新的網(wǎng)絡(luò)結(jié)構(gòu)。但卷積神經(jīng)網(wǎng)絡(luò)的核心并沒(méi)有改變,典型的卷積神經(jīng)網(wǎng)絡(luò)一般包括卷積層、池化層、全連接層以及Softmax回歸層。
卷積層是卷積神經(jīng)網(wǎng)絡(luò)中最重要的層結(jié)構(gòu),通過(guò)卷積層提取圖像特征圖的好壞直接影響后續(xù)層的處理。卷積層通過(guò)卷積核與前一層的特征圖進(jìn)行局部連接,得出圖像的局部特征,并通過(guò)共享權(quán)值的方式得出新的特征圖。卷積層的計(jì)算公式如下:
(5)
池化層又稱為下采樣層,主要承接卷積層,對(duì)卷積層卷積后的特征圖進(jìn)行特征降維,以減少網(wǎng)絡(luò)的復(fù)雜度,減少計(jì)算量。池化一般分為最大池化和均值池化,一般表達(dá)式為
(6)
其中l(wèi)表示當(dāng)前層數(shù),j表示第j個(gè)特征圖。down(·)表示池化函數(shù)。
全連接層實(shí)際上是特殊的卷積層,但與卷積層不同的是,全連接層中每個(gè)神經(jīng)元與前一層中所有神經(jīng)元相連接。全連接層的作用是維度變換,把前一層的高維矩陣數(shù)據(jù)變換成低維矩陣,提取和整合有鑒別能力的特征。全連接層的一般表達(dá)式為
(7)
Softmax層一般接在全連接層之后作為卷積神經(jīng)網(wǎng)絡(luò)的最后一層輸出分類(lèi)。Softmax回歸分析是logistic回歸分析在多個(gè)分類(lèi)問(wèn)題上面的發(fā)展。在卷積神經(jīng)網(wǎng)絡(luò)中,Softmax分類(lèi)器用于對(duì)樣本種類(lèi)進(jìn)行概率判斷,選取輸出值最大的神經(jīng)元所對(duì)應(yīng)的類(lèi)別作為分類(lèi)結(jié)果。
一般來(lái)說(shuō),提升網(wǎng)絡(luò)性能最直接的方法就是提升網(wǎng)絡(luò)的深度和寬度。但參數(shù)量較大同時(shí)也會(huì)導(dǎo)致過(guò)擬合以及計(jì)算量過(guò)大的問(wèn)題。谷歌團(tuán)隊(duì)提出的GoogLeNet[17]網(wǎng)絡(luò)采用Inception結(jié)構(gòu)解決了這個(gè)問(wèn)題,引入多層感知器取代傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)中的廣義線性結(jié)構(gòu),既保持了網(wǎng)絡(luò)結(jié)構(gòu)的稀疏性,又能夠通過(guò)密集矩陣提高網(wǎng)絡(luò)的性能,googLeNet也因此取得了2014年ILSVRC比賽的冠軍。Inception的結(jié)構(gòu)如圖2所示。
圖2 Inception的結(jié)構(gòu)
采用不同大小的卷積核可以獲取輸入特征圖不同大小的局部感受野,將不同尺度的特征進(jìn)行融合,除了卷積層,Inception結(jié)構(gòu)特別引入了池化層,以得到更好的特征提取效果。
本文前期通過(guò)橢圓膚色模型等操作從復(fù)雜背景中分離手勢(shì)效果較好,得出的手勢(shì)為歸一化的二值圖像,沒(méi)有復(fù)雜背景干擾,圖像信息并不復(fù)雜,因此相對(duì)于GoogLeNet為彩色圖像樣本訓(xùn)練和識(shí)別所設(shè)計(jì)的復(fù)雜網(wǎng)絡(luò),本文設(shè)計(jì)了較為輕量級(jí)的網(wǎng)絡(luò)結(jié)構(gòu),除了卷積神經(jīng)網(wǎng)絡(luò)常規(guī)的卷積層、池化層等層結(jié)構(gòu),引入了3級(jí)Inception結(jié)構(gòu),整個(gè)網(wǎng)絡(luò)包含3個(gè)卷積層、兩個(gè)池化層、兩個(gè)LRN層、3個(gè)Inception結(jié)構(gòu)、1個(gè)全連接層以及1個(gè)Softmax層。整體網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖3所示。
圖3用于手勢(shì)識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖
Fig.3Thestructureofconvolutionalneuralnetworkrecognizedbygesture
卷積神經(jīng)網(wǎng)絡(luò)本質(zhì)是通過(guò)大量樣本訓(xùn)練得出輸入輸出之間的映射關(guān)系,是一種有監(jiān)督訓(xùn)練。卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練一般包括前向傳播和反向傳播兩個(gè)階段。前向傳播將樣本輸入到網(wǎng)絡(luò),經(jīng)過(guò)卷積、池化等操作得到輸出,與其理想化的輸出作差,得出代價(jià)函數(shù)代價(jià)函數(shù)(Loss Function):
(8)
其中,n為訓(xùn)練樣本總數(shù),xi為當(dāng)前訓(xùn)練樣本,y=y(xi)是訓(xùn)練樣本對(duì)應(yīng)的目標(biāo)輸出。l表示網(wǎng)絡(luò)層數(shù),al=al(xi)是當(dāng)xi為輸入時(shí)網(wǎng)絡(luò)輸出的激活值向量。
Caffe是當(dāng)前比較流行的深度學(xué)習(xí)框架之一,相對(duì)于其他深度學(xué)習(xí)框架,Caffe模型和優(yōu)化方法的表達(dá)采用Prototxt文本來(lái)進(jìn)行,運(yùn)行速度較快。此次研究在Windows平臺(tái)下,采用Caffe框架來(lái)進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)的搭建和模型的訓(xùn)練。由于當(dāng)前開(kāi)源的手勢(shì)樣本庫(kù)較少,本文采用自建的樣本庫(kù)進(jìn)行樣本訓(xùn)練。訓(xùn)練集包含不同姿態(tài)下1~5五種手勢(shì)各600張,共計(jì)3 000張樣本。樣本均歸一化成200×200大小。用本文提到的方法對(duì)采集到的手勢(shì)圖像進(jìn)行處理,最終用于訓(xùn)練的樣本如圖4所示。
圖4 手勢(shì)樣本類(lèi)別示例
本次研究選用本文提出的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)對(duì)手勢(shì)樣本進(jìn)行5 000次迭代訓(xùn)練,訓(xùn)練過(guò)程中代價(jià)函數(shù)隨迭代次數(shù)的變化情況如圖5所示。由圖5可知,隨著迭代次數(shù)的增加,代價(jià)函數(shù)的值變得越來(lái)越小,當(dāng)?shù)螖?shù)為3 300左右時(shí),代價(jià)函數(shù)的值趨于穩(wěn)定,因此網(wǎng)絡(luò)參數(shù)也趨于穩(wěn)定。迭代次數(shù)與測(cè)試集上的手勢(shì)識(shí)別率如表1所示。由表1可知當(dāng)?shù)螖?shù)為3 000次時(shí),該網(wǎng)絡(luò)在測(cè)試集上已經(jīng)能取得很好的手勢(shì)識(shí)別效果。當(dāng)?shù)螖?shù)達(dá)到5 000次時(shí),識(shí)別效果最好。
圖5 代價(jià)函數(shù)隨迭代次數(shù)的變化情況
迭代次數(shù) 5001 0002 0003 0004 0005 000手勢(shì)1識(shí)別率/%39.160.482.295.897.499.2手勢(shì)2識(shí)別率/%37.763.880.694.897.698.8手勢(shì)3識(shí)別率/%34.659.677.193.596.298.5手勢(shì)4識(shí)別率/%28.453.269.590.595.898.2手勢(shì)5識(shí)別率/%31.252.574.689.495.598.3平均識(shí)別率/%34.257.976.892.896.598.6
為驗(yàn)證本文提出的手勢(shì)識(shí)別算法性能,將與傳統(tǒng)手勢(shì)識(shí)別算法以及同樣采用卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別算法進(jìn)行比較。文獻(xiàn)[20]提出了一種結(jié)合HOG特征和SVM(支持向量機(jī))的手勢(shì)識(shí)別方法。提取手勢(shì)圖像的HOG特征,通過(guò)SVM分類(lèi)識(shí)別。文獻(xiàn)[21]選用了32×32的二值化手勢(shì)樣本,設(shè)計(jì)了一個(gè)7層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來(lái)訓(xùn)練網(wǎng)絡(luò)模型,對(duì)手勢(shì)進(jìn)行識(shí)別。文獻(xiàn)[22]采用32×32的灰度化手勢(shì)樣本,選用簡(jiǎn)單的5層神經(jīng)網(wǎng)絡(luò)進(jìn)行模型訓(xùn)練。表2顯示了不同算法的測(cè)試表現(xiàn)。通過(guò)表2可知,文獻(xiàn)[20]的方法識(shí)別率相對(duì)較低,原因是HOG特征受手勢(shì)旋轉(zhuǎn)等因素影響較大,導(dǎo)致識(shí)別效果不佳。文獻(xiàn)[21-22]均采用了卷積神經(jīng)絡(luò)的方法,取得了不錯(cuò)的識(shí)別效果,但因?yàn)樵O(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)較為簡(jiǎn)單,訓(xùn)練出的模型測(cè)試識(shí)別率不及本文提出的方法。
表2 不同算法手勢(shì)識(shí)別率比較
為了進(jìn)一步檢測(cè)本文所訓(xùn)練出的手勢(shì)識(shí)別模型在現(xiàn)實(shí)場(chǎng)景中的魯棒性和實(shí)時(shí)性,本文選用QT應(yīng)用程序開(kāi)發(fā)框架,采用C++語(yǔ)言設(shè)計(jì)了實(shí)時(shí)手勢(shì)識(shí)別系統(tǒng),能夠?qū)z像頭采集的手勢(shì)進(jìn)行即時(shí)的識(shí)別。識(shí)別流程如圖6所示。系統(tǒng)界面及識(shí)別效果如圖7所示。經(jīng)過(guò)測(cè)試,本文設(shè)計(jì)的手勢(shì)識(shí)別系統(tǒng)手勢(shì)識(shí)別率達(dá)到了98%,平均識(shí)別時(shí)間18.1 ms,滿足實(shí)時(shí)性的要求,且具有較好的魯棒性。
圖6 手勢(shì)識(shí)別系統(tǒng)識(shí)別流程
圖7 實(shí)時(shí)手勢(shì)識(shí)別系統(tǒng)
本文提出了一種結(jié)合膚色特征和卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別方法。首先,通過(guò)膚色特征,采用膚色橢圓模型分割出樣本和待檢測(cè)圖像中的手勢(shì),得到歸一化的二值圖像。去除了復(fù)雜背景的干擾,使得卷積神經(jīng)網(wǎng)絡(luò)能夠更高效地學(xué)習(xí)到手勢(shì)的高維特征。其次,區(qū)別于一般基于卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別方法,本文設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)模型采用了googLeNet的Inception結(jié)構(gòu),既保持了網(wǎng)絡(luò)結(jié)構(gòu)的稀疏性,又能夠通過(guò)密集矩陣提高網(wǎng)絡(luò)的性能。最終訓(xùn)練出來(lái)的手勢(shì)識(shí)別網(wǎng)絡(luò)模型在測(cè)試集上取得了較好的識(shí)別效果。在現(xiàn)實(shí)場(chǎng)景中,根據(jù)本文提出的手勢(shì)識(shí)別方法設(shè)計(jì)的手勢(shì)識(shí)別系統(tǒng)能夠快速準(zhǔn)確地識(shí)別出手勢(shì),達(dá)到了實(shí)時(shí)性的要求,驗(yàn)證了本文方法具有較強(qiáng)的魯棒性。
由于本文選用的樣本大小為200×200,且在純CPU模式下進(jìn)行網(wǎng)絡(luò)訓(xùn)練,模型訓(xùn)練時(shí)間較長(zhǎng)。后續(xù)研究工作將進(jìn)一步優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),提升網(wǎng)絡(luò)訓(xùn)練速度,在保證手勢(shì)識(shí)別率和識(shí)別速度的情況下增加手勢(shì)類(lèi)別。
參考文獻(xiàn)(References):
[1] 鄒國(guó)鋒,傅桂霞,李海濤,等.多姿態(tài)人臉識(shí)別綜述[J]. 模式識(shí)別與人工智能,2015,28(7):613-625
ZOU G F, FU G X, LI H T, et al. A Survey of Multi-pose Face Recognition[J]. Pattern Recognition and Artificial Intelligence,2015,28(7):613-625
[2] 畢運(yùn)鋒,許鋼,江娟娟,等.基于PCA算法的人臉識(shí)別研究及其GUI實(shí)現(xiàn)[J].重慶工商大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,32(3):31-36
BI Y F, XU G, JIANG J J, et al. Research on Face Recognition and Its GUI Based on PCA Algorithm[J]. Journal of Chongqing Technology and Business University(Natural Science Edition),2015,32(3):31-36
[3] 呂蕾,張金玲,朱英杰,等. 一種基于數(shù)據(jù)手套的靜態(tài)手勢(shì)識(shí)別方法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2015,27(12):2410-2418
LU L, ZHANG J L, ZHU Y J, et al. A Static Gesture Recognition Method Based on Data Glove[J]. Journal of Computer-Aided Design & Computer Graphics,2015,27(12):2410-2418
[4] PHAM N Q, LE H S, NGUYEN D D, et al. A Study of Feature Combination in Gesture Recognition with Kinect[M]. Berlin: Springer, 2015,326:459-471
[5] 易靖國(guó),程江華,庫(kù)錫樹(shù).視覺(jué)手勢(shì)識(shí)別綜述[J].計(jì)算機(jī)科學(xué),2016,43(S1):103-108.
YI J G, CHENG J H, KU X S. Review of Gestures Recognition Based on Vision[J]. Computer Science,2016,43(S1):103-108
[6] LIU Y, YIN Y, ZHANG S. Hand Gesture Recognition Based on HU Moments in Interaction of Virtual Reality[C]∥International Conference on Intelligent Human-Machine Systems and Cybernetics. IEEE, 2012:145-148
[7] 蒲興成,王濤,張毅.基于改進(jìn)Hu矩算法的Kinect手勢(shì)識(shí)別[J]. 計(jì)算機(jī)工程,2016,42(7):165-172
PU X C, WANG T, ZHANG Y. Kinect Gesture Recognition Based on Improved Hu Moment Algorithm[J]. Computer Engineering,2016,42(7):165-172
[8] 隋云衡,郭元術(shù).融合Hu矩與BoF-SURF支持向量機(jī)的手勢(shì)識(shí)別[J].計(jì)算機(jī)應(yīng)用研究,2014,31(03):953-956.
SUI Y H, GUO Y S. Hand Gesture Recognition Based on Combining Hu Moments and BoF-SURF Support Vector Machine[J]. Application Research of Computers,2014,31(3):953-956
[10] 李東潔,李君祥,張?jiān)剑? 基于PSO改進(jìn)的BP神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)手套手勢(shì)識(shí)別[J]. 電機(jī)與控制學(xué)報(bào),2014,18(8):87-93
LI D J, LI J X, ZHANG Y, et al. Gesture Recognition of Data Glove Based on PSO-Improved BP Neural Network[J]. Electric Machines and Control,2014,18(8):87-93.
[11] 楊志奇,孫罡.基于量子粒子群優(yōu)化反向傳播神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別[J]. 計(jì)算機(jī)應(yīng)用,2014,34(S1):137-140.
YANG Z Q, SUN G. Gesture Recognition Based on Quantum-behaved Particle Swarm Optimization of Back Propagation Neural Network[J]. Journal of Computer Applications,2014,34(S1):137-140
[12] ELMEZAIN M, AL-HAMADI A, MICHAELIS B. Real-Time Capable System for Hand Gesture Recognition Using Hidden Markov Models in Stereo Color Image Sequences[J]. WSCG Journal, 2008, 16(1):65-72
[13] 陳啟軍,朱振嬌,顧爽.基于傅立葉描述子和HMM的手勢(shì)識(shí)別[J]. 控制工程,2012,19(4):634-638
CHEN Q J, ZHU Z J, GU S. Hand Gesture Recognition Based on Fourier Descriptor and HMM[J]. Control Engineering of China,2012,19(4):634-638
[14] 蔡芝蔚,吳淑燕,宋俊鋒.基于SVM和組合優(yōu)化模型的手勢(shì)識(shí)別[J]. 系統(tǒng)仿真學(xué)報(bào),2016,28(8):1812-1817
CAI Z W, WU S Y, SONG J F. Study on Hand Gesture Recognition and Portfolio Optimization Model Based on SVM[J]. Journal of System Simulation,2016,28(8):1812-1817
[15] 毛勇華,桂小林,李前,等. 深度學(xué)習(xí)應(yīng)用技術(shù)研究[J].計(jì)算機(jī)應(yīng)用研究,2016,33(11):3201-3205
MAO Y H, GUI X L, LI Q, et al. Study on Application Technology of Deep Learning[J]. Application Research of Computers,2016,33(11):3201-3205
[16] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet Classification with Deep Convolutional Neural Networks[C]∥Advances in Neural Information Processing Systems,2012: 1097-1105
[17] SZEGEDY C, LIU W, JIA Y, et al. Going Deeper with convolutions[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1-9
[18] SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. CoRR, abs/1490.1556, 2014
[19] HE K, ZHANG X, REN S, et al. Deep Residual Learning for Image Recognition[C]∥The IEEE Conference on Computer Vision and Pattern Recognition, 2016:770-778
[20] 任彧,顧成成.基于HOG特征和SVM的手勢(shì)識(shí)別[J].科技通報(bào),2011,27(2):211-214
REN Y, GU C C. Hand Gesture Recognition Based on HOG Characters and SVM[J]. Bulletin of Science and Technology,2011,27(2):211-214
[21] 蔡娟,蔡堅(jiān)勇,廖曉東,等.基于卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別初探[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用,2015,24(4):113-117
CAI J, CAI J Y, LIAO X D, et al. Preliminary Study on Hand Gesture Recognition Based on Convolutional Neural Network[J]. Computer Systems & Applications,2015,24(4):113-117
[22] 王龍,劉輝,王彬,等.結(jié)合膚色模型和卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別方法[J]. 計(jì)算機(jī)工程與應(yīng)用,2017,53(6):209-214
WANG L, LIU H, WANG B, et al.Gesture Recognition Method Combining Skin Color Models and Convolution Neural Network[J]. Computer Engineering and Applications, 2017, 53(6):209-214