亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多域卷積神經(jīng)網(wǎng)絡(luò)跟蹤的動態(tài)手勢識別

        2021-11-29 02:58:24姬曉飛李俊鵬
        關(guān)鍵詞:特征檢測模型

        姬曉飛,張 旭,李俊鵬

        (沈陽航空航天大學(xué) 自動化學(xué)院,沈陽 110136)

        動態(tài)手勢是由一系列連續(xù)手勢動作組成用以表達(dá)信息的一種身體姿態(tài)[1],其在人機交互、自動駕駛、智能教學(xué)儀器等實際場景中都有著廣泛的應(yīng)用前景,因此基于視覺的動態(tài)手勢識別逐漸成為機器視覺領(lǐng)域的研究熱點[2]。因其所表達(dá)的信息豐富,識別難度大,動態(tài)手勢識別仍存在很多難點,其關(guān)鍵技術(shù)仍有很大的研究空間[3]。

        現(xiàn)階段的動態(tài)手勢識別主要由手勢檢測、手勢跟蹤、動態(tài)手勢建模與識別3個關(guān)鍵技術(shù)組成[4]。手勢檢測是對手勢目標(biāo)區(qū)域進(jìn)行定位與分割的技術(shù),現(xiàn)階段的手勢檢測技術(shù)多采用二維平面特征、運動信息以及深度學(xué)習(xí)網(wǎng)絡(luò)3種方式。Hu[5]等人在YCbCr空間中通過預(yù)定義膚色閾值進(jìn)行手勢檢測,并通過Adaboost分類器排除類膚色區(qū)域干擾。文獻(xiàn)[6]中提出一種組合濾波配合自適應(yīng)閾值canny算子邊緣檢測的方法提取手勢邊緣特征來達(dá)到手勢檢測的目的。 這類利用二維平面特征進(jìn)行手勢檢測的方法容易受到相似特征的影響,抗干擾性差。文獻(xiàn)[7]中利用光流法(Optical Flow)對帶有特定顏色手套的手勢進(jìn)行檢測進(jìn)而實現(xiàn)手語識別。該方法可以檢測理想狀態(tài)下獨立運動的手勢,但運算量大、實時性差。而幀間差分法、背景差分法等基于運動信息的方法也分別存在對手勢運動速度依賴性大或要求背景不變的缺點。隨著深度學(xué)習(xí)網(wǎng)絡(luò)的發(fā)展,深度學(xué)習(xí)網(wǎng)絡(luò)在手勢檢測方面的應(yīng)用取得良好的效果。文獻(xiàn)[8]利用YOLO深度學(xué)習(xí)網(wǎng)絡(luò)實現(xiàn)實時手勢檢測功能,進(jìn)而建立一套基于視覺手勢識別的教學(xué)互動演示系統(tǒng)。文獻(xiàn)[9]提出一種通過集成均值漂移跟蹤器改進(jìn)Mask R-CNN的手勢檢測,算法有著更好的分割精度及更高的魯棒性?;谏疃葘W(xué)習(xí)網(wǎng)絡(luò)的手勢檢測算法精度高、實時性好、適用性強。

        手勢跟蹤技術(shù)本質(zhì)上是通過對連續(xù)幀的圖像進(jìn)行分析,在兩幀之間快速計算出跟蹤目標(biāo),這是動態(tài)手勢識別最重要的環(huán)節(jié)。均值漂移(Meanshift)算法[10]是典型基于區(qū)域分析的跟蹤算法,通過核函數(shù)計算偏移進(jìn)行跟蹤。Meanshift算法結(jié)構(gòu)簡單,運行速度快,實時性好,但目標(biāo)大小發(fā)生變化時會發(fā)生跟蹤漂移。連續(xù)自適應(yīng)均值漂移(Camshift)算法[11]是Meanshift算法的改進(jìn),是通過連續(xù)幀迭代Meanshift算法進(jìn)行跟蹤,可在目標(biāo)大小發(fā)生變化時,自適應(yīng)調(diào)整跟蹤窗口大小,但跟蹤窗口在背景復(fù)雜時會發(fā)散,從而導(dǎo)致跟蹤失敗。文獻(xiàn)[12]提出了一種多模型卡爾曼(Kalman)濾波的改進(jìn)型手勢跟蹤算法,其利用多模型描述運動狀態(tài),最終組合濾波器修正后的狀態(tài)估計值得到最優(yōu)狀態(tài)估計。這類稀疏表示結(jié)合濾波器的跟蹤方式計算速度快、解釋性好,但因其細(xì)節(jié)特征缺失導(dǎo)致容易出現(xiàn)目標(biāo)誤匹配?;趥鹘y(tǒng)方式跟蹤方法都存在復(fù)雜環(huán)境下跟蹤精度差的問題,將深度學(xué)習(xí)引進(jìn)跟蹤框架成為當(dāng)前的熱點方式[13],但目前在手勢識別中的應(yīng)用還未見報道。

        動態(tài)手勢建模與識別是利用機器語言實現(xiàn)手勢語義理解,是手勢識別的最終目的。余超等[14]利用haar特征實現(xiàn)手勢分割,TLD算法獲取手勢軌跡,最后使用改進(jìn)的DTW算法識別手勢取得不錯的識別效果。Naguri等[15]提出了一種基于長短期記憶(LSTM)和卷積網(wǎng)絡(luò)(CNN)的動態(tài)手勢識別算法對6種手勢進(jìn)行識別評估,取得97%的識別率。該方法對每幀數(shù)據(jù)采用CNN來提取手勢深層特征,再采用LSTM進(jìn)行動態(tài)手勢的時序建模與識別,計算量大,很難達(dá)到實時處理復(fù)雜環(huán)境的要求。

        復(fù)雜環(huán)境下的動態(tài)手勢識別對于手勢檢測、跟蹤、建模與識別技術(shù)均提出了較高的要求。深度學(xué)習(xí)網(wǎng)絡(luò)的引入,為復(fù)雜環(huán)境的手勢檢測和識別提供了解決方案,但此項研究仍處于起步階段。目前綜合考慮動態(tài)手勢多樣性、多義性以及遮擋問題,提出了一種基于深度學(xué)習(xí)網(wǎng)絡(luò)的手勢檢測、跟蹤和識別框架,即基于多域卷積神經(jīng)網(wǎng)絡(luò)(MDnet)跟蹤框架下的動態(tài)手勢識別算法。該算法采用改進(jìn)的MDnet網(wǎng)絡(luò)作為檢測跟蹤框架,為了增強MDnet網(wǎng)絡(luò)在手勢跟蹤環(huán)節(jié)的適用性,根據(jù)動態(tài)手勢特點改進(jìn)網(wǎng)絡(luò),減少fc6網(wǎng)絡(luò)分支,構(gòu)建單個全域通用fc6層網(wǎng)絡(luò)。利用跟蹤框架獲得手勢坐標(biāo)建立手勢軌跡模型,最后通過VGG-19網(wǎng)絡(luò)實現(xiàn)手勢識別,并在自建的動態(tài)手勢庫進(jìn)行驗證,取得良好的識別效果。系統(tǒng)結(jié)構(gòu)如圖1所示。

        圖1 系統(tǒng)框圖

        1 深度學(xué)習(xí)跟蹤框架

        1.1 MDnet網(wǎng)絡(luò)結(jié)構(gòu)

        MDnet網(wǎng)絡(luò)是由小型卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)視覺目標(biāo)跟蹤的跟蹤框架,其原理是通過區(qū)分目標(biāo)與背景實現(xiàn)跟蹤。網(wǎng)絡(luò)采用3個卷積層(conv1~conv3)、兩個全連接層(fc4~fc5)的五層隱含層結(jié)構(gòu),其中卷積層對應(yīng)VGG-M部分網(wǎng)絡(luò),兩個全連接層的每一分支包含softmax二值分類,用來區(qū)分目標(biāo)和背景。最后的全連接層fc6擁有K個分支,每個分支特定于某個跟蹤域。

        完整的MDnet網(wǎng)絡(luò)分為離線學(xué)習(xí)和在線跟蹤兩個模塊,離線學(xué)習(xí)訓(xùn)練模型的初始參數(shù),在線跟蹤過程實時更新網(wǎng)絡(luò)參數(shù)。

        1.2 離線學(xué)習(xí)

        離線學(xué)習(xí)過程是通過VGG-M模型對數(shù)據(jù)訓(xùn)練得到網(wǎng)絡(luò)中的conv1~conv3層參數(shù)及fc4、fc5層初始參數(shù)的過程。其訓(xùn)練過程如下:

        (1)讀取所有序列要訓(xùn)練的圖片和跟蹤區(qū)域信息;

        (2)確定分支數(shù)K,生成樣本生成器;

        (3)初始化模型,定義損失函數(shù)以及優(yōu)化器;

        (4)訓(xùn)練過程:打亂訓(xùn)練序列的順序,按新順序?qū)π蛄羞M(jìn)行訓(xùn)練。每個分支訓(xùn)練也先打亂圖片序列,樣本生成器每隔8幀周期性地在跟蹤區(qū)域周圍隨機生成32個正樣本和96個負(fù)樣本,將正樣本和負(fù)樣本送入模型得到損失函數(shù),然后進(jìn)行反向傳播來更新每一層的參數(shù)。

        1.3 在線跟蹤

        在線跟蹤與離線學(xué)習(xí)框架不同,其保留離線學(xué)習(xí)的conv1~conv3和fc4~fc5的訓(xùn)練參數(shù),根據(jù)跟蹤對象選擇 fc6層重置參數(shù),并以離線學(xué)習(xí)網(wǎng)絡(luò)的conv3的輸出建立邊框回歸層。具體跟蹤流程如下。

        1.3.1 啟動跟蹤

        重置網(wǎng)絡(luò)fc6層和fc_bbox層參數(shù)完成網(wǎng)絡(luò)初始化,并在跟蹤首幀上標(biāo)注跟蹤區(qū)域,確認(rèn)跟蹤目標(biāo)。

        1.3.2 啟動跟蹤

        由于跟蹤環(huán)節(jié)采用正樣本增強策略導(dǎo)致預(yù)測框無法緊密包圍真實跟蹤區(qū)域,所以需要采用邊界回歸模型調(diào)整預(yù)測區(qū)域。

        邊框回歸并非用于得到目標(biāo)邊框的實際數(shù)值,而是利用參數(shù)計算來調(diào)整跟蹤網(wǎng)絡(luò)得到的目標(biāo)邊框,使其更接近真實的目標(biāo)邊框。MDnet網(wǎng)絡(luò)通過對網(wǎng)絡(luò)中最后1個卷積層的輸出特征值進(jìn)行線性回歸計算fc_bbox參數(shù)。

        1.3.3 首幀訓(xùn)練

        根據(jù)1.3.1中的真實跟蹤區(qū)域的位置,利用隨機高斯分布建立的500例正樣本及均勻隨機建立的5000例負(fù)樣本完成fc4~fc6層參數(shù)更新。

        1.3.4 實時跟蹤

        以隨機高斯分布方式在上一幀跟蹤區(qū)域周圍生成255個候選區(qū)域并計算相似度,通過最大相似度給出最佳跟蹤區(qū)域。

        1.4 更新策略

        在線更新采用長周期更新和短期更新兩種策略更新fc4~fc6參數(shù)。長周期利用最近100幀收集到的正樣本數(shù)據(jù),每10幀周期性更新一次;而短周期更新則是在跟蹤失效時利用最近20幀收集到的正樣本數(shù)據(jù)進(jìn)行更新。

        1.5 網(wǎng)絡(luò)改進(jìn)

        原始MDnet網(wǎng)絡(luò)用于輸出的全連接層fc6為每個跟蹤序列所獨有,K個訓(xùn)練視頻對應(yīng)K個fc6,跟蹤時根據(jù)跟蹤序列再啟用對應(yīng)的fc6層。這種方式針對多類別跟蹤十分有效,但手勢跟蹤可以看作同類別的跟蹤,每個手勢序列的特征具有通用性,所以本文簡化fc6結(jié)構(gòu),將fc6還原成1×1×1×2結(jié)構(gòu),設(shè)置成統(tǒng)一的全連接層,建立全域通用fc6層。全域通用fc6由所有視頻序列通用,簡化其原始網(wǎng)絡(luò)中每個序列分別訓(xùn)練后再分別啟用的步驟,可以更好地學(xué)習(xí)每個跟蹤序列的通用特征。其改進(jìn)的網(wǎng)絡(luò)模型如圖2所示。

        圖2 網(wǎng)絡(luò)結(jié)構(gòu)圖

        2 動態(tài)手勢建模與識別

        2.1 動態(tài)手勢建模

        動態(tài)手勢蘊含豐富信息的同時,也為手勢建模帶來了難度,采用傳統(tǒng)的特征提取方式會導(dǎo)致特征維數(shù)大,信息冗余嚴(yán)重。針對這一問題,本文利用手勢中心坐標(biāo)建立動態(tài)手勢模型,并將其可視化成軌跡特征圖譜,可以極大地減少數(shù)據(jù)維數(shù),更加方便機器學(xué)習(xí)、理解。

        特征圖譜的構(gòu)建過程:先建立與手勢集同等大小的640*480規(guī)格的空白圖像,然后將手勢位置點按照跟蹤框架獲得的手勢區(qū)域中心坐標(biāo)映射到特征圖譜中,并將映射點周圍4*4范圍內(nèi)的像素點進(jìn)行渲染,將多幀手勢映射點連接成手勢軌跡線。這樣既能體現(xiàn)手勢運行軌跡,又可以降低部分遺漏跟蹤手勢點的影響。為了適應(yīng)后續(xù)網(wǎng)絡(luò)的識別,再利用雙三次插值法,以矩形網(wǎng)格中4*4像素鄰域加權(quán)平均的原理將圖片縮放到224*224規(guī)格,其最終的手勢軌跡特征圖譜如圖3所示。

        圖3 手勢軌跡特征圖譜樣例

        2.2 動態(tài)手勢識別

        VGG-19網(wǎng)絡(luò)[16]是2014年由Oxford Visual Geometry Group提出的小卷積核深度學(xué)習(xí)網(wǎng)絡(luò),該網(wǎng)絡(luò)采用多層非線性堆積的小卷積核,增加網(wǎng)絡(luò)深度的同時減少網(wǎng)絡(luò)參數(shù)。因其網(wǎng)絡(luò)更深、特征圖更寬,以及網(wǎng)絡(luò)測試階段重用訓(xùn)練時的參數(shù),使測試得到的全卷積網(wǎng)絡(luò)沒有全連接的限制等優(yōu)點,在圖像分類領(lǐng)域有著良好的識別效果。所以本文采用VGG-19作為最終的動態(tài)手勢識別網(wǎng)絡(luò)。

        3 實驗測試與分析

        3.1 數(shù)據(jù)集介紹

        本文共用到兩組數(shù)據(jù)庫對手勢跟蹤識別進(jìn)行測試。其中自制數(shù)據(jù)集采用OTB數(shù)據(jù)集數(shù)據(jù)結(jié)構(gòu),每組數(shù)據(jù)包括手勢圖像數(shù)據(jù)和手勢區(qū)域坐標(biāo)信息。為了保證數(shù)據(jù)集的多樣性,數(shù)據(jù)集由8人手持握拳姿勢分別在不同的背景、不同的光照下執(zhí)行手勢橫向移動、縱向移動、圓形軌跡移動、三角形軌跡移動采集視頻制作而成,數(shù)據(jù)集例圖如圖4所示。數(shù)據(jù)庫分辨率為640*480,并手動標(biāo)注跟蹤區(qū)域,主要用來測試系統(tǒng)的跟蹤效果。第二組數(shù)據(jù)庫來源于國際公開標(biāo)準(zhǔn)手勢庫Chalearn gesture data(CGD),CGD數(shù)據(jù)集例圖如圖5所示。CGD手勢庫是ChaLearn Gesture Challenge挑戰(zhàn)賽中提供的手勢數(shù)據(jù)庫,數(shù)據(jù)庫提供手部以及手臂的RGB-D動作序列,本文從CGD數(shù)據(jù)庫中挑選5類手臂式RGB動態(tài)手勢進(jìn)行識別,主要用來測試動態(tài)手勢識別效果。

        圖4 自制數(shù)據(jù)集例圖

        圖5 CGD數(shù)據(jù)集例圖

        3.2 跟蹤框架測試

        測試目的是為了驗證跟蹤網(wǎng)絡(luò)的跟蹤效果和跟蹤速度,所以測試階段通過跟蹤重疊分?jǐn)?shù)(meanIOU)和跟蹤速度兩項用來判定跟蹤效果。其中meanIOU是跟蹤預(yù)測區(qū)域與目標(biāo)真實區(qū)域的比值。

        (1)

        跟蹤框架在表1所示的測試環(huán)境下對自建手勢庫進(jìn)行測試,整個測試的數(shù)據(jù)量為80組。通過訓(xùn)練好的MDnet網(wǎng)絡(luò)對手勢庫進(jìn)行跟蹤測試,通過測試可得:平均meanIOU分?jǐn)?shù)可達(dá)80%,平均跟蹤速度為0.3 s/幀,其跟蹤效果如圖 6所示。圖6中淺色框表示手勢真實區(qū)域,深色框為跟蹤預(yù)測區(qū)域。

        表1 系統(tǒng)測試環(huán)境

        圖6 跟蹤效果圖

        通過實際測試,文中所采用的跟蹤框架跟蹤效果良好,可以滿足動態(tài)手勢識別的要求。

        3.3 動態(tài)手勢識別測試

        為了測試動態(tài)手勢識別最終效果,將兩組數(shù)據(jù)庫的手勢模型分別輸入到VGG-19網(wǎng)絡(luò)進(jìn)行訓(xùn)練識別。其中自建手勢庫10組作為訓(xùn)練數(shù)據(jù),10組作為測試數(shù)據(jù)。自建手勢庫得到的識別結(jié)果如圖7所示。CGD手勢庫14組作為訓(xùn)練數(shù)據(jù),6組作為測試數(shù)據(jù),其識別結(jié)果如圖8所示。

        自建的手勢庫因數(shù)據(jù)集量級小,特征圖譜簡潔明了,所以識別模型收斂較快,模型經(jīng)過80次迭代就已經(jīng)收斂,識別率趨近穩(wěn)定,最終的識別率為97.5%。CGD數(shù)據(jù)庫手勢較為復(fù)雜,模型最終的識別率為93.33%。

        圖7 自建手勢庫識別結(jié)果圖

        圖8 CGD數(shù)據(jù)庫識別結(jié)果圖

        3.4 實驗結(jié)果對比

        本文實驗結(jié)果與其他方法在SGD數(shù)據(jù)庫進(jìn)行實驗的結(jié)果對比如表2所示。

        表2 實驗結(jié)果對比

        如表2所示,表中所提及的前兩種方案來自于ChaLearn競賽結(jié)果分析報告[18]中第二輪競賽的前兩名。兩種方案都采用傳統(tǒng)方法與深度學(xué)習(xí)相結(jié)合的策略對手勢進(jìn)行RGB視頻和深度視頻綜合分析再識別,其識別的準(zhǔn)確率不高。文獻(xiàn)[17]采用骨架3D模型對深度視頻建立手勢全局軌跡模型,再利用SIFT特征完成RGB視頻的局部特征建模。綜合考慮全局特征與局部特征完成手勢識別,模型的識別效果良好,但該模型結(jié)構(gòu)復(fù)雜,需要利用深度視頻建立時序關(guān)系,手勢特征模型構(gòu)建繁瑣。

        4 結(jié)論

        本文針對現(xiàn)階段動態(tài)手勢識別算法存在的問題,提出基于多域卷積神經(jīng)網(wǎng)絡(luò)跟蹤框架下的動態(tài)手勢識別算法。該算法采用多域卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)跟蹤目標(biāo)共性,能更好地給出跟蹤目標(biāo)模型,且利用淺層卷積神經(jīng)網(wǎng)絡(luò)能更強化空間信息,從而提高動態(tài)手勢跟蹤和識別效果。經(jīng)過兩組數(shù)據(jù)庫的測試結(jié)果表明該算法對動態(tài)手勢識別有著較高的準(zhǔn)確率。

        猜你喜歡
        特征檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        人妻少妇中文字幕久久| 亚洲精品亚洲人成在线下载| 制服无码在线第一页| 亚洲精品国产av成拍| 亚洲av高清在线观看一区二区| 色婷婷久久综合中文久久蜜桃av | 欧美成人久久久免费播放| 亚洲av黄片一区二区| 国内嫩模自拍诱惑免费视频| 凹凸在线无码免费视频| 欧美aⅴ在线| 61精品人妻一区二区三区蜜桃| 在线a亚洲视频播放在线播放| 亚洲精品美女久久久久久久| 免费成人毛片| 丝袜美腿av免费在线观看| 亚洲av不卡一区男人天堂| 亚洲 另类 日韩 制服 无码| 国产爆乳乱码女大生Av| 日本一区二区高清在线观看| 久久无码高潮喷水抽搐| 一二三四在线观看免费视频| 亚洲VA欧美VA国产VA综合 | 国产又爽又粗又猛的视频| 久久精品国产免费观看99| 国产人妖直男在线视频| 热99re久久精品这里都是精品免费 | 久久久久无码国产精品不卡| 国产一级做a爱视频在线| 亚洲中文字幕久久精品色老板| 国产又a又黄又潮娇喘视频| 免费毛片视频网站| 日本av第一区第二区| 亚洲色精品三区二区一区 | 日本免费精品免费视频| 国产v片在线播放免费无码| 亚洲人成无码网站久久99热国产| 国内自拍视频在线观看| 久久精品国产亚洲av麻豆会员| 男女下面进入的视频| 爆乳无码AV国内|