亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)網(wǎng)絡(luò)的舞蹈動(dòng)作識(shí)別方法研究

        2021-06-11 03:53:32閆琳
        電子設(shè)計(jì)工程 2021年11期
        關(guān)鍵詞:深度動(dòng)作

        閆琳

        (西安航空職業(yè)技術(shù)學(xué)院,陜西西安 710089)

        近年來,對于視頻技術(shù)的研究成為學(xué)術(shù)界研究的熱點(diǎn)之一。在眾多視頻技術(shù)中,視頻動(dòng)作識(shí)別對于視頻智能化應(yīng)用有著重要意義,其在較多領(lǐng)域均有著廣泛的應(yīng)用[1-5]。

        對于視頻信息的提取通常依靠兩個(gè)步驟,首先提取視頻中的相關(guān)視覺特征;然后對提取的特征進(jìn)行學(xué)習(xí),生成相應(yīng)的描述標(biāo)簽。在該技術(shù)中,最重要的是有效提取特征,深度學(xué)習(xí)算法是當(dāng)前提取視頻特征最為高效的方法之一。但傳統(tǒng)上基于該方式的提取方法更注重視頻上空間域,即視頻幀中像素信息的提取,卻忽略了視頻動(dòng)作在時(shí)間域上動(dòng)作狀態(tài)的變化。以人類的認(rèn)知為例,物體的動(dòng)作是不斷變化的,人除了依靠動(dòng)作靜止時(shí)的畫面判斷動(dòng)作的類別,還需關(guān)注動(dòng)作從開始到結(jié)束變化的全過程。深度學(xué)習(xí)作為人工智能技術(shù)中的重要算法之一,其提取特質(zhì)的方式與人類幾乎一致。因此,文中重點(diǎn)介紹了視頻中時(shí)域特征的提取方法[6-10]。

        1 理論基礎(chǔ)

        1.1 深度學(xué)習(xí)算法

        卷積神經(jīng)網(wǎng)絡(luò)是圖像處理領(lǐng)域中最常用的深度學(xué)習(xí)網(wǎng)絡(luò)。該網(wǎng)絡(luò)的結(jié)構(gòu)如圖1 所示,主要包括了卷積、池化和全連接運(yùn)算[11]。

        圖1 卷積神經(jīng)網(wǎng)絡(luò)

        1.1.1 卷積層

        卷積是一種常見的信息處理領(lǐng)域的數(shù)學(xué)運(yùn)算,離散域上的卷積運(yùn)算方法,如式(1)所示。

        在離散域上的卷積運(yùn)算需要合理的選擇卷積核,卷積核通常是一個(gè)n2的矩陣。卷積運(yùn)算的示意圖如圖2 所示。

        圖2 卷積運(yùn)算示意

        在圖2 中,W是使用的卷積核,使用的是3×3 的維度。卷積核可對特征的模式進(jìn)行強(qiáng)化或隱藏,靈活地進(jìn)行圖像特征的提取。

        1.1.2 池化層

        池化層是指在卷積獲得的特征中,選擇某一局部區(qū)域替代完整區(qū)域,池化實(shí)現(xiàn)了特征的過濾與選擇。常用的池化運(yùn)算包括最大值池化與均值池化。其中,均值池化的運(yùn)算方法如圖3 所示[12]。

        圖3 均值池化運(yùn)算示意圖

        對于卷積神經(jīng)網(wǎng)絡(luò),池化層的引入實(shí)現(xiàn)了圖像信息的降采樣,可以有效地簡化網(wǎng)絡(luò)結(jié)構(gòu),防止出現(xiàn)過擬合。

        1.1.3 全連接層

        卷積神經(jīng)網(wǎng)絡(luò)的最末端是全連接層,全連接層對前一層的特征進(jìn)行綜合即可得到網(wǎng)絡(luò)的分類器。其連接示意圖如圖4 所示。

        圖4 全連接層示意圖

        全連接層的運(yùn)算方式與傳統(tǒng)單隱藏層的神經(jīng)網(wǎng)絡(luò)類似,通過連接權(quán)重與偏置連接輸入層到隱藏層,以及隱藏層到輸出層。其計(jì)算方式如式(2)所示。

        1.1.4 輸出層

        輸出層借助非線性函數(shù)將全連接層的輸出轉(zhuǎn)化為深度網(wǎng)絡(luò)的最終輸出,對于二分類問題通常選擇Logistic 函數(shù)。文中選擇的是Softmax 交叉熵函數(shù),其形式如式(3)所示。

        其中,c代表分類的類別,當(dāng)輸出結(jié)果與實(shí)際的類別一致時(shí),yc=1。

        1.2 基于時(shí)空域的雙卷積神經(jīng)網(wǎng)絡(luò)

        空間域中的特征提取方法與圖像信息的提取方法一致,文中在時(shí)間域上的特征借助光流(Optical Flow)進(jìn)行標(biāo)識(shí)。循環(huán)神經(jīng)網(wǎng)絡(luò)如圖5 所示,光流反映了空間內(nèi)物體運(yùn)動(dòng)狀態(tài)改變后像素的變化軌跡,在運(yùn)動(dòng)檢測中有廣泛的應(yīng)用。其獲取方法如下:

        圖5 循環(huán)神經(jīng)網(wǎng)絡(luò)

        在時(shí)間t下對于空間坐標(biāo)位置點(diǎn)O(x,y),該點(diǎn)像素亮度為I(x,y,t)。在dt時(shí)間內(nèi),下一幀內(nèi)該點(diǎn)移動(dòng)到新的位置(x+dx,y+dy)。此時(shí),由于時(shí)間極短,該點(diǎn)的光亮度存在式(4)中的關(guān)系[13-15]。

        其泰勒展開式如式(5)所示。

        此時(shí),可以得到該點(diǎn)的光流等式,如式(6)所示。

        在式(7)中,Vx與Vy是光流矢量。從該微分方程中,求解光流矢量需要引入金字塔(LK)算法。

        對于3×3 大小的像素區(qū)域,共包含9 個(gè)光流軌跡,用矩陣的形式可以表示為式(7)。

        其中的變量如式(8)所示。

        利用式(9)可以求解得式(10)。

        2 方法實(shí)現(xiàn)

        2.1 實(shí)驗(yàn)設(shè)計(jì)

        為了評(píng)估模型的有效性,文中在舞蹈視頻動(dòng)作數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。該數(shù)據(jù)集的參數(shù),如表1 所示。在該數(shù)據(jù)集內(nèi),存在101 個(gè)類別的舞蹈動(dòng)作,視頻的幀數(shù)均是25 fps,分辨率均為320×240,視頻的時(shí)間長度在2.31~67.24 s 之間。部分視頻幀如圖6所示。

        表1 數(shù)據(jù)集參數(shù)

        圖6 舞蹈動(dòng)作視頻數(shù)據(jù)集

        為了衡量模型對于舞蹈動(dòng)作的識(shí)別精度,文中使用深度學(xué)習(xí)中常用的評(píng)價(jià)指標(biāo)F1 與MSE。這兩個(gè)指標(biāo)的定義方式如式(11)~(12)所示。

        2.2 仿真結(jié)果

        為了更優(yōu)地衡量文中模型對于視頻中舞蹈動(dòng)作的識(shí)別效果,文中引入了兩個(gè)已在工業(yè)上廣泛使用的深度卷積網(wǎng)絡(luò):Inception V3 與3D-CNN 網(wǎng)絡(luò)。其各自的網(wǎng)絡(luò)參數(shù)設(shè)置,分別如表3、表4 所示。

        表3 Inception V3參數(shù)設(shè)置

        表4 3D-CNN 網(wǎng)絡(luò)參數(shù)設(shè)置

        表5 給出了文中雙路卷積網(wǎng)絡(luò)的參數(shù)設(shè)置,其采用兩個(gè)相同的卷積結(jié)構(gòu)。經(jīng)過表3~5 的比對可以發(fā)現(xiàn),3 個(gè)網(wǎng)絡(luò)的復(fù)雜度基本一致。將表1 給出的視頻數(shù)據(jù)庫按照7∶3 的比例劃分為訓(xùn)練集與測試集。3 個(gè)網(wǎng)絡(luò)訓(xùn)練完成后,使用測試集進(jìn)行測試。測試結(jié)果如表6 所示。

        表5 雙路卷積網(wǎng)絡(luò)參數(shù)設(shè)置

        從表6 的測試結(jié)果可以看出,在3 個(gè)網(wǎng)絡(luò)中,網(wǎng)絡(luò)F1 指標(biāo)最差的是Inception V3 的69.32%,居中的是3D-CNN 網(wǎng)絡(luò),最優(yōu)的是雙路卷積網(wǎng)絡(luò),其較Inception V3 的F1 提升了10.90%。MSE與F1 是兩個(gè)相互負(fù)相關(guān)的指標(biāo),表6 的第3 列數(shù)據(jù)較優(yōu)地驗(yàn)證了這一數(shù)據(jù)趨勢,證明了測試結(jié)果的有效性。從表6中第4 列對于舞蹈動(dòng)作識(shí)別的準(zhǔn)確率來看,文中提出的雙路CNN 算法由于引入了手工提取的時(shí)域光流信息,對于Inception V3 與3D-CNN 網(wǎng)絡(luò)分別有10.85%與5.27%的提升。

        表6 3個(gè)網(wǎng)絡(luò)性能對比

        3 結(jié)束語

        文中對視頻動(dòng)作的識(shí)別方法進(jìn)行了研究,通過對傳統(tǒng)的深度卷積網(wǎng)絡(luò)的調(diào)研發(fā)現(xiàn),這些深度網(wǎng)絡(luò)提取的特征更多是空間維度的信息,缺乏時(shí)域信息的提取,影響了動(dòng)作識(shí)別的精度。文中使用光流信息表征時(shí)域動(dòng)作的狀態(tài)變化,構(gòu)建了雙路卷積網(wǎng)絡(luò),大幅度提升了舞蹈動(dòng)作的識(shí)別精度。在后續(xù)的研究中,可以繼續(xù)優(yōu)化時(shí)域卷積網(wǎng)絡(luò)的結(jié)構(gòu),提升算法的性能。

        猜你喜歡
        深度動(dòng)作
        下一個(gè)動(dòng)作
        深度理解一元一次方程
        深度觀察
        深度觀察
        深度觀察
        深度觀察
        動(dòng)作描寫要具體
        畫動(dòng)作
        讓動(dòng)作“活”起來
        動(dòng)作描寫不可少
        日本午夜精品一区二区三区| 热99re久久精品这里都是免费| 久久国产亚洲精品超碰热| 中文字幕日本一区二区在线观看| 中文字幕乱码亚洲三区| 国产福利永久在线视频无毒不卡| 无码人妻精品一区二区三区免费 | 久久久亚洲精品免费视频| 国产美女高潮流白浆视频| 熟妇人妻无乱码中文字幕真矢织江| 欧美亚洲日本国产综合在线| 亚洲—本道中文字幕久久66| 蜜桃视频一区二区三区| 日本边添边摸边做边爱| 永久免费观看国产裸体美女 | 免费国产线观看免费观看| 亚洲乱码中文字幕综合| 亚洲AV成人无码久久精品四虎 | 大香蕉视频在线青青草| 少妇被又大又粗又爽毛片久久黑人| 成人性做爰aaa片免费看| 中出高潮了中文字幕| 日韩激情视频一区在线观看| 五月综合激情婷婷六月| 日产精品久久久久久久蜜臀| 亚洲 国产 韩国 欧美 在线 | 肥老熟女性强欲五十路| 欧美寡妇xxxx黑人猛交| 日韩AV无码一区二区三区不卡毛片| 国内专区一区二区三区| 亚洲一区二区三区中国| 激情综合色五月丁香六月亚洲| 国内视频偷拍一区,二区,三区| 色婷婷av一区二区三区丝袜美腿| 伊人久久大香线蕉av色| 秒播无码国产在线观看| 少妇裸淫交视频免费看| 久久无码潮喷a片无码高潮| 久久人人爽天天玩人人妻精品| 爆乳午夜福利视频精品| 99国产精品久久一区二区三区|