亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)多特征融合的手勢分割識別算法

        2022-05-18 03:16:12張曉俊李長勇
        關(guān)鍵詞:特征提取背景融合

        張曉俊,李長勇

        (新疆大學(xué) 機(jī)械工程學(xué)院,新疆 烏魯木齊 830047)

        隨著科技水平的提高,機(jī)器視覺的手勢識別已成為自然交互的一個重點(diǎn)研究方向,并且在意圖感知、輔助駕駛、輔助教學(xué)、醫(yī)學(xué)、人機(jī)交互、電子游戲等領(lǐng)域應(yīng)用廣泛[1-3]。手勢檢測主要分為手勢分割和識別2個部分,手勢分割的精度影響手勢識別的準(zhǔn)確度。目前手勢識別研究中常用的手勢分割方法是利用YCbCr模型[4-5]和高斯模型[6-7]等進(jìn)行手勢的分割和檢測,但是YCbCr模型在實際應(yīng)用中容易受背景類膚色的物體影響,高斯模型也容易受環(huán)境變化和個體差異的影響。在深度學(xué)習(xí)方法方面,睢丙東等[8]改進(jìn)YOLOv3網(wǎng)絡(luò),提升了手勢檢測精度,5種手勢的平均識別精度為90.38%。謝錚桂[9]和蔡娟等[10]將采集到的多種手勢圖像數(shù)據(jù)集預(yù)處理后送入卷積神經(jīng)網(wǎng)絡(luò)中訓(xùn)練,實驗結(jié)果顯示識別精度均為96%。Flores等[11]對手勢圖像進(jìn)行預(yù)處理后運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練,簡化訓(xùn)練模型,手勢識別精度高達(dá)96%。上述方法雖然在手勢識別領(lǐng)域的研究中取得一定成果,可以識別出簡單的手勢,但實際環(huán)境中手勢分割容易受到背景中類膚色物體或個體差異的影響,且沒有考慮手勢識別的實用性。在實際交互過程中每種手勢有不同的姿態(tài)角度,但上述方法均未考慮手勢不同姿態(tài),導(dǎo)致識別精度較低,具有一定的局限性。

        針對上述問題,本文中提出基于深度學(xué)習(xí)多特征融合的手勢分割識別算法(簡稱本文算法),針對個體差異、手勢大小、手勢角度、背景類膚色物體等的影響導(dǎo)致對手勢分割純度低的問題,提出一種融合膚色聚類特征自適應(yīng)方法,對手勢進(jìn)行分割;采用最新的YOLOv4網(wǎng)絡(luò)模型對其處理后的多種手勢特征圖像進(jìn)行特征提取和訓(xùn)練,實驗驗證其識別效率和魯棒性。

        1 手勢圖像分割

        在人機(jī)自然交互過程中,背景對手勢識別的影響較大,在手勢圖像背景中存在類膚色物體或手勢角度的不同都會對手勢識別精度有一定影響。手勢圖像采集包含膚色背景手勢圖像、相同手勢不同姿態(tài)角度的圖像以及簡單不包含膚色背景的手勢圖像。本文中主要研究含有膚色背景和不同角度的手勢識別,如圖1所示。

        1.1 HSV顏色空間和橢圓膚色分割方法

        HSV顏色空間在目標(biāo)檢測方面運(yùn)用廣泛,可以彌補(bǔ)復(fù)雜環(huán)境下對物體特征的識別度[12-13]。雖然HSV顏色空間[12]中色調(diào)分量的膚色聚類特性較好,在復(fù)雜的環(huán)境下可以對膚色的提取提供更可靠的信息,YCbCr顏色空間[14]中藍(lán)色色度Cb、紅色色度Cr分量也在膚色方面具有較完整的聚類效果;但是,在單一的HSV顏色空間或YCbCr顏色空間對膚色進(jìn)行分割時容易受到背景膚色物體、亮度、手勢角度變化等因素的影響,因此本文中提出一種融合膚色模型結(jié)合最大類間方差的自適應(yīng)提取方法,彌補(bǔ)手勢分割時由背景膚色物體和手勢角度變化導(dǎo)致手勢提取純度較低的不足。

        運(yùn)用HSV顏色空間和橢圓膚色模型在不同膚色背景、不同角度手勢圖像中提取手勢,結(jié)果如圖2所示。

        由實驗結(jié)果可以看出,在對手勢不同角度分割過程中手勢會有部分缺失,背景中的膚色物體會同時被提取出來。在HSV顏色空間分割的結(jié)果中,圖2(a)背景右上方較多的膚色物體被提取出來,但手部指尖部分有一定的缺失,圖2(b)中的手勢分割較為完整,但存在大量的膚色背景。運(yùn)用橢圓膚色模型分割的結(jié)果,圖2(c)中手勢較為完整,然而背景的膚色沒有完全過濾,并且手勢角度的變化導(dǎo)致手勢部位的一些區(qū)域被作為背景,圖2(d)中手勢部分缺失較多。

        1.2 融合膚色的手勢分割方法

        HSV顏色空間和橢圓膚色模型基本可以分割出手勢區(qū)域,但是背景中存在膚色物體和手勢角度變化時都會影響手勢的分割。HSV顏色空間對手勢進(jìn)行分割時主要是依據(jù)色度分量單一通道進(jìn)行前景與背景的分割,信息較為單一,導(dǎo)致提取手勢過程受環(huán)境因素影響嚴(yán)重。為了更完整地分割手勢,克服背景膚色和手勢角度變換對手勢特征提取的影響,本文中基于HSV顏色空間和橢圓膚色模型,對模型進(jìn)行融合變換,利用更多的手勢膚色信息結(jié)合最大類間方差法,形成一種融合膚色的手勢分割方法,有效去除背景膚色,解決手勢角度變化導(dǎo)致手勢提取不完整的問題,以便更準(zhǔn)確地分割手勢。圖3所示為融合膚色的手勢分割模型示意圖。

        圖3 融合膚色的手勢分割模型示意圖

        根據(jù)數(shù)據(jù)統(tǒng)計,HSV、YCbCr顏色空間在色調(diào)、藍(lán)色色度和紅色色度3個分量上的膚色聚類較好。攝像頭采集到的手勢圖像為RGB圖像,然后從RGB圖像中獲取上述膚色聚類較好的3個分量的信息。從RGB圖像中獲取色調(diào)的數(shù)值,即

        V=max{R,G,B},

        (1)

        式中V為RGB顏色空間中R、G、B分量中較大的一個分量。

        根據(jù)以下判斷,獲取色度H分量的值:

        如果

        V=max{R,G,B},

        (2)

        那么H=0;

        如果

        R=max{R,G,B},

        (3)

        那么

        (4)

        如果

        G=max{R,G,B},

        (5)

        那么

        (6)

        如果

        B=max{R,G,B},

        (7)

        那么

        (8)

        計算YCbCr顏色空間中的藍(lán)色色度Cb分量和紅色色度Cr分量的數(shù)值。為了方便后續(xù)計算,引入中間變量Q,即

        Q=B-(0.229R+0.587G+0.114B),

        (9)

        將Q的數(shù)值代入公式,分別得到Cb分量和Cr分量,即

        Cb=0.564Q+128,

        (10)

        Cr=0.713Q+128。

        (11)

        得到色調(diào)H、藍(lán)色色度Cb和紅色色度Cr分量后,根據(jù)3個分量信息遍歷圖像所有像素點(diǎn),判斷其與膚色范圍,結(jié)合最大類間方差法,得到最優(yōu)分割閾值,輸出手勢圖像。

        計算圖像的平均灰度

        u=a0x0+a1x1,

        (12)

        式中:a0為前景像素點(diǎn)數(shù)所占比例;x0為前景像素點(diǎn)平均值;a1為背景像素點(diǎn)數(shù)所占比例;x1為背景像素點(diǎn)平均值。

        遍歷灰度級需要用方差T來判斷前景和背景最優(yōu)的閾值,即

        T=a0a1(x0-x1)2。

        (13)

        綜合上述多分量信息融合的方法進(jìn)行膚色分割,結(jié)果如圖4所示。由圖可以看出,融合膚色的手勢分割方法可以較好地過濾掉膚色背景,同時在手勢角度變化時也可以較好地保留手勢部分,能夠保留完整的手勢信息。

        綜上所述,融合膚色的手勢分割方法可以在膚色背景下和手勢角度變化時有效地分割出手勢,優(yōu)于單一的橢圓膚色模型和HSV顏色空間。

        1.3 融合膚色的手勢分割識別流程

        由于單一的手勢分割模型不能很好地克服膚色背景的影響,在手勢特征提取過程中還會受到手勢角度變化的影響,因此本文中運(yùn)用融合膚色的手勢分割方法提取手勢圖像中的手勢特征,減小背景膚色和手勢角度變化對特征提取的影響,提高手勢提取的純度,引入神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,可以進(jìn)一步提升手勢識別精度。手勢分割識別流程如圖5所示。

        圖5 手勢分割識別流程圖

        2 基于深度學(xué)習(xí)的手勢識別

        Redmon等[15]提出一種基于回歸方法的YOLO識別算法,此后,經(jīng)過改進(jìn)的新的YOLOv4算法[16-17]依靠更深層次的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,全連接層進(jìn)行分類和預(yù)測,檢測精度顯著提升。該算法采用空間金字塔池化(SPP)模塊以及路徑聚合網(wǎng)絡(luò)PANet來增加訓(xùn)練中的感受區(qū)。為了使分類檢測結(jié)果更加精確,采用學(xué)習(xí)率余弦退火衰減等方法優(yōu)化網(wǎng)絡(luò)[16-17]。深度學(xué)習(xí)YOLOv4算法網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

        圖6 深度學(xué)習(xí)YOLOv4算法網(wǎng)絡(luò)結(jié)構(gòu)圖

        為了避免在數(shù)據(jù)集訓(xùn)練過程中梯度彌散,其YOLOv4網(wǎng)絡(luò)中的Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)將神經(jīng)網(wǎng)絡(luò)分為多個連續(xù)的節(jié),每個節(jié)的網(wǎng)絡(luò)通過殘差方式訓(xùn)練,使整體損失率達(dá)到最小。在手勢識別過程中,通過融合膚色的分割方法將特征圖像提取出來,輸入神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,以減少原圖訓(xùn)練的復(fù)雜程度,提高訓(xùn)練效率。Darknet-53網(wǎng)絡(luò)提取手勢特征圖像,在手勢特征細(xì)粒度的表征能力方面優(yōu)于一般的方向梯度直方圖(HOG)、幾何等特征提取方法。YOLOv4網(wǎng)絡(luò)的預(yù)測層分為3個尺度(52×52、26×26和13×13)對手勢進(jìn)行預(yù)測,3個尺度的綜合預(yù)測增強(qiáng)了手勢檢測精度,同時網(wǎng)絡(luò)中的融合輸入(Concat)層連接提升了收斂性。

        3 實驗結(jié)果與分析

        驗證實驗中電腦配置如下:Intel i5-8500處理器,主頻為 3.0 GHz,運(yùn)行內(nèi)存為12 GB,GTX1080Ti顯卡。軟件在Windows 10環(huán)境下運(yùn)行。

        為了驗證手勢識別方法可靠性,在有膚色的復(fù)雜背景下采集多種手勢圖像,且對每種手勢的不同角度進(jìn)行采集,建立手勢數(shù)據(jù)集,其中采集的自定義手勢有10種,共有3 000個手勢圖像樣本。

        由于手勢特征提取過程受環(huán)境和角度的影響較為嚴(yán)重,因此運(yùn)用融合膚色的方法進(jìn)行手勢圖像特征提取,可以有效避免手勢圖像中背景膚色物體影響,且能保證手勢輪廓提取的光滑度,從而提高手勢特征圖的純度,減少因背景膚色及手勢角度變化引起的手勢識別不準(zhǔn)確的問題。此外,將處理得到的手勢特征圖輸入深度學(xué)習(xí)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,既可以提高訓(xùn)練效率,又可以減小原始圖像數(shù)據(jù)集的訓(xùn)練規(guī)模。

        采用融合膚色方法處理后的手勢特征圖像直接進(jìn)行訓(xùn)練,并且運(yùn)用數(shù)據(jù)增強(qiáng)的方法將數(shù)據(jù)集圖像樣本個數(shù)增加到6 000,訓(xùn)練次數(shù)為10 000。訓(xùn)練過程中迭代次數(shù)與損失函數(shù)關(guān)系如圖7所示。由圖可以看出,訓(xùn)練次數(shù)在8 000以后損失率基本達(dá)到收斂,通過對手勢識別模型的驗證,手勢識別精度達(dá)到99%,平均識別精度為98.8%。

        圖7 手勢模型損失率曲線

        為了進(jìn)一步驗證本文算法的性能,分別采用單目標(biāo)多盒檢測(single shot multibox dectort,SSD)模型[18]、YOLOv3算法[19]進(jìn)行手勢識別對比,結(jié)果如表1所示。從表中可知,不同算法對手勢識別的效果差異較大,基于深度學(xué)習(xí)SSD模型的平均識別率為82.6%,且在識別的時效性表現(xiàn)方面較差。YOLOv3算法的識別精度較高,但是手勢特征提取不夠充分,在識別速度和精度上都與本文算法存在一定差距。本文算法通過對手勢圖像進(jìn)行預(yù)處理得到手勢特征圖像作為網(wǎng)絡(luò)的輸入樣本,不僅提高了特征圖像提取的純度,而且減少了手勢周圍噪聲的影響,減小了訓(xùn)練規(guī)模,縮短了訓(xùn)練時間,利用更深層次的深度學(xué)習(xí)網(wǎng)絡(luò)對手勢特征提取更加充分和精確。此外,本文算法充分考慮手勢在實際識別過程中的不同角度問題,使提取的手勢信息更加細(xì)化,具有更高的魯棒性。

        表1 不同手勢識別算法的比較

        4 結(jié)語

        手勢的多樣性、相同手勢的不同角度以及手勢的背景信息等都會影響手勢識別的精度。利用融合膚色的手勢識別方法對手勢進(jìn)行檢測,實驗結(jié)果驗證了該方法在膚色背景復(fù)雜情況下對不同角度的手勢能夠有效分割出手勢部分,進(jìn)一步提高了手勢特征圖的純度,減小了噪聲對手勢特征提取的影響,從而減小訓(xùn)練規(guī)模,加快訓(xùn)練速度。該方法結(jié)合深層次的深度學(xué)習(xí)網(wǎng)絡(luò)算法提取手勢特征,增強(qiáng)手勢細(xì)節(jié)特征提取的精度,提高了手勢識別的準(zhǔn)確度,平均識別精度達(dá)到98.8%,具有較強(qiáng)的魯棒性。

        猜你喜歡
        特征提取背景融合
        “新四化”背景下汽車NVH的發(fā)展趨勢
        村企黨建聯(lián)建融合共贏
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《論持久戰(zhàn)》的寫作背景
        《融合》
        基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        一種基于LBP 特征提取和稀疏表示的肝病識別算法
        晚清外語翻譯人才培養(yǎng)的背景
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        美女张开腿让男人桶爽| 亚洲中文字幕一区高清在线| 国产亚洲一二三区精品| 日韩在线永久免费播放| 亚洲黄色精品在线播放| 国产黑丝美腿在线观看| 三叶草欧洲码在线| 综合久久给合久久狠狠狠97色 | 日本嗯啊在线观看| 综合久久一区二区三区| 日韩字幕无线乱码免费| 日本高清乱码中文字幕| 久久久久久国产精品免费免费| 国产亚洲精品久久久久秋霞| 久久99中文字幕久久| 久久免费看视频少妇高潮| 欧美精品无码一区二区三区| 国产精品老熟女露脸视频| 国产亚洲精品日韩综合网| 国产午夜激情视频在线看| √天堂资源中文www| 醉酒后少妇被疯狂内射视频| 国产AV高清精品久久| 亚州无吗一区二区三区| 人妻少妇中文字幕乱码| 少妇精品无码一区二区三区| 精品蜜桃av一区二区三区| 蜜桃传媒一区二区亚洲av婷婷| 免费人成视频在线| 中文字幕人成人乱码亚洲 | av免费在线播放视频| 久久久久亚洲av片无码下载蜜桃| 国产福利酱国产一区二区| 日本一区二区三区激视频| 国产办公室秘书无码精品99| 国产美女在线精品免费观看网址| 蜜桃av夺取一区二区三区| av素人中文字幕在线观看| 真实国产精品vr专区| 午夜成人鲁丝片午夜精品| 亚洲Av午夜精品a区|