亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        OpenPose結(jié)合BP網(wǎng)絡(luò)的行為檢測方法

        2020-06-08 09:56周德良
        關(guān)鍵詞:BP神經(jīng)網(wǎng)絡(luò)

        周德良

        摘 要:采用OpenPose與BP網(wǎng)絡(luò)相結(jié)合的方法對人體整體或局部行為進(jìn)行分類檢測,首先利用人體姿態(tài)估計(jì)算法獲得人體骨架節(jié)點(diǎn)坐標(biāo)數(shù)據(jù),然后利用BP分類網(wǎng)絡(luò)對節(jié)點(diǎn)坐標(biāo)數(shù)據(jù)進(jìn)行迭代訓(xùn)練與學(xué)習(xí)。檢測不同整體行為的分類模型,訓(xùn)練準(zhǔn)確率達(dá)100%,網(wǎng)絡(luò)損失僅為0.091,實(shí)測各類準(zhǔn)確率及總體準(zhǔn)確率均達(dá)100%;檢測局部行為的分類模型,訓(xùn)練準(zhǔn)確率亦達(dá)100%,網(wǎng)絡(luò)損失小于10-6,實(shí)測各類準(zhǔn)確率及總體準(zhǔn)確率均達(dá)100%;OpenPose與BP網(wǎng)絡(luò)相結(jié)合的方法不僅可以實(shí)現(xiàn)不同整體行為或局部行為快速、準(zhǔn)確的分類檢測任務(wù),同時還克服了傳統(tǒng)行為檢測方法的不足,能夠?qū)崿F(xiàn)更高效、更準(zhǔn)確、更快速的分類檢測。

        關(guān)鍵詞:BP神經(jīng)網(wǎng)絡(luò);OpenPose;行為識別;隱藏層

        中圖分類號:TP391.4

        文獻(xiàn)標(biāo)識碼: A

        隨著人體行為識別技術(shù)和計(jì)算機(jī)視覺的快速發(fā)展,行為檢測和識別[1-3]在人機(jī)交互、視頻監(jiān)控和基于內(nèi)容的視頻檢索等領(lǐng)域變得越來越重要,已引起了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注,并成為計(jì)算機(jī)視覺領(lǐng)域的重要研究課題。行為檢測主要是對視頻或視頻流中人體行為模式進(jìn)行分析與識別,并分析判斷是否發(fā)生了指定的目標(biāo)行為,比如站立、坐著、躺臥等,當(dāng)檢測到指定目標(biāo)行為后則執(zhí)行后續(xù)相關(guān)操作。傳統(tǒng)的行為檢測方法主要包括模板匹配法、狀態(tài)空間法以及基于模型[4]的方法,這些方法普遍存在識別準(zhǔn)確率低、識別可靠性差等問題,難以滿足對海量圖片進(jìn)行準(zhǔn)確、高效的行為檢測的需求。本文采用“姿態(tài)估計(jì)”與“分類網(wǎng)絡(luò)”相結(jié)合的方法,即利用OpenPose[5-8]與BP分類網(wǎng)絡(luò)[9-13] 相結(jié)合的方法對視頻或視頻流中的目標(biāo)行為進(jìn)行識別:首先,基于 OpenPose提取圖像中的人體骨架節(jié)點(diǎn)坐標(biāo)數(shù)據(jù);再次,將骨架節(jié)點(diǎn)坐標(biāo)數(shù)據(jù)作為 BP 分類網(wǎng)絡(luò)的輸入數(shù)據(jù)進(jìn)行迭代訓(xùn)練與學(xué)習(xí);最后,利用分類檢測模型輸出行為檢測結(jié)果。

        1 BP神經(jīng)網(wǎng)絡(luò)

        BP神經(jīng)網(wǎng)絡(luò)[11-13]是誤差反向傳播神經(jīng)網(wǎng)絡(luò)的簡稱,是一種按照誤差反向傳播算法訓(xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò),其以網(wǎng)絡(luò)實(shí)際輸出值與期望輸出值之間的誤差均方差為目標(biāo)函數(shù),利用梯度下降法使目標(biāo)函數(shù)最小以實(shí)現(xiàn)網(wǎng)絡(luò)最優(yōu)。BP神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)如圖1所示,包括輸入層、隱藏層、輸出層[14],其中隱藏層可以包括一層或多層,BP神經(jīng)網(wǎng)絡(luò)不存在層與層之間的局部連接,而是全部保持全連接狀態(tài)。BP神經(jīng)網(wǎng)絡(luò)具有很強(qiáng)的非線性映射能力,可以對任一種非線性輸入輸出關(guān)系進(jìn)行逼近,在解決一些非線性問題方面非常突出,已廣泛應(yīng)用在分類識別、模式識別、函數(shù)逼近、回歸預(yù)測等領(lǐng)域。

        BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練流程:輸入信號經(jīng)輸入層輸入,通過隱含層的復(fù)雜計(jì)算由輸出層得到網(wǎng)絡(luò)輸出,以網(wǎng)絡(luò)輸出與期望輸出之間的誤差均方差為目標(biāo)函數(shù),若目標(biāo)函數(shù)不滿足期望要求,則將誤差信號通過誤差反向傳播算法,由輸出層向輸入層逐層反傳并分?jǐn)偨o各層所有單元,并根據(jù)各單元誤差信號計(jì)算梯度來更新各單元權(quán)值及相關(guān)參數(shù),參數(shù)更新后輸入信號再次由輸入層輸入網(wǎng)絡(luò),重復(fù)上述過程,直到目標(biāo)函數(shù)滿足期望要求,或迭代過程達(dá)到預(yù)先設(shè)定的訓(xùn)練次數(shù)為止。

        2 OpenPose

        OpenPose算法[5-8]是由美國卡耐基梅隆大學(xué)(CMU)基于卷積神經(jīng)網(wǎng)絡(luò)[15-16]和監(jiān)督學(xué)習(xí)并以caffe[17-18]為框架開發(fā)的人體姿態(tài)估計(jì)算法,該算法是自下而上的估計(jì)算法,即先得到關(guān)節(jié)點(diǎn)位置再獲得人體骨架。OpenPose是第一個用于多人二維姿態(tài)檢測的開源實(shí)時系統(tǒng),它可以獲得人體骨架節(jié)點(diǎn)并將它們很好地關(guān)聯(lián)起來,不會受到畫面中人數(shù)、人的位置與比例、以及人與人間肢體互動的影響,同時,畫面中人數(shù)增加不會影響OpenPose的檢測實(shí)時性。OpenPose可以實(shí)現(xiàn)二維多人關(guān)鍵點(diǎn)實(shí)時識別,包括18個身體關(guān)鍵點(diǎn)的識別、70個面部關(guān)鍵點(diǎn)的識別、以及42個左右手關(guān)鍵點(diǎn)的識別,圖2所示為18個身體關(guān)鍵點(diǎn)的識別效果圖。因此,OpenPose可以實(shí)現(xiàn)面部表情、軀干、四肢及手指的姿態(tài)估計(jì),適用于單人和多人實(shí)時檢測,且具有很好的魯棒性。

        OpenPose的主體網(wǎng)絡(luò)結(jié)構(gòu)采用VGGNet網(wǎng)絡(luò)[19]作為骨架,然后采用兩個分支網(wǎng)絡(luò)分別回歸關(guān)節(jié)點(diǎn)位置 S 和像素點(diǎn)在骨架中的走向 L;兩個分支網(wǎng)絡(luò)的結(jié)構(gòu)是多階段迭代的,每個階段計(jì)算一次損失函數(shù),然后將L、S以及通過VGGNet提取的原始圖像特征連結(jié)后繼續(xù)下一階段的訓(xùn)練。圖3所示為OpenPose的網(wǎng)絡(luò)結(jié)構(gòu)圖,其中 F 是通過 VGGNet 提取出的原始圖像的特征,下標(biāo) 1 和 2 分別表示多階段迭代中的第一階段和第二階段。

        3 整體行為分析

        3.1 數(shù)據(jù)采集與處理

        本文共采集站立、坐著、躺著共3類整體行為圖片,每類行為圖片均利用usb攝像頭采集1 250張,其中1 000張用于網(wǎng)絡(luò)訓(xùn)練,余下250張用于網(wǎng)絡(luò)實(shí)際測試。每類行為圖片均利用攝像頭從正面進(jìn)行采集,且采集過程中四肢、軀干保持自然狀態(tài),無抬腿、摸頭、傾斜等有意狀態(tài)。利用OpenPose 對上述3類行為圖片中人體骨架節(jié)點(diǎn)的坐標(biāo)位置信息進(jìn)行提取,由此可得到軀干、四肢、頭部等部位共18個骨架節(jié)點(diǎn)(包括鼻子、脖子、右肩、右肘、右腕、左肩、左肘、左腕、右髖、右膝、右踝、左髖、左膝、左踝、右眼、左眼、右耳、左耳)的位置信息,并保存在json文件內(nèi)。

        3.2 特征提取與學(xué)習(xí)

        站立、坐著、躺著這3類整體行為主要與左右臂、左右腿和脖子共13個骨架節(jié)點(diǎn)有關(guān),因此僅從json文件內(nèi)提取這13個骨架節(jié)點(diǎn)的坐標(biāo)位置信息作為BP網(wǎng)絡(luò)的輸入數(shù)據(jù)進(jìn)行迭代訓(xùn)練與學(xué)習(xí),然后利用訓(xùn)練所得模型對實(shí)際行為數(shù)據(jù)進(jìn)行檢測,從而得到最終的結(jié)果分類與輸出,具體流程如圖4所示。

        5 結(jié)論

        (1)對每類250個共計(jì)750個行為數(shù)據(jù)進(jìn)行實(shí)際測試發(fā)現(xiàn),無論是整體行為分類檢測,還是局部行為分類檢測,OpenPose與BP分類網(wǎng)絡(luò)相結(jié)合的方法均可以實(shí)現(xiàn)各類行為檢測準(zhǔn)確率達(dá)100%,總體檢測準(zhǔn)確率亦達(dá)到100%。

        (2)OpenPose與BP分類網(wǎng)絡(luò)相結(jié)合的行為檢測方法,具有較好的行為檢測普適性,其不僅可以對軀干整體產(chǎn)生的整體行為進(jìn)行準(zhǔn)確、快速、有效的分類檢測,對局部軀干產(chǎn)生的局部行為同樣可以達(dá)到很好的分類檢測效果。

        (3)OpenPose與BP分類網(wǎng)絡(luò)相結(jié)合的方法收斂速度快、訓(xùn)練耗時短,且克服了傳統(tǒng)行為檢測方法效率低、準(zhǔn)確率低、可靠性差等不足,能夠?qū)Υ笈啃袨閳D片進(jìn)行更高效、更準(zhǔn)確、更快速的行為分類檢測。

        參考文獻(xiàn):

        [1]XIA L, CHEN C C, AGGARWAL J K. View invariant human action recognition using histograms of 3D joints[C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Piscataway, NJ: IEEE, 2012: 20-27.

        [2]陸中秋, 侯振杰, 陳宸, 等. 基于深度圖像與骨骼數(shù)據(jù)的行為識別[J]. 計(jì)算機(jī)應(yīng)用, 2016, 36(11): 2979-2984.

        [3]ADAM N R, ATLURI V, HUANG W K. Modeling and analysis of workflows using Petri nets[J]. Journal of Intelligent Information Systems, 1998, 10(2): 131-158.

        [4]鄒建. 基于BP神經(jīng)網(wǎng)絡(luò)的人體行為識別[J]. 網(wǎng)絡(luò)與信息安全, 2017, 3(9):1-6.

        [5]SATO K, NAGASHIMA Y, MANO T, et al. Quantifying normal and parkinsonian gait features from home movies: Practical application of a deep learning-based 2D pose estimator[J]. PloS one, 2019, 14(11): 1-15.

        [6]LI X, FAN Z, LIU Y B, et al. 3D pose detection of closely interactive humans using multi-view cameras[J]. SENSORS, 2019, 19(12): 1-16.

        [7]SONG C H, KIM S H. Robust vehicle occupant detection based on RGB-depth-thermal camera[J]. The Journal of Korea Robotics Society, 2018, 13(1): 31-37.

        [8]PARK J H, SONG K H, KIM Y S. A kidnapping detection using human pose estimation in intelligent video surveillance systems[J]. Journal of the Korea Society of Computer and Information, 2018, 23(8): 9-16.

        [9]呂學(xué)志, 范保新, 尹建, 等. 基于BP神經(jīng)網(wǎng)絡(luò)的維修任務(wù)優(yōu)先級分類方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2014, 50(24): 250-254.

        [10]冷昕, 張樹群, 雷兆宜. 改進(jìn)的人工蜂群算法在神經(jīng)網(wǎng)絡(luò)中的應(yīng)用[J].計(jì)算機(jī)工程與應(yīng)用,2016,52(11): 7-10.

        [11]ZOU L, ZHAO Y X, JIAO B. Application of BP neural network in digital image recognition[J]. IOP Conference Series: Materials Science and Engineering, 2019, 490(7): 1-5.

        [12]ZHANG L, WANG F L, SUN T, et al. A constrained optimization method based on BP neural network[J]. Neural Computing & Applications, 2018, 29(2): 413-421.

        [13]ZHU Q L, WANG S G, SUN Q B, et al. Service classification based on improved BP neural network[J]. Journal of Internet Technology, 2018, 19(2): 369-379.

        [14]GULIYEV N J, ISMAILOV V E. On the approximation by single hidden layer feed forward neural networks with fixed weights[J]. Neural Networks, 2018, 98(12): 296-304.

        [15]SHI W W, GONG Y H, TAO X Y, et al. Improving CNN performance accuracies with min-max objective[J]. IEEE Transactions on Neural Networks & Learning Systems, 2018, 29(7): 2872-2885.

        [16]ZHANG X B, CHEN F C, HUANG R Y. A combination of RNN and CNN for attention-based relation classification[J]. Procedia Computer Science, 2018, 131(4): 911-917.

        [17]JIA Y Q, SHELHAMER E, DONAHUE J, et al. Caffe: convolutional architecture for fast feature embedding[J]. Computer Science, 2014, 2: 675-678.

        [18]MAKOTO I, TETSUYA O, LEONARD B. A vegetable category recognition system: a comparison study for caffe and Chainer DNN frameworks[J]. Soft Computing, 2019, 23(9): 3129-3136.

        [19]LIU K H, ZHONG P S, ZHENG Y, et al. P_VggNet: A convolutional neural network (CNN) with pixel-based attention map[J]. PLOS ONE, 2018, 13(12): 1-11.

        (責(zé)任編輯:于慧梅)

        猜你喜歡
        BP神經(jīng)網(wǎng)絡(luò)
        基于神經(jīng)網(wǎng)絡(luò)的北京市房價預(yù)測研究
        一種基于OpenCV的車牌識別方法
        基于遺傳算法—BP神經(jīng)網(wǎng)絡(luò)的乳腺腫瘤輔助診斷模型
        一種基于改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測T/R組件溫度的方法
        基于BP神經(jīng)網(wǎng)絡(luò)的光通信系統(tǒng)故障診斷
        提高BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)速率的算法研究
        就bp神經(jīng)網(wǎng)絡(luò)銀行選址模型的相關(guān)研究
        基于DEA—GA—BP的建設(shè)工程評標(biāo)方法研究
        復(fù)雜背景下的手勢識別方法
        BP神經(jīng)網(wǎng)絡(luò)在軟件質(zhì)量評價中的應(yīng)用研究 
        妞干网中文字幕| 国产女人水真多18毛片18精品| 性动态图av无码专区| 亚洲AV无码永久在线观看| av网站在线观看二区| 国产精品久久免费中文字幕| 丰满少妇三级全黄| 国产亚洲精品看片在线观看| 国产丝袜美腿诱惑在线观看| 精品少妇一区二区三区免费| 国产aⅴ无码专区亚洲av麻豆 | 日本黄色高清视频久久| 久草青青91在线播放| 无码人妻精品丰满熟妇区| 久久福利青草精品资源| 国产精品午夜福利亚洲综合网| 久久久精品国产免大香伊 | 在线视频你懂的国产福利| 免费的黄网站精品久久| 亚洲精品视频在线一区二区| 天堂aⅴ无码一区二区三区| 国产精品久久久久…| av天堂中文亚洲官网| 男人的天堂中文字幕熟女人妻| 国产精品福利视频一区| 国产美女a做受大片免费| 国产一区二区黄色的网站| 少妇高潮流白浆在线观看| 国产偷v国产偷v亚洲偷v| 淫秽在线中国国产视频| 国产午夜免费高清久久影院| 精品人妻系列无码人妻免费视频 | 精品一区二区三区四区国产| 国产97在线 | 免费| 四虎国产精品免费久久麻豆| 新久久国产色av免费看| 国产色xx群视频射精| 日韩欧美第一页| 日韩午夜三级在线视频| 亚洲午夜久久久久久久久电影网| 中文字幕亚洲欧美日韩在线不卡|