摘 要:采用OpenPose與BP網(wǎng)絡(luò)相結(jié)合的方法對(duì)人體整體或局部行為進(jìn)行分類檢測(cè),首先利用人體姿態(tài)估計(jì)算法獲得人體骨架節(jié)點(diǎn)坐標(biāo)數(shù)據(jù),然后利用BP分類網(wǎng)絡(luò)對(duì)節(jié)點(diǎn)坐標(biāo)數(shù)據(jù)進(jìn)行迭代訓(xùn)練與學(xué)習(xí)。檢測(cè)不同整體行為的分類模型,訓(xùn)練準(zhǔn)確率達(dá)100%,網(wǎng)絡(luò)損失僅為0.091,實(shí)測(cè)各類準(zhǔn)確率及總體準(zhǔn)確率均達(dá)100%;檢測(cè)局部行為的分類模型,訓(xùn)練準(zhǔn)確率亦達(dá)100%,網(wǎng)絡(luò)損失小于10-6,實(shí)測(cè)各類準(zhǔn)確率及總體準(zhǔn)確率均達(dá)100%;OpenPose與BP網(wǎng)絡(luò)相結(jié)合的方法不僅可以實(shí)現(xiàn)不同整體行為或局部行為快速、準(zhǔn)確的分類檢測(cè)任務(wù),同時(shí)還克服了傳統(tǒng)行為檢測(cè)方法的不足,能夠?qū)崿F(xiàn)更高效、更準(zhǔn)確、更快速的分類檢測(cè)。
關(guān)鍵詞:BP神經(jīng)網(wǎng)絡(luò);OpenPose;行為識(shí)別;隱藏層
中圖分類號(hào):TP391.4
文獻(xiàn)標(biāo)識(shí)碼: A
隨著人體行為識(shí)別技術(shù)和計(jì)算機(jī)視覺(jué)的快速發(fā)展,行為檢測(cè)和識(shí)別[1-3]在人機(jī)交互、視頻監(jiān)控和基于內(nèi)容的視頻檢索等領(lǐng)域變得越來(lái)越重要,已引起了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注,并成為計(jì)算機(jī)視覺(jué)領(lǐng)域的重要研究課題。行為檢測(cè)主要是對(duì)視頻或視頻流中人體行為模式進(jìn)行分析與識(shí)別,并分析判斷是否發(fā)生了指定的目標(biāo)行為,比如站立、坐著、躺臥等,當(dāng)檢測(cè)到指定目標(biāo)行為后則執(zhí)行后續(xù)相關(guān)操作。傳統(tǒng)的行為檢測(cè)方法主要包括模板匹配法、狀態(tài)空間法以及基于模型[4]的方法,這些方法普遍存在識(shí)別準(zhǔn)確率低、識(shí)別可靠性差等問(wèn)題,難以滿足對(duì)海量圖片進(jìn)行準(zhǔn)確、高效的行為檢測(cè)的需求。本文采用“姿態(tài)估計(jì)”與“分類網(wǎng)絡(luò)”相結(jié)合的方法,即利用OpenPose[5-8]與BP分類網(wǎng)絡(luò)[9-13] 相結(jié)合的方法對(duì)視頻或視頻流中的目標(biāo)行為進(jìn)行識(shí)別:首先,基于 OpenPose提取圖像中的人體骨架節(jié)點(diǎn)坐標(biāo)數(shù)據(jù);再次,將骨架節(jié)點(diǎn)坐標(biāo)數(shù)據(jù)作為 BP 分類網(wǎng)絡(luò)的輸入數(shù)據(jù)進(jìn)行迭代訓(xùn)練與學(xué)習(xí);最后,利用分類檢測(cè)模型輸出行為檢測(cè)結(jié)果。
1 BP神經(jīng)網(wǎng)絡(luò)
BP神經(jīng)網(wǎng)絡(luò)[11-13]是誤差反向傳播神經(jīng)網(wǎng)絡(luò)的簡(jiǎn)稱,是一種按照誤差反向傳播算法訓(xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò),其以網(wǎng)絡(luò)實(shí)際輸出值與期望輸出值之間的誤差均方差為目標(biāo)函數(shù),利用梯度下降法使目標(biāo)函數(shù)最小以實(shí)現(xiàn)網(wǎng)絡(luò)最優(yōu)。BP神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)如圖1所示,包括輸入層、隱藏層、輸出層[14],其中隱藏層可以包括一層或多層,BP神經(jīng)網(wǎng)絡(luò)不存在層與層之間的局部連接,而是全部保持全連接狀態(tài)。BP神經(jīng)網(wǎng)絡(luò)具有很強(qiáng)的非線性映射能力,可以對(duì)任一種非線性輸入輸出關(guān)系進(jìn)行逼近,在解決一些非線性問(wèn)題方面非常突出,已廣泛應(yīng)用在分類識(shí)別、模式識(shí)別、函數(shù)逼近、回歸預(yù)測(cè)等領(lǐng)域。
BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練流程:輸入信號(hào)經(jīng)輸入層輸入,通過(guò)隱含層的復(fù)雜計(jì)算由輸出層得到網(wǎng)絡(luò)輸出,以網(wǎng)絡(luò)輸出與期望輸出之間的誤差均方差為目標(biāo)函數(shù),若目標(biāo)函數(shù)不滿足期望要求,則將誤差信號(hào)通過(guò)誤差反向傳播算法,由輸出層向輸入層逐層反傳并分?jǐn)偨o各層所有單元,并根據(jù)各單元誤差信號(hào)計(jì)算梯度來(lái)更新各單元權(quán)值及相關(guān)參數(shù),參數(shù)更新后輸入信號(hào)再次由輸入層輸入網(wǎng)絡(luò),重復(fù)上述過(guò)程,直到目標(biāo)函數(shù)滿足期望要求,或迭代過(guò)程達(dá)到預(yù)先設(shè)定的訓(xùn)練次數(shù)為止。
2 OpenPose
OpenPose算法[5-8]是由美國(guó)卡耐基梅隆大學(xué)(CMU)基于卷積神經(jīng)網(wǎng)絡(luò)[15-16]和監(jiān)督學(xué)習(xí)并以caffe[17-18]為框架開(kāi)發(fā)的人體姿態(tài)估計(jì)算法,該算法是自下而上的估計(jì)算法,即先得到關(guān)節(jié)點(diǎn)位置再獲得人體骨架。OpenPose是第一個(gè)用于多人二維姿態(tài)檢測(cè)的開(kāi)源實(shí)時(shí)系統(tǒng),它可以獲得人體骨架節(jié)點(diǎn)并將它們很好地關(guān)聯(lián)起來(lái),不會(huì)受到畫(huà)面中人數(shù)、人的位置與比例、以及人與人間肢體互動(dòng)的影響,同時(shí),畫(huà)面中人數(shù)增加不會(huì)影響OpenPose的檢測(cè)實(shí)時(shí)性。OpenPose可以實(shí)現(xiàn)二維多人關(guān)鍵點(diǎn)實(shí)時(shí)識(shí)別,包括18個(gè)身體關(guān)鍵點(diǎn)的識(shí)別、70個(gè)面部關(guān)鍵點(diǎn)的識(shí)別、以及42個(gè)左右手關(guān)鍵點(diǎn)的識(shí)別,圖2所示為18個(gè)身體關(guān)鍵點(diǎn)的識(shí)別效果圖。因此,OpenPose可以實(shí)現(xiàn)面部表情、軀干、四肢及手指的姿態(tài)估計(jì),適用于單人和多人實(shí)時(shí)檢測(cè),且具有很好的魯棒性。
OpenPose的主體網(wǎng)絡(luò)結(jié)構(gòu)采用VGGNet網(wǎng)絡(luò)[19]作為骨架,然后采用兩個(gè)分支網(wǎng)絡(luò)分別回歸關(guān)節(jié)點(diǎn)位置 S 和像素點(diǎn)在骨架中的走向 L;兩個(gè)分支網(wǎng)絡(luò)的結(jié)構(gòu)是多階段迭代的,每個(gè)階段計(jì)算一次損失函數(shù),然后將L、S以及通過(guò)VGGNet提取的原始圖像特征連結(jié)后繼續(xù)下一階段的訓(xùn)練。圖3所示為OpenPose的網(wǎng)絡(luò)結(jié)構(gòu)圖,其中 F 是通過(guò) VGGNet 提取出的原始圖像的特征,下標(biāo) 1 和 2 分別表示多階段迭代中的第一階段和第二階段。
3 整體行為分析
3.1 數(shù)據(jù)采集與處理
本文共采集站立、坐著、躺著共3類整體行為圖片,每類行為圖片均利用usb攝像頭采集1 250張,其中1 000張用于網(wǎng)絡(luò)訓(xùn)練,余下250張用于網(wǎng)絡(luò)實(shí)際測(cè)試。每類行為圖片均利用攝像頭從正面進(jìn)行采集,且采集過(guò)程中四肢、軀干保持自然狀態(tài),無(wú)抬腿、摸頭、傾斜等有意狀態(tài)。利用OpenPose 對(duì)上述3類行為圖片中人體骨架節(jié)點(diǎn)的坐標(biāo)位置信息進(jìn)行提取,由此可得到軀干、四肢、頭部等部位共18個(gè)骨架節(jié)點(diǎn)(包括鼻子、脖子、右肩、右肘、右腕、左肩、左肘、左腕、右髖、右膝、右踝、左髖、左膝、左踝、右眼、左眼、右耳、左耳)的位置信息,并保存在json文件內(nèi)。
3.2 特征提取與學(xué)習(xí)
站立、坐著、躺著這3類整體行為主要與左右臂、左右腿和脖子共13個(gè)骨架節(jié)點(diǎn)有關(guān),因此僅從json文件內(nèi)提取這13個(gè)骨架節(jié)點(diǎn)的坐標(biāo)位置信息作為BP網(wǎng)絡(luò)的輸入數(shù)據(jù)進(jìn)行迭代訓(xùn)練與學(xué)習(xí),然后利用訓(xùn)練所得模型對(duì)實(shí)際行為數(shù)據(jù)進(jìn)行檢測(cè),從而得到最終的結(jié)果分類與輸出,具體流程如圖4所示。
分類網(wǎng)絡(luò)進(jìn)行提取與學(xué)習(xí)。本文設(shè)計(jì)的BP分類網(wǎng)絡(luò)共有3層,即一個(gè)輸入層、一個(gè)隱藏層和一個(gè)輸出層,其中輸入層輸入訓(xùn)練數(shù)據(jù),其節(jié)點(diǎn)數(shù)為26,由輸入數(shù)據(jù)包含的元素個(gè)數(shù)決定,代表輸入數(shù)據(jù)的26個(gè)特征;隱藏層迭代學(xué)習(xí)輸入數(shù)據(jù)的二維結(jié)構(gòu)特征,其節(jié)點(diǎn)數(shù)為130,由于其無(wú)相應(yīng)理論指導(dǎo),故由反復(fù)試驗(yàn)確定;輸出層輸出學(xué)習(xí)分類結(jié)果,其節(jié)點(diǎn)數(shù)為3,由結(jié)果類別個(gè)數(shù)決定,代表輸出數(shù)據(jù)的3個(gè)特征,具體網(wǎng)絡(luò)參數(shù)見(jiàn)表1。
3.3 結(jié)果與分析
利用BP神經(jīng)網(wǎng)絡(luò)對(duì)3類行為數(shù)據(jù)進(jìn)行50 000次迭代訓(xùn)練,得到的檢測(cè)模型性能參數(shù)如表2所示,模型訓(xùn)練準(zhǔn)確率達(dá)到了100%,模型網(wǎng)絡(luò)損失僅為0.091,其中訓(xùn)練模型的準(zhǔn)確率在迭代2 000次后就迅速趨于100%,此后隨著迭代次數(shù)增加保持100%的準(zhǔn)確率不變;模型訓(xùn)練損失的曲線變化如圖5所示,訓(xùn)練初始階段網(wǎng)絡(luò)損失為400左右,在3 000次迭代訓(xùn)練后網(wǎng)絡(luò)損失迅速下降,此后隨著迭代訓(xùn)練次數(shù)的增加,網(wǎng)絡(luò)損失最終趨于0。
利用檢測(cè)模型對(duì)每類250個(gè)共計(jì)750個(gè)行為數(shù)據(jù)進(jìn)行實(shí)際測(cè)試,得到各個(gè)類別的檢測(cè)準(zhǔn)確率均達(dá)到100%,模型總準(zhǔn)確率亦為100%。上述測(cè)試結(jié)果表明:
(1)利用OpenPose與BP 分類網(wǎng)絡(luò)相結(jié)合的方法,可以實(shí)現(xiàn)對(duì)不同整體行為準(zhǔn)確、高效的分類檢測(cè)。
(2)將人體行為轉(zhuǎn)換為二維坐標(biāo)位置數(shù)據(jù),即將人體行為二維數(shù)據(jù)化,可以將不同整體行為的表現(xiàn)特征以二維數(shù)據(jù)化的形式重新表現(xiàn)出來(lái),這種表現(xiàn)形式不僅使行為特征更加量化具體,還使行為特征的訓(xùn)練學(xué)習(xí)變得更加簡(jiǎn)單有效,從而充分提高了訓(xùn)練模型的準(zhǔn)確性和收斂速率。
(3)待檢測(cè)行為的二維數(shù)據(jù)化結(jié)合BP 分類網(wǎng)絡(luò)具有很強(qiáng)的非線性映射能力,使行為數(shù)據(jù)的迭代訓(xùn)練與學(xué)習(xí)變得更加快速、準(zhǔn)確、有效,進(jìn)而保證了良好的行為檢測(cè)效果。
OpenPose與BP分類網(wǎng)絡(luò)相結(jié)合的方法,可以對(duì)不同整體行為進(jìn)行行之有效的檢測(cè)。但是,如果將軀干整體拆分為一個(gè)個(gè)局部軀干,對(duì)于這些局部軀干的局部行為,上述方法又是否能達(dá)到同樣良好的檢測(cè)效果?針對(duì)這一問(wèn)題,接下來(lái)將檢測(cè)人體的局部行為,分析討論OpenPose與BP分類網(wǎng)絡(luò)相結(jié)合的方法對(duì)人體局部行為的分類檢測(cè)性能。
4 局部行為分析
4.1 數(shù)據(jù)處理與訓(xùn)練
共采集左臂平舉、右臂平舉、雙臂平舉共3類局部行為圖片,每類行為圖片均利用usb攝像頭采集1 250張,其中1 000張用于網(wǎng)絡(luò)訓(xùn)練,余下250張用于網(wǎng)絡(luò)實(shí)際測(cè)試。每類行為圖片均利用攝像頭從正面進(jìn)行采集,且采集過(guò)程中使單臂平舉的另一臂保持自然狀態(tài)。利用OpenPose對(duì)上述3類行為圖片中人體骨架節(jié)點(diǎn)的坐標(biāo)位置信息進(jìn)行提取,并將得到的軀干、四肢、頭部等部位18個(gè)骨架節(jié)點(diǎn)的位置坐標(biāo)信息保存在json文件內(nèi)。
4.2 特征提取與學(xué)習(xí)
左臂平舉、右臂平舉、雙臂平舉這3類局部行為主要與左右臂共6個(gè)骨架節(jié)點(diǎn)有關(guān),因此僅從json文件內(nèi)提取這6個(gè)骨架節(jié)點(diǎn)的位置坐標(biāo)數(shù)據(jù)作為網(wǎng)絡(luò)的輸入數(shù)據(jù)進(jìn)行迭代訓(xùn)練與學(xué)習(xí),然后利用訓(xùn)練所得模型對(duì)實(shí)際行為圖片進(jìn)行檢測(cè),從而得到最終的結(jié)果分類與輸出,其具體流程與圖4所示相同。
6個(gè)骨架節(jié)點(diǎn)坐標(biāo)記為(P1,P2,...,P6),將其展成一個(gè)骨架向量(Px1,Py1,Px2,Py2,...,Px6,Py6)作為 BP 神經(jīng)網(wǎng)絡(luò)的輸入。輸入數(shù)據(jù)不僅包含行為數(shù)據(jù)的點(diǎn)特征,同時(shí)包含點(diǎn)與點(diǎn)之間的線特征,以及線與線之間的面特征,這些特征通過(guò)BP分類網(wǎng)絡(luò)進(jìn)行提取與學(xué)習(xí)。特征學(xué)習(xí)所使用的BP分類網(wǎng)絡(luò)共有3層,即一個(gè)輸入層、一個(gè)隱藏層和一個(gè)輸出層,其中輸入層的節(jié)點(diǎn)數(shù)為12個(gè),隱藏層節(jié)點(diǎn)數(shù)為130個(gè),輸出層的節(jié)點(diǎn)數(shù)為3個(gè),其余與表1相同。
4.3 結(jié)果與分析
利用BP神經(jīng)網(wǎng)絡(luò)對(duì)3類行為數(shù)據(jù)進(jìn)行50 000次迭代訓(xùn)練,得到的檢測(cè)模型性能參數(shù)如表3所示,模型訓(xùn)練準(zhǔn)確率達(dá)到了100%,模型訓(xùn)練損失小于10-6,其中訓(xùn)練模型的準(zhǔn)確率在迭代1 000次后就迅速趨于100%,此后隨著迭代次數(shù)增加保持100%的準(zhǔn)確率不變;模型訓(xùn)練損失的曲線變化如圖6所示,訓(xùn)練初始階段網(wǎng)絡(luò)損失為240左右,在2 000次迭代訓(xùn)練后網(wǎng)絡(luò)損失迅速下降,此后隨著迭代訓(xùn)練次數(shù)的增加,網(wǎng)絡(luò)損失最終趨于0。
利用檢測(cè)模型對(duì)每類250個(gè)共計(jì)750個(gè)行為數(shù)據(jù)進(jìn)行實(shí)際測(cè)試,得到各個(gè)類別的檢測(cè)準(zhǔn)確率均為100%,模型總準(zhǔn)確率亦為100%。上述測(cè)試結(jié)果表明:
(1)OpenPose與BP分類網(wǎng)絡(luò)相結(jié)合的方法,針對(duì)局部行為和整體行為均可達(dá)到準(zhǔn)確、快速、高效的分類檢測(cè)效果,該方法具有較好的行為檢測(cè)普適性。
(2)不論是局部行為,還是整體行為,行為的二維數(shù)據(jù)化都是行之有效的,它不會(huì)因?yàn)樾袨榈恼w性或局部性之分,導(dǎo)致行為特征的二維數(shù)據(jù)化表現(xiàn)程度出現(xiàn)偏好性或差異性。
4.4 討論
利用OpenPose 將人體行為轉(zhuǎn)化為二維坐標(biāo)位置數(shù)據(jù),再利用BP分類網(wǎng)絡(luò)對(duì)該數(shù)據(jù)進(jìn)行迭代訓(xùn)練與學(xué)習(xí),即OpenPose與BP分類網(wǎng)絡(luò)相結(jié)合的行為檢測(cè)方法,具有較好的行為檢測(cè)普適性,其不僅可以對(duì)軀干整體產(chǎn)生的整體行為進(jìn)行準(zhǔn)確、快速、有效的分類檢測(cè),對(duì)局部軀干產(chǎn)生的局部行為同樣可以達(dá)到很好的分類檢測(cè)效果。OpenPose與BP分類相結(jié)合的檢測(cè)方法,收斂速度快、訓(xùn)練耗時(shí)短,相對(duì)于傳統(tǒng)的行為檢測(cè)方法大幅提高了特征學(xué)習(xí)效率。不僅如此,該方法還解決了傳統(tǒng)行為檢測(cè)方法準(zhǔn)確率低、效率低、可靠性差等問(wèn)題,可以在海量行為圖片的分類任務(wù)中實(shí)現(xiàn)準(zhǔn)確、高效、可靠的分類檢測(cè)效果。
除18個(gè)身體關(guān)鍵點(diǎn)的識(shí)別檢測(cè)外,對(duì)于面部70個(gè)關(guān)鍵點(diǎn)、以及左右手42個(gè)關(guān)鍵點(diǎn)的識(shí)別檢測(cè),使用OpenPose與BP分類網(wǎng)絡(luò)相結(jié)合的檢測(cè)方法,只要合理地設(shè)計(jì)網(wǎng)絡(luò)及其參數(shù),同樣可以實(shí)現(xiàn)宏觀與細(xì)節(jié)的普適檢測(cè),并具有良好的檢測(cè)效果。這樣,無(wú)論是整體面部表情、多手指姿態(tài)的識(shí)別,還是面部表情一個(gè)細(xì)節(jié)、單手指姿態(tài)的識(shí)別,都可以實(shí)現(xiàn)準(zhǔn)確、高效、可靠的識(shí)別檢測(cè)效果。
5 結(jié)論
(1)對(duì)每類250個(gè)共計(jì)750個(gè)行為數(shù)據(jù)進(jìn)行實(shí)際測(cè)試發(fā)現(xiàn),無(wú)論是整體行為分類檢測(cè),還是局部行為分類檢測(cè),OpenPose與BP分類網(wǎng)絡(luò)相結(jié)合的方法均可以實(shí)現(xiàn)各類行為檢測(cè)準(zhǔn)確率達(dá)100%,總體檢測(cè)準(zhǔn)確率亦達(dá)到100%。
(2)OpenPose與BP分類網(wǎng)絡(luò)相結(jié)合的行為檢測(cè)方法,具有較好的行為檢測(cè)普適性,其不僅可以對(duì)軀干整體產(chǎn)生的整體行為進(jìn)行準(zhǔn)確、快速、有效的分類檢測(cè),對(duì)局部軀干產(chǎn)生的局部行為同樣可以達(dá)到很好的分類檢測(cè)效果。
(3)OpenPose與BP分類網(wǎng)絡(luò)相結(jié)合的方法收斂速度快、訓(xùn)練耗時(shí)短,且克服了傳統(tǒng)行為檢測(cè)方法效率低、準(zhǔn)確率低、可靠性差等不足,能夠?qū)Υ笈啃袨閳D片進(jìn)行更高效、更準(zhǔn)確、更快速的行為分類檢測(cè)。
參考文獻(xiàn):
[1]XIA L, CHEN C C, AGGARWAL J K. View invariant human action recognition using histograms of 3D joints[C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Piscataway, NJ: IEEE, 2012: 20-27.
[2]陸中秋, 侯振杰, 陳宸, 等. 基于深度圖像與骨骼數(shù)據(jù)的行為識(shí)別[J]. 計(jì)算機(jī)應(yīng)用, 2016, 36(11): 2979-2984.
[3]ADAM N R, ATLURI V, HUANG W K. Modeling and analysis of workflows using Petri nets[J]. Journal of Intelligent Information Systems, 1998, 10(2): 131-158.
[4]鄒建. 基于BP神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別[J]. 網(wǎng)絡(luò)與信息安全, 2017, 3(9):1-6.
[5]SATO K, NAGASHIMA Y, MANO T, et al. Quantifying normal and parkinsonian gait features from home movies: Practical application of a deep learning-based 2D pose estimator[J]. PloS one, 2019, 14(11): 1-15.
[6]LI X, FAN Z, LIU Y B, et al. 3D pose detection of closely interactive humans using multi-view cameras[J]. SENSORS, 2019, 19(12): 1-16.
[7]SONG C H, KIM S H. Robust vehicle occupant detection based on RGB-depth-thermal camera[J]. The Journal of Korea Robotics Society, 2018, 13(1): 31-37.
[8]PARK J H, SONG K H, KIM Y S. A kidnapping detection using human pose estimation in intelligent video surveillance systems[J]. Journal of the Korea Society of Computer and Information, 2018, 23(8): 9-16.
[9]呂學(xué)志, 范保新, 尹建, 等. 基于BP神經(jīng)網(wǎng)絡(luò)的維修任務(wù)優(yōu)先級(jí)分類方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2014, 50(24): 250-254.
[10]冷昕, 張樹(shù)群, 雷兆宜. 改進(jìn)的人工蜂群算法在神經(jīng)網(wǎng)絡(luò)中的應(yīng)用[J].計(jì)算機(jī)工程與應(yīng)用,2016,52(11): 7-10.
[11]ZOU L, ZHAO Y X, JIAO B. Application of BP neural network in digital image recognition[J]. IOP Conference Series: Materials Science and Engineering, 2019, 490(7): 1-5.
[12]ZHANG L, WANG F L, SUN T, et al. A constrained optimization method based on BP neural network[J]. Neural Computing amp; Applications, 2018, 29(2): 413-421.
[13]ZHU Q L, WANG S G, SUN Q B, et al. Service classification based on improved BP neural network[J]. Journal of Internet Technology, 2018, 19(2): 369-379.
[14]GULIYEV N J, ISMAILOV V E. On the approximation by single hidden layer feed forward neural networks with fixed weights[J]. Neural Networks, 2018, 98(12): 296-304.
[15]SHI W W, GONG Y H, TAO X Y, et al. Improving CNN performance accuracies with min-max objective[J]. IEEE Transactions on Neural Networks amp; Learning Systems, 2018, 29(7): 2872-2885.
[16]ZHANG X B, CHEN F C, HUANG R Y. A combination of RNN and CNN for attention-based relation classification[J]. Procedia Computer Science, 2018, 131(4): 911-917.
[17]JIA Y Q, SHELHAMER E, DONAHUE J, et al. Caffe: convolutional architecture for fast feature embedding[J]. Computer Science, 2014, 2: 675-678.
[18]MAKOTO I, TETSUYA O, LEONARD B. A vegetable category recognition system: a comparison study for caffe and Chainer DNN frameworks[J]. Soft Computing, 2019, 23(9): 3129-3136.
[19]LIU K H, ZHONG P S, ZHENG Y, et al. P_VggNet: A convolutional neural network (CNN) with pixel-based attention map[J]. PLOS ONE, 2018, 13(12): 1-11.
(責(zé)任編輯:于慧梅)