亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于頭部姿態(tài)識別的學(xué)習(xí)狀態(tài)檢測系統(tǒng)的實現(xiàn)

        2022-05-05 06:18:34吳麗娟梁岱立關(guān)貴明任海清
        關(guān)鍵詞:候選框數(shù)組人臉

        吳麗娟, 梁岱立, 關(guān)貴明, 任海清, 黃 堯

        (1. 沈陽師范大學(xué) 物理科學(xué)與技術(shù)學(xué)院, 沈陽 110034;2. 北部戰(zhàn)區(qū) 31441部隊, 沈陽 110001)

        0 引 言

        20世紀60年代開始, 學(xué)者們展開了對人臉檢測技術(shù)的研究, 經(jīng)過幾十年的發(fā)展, 目前該技術(shù)已經(jīng)在很多領(lǐng)域中得到了應(yīng)用[1]。將人臉檢測和頭部姿態(tài)識別技術(shù)引入教學(xué)活動, 了解學(xué)生的聽課狀態(tài), 對課堂教學(xué)評價具有積極意義。

        近年來,基于深度學(xué)習(xí)的人臉檢測算法有很多,主流算法有兩大類[2]:一類是二階段深度學(xué)習(xí)算法,主要包括Fast-R-CNN[3], Faster-R-CNN[4], Mask-R-CNN[5]等;一類是一階段深度學(xué)習(xí)算法,主要包括YOLO系列[6-8]及SSD(single shot multibox detector)[9-11]。后者較前者有更快的檢測速度。SSD網(wǎng)絡(luò)結(jié)構(gòu)是2016年由Liu提出的,此網(wǎng)絡(luò)結(jié)構(gòu)簡潔明了,提升了模型的精度和運行速度。針對SSD模型對小目標(biāo)檢測效果較差的問題,FU等[12]提出了DSSD結(jié)構(gòu),此方法雖然可以提高模型的精度,但是卻以犧牲模型的運行速度為代價,還有學(xué)者提出了DSOD模型[13]等,這些算法都表現(xiàn)出了不錯的性能。

        對于基于模型的頭部姿態(tài)識別來說,準(zhǔn)確的前提是能夠快速精準(zhǔn)地獲取人臉信息。本文結(jié)合SSD算法模型的應(yīng)用場景,在保證檢測精度的同時,致力于提高檢測的效率,對SSD算法在特征圖的選取和檢測后處理的非極大值抑制(NMS)算法上進行了改進,在基于模型的頭部姿態(tài)識別能夠判斷2種頭部動作(點頭和搖頭)的基礎(chǔ)上,設(shè)計了4種頭部姿態(tài)檢測:向左看、向右看、向上看和向下看,從而判斷出學(xué)生的聽課狀態(tài)。

        1 SSD算法模型架構(gòu)

        SSD算法模型融合不同尺度的特征圖進行網(wǎng)絡(luò)提取,分類和定位都被擬合為回歸問題,既保持了YOLO模型速度快的特性,也保證了窗口預(yù)測與Faster-R-CNN模型一樣的精度。SSD算法模型主體架構(gòu)如圖1所示,主要分為基底網(wǎng)絡(luò)、輔助卷積層和用于特征圖預(yù)測的預(yù)測特征層[14]3個部分。SSD算法模型的基底網(wǎng)絡(luò)基于VGG-16網(wǎng)絡(luò)模型,將VGG-16網(wǎng)絡(luò)后面的三層全連接層和Softmax層用Conv6(FC6)和Conv7(FC7)卷積層代替;輔助卷積網(wǎng)絡(luò)是在SSD的基底網(wǎng)絡(luò)后面增添的卷積層,使特征表示在復(fù)雜背景下更加具有魯棒性。SSD算法模型中共有6層預(yù)測特征層(detecton& classifier)用于多尺度預(yù)測。在檢測后處理過程中,利用非極大值抑制(NMS)算法對預(yù)測特征層檢測的結(jié)果進行處理,得到最優(yōu)候選框。

        圖1 SSD算法模型架構(gòu)Fig.1 SSD algorithm model architecture

        SSD算法模型使用了6張大小不同的預(yù)測特征圖來檢測不同尺度的目標(biāo),分別來自conv4_3,conv7,conv8_2,conv9_2,conv10_2和conv11_2卷積層,前端網(wǎng)絡(luò)提取的特征圖尺寸大,細節(jié)性較好,適用于檢測小物體。隨著特征圖尺寸的變小,細節(jié)性也隨之變差,適用于檢測大物體。除此之外,SSD網(wǎng)絡(luò)設(shè)置了不同寬高比的預(yù)測候選框并且使用了放大和縮小2種數(shù)據(jù)增強方式,可以有更多的訓(xùn)練樣本參與訓(xùn)練,使得檢測結(jié)果更加準(zhǔn)確。

        2 目標(biāo)檢測結(jié)果優(yōu)化及SSD模型架構(gòu)改進

        2.1 非極大值抑制算法的優(yōu)化

        圖2 原NMS算法的檢測結(jié)果Fig.2 The detection results of the original NMS algorithm

        SSD算法默認候選框的選取機制會導(dǎo)致很多窗口和其他窗口之間存在很嚴重的重疊情況,需要非極大值抑制(NMS)算法[15]來選擇這些相近區(qū)域里置信度最高的候選框,同時去除置信度不高的候選框,最后得出檢測結(jié)果。SSD算法模型中的NMS算法對候選框的選取不夠精準(zhǔn),仍然存在候選框重疊問題,如圖2所示,本文在原NMS算法的基礎(chǔ)上對其進行了優(yōu)化。

        優(yōu)化算法設(shè)計:以每個候選框左上角的坐標(biāo)信息為出發(fā)點,數(shù)組A中存放所有候選框的左上角和右下角的坐標(biāo);取數(shù)組A中的第1個候選框的坐標(biāo)信息放入數(shù)組B中,將數(shù)組A中所有候選框的左上角橫坐標(biāo)與數(shù)組B中的第1個候選框的左上角橫坐標(biāo)相減,絕對值相差小于40個像素點的候選框坐標(biāo)存放到數(shù)組B中,并將其在數(shù)組A中刪掉,此時,數(shù)組B中存放的是所有與數(shù)組A中第1個候選框相近的候選框坐標(biāo);本文選取數(shù)組B中左上角橫坐標(biāo)最小的候選框作為最終候選框,將其左上角和右下角坐標(biāo)存入數(shù)組C中……重復(fù)以上步驟直到數(shù)組A中為空,數(shù)組C為去除冗余后得到的候選框坐標(biāo)信息。若數(shù)組A中只存放了一個候選框的坐標(biāo)信息,則無需進行優(yōu)化,直接存入數(shù)組C中,作為最后的檢測結(jié)果,算法設(shè)計如圖3所示。

        圖3 對NMS算法的優(yōu)化流程Fig.3 Optimization process of NMS algorithm

        圖4 優(yōu)化NMS算法后的檢測結(jié)果Fig.4 Inspection results after optimizing the NMS algorithm

        優(yōu)化結(jié)果如圖4所示,能夠可以看出優(yōu)化后的NMS算法可以有效地去除冗余候選框。

        2.2 SSD架構(gòu)改進

        SSD算法模型的應(yīng)用范圍較廣,適用于復(fù)雜場景下的物體檢測。原SSD模型中的Conv 8,Conv 9,Conv 10和Conv 11這4個卷積的目的是保證檢測效果在復(fù)雜背景下依然準(zhǔn)確,針對本文而言,應(yīng)用場景為教室,相對簡單,且待檢測的人臉屬于中等和較小的目標(biāo),不需要提取后端網(wǎng)絡(luò)的特征圖就可以保證檢測結(jié)果的準(zhǔn)確性。因此,對SSD算法模型做了如下調(diào)整,在進行檢測時,程序?qū)⑻^原SSD模型中的Conv8_2,Conv9_2,Conv10_2和Conv11_2這4層輸出的預(yù)測特征圖,只在Conv4_3和Conv7輸出的2層預(yù)測特征圖上做預(yù)測。改進后的SSD算法模型網(wǎng)絡(luò)架構(gòu)如圖5所示。

        圖5 改進后的SSD網(wǎng)絡(luò)架構(gòu)Fig.5 Improved SSD network architecture

        當(dāng)只保留第一層預(yù)測特征圖時,模型未檢測到人臉;保留Conv4_3和Conv7輸出的2層預(yù)測特征圖的結(jié)果如圖6所示,6層特征圖全部保留的檢測結(jié)果如圖7所示,即原SSD算法模型的檢測結(jié)果。

        在相同的教室背景及相同的電腦環(huán)境配置下,采用平衡樣本進行測試。改進后的SSD算法模型與原SSD算法模型的識別正確率Accuracy和識別速率FPS見表1。其中,正確率Accuracy為檢測正確的樣本數(shù)與總樣本數(shù)的比值,識別速率FPS為每秒算法可以檢測圖片的幀數(shù)。由此可見,改進后的SSD算法模型較改進前在正確率上稍有下降,但沒有太大差別,在檢測效率上提高了16.17%。

        圖6 保留2層預(yù)測特征圖檢測結(jié)果Fig.6 The result of the two-layer feature map

        圖7 原SSD模型的檢測結(jié)果Fig.7 The result of the original SSD model

        表1 SSD改進前后對比Table 1 Comparison of SSD before and after improvement

        3 頭部姿態(tài)識別算法的設(shè)計與實現(xiàn)

        學(xué)生頭部姿態(tài)識別系統(tǒng)共包含4個環(huán)節(jié):輸入視頻流、人臉檢測、頭部姿態(tài)識別及課堂行為結(jié)果的保存環(huán)節(jié)。首先,對輸入的視頻流進行預(yù)處理,每3 min截取60幀視頻圖像。然后,利用改進的SSD算法找到視頻中的人臉并將其裁剪下來;接下來將裁剪好的人臉信息送入頭部姿態(tài)識別算法中,對學(xué)生的頭部姿態(tài)進行判斷;最后,根據(jù)學(xué)生的頭部姿態(tài)分析出學(xué)生的學(xué)習(xí)狀態(tài)。其流程如圖8所示。

        圖8 學(xué)生頭部姿態(tài)識別流程Fig.8 Student head posture recognition process

        1) 視頻流預(yù)處理

        由于在教室環(huán)境下的學(xué)生處于運動之中,利用第一幀視頻進行人臉檢測得到的面部位置會在幾分鐘之后不再適用。因此,本文對輸入視頻流進行等間隔截取操作,每3 min截取60幀視頻,將這60幀視頻作為人臉檢測的輸入,以此來更新學(xué)生面部的位置變化。

        2) 人臉檢測

        學(xué)生的頭部姿態(tài)識別是建立在學(xué)生面部準(zhǔn)確檢測的基礎(chǔ)之上,要想實現(xiàn)頭部姿態(tài)識別,首先要進行人臉檢測,本文在SSD算法的基礎(chǔ)上,針對應(yīng)用場景對其進行了修改,在此環(huán)節(jié)中,不僅要得到每個學(xué)生面部的位置信息,還要對每個位置上對應(yīng)的學(xué)生面部進行裁剪。為了匹配視頻流預(yù)處理操作,每3 min對SSD算法進行一次更新,得到新的學(xué)生面部位置和裁剪后每個學(xué)生的面部信息,將每個學(xué)生的面部信息作為頭部姿態(tài)識別算法的輸入。

        圖9 人臉關(guān)鍵點坐標(biāo)Fig.9 Key point coordinates

        3) 頭部姿態(tài)識別

        本文采用的頭部姿態(tài)識別的方法是基于模型的方法,即首先獲得人臉關(guān)鍵點信息,然后,根據(jù)這些人臉關(guān)鍵點信息以設(shè)定閾值的方式對頭部姿態(tài)進行識別。在獲取到每個學(xué)生的面部信息之后,利用face_landmark_localization人臉關(guān)鍵點檢測模型[16]得到人臉68個關(guān)鍵點信息,取其中的19個關(guān)鍵點,如圖9所示。然后,根據(jù)獲得的19個關(guān)鍵點利用PnP算法得到學(xué)生頭部旋轉(zhuǎn)歐拉角,其計算公式為公式(1)。

        其中,R為3×3的旋轉(zhuǎn)矩陣,如公式(2)所示,T為3×1的平移矢量,本文主要利用旋轉(zhuǎn)矩陣R來獲得頭部旋轉(zhuǎn)歐拉角。(Xw,Yw,Zw,1)T是頭部標(biāo)準(zhǔn)3D關(guān)鍵點坐標(biāo),Zc為face_landmark_localization模型預(yù)測的19個關(guān)鍵點坐標(biāo)。

        (1)

        (2)

        公式(3)和公式(4)分別為頭部偏航歐拉角θx和頭部俯仰歐拉角θy的求取公式。

        通過頭部偏航角和俯仰角信息,以設(shè)置閾值的方式判定學(xué)生的頭部姿態(tài),本文采取動態(tài)的判定方式,以連續(xù)的15幀為一個檢測周期,判定規(guī)則見表2。其中,Y代表頭部偏航角,P代表頭部俯仰角。

        表2 學(xué)生頭部姿態(tài)判定規(guī)則Table 2 Judgment rules of student head posture

        4) 將頭部姿態(tài)結(jié)果保存成視頻

        得到學(xué)生頭部姿態(tài)信息后,為了后續(xù)查看校驗方便將識別結(jié)果錄制成視頻。

        圖10 頭部姿態(tài)識別系統(tǒng)識別結(jié)果Fig.10 Recognition result of head posture recognition system

        學(xué)生頭部姿態(tài)識別系統(tǒng)的識別結(jié)果如圖10所示,本系統(tǒng)沒有對面向前方的頭部姿態(tài)進行識別,只對搖頭、點頭、向左看、向右看、向上看及向下看這些疑似沒有認真聽課的動作和姿態(tài)進行識別和記錄。誤檢率和漏檢率見表3,是0.008和0.012。這一結(jié)果對學(xué)生課堂狀態(tài)分析的影響在誤差允許的范圍內(nèi)。

        表3 頭部姿態(tài)識別系統(tǒng)的誤檢率和漏檢率

        4 結(jié) 語

        本文基于教室的教學(xué)環(huán)境,對SSD算法網(wǎng)絡(luò)架構(gòu)和檢測后處理中的NMS算法進行了改進,應(yīng)用改進后的SSD算法模型與頭部姿態(tài)識別相結(jié)合的方式對教室中學(xué)生的頭部姿態(tài)進行識別,實現(xiàn)了處于教室背景下在不降低檢測效果的同時提高檢測效率,可以準(zhǔn)確地識別學(xué)生點頭、搖頭的2種頭部動作及向左看、向右看、向上看和向下看的4種頭部姿態(tài)。經(jīng)過修改的SSD算法與頭部姿態(tài)識別相結(jié)合,對學(xué)生頭部動作和姿態(tài)識別準(zhǔn)確率較高,為后續(xù)實現(xiàn)跟蹤監(jiān)測每個學(xué)生的課堂學(xué)習(xí)狀態(tài)研究奠定了基礎(chǔ)。

        猜你喜歡
        候選框數(shù)組人臉
        重定位非極大值抑制算法
        JAVA稀疏矩陣算法
        電腦報(2022年13期)2022-04-12 00:32:38
        面向自然場景文本檢測的改進NMS算法
        有特點的人臉
        基于Soft-NMS的候選框去冗余加速器設(shè)計*
        JAVA玩轉(zhuǎn)數(shù)學(xué)之二維數(shù)組排序
        電腦報(2020年24期)2020-07-15 06:12:41
        三國漫——人臉解鎖
        動漫星空(2018年9期)2018-10-26 01:17:14
        一種針對特定目標(biāo)的提議算法
        尋找勾股數(shù)組的歷程
        馬面部與人臉相似度驚人
        国产高清视频91| 热re99久久精品国99热| 精品久久久无码中字| 国产精品成人va| 少妇特殊按摩高潮不断| 国产精品无套一区二区久久| 波多野结衣的av一区二区三区| 免费的成年私人影院网站| 日本人妻少妇精品视频专区| 亚洲一区二区国产一区| 国产精品兄妹在线观看麻豆| 中文无码成人免费视频在线观看| 人人妻人人澡av| 男男亚洲av无一区二区三区久久 | 在线不卡中文字幕福利| 亚洲国产精品国自拍av| 国产69精品久久久久久久| 国产精品密播放国产免费看| 日韩在线中文字幕一区二区三区 | 亚洲av永久无码天堂网小说区| 欧美最猛黑人xxxxx猛交| 成在线人免费无码高潮喷水| 国产三级不卡一区不卡二区在线| 色播亚洲视频在线观看| 国产又黄又爽视频| 日本熟女视频一区二区三区| 欧洲美女熟乱av| 国产精品久久无码一区二区三区网| 国产精品亚洲一区二区极品| 天天射综合网天天插天天干| 国产真实强被迫伦姧女在线观看| 亚洲AV无码成人品爱| 亚洲国产精品久久性色av| 中文字幕日韩精品有码视频| 曰本女人牲交全视频免费播放| 无码国产一区二区色欲| 国产精品对白一区二区三区| 久久久无码人妻精品一区| 在线观看国产三级av| 人妻有码av中文幕久久| 免费大黄网站|