亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        專注度識別應(yīng)用研究

        2021-09-18 02:05:08孫帥成徐春融劉瑞明
        科技資訊 2021年14期
        關(guān)鍵詞:機器視覺

        孫帥成 徐春融 劉瑞明

        摘? 要:近年來,對于專注度的判斷重視程度越來越高,針對人工觀察、問卷調(diào)查等方法效率低下、實時性差等問題,該文結(jié)合機器視覺技術(shù)設(shè)計了一種專注度識別方法,在VGG-16的基礎(chǔ)上進行改進并結(jié)合抬頭平視率,同時在GT數(shù)據(jù)庫的基礎(chǔ)上進行專注判別分類,構(gòu)建了用于專注度識別的數(shù)據(jù)庫,提高了專注度識別的準(zhǔn)確性和實時性,育有廣闊的應(yīng)用前景和市場需求。

        關(guān)鍵詞:專注度? 機器視覺? VGG? 抬頭率

        中圖分類號:TP391? ? ? ? ? ? ? ? ? ? ? ?文獻標(biāo)識碼:A文章編號:1672-3791(2021)05(b)-0030-03

        Abstract: In recent years, more and more attention has been paid to the judgment of concentration. Aiming at the problems of low efficiency and poor real-time performance of manual observation and questionnaire surveys, this paper combines machine vision technology to design a concentration recognition method. Improved on the basis and combined with the head-up head-up rate, and at the same time, the focus discrimination classification is performed on the basis of the GT database, and a database for concentration recognition is constructed, which improves the accuracy and real-time performance of concentration recognition, and has broad application prospects and market demand.

        Key Words: Attentiveness; Machine vision; VGG; Head-up rate

        1? 專注度

        專注度指的是被測人員在完成目標(biāo)任務(wù)時的注意力集中程度[1],高專注度一般有4個特點:第一個是具有指向性,高專注狀態(tài)時被測人員對于目標(biāo)事物的注意力大大增加,從而主動忽略其他事件的干擾;第二個是具有集中性,人的精力和體力隨著高專注狀態(tài)的時間增加而減少,集中注意力更有利于專注度的提高;第三個是具有持續(xù)性,當(dāng)被測人員處于高專注度狀態(tài)時,不容易被外在事物所干擾,具有一定的持續(xù)性;第四個是具有交替性,當(dāng)長時間處于高專注度狀態(tài)時,人的體能和狀態(tài)會下降,在高專注度中間穿插一定的放松時間,有助于延長整體的高專注時間[2]。

        對于專注度狀態(tài)的檢測,主要體現(xiàn)在人臉上,主要特征如下:第一,當(dāng)人處于高專注度狀態(tài)時,面部表情變化減少,集中性增強;第二,人臉面對目標(biāo)事物,肢體動作減少,眼神跟隨目標(biāo)事物移動。

        2? 專注度檢測

        該研究的專注度檢測包含兩個部分:第一部分為抬頭平視率的檢測,以大部分人的行為作為高專注度意向,當(dāng)抬頭屬于高專注度意向時,判定低頭為低專注度狀態(tài);第二部分為基于改進VGG的專注度檢測,對第一部分中抬頭為高專注度狀態(tài)時的抬頭人員進行進一步的專注度狀態(tài)檢測。具體流程圖如圖1所示。

        2.1 抬頭平視率

        在同一環(huán)境中,某一時刻抬頭平視前方的比例超過50%則認(rèn)為抬頭狀態(tài)為高專注度狀態(tài)[3]。對輸入的圖像進行人臉五官矩形定位,以矩形中心點作為基準(zhǔn)點,建立眼-鼻三角模型,如圖2所示。

        由坐標(biāo)可得角C的余弦值,當(dāng)被測人員低頭時,角C角度減小,cosC增大,進過實驗分析,當(dāng)角C處于60°~66°時,處于抬頭平視的狀態(tài),選取cosC=0.4和cosC=0.5作為閾值,進行抬頭平視率的計算。

        2.2 基于VGG網(wǎng)絡(luò)模型的改進

        VGG網(wǎng)絡(luò)最早由Oxford Visual Geometry Group于2014年提出[4],增加了網(wǎng)絡(luò)模型的深度,它的特征提取器由卷積層和池化層反復(fù)疊加組成,利用現(xiàn)代計算機的高算力實現(xiàn)了對網(wǎng)絡(luò)性能的提升,但是極大地增加了計算機的計算量,僅全連接層權(quán)重數(shù)量就超過了1.3億個[5]。

        該文在VGG-16的基礎(chǔ)上,結(jié)合實際采集的圖像的大小,在保證準(zhǔn)確率的情況下,特征提取網(wǎng)絡(luò)進行了改進,減少了卷積層的層數(shù),并使用全局平均池化層代替了原有的全連接層,減少了參數(shù)的數(shù)量,降低了計算量,具體情況見圖3。

        該文中使用的圖片為預(yù)處理后尺寸歸一為512×512×3的圖片,改進后的特征提取網(wǎng)絡(luò)由10個卷積層和4個池化層組成,分為4層:前兩層為都為兩個卷積核的卷積層和一個最大池化層疊加而成,第一層的卷積層卷積核數(shù)量為64個,第二層為128個;后二層為3個3×3卷積核的卷積層接一個最大池化層組合而成,卷積核數(shù)量分別為256個和512個;該方法中使用了全局平均池化層代替全鏈接層,全局平均池化層就是將上層輸入的每個像素值都進行累加求平均的計算,以最終的計算值作為輸出,大大減少了神經(jīng)網(wǎng)絡(luò)的參數(shù)權(quán)重,降低了計算量的同時也解決了過擬合情況,提高了訓(xùn)練效率。

        3? 訓(xùn)練

        目前國內(nèi)外還沒有專門對于人臉專注度檢測的數(shù)據(jù)庫,該文在原有的GT數(shù)據(jù)庫[6]的基礎(chǔ)上,對圖像進行了數(shù)據(jù)歸一化處理,并選取了10名志愿者(包括教師和學(xué)生)對每張圖片的專注度進行0~10分的打分,高于5分則認(rèn)為該圖片為高專注度狀態(tài),最后對總體的評分進行計算,取大多數(shù)人的專注度意見為該圖片的最終專注度評分,建立了專注度標(biāo)簽,構(gòu)建了人臉專注度圖像數(shù)據(jù)庫,用于專注度檢測。數(shù)據(jù)庫由50名志愿者每人15張共750張圖片,包含了雜亂背景下每名志愿者低頭、抬頭、閉眼、哈欠等不同狀態(tài),其中高專注度人臉圖片570張,低專注度人臉圖片180張。將兩類圖片分別輸入神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練與測試,測試結(jié)果準(zhǔn)確率為91%,驗證了該方法的可行性。

        4? 結(jié)語

        隨著時代的發(fā)展,對于專注度的研究會越來越深入,在計算機計算能力的飛速提升之下,對于專注度狀態(tài)的自動判別的準(zhǔn)確度也會越來越高,未來對于專注度的應(yīng)用也會越來越廣。該方法還有許多值得改進的地方:第一,對于人臉專注度檢測圖像的數(shù)據(jù)庫的圖片數(shù)量和種類的擴大,該方法使用的為國外人臉,可以添加亞洲人臉增加識別范圍,提高識別準(zhǔn)確率;第二,增加語音識別技術(shù),在課堂討論等學(xué)生非直面攝像頭時,人臉識別檢測專注度效果下降,增加語音識別技術(shù)能更好地反映學(xué)生專注度狀態(tài)。

        參考文獻

        [1] 吳任.專注力管理:論專注力的培養(yǎng)和提升[J].科學(xué)咨詢(科技·管理),2020(10):40-41.

        [2] 魯月園,張軍,白鈺,等.大學(xué)生專注力與時間管理傾向的關(guān)系研究[J].承德醫(yī)學(xué)院學(xué)報,2021,38(1):88-90.

        [3] 段巨力.基于機器視覺的學(xué)生上課專注度的分析評測系統(tǒng)[D].浙江工商大學(xué),2018.

        [4] 陳津徽,張元良,尹澤睿.基于改進的VGG19網(wǎng)絡(luò)的面部表情識別[J].電腦知識與技術(shù),2020,16(29):187-188.

        [5] 張睆.基于模型視覺假體中圖像識別算法的硬件實現(xiàn)[D].西安理工大學(xué),2020.

        [6] FENG Q,YUAN C,PAN J S,et al.Superimposed Sparse Parameter Classifiers for Face Recognition[J].IEEE transactions on cybernetics,2016,47(2):378-390.

        猜你喜歡
        機器視覺
        基于芯片點膠系統(tǒng)的視覺檢測技術(shù)研究
        全自動模擬目標(biāo)搜救系統(tǒng)的設(shè)計與實現(xiàn)
        基于機器視覺的自動澆注機控制系統(tǒng)的研究
        科技視界(2016年26期)2016-12-17 17:31:58
        機器視覺技術(shù)的發(fā)展及其應(yīng)用
        科技視界(2016年25期)2016-11-25 19:53:52
        視覺拉線檢測器的設(shè)計與實現(xiàn)
        科技視界(2016年25期)2016-11-25 09:27:34
        大場景三維激光掃描儀在研究生實踐教學(xué)培養(yǎng)中的應(yīng)用
        基于機器視覺的工件鋸片缺陷檢測系統(tǒng)設(shè)計
        軟件工程(2016年8期)2016-10-25 15:55:22
        基于機器視覺技術(shù)的動態(tài)“白帶”常規(guī)檢測系統(tǒng)的開發(fā)
        科技視界(2016年20期)2016-09-29 11:11:40
        對激光切割機的改進
        科技視界(2016年6期)2016-07-12 09:12:40
        人工智能在高校圖書館的預(yù)期
        科技視界(2016年15期)2016-06-30 19:03:30
        国产一级片内射在线视频| 成人爽a毛片在线视频| 极品美女扒开粉嫩小泬图片| 国产精品一区二区在线观看| 亚欧国产女人天堂Av在线播放| 国产精品久久综合桃花网| 亚洲AV成人无码天堂| 亚洲av色香蕉第一区二区三区| 国产亚洲精品视频一区二区三区| 四虎影视成人永久免费观看视频| 亚洲中文无码av在线| 国产福利小视频91| 成人免费播放片高清在线观看| 91九色成人蝌蚪首页| 国产精品自在线拍国产手机版| 亚洲电影一区二区三区| 国产精品高清一区二区三区人妖| 中国男男女在线免费av| 精品国产av色一区二区深夜久久| 亚洲依依成人综合在线网址| 二区三区亚洲精品国产| 亚洲人成伊人成综合久久| 少妇一级淫片中文字幕| 熟女少妇在线视频播放| 国产精品玖玖玖在线资源| 视频一区二区三区中文字幕狠狠| 亚洲精品在线97中文字幕| 色狠狠一区二区三区中文| 中国农村妇女hdxxxx| 国产免费播放一区二区| 国产一品二品三品精品久久| 中文乱码字幕精品高清国产| 又粗又硬又大又爽免费视频播放| 极品熟妇大蝴蝶20p| 精品无码一区二区三区小说| 美腿丝袜日韩在线观看| 一本大道熟女人妻中文字幕在线| 久久香蕉国产线看观看精品yw| 国产激情对白一区二区三区四| 久久一二三四区中文字幕| 加勒比日韩视频在线观看|