亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的課堂表情識別研究

        2022-03-18 22:39:51畢洪波洪慶成謝春麗孫磊
        中國信息技術(shù)教育 2022年5期
        關(guān)鍵詞:教學(xué)反饋教學(xué)分析深度學(xué)習(xí)

        畢洪波 洪慶成 謝春麗 孫磊

        摘要:學(xué)生的課堂表情常常反映了學(xué)生對知識的理解和掌握情況,這對分析學(xué)生的學(xué)習(xí)狀態(tài)是非常有幫助的。然而,這些微妙的表情變化往往不能被及時發(fā)現(xiàn)和引起關(guān)注。鑒于此,作者構(gòu)建了深度學(xué)習(xí)標簽識別模型,利用采集的課堂圖像,實時捕捉每個學(xué)生的課堂表情,并分析學(xué)生的表情特征,對表情特征進行標識和分類,從而為線下、線上教學(xué)提供有價值的教學(xué)反饋。

        關(guān)鍵詞:深度學(xué)習(xí);微表情識別;教學(xué)分析;學(xué)習(xí)狀態(tài)分析;教學(xué)反饋

        中圖分類號:TP391.1? 文獻標識碼:A? 論文編號:1674-2117(2022)05-0091-05

        ● 引言

        目前,課堂教學(xué)多是以班級為單位,在一個固定的時間對幾十名學(xué)生進行教學(xué),但學(xué)生存在個體差異,教師很難照顧到每個學(xué)生的學(xué)習(xí)情況,也無法及時了解學(xué)生的課堂學(xué)習(xí)狀態(tài)。

        學(xué)生在課堂上的動作、微妙表情,都能體現(xiàn)出學(xué)生的聽課效果。盡管這些也能被有經(jīng)驗的教師偶爾捕捉到和有效解讀,但是要捕獲大多數(shù)學(xué)生的表情、動作并分析其聽課效果還是非常困難的。近年來,隨著深度學(xué)習(xí)算法的日漸成熟,借助智能化技術(shù)改進學(xué)習(xí)行為、變革傳統(tǒng)課堂、提高教育教學(xué)質(zhì)量已經(jīng)成為一種必然趨勢,這也為有效改善教學(xué)環(huán)節(jié)、提高教學(xué)質(zhì)量提供了新的科學(xué)方法。[1]

        筆者利用深度學(xué)習(xí)的方法,通過圖像識別等技術(shù)實時捕獲學(xué)生的微妙課堂表情[2],實時分析學(xué)生課堂表情,以揭示學(xué)生對課堂知識的掌握情況。該方法實時采集課堂學(xué)生的圖像,建立相應(yīng)的算法模型,利用深度學(xué)習(xí)的方法分析學(xué)生的課堂表情特征,并對相應(yīng)的表情分類標識,以反映學(xué)生對課堂知識的學(xué)習(xí)情況,從而及時得到有價值的教學(xué)反饋。

        ● 相關(guān)工作

        從心理學(xué)角度看,人的面部表情是情感信息表達的一種主要途徑,是情感最真實、最直接的反映,可以折射人的不同情感狀態(tài),如高興、悲傷、憤怒、恐懼、驚訝、厭惡等。[3-4]已有研究者嘗試把表情識別引入教育教學(xué)領(lǐng)域,用于分析學(xué)生的學(xué)習(xí)狀態(tài)。馮滿堂等人將表情識別技術(shù)引入傳統(tǒng)智能網(wǎng)絡(luò)教學(xué)系統(tǒng)中,實現(xiàn)了網(wǎng)絡(luò)環(huán)境下兼顧認知和情感兩方面的個性化教學(xué),從而提高網(wǎng)絡(luò)環(huán)境下的教學(xué)效率。[5]程萌萌等人構(gòu)建了包括教師、學(xué)生、課程、情感四部分的智能教學(xué)系統(tǒng)結(jié)構(gòu)模型,利用表情識別與視線跟蹤技術(shù)實現(xiàn)情感模塊的反饋,為網(wǎng)絡(luò)學(xué)習(xí)中情感反饋機制的發(fā)展提供技術(shù)支持。[6]孫波等人通過將個體的人臉特征與表情特征相分離,排除無關(guān)因素對表情識別效果的干擾,提高了表情識別的準確性,并將此應(yīng)用在師生情感交互系統(tǒng)上,成功實現(xiàn)了基于面部表情的學(xué)習(xí)者情感識別及情感干預(yù)功能。[7]詹澤慧等人開發(fā)的基于智能Agent的遠程學(xué)習(xí)者情感與認知識別模型,結(jié)合了表情識別和眼動追蹤技術(shù),提高了遠程環(huán)境下學(xué)習(xí)者狀態(tài)判斷的準確率,改進了Agent對學(xué)習(xí)者的情感和認知支持。[8]楊金朋等人將人臉表情識別算法應(yīng)用到在線學(xué)習(xí)平臺,對人臉表情數(shù)據(jù)進行實時收集和情感狀態(tài)計算,通過數(shù)據(jù)分析在線學(xué)習(xí)者的臉部表情會在一定程度上反映出其當前的學(xué)習(xí)狀態(tài),為學(xué)習(xí)者提供個性化的學(xué)習(xí)服務(wù)。[9]

        以上列出的研究方法多數(shù)是屬于實證研究范疇[10-14],而隨著計算機視覺領(lǐng)域的快速崛起,利用人臉識別技術(shù)已經(jīng)在某些領(lǐng)域,如人臉打卡、智能門禁、刑偵辦案、安全駕駛等領(lǐng)域產(chǎn)生了有效應(yīng)用。但在教育領(lǐng)域,利用計算機技術(shù)識別學(xué)生課堂表情的研究還較少。周建國等人通過智能手機采集到課堂上學(xué)生上課時不同時刻的面部表情圖像,提出用卷積神經(jīng)網(wǎng)絡(luò)與迭代決策樹融合的方法提取面部圖像特征,根據(jù)表情將其分為專心與不專心兩類樣本。[15]鐘志鵬等人提出了多核學(xué)習(xí)特征融合的人臉表情識別,并在學(xué)生聽課表情庫上做了實驗。[16]已有的課堂面部表情識別方法采用手工提取特征,隨著參數(shù)越來越多,模型訓(xùn)練很容易陷入過擬合的狀態(tài)。而隨著深度學(xué)習(xí)計算能力的大幅度提高,可獲得的訓(xùn)練數(shù)據(jù)量迅猛增加,尤其是卷積神經(jīng)網(wǎng)絡(luò)在圖像識別方面的表現(xiàn),使得課堂表情識別更加科學(xué)可行。[17-20]

        ● 表情識別系統(tǒng)

        1.系統(tǒng)實現(xiàn)框架

        系統(tǒng)通過學(xué)生對不同知識點的微表情變化,分析學(xué)生的課堂學(xué)習(xí)狀態(tài),從而為教師提供有價值的教學(xué)反饋,優(yōu)化教學(xué)過程和教學(xué)方法。系統(tǒng)主要包括數(shù)據(jù)收集和預(yù)處理、表情識別模型訓(xùn)練以及基于該深度學(xué)習(xí)模型設(shè)計的表情識別模塊。

        為了獲取課堂學(xué)生的面部特征,進而識別學(xué)生表情,設(shè)計了人臉表情識別系統(tǒng)的實現(xiàn)框架(如圖1)。本設(shè)計主要分兩部分功能:人臉識別和表情識別。首先收集人臉數(shù)據(jù)集和用于訓(xùn)練的表情數(shù)據(jù)集。其次采用線上API的方式,實時采集課堂上學(xué)生的人臉,并將采集到的人臉數(shù)據(jù)按照指定要求上傳到服務(wù)端;然后將采集到的人臉數(shù)據(jù)劃分為測試集和訓(xùn)練集,將訓(xùn)練數(shù)據(jù)輸入到CNN模型進行訓(xùn)練,當一輪訓(xùn)練結(jié)束后,利用測試集對訓(xùn)練結(jié)果進行測試,并評估表情識別的準確率,如果準確率沒有達到預(yù)期,則調(diào)整參數(shù)繼續(xù)訓(xùn)練,直到找到最優(yōu)解并保存解集。最后,針對人臉識別和表情識別的軟件接口,設(shè)計相應(yīng)的用戶服務(wù)接口,用于接收用戶輸入的參數(shù),并將分析結(jié)果反饋給用戶。

        2.數(shù)據(jù)預(yù)處理

        對人臉識別和表情識別數(shù)據(jù)集采用不同的方法進行預(yù)處理。由于本設(shè)計中人臉識別數(shù)據(jù)集的數(shù)量并不大,所以主要采取人工篩選的方法篩掉內(nèi)存過大、亮度過高或者過暗、遮擋過多等噪聲大的圖片。對于表情識別fer2013數(shù)據(jù)集,由于它已經(jīng)是標準數(shù)據(jù)集,所以沒有再做關(guān)于圖片格式的相關(guān)預(yù)處理。但是為了進一步優(yōu)化模型性能,深度學(xué)習(xí)需要規(guī)模較大的數(shù)據(jù)。雖然fer2013數(shù)據(jù)集已經(jīng)有了2萬多的數(shù)據(jù)量,但是實際情況反映這并不夠。因此,采用了數(shù)據(jù)增強技術(shù),即一種通過讓有限的數(shù)據(jù)產(chǎn)生更多的等價數(shù)據(jù)來人工擴展訓(xùn)練數(shù)據(jù)集的技術(shù)。它是克服訓(xùn)練數(shù)據(jù)不足的有效手段。

        3.人臉識別模型

        由于現(xiàn)實生活中個人收集人臉數(shù)據(jù)集的難度大,如果自己訓(xùn)練一定達不到理想的準確度,所以本設(shè)計采用了騰訊云的機器學(xué)習(xí)API的方式,以達成更為理想的識別率。騰訊云人臉識別API是基于騰訊優(yōu)圖的人臉分析技術(shù),主要提供了人臉檢測與分析、五官定位、人臉對比、人員庫管理、人臉驗證、人臉搜索等功能。本設(shè)計中主要用到了該接口的人員庫管理以及人臉搜索功能,建立人員庫的好處在于將各個不同的數(shù)據(jù)集隔離開來,這樣既便于區(qū)分,也便于查找比對,當數(shù)據(jù)量足夠大時能大大提升查詢效率。本設(shè)計采用的是Python SDK的調(diào)用方式,能高效地完成工作。

        4.表情識別模型

        實驗選擇了mini_Xception和MobilenetV2兩種輕量級模型分別進行表情識別訓(xùn)練。mini_Xception模型是卷積網(wǎng)絡(luò)的改進模型,增加了深度分離卷積(Separable Convolution)算法,此算法思想是將傳統(tǒng)的卷積運算分解為逐通道卷積與逐點卷積兩步進行。假設(shè)輸入層為一張4*64像素、3通道的圖片,對于常規(guī)卷積運算,經(jīng)過一個包含4個過濾器的卷積層,每個分類器包含3個3*3的Kernel,最終輸出4個特征圖,且尺寸與輸入層相同,那么卷積層參數(shù)數(shù)量為108個。對于深度分離卷積運算,首先進行逐通道卷積,與常規(guī)卷積不同的是卷積完全在二維平面上進行,且分類器數(shù)量通道數(shù)相同,所以一個3通道圖像運算后生成了3個特征,參數(shù)個數(shù)只有27個,然后特征圖在深度方向上進行加權(quán)組合,生成新的特征圖,有幾個分類器就有幾個特征圖,這一步的參數(shù)個數(shù)為12。從以上分析可以看出可分離卷積的參數(shù)數(shù)量為27+12=29個,約為常規(guī)卷積的三分之一。因此,在參數(shù)量相同的情況下,采用可分離卷積的神經(jīng)網(wǎng)絡(luò)層數(shù)可以更深,能獲得更好的性能。MobilenetV2模型是Google針對手機等嵌入式設(shè)備提出的一種輕量級的深層神經(jīng)網(wǎng)絡(luò),核心思想也是深度可分離卷積,此處不再贅述。

        ● 實驗與分析

        1.數(shù)據(jù)集簡介

        (1)人臉識別數(shù)據(jù)集

        首先,本系統(tǒng)采集筆者所在的智慧教育學(xué)院17智(71)班的學(xué)生的照片作為人臉識別數(shù)據(jù)集。該數(shù)據(jù)集包含了40個人,每個人有15張左右的照片,其中5張上傳至騰訊云,其余為測試數(shù)據(jù)。本設(shè)計的人臉識別功能的實現(xiàn)主要依賴于騰訊云的人臉識別API,主要用到了該接口的人員庫管理以及人臉搜索功能。

        (2)表情數(shù)據(jù)集與數(shù)據(jù)增強

        本設(shè)計選擇的fer2013數(shù)據(jù)集是Kaggle為了舉辦人臉表情識別比賽而公開的。fer2013數(shù)據(jù)集一共包含了35000多張表情圖片,包含生氣、厭惡、害怕、高興、驚奇、中立七種類別的表情圖像,其中有近29000張訓(xùn)練圖片。

        眾所周知,在機器學(xué)習(xí)中,數(shù)據(jù)集可以說是最難解決的問題之一,其難處不在于數(shù)據(jù)集的優(yōu)化,而在于數(shù)據(jù)量。雖然fer2013數(shù)據(jù)集已經(jīng)有了20000多的數(shù)據(jù)量,但并不夠。所以,筆者對fer2013數(shù)據(jù)集進行了數(shù)據(jù)增強,增強過后的數(shù)據(jù)集可以從原來的28000多增加到80000多,而七個表情準確度則平均上升了20%左右。

        2.實驗設(shè)計和分析

        (1)實驗設(shè)計

        本設(shè)計的深度學(xué)習(xí)框架選擇了谷歌Tensorflow+Keras以及百度Paddlepaddle兩者對比實現(xiàn)。由于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)算法進行表情識別的準確率沒有達到最優(yōu),所以本設(shè)計的神經(jīng)網(wǎng)絡(luò)算法選擇了MobilenetV2和mini_Xception兩種模型進行訓(xùn)練,提高了表情識別的準確率。兩者都是新出的輕量級模型,運用到了深度分離卷積算法,在很大程度上簡化了運算量,從而減少了模型訓(xùn)練所需要的時間。就最終實測的結(jié)果而言,Tensorflow+Keras+mini_Xception的組合更加高效準確。

        (2)實驗結(jié)果

        實驗結(jié)果如上表所示。MobilenetV2和mini_Xception兩個模型在測試數(shù)據(jù)集上的準確度都超過了70%,已經(jīng)達到了相等條件下的最優(yōu)。實驗過程中筆者發(fā)現(xiàn),mini_Xception模型對高興和驚訝這兩種表情的正確識別率最高,分別達到87%和77%,識別正確率最低的為害怕表情,只有42%。圖2和圖3分別是對GUI系統(tǒng)的展示,通過自定義圖片和調(diào)用實時攝像頭進行分析的結(jié)果。圖2是加載圖片的人臉識別結(jié)果和表情分類結(jié)果,圖3是實時捕獲攝像頭并識別的結(jié)果,雖然該學(xué)生并不在人臉庫中,但仍然能夠識別其表情狀態(tài)。

        最后,關(guān)于表情與學(xué)生課堂學(xué)習(xí)效率的關(guān)系,筆者對錄入系統(tǒng)的學(xué)生進行了課后問卷調(diào)查。調(diào)查結(jié)果顯示,本系統(tǒng)對人臉的識別和表情識別的結(jié)果基本準確。在調(diào)查報告中,表情為中立的學(xué)生對知識的掌握效率要高于表現(xiàn)為其他的幾種表情的學(xué)生;其中表現(xiàn)為生氣、害怕、厭惡的學(xué)生對知識的掌握效率低于平均水平。由此可見,表情與學(xué)生對知識掌握效率有著一定的聯(lián)系。所以,可以通過對學(xué)生的面部表情特征的實時分析得到班級學(xué)生對當前知識掌握的總體情況,從而為線下、線上教學(xué)提供有價值的教學(xué)反饋數(shù)據(jù),幫助教師進行針對性的教學(xué)方案修改,提高課堂效率。

        ● 結(jié)語

        本設(shè)計作為“學(xué)習(xí)者的微表情研究”課題的一部分,在一定的理論基礎(chǔ)上,主要承擔三方面工作:其一是搜尋可用于實際使用和訓(xùn)練的數(shù)據(jù)集,包括人臉數(shù)據(jù)庫和表情識別數(shù)據(jù)集;其二是選擇高效便捷的實現(xiàn)方案,建立準確度更高的模型并保存訓(xùn)練結(jié)果;其三是在前兩項工作完成的情況下設(shè)計出直觀、可用的交互式應(yīng)用程序,方便測試與使用。本設(shè)計基本完成了以上任務(wù),并采用了許多成熟且實用的工具和模塊,如PyQt5、Python-OpenCV等。

        參考文獻:

        [1]鄭慶華,董博,錢步月,等.智慧教育研究現(xiàn)狀與發(fā)展趨勢[J].計算機研究與發(fā)展,2019,56(01):1-16.

        [2]鄭怡文,陳紅星,白云暉.基于大數(shù)據(jù)在課堂教學(xué)中對學(xué)生精準關(guān)注的實驗研究[J].現(xiàn)代教育科學(xué),2016(02):54-57.

        [3]侯洪濤.一種課堂環(huán)境下學(xué)生表情識別系統(tǒng)的研究[D].北京:北京工業(yè)大學(xué),2015.

        [4]劉三女牙,劉智,高菊,等.慕課環(huán)境下學(xué)習(xí)者學(xué)習(xí)行為差異性分析研究[J].電化教育研究,2016(10):57-63.

        [5]馮滿堂,馬青玉,王瑞杰.基于人臉表情識別的智能網(wǎng)絡(luò)教學(xué)系統(tǒng)研究[J].計算機技術(shù)與發(fā)展,2011(06):193-196.

        [6]程萌萌,林茂松,王中飛.應(yīng)用表情識別與視線跟蹤的智能教學(xué)系統(tǒng)研究[J].中國遠程教育,2013(03):59-64.

        [7]孫波,劉永娜,陳玖冰,等.智慧學(xué)習(xí)環(huán)境中基于面部表情的情感分析[J].現(xiàn)代遠程教育研究,2015(02):96-103.

        [8]詹澤慧.基于智能Agent的遠程學(xué)習(xí)者情感與認知識別模型——眼動追蹤與表情識別技術(shù)支持下的耦合[J].現(xiàn)代遠程教育研究,2013(05):100-105.

        [9]楊金朋,薛耀鋒,李佳璇,等.基于人臉表情識別的在線學(xué)習(xí)情感計算研究[J].中國教育技術(shù)裝備,2017,18(35):35-43.

        [10]李勇帆,李里程.情感計算在網(wǎng)絡(luò)遠程教育系統(tǒng)中的應(yīng)用:功能、研究現(xiàn)狀及關(guān)鍵問題[J].現(xiàn)代遠程教育研究,2013(02):100-106.

        [11]晉欣泉,王林麗,楊現(xiàn)民.基于大數(shù)據(jù)的在線學(xué)習(xí)情緒測量模型構(gòu)建[J].現(xiàn)代教育技術(shù), 2016(12):5-11.

        [12]蘇耶亞塔·蘭尼.用以提升教學(xué)效果的情感分析系統(tǒng)[J].計算科學(xué)評論,2017,6(01):34-41.

        [13]單存杰.教室場景中學(xué)生定位與身份識別[D].武漢:華中師范大學(xué),2016.

        [14]韓麗,李洋,周子佳,等.課堂環(huán)境中基于面部表情的教學(xué)效果分析[J].現(xiàn)代遠程教育研究,2017(04):97-103+112.

        [15]周建國,唐東明,彭爭,等.基于卷積神經(jīng)網(wǎng)絡(luò)的課堂表情分析軟件研究與實現(xiàn)[J].成都信息工程大學(xué)學(xué)報,2017,32(05):508-512.

        [16]鐘志鵬,張立保.基于多核學(xué)習(xí)特征融合的人臉表情識別[J].計算機應(yīng)用,2015,35(S2):245-249.

        [17]Zhang T,Zheng W,Cui Z,Zong Y,Yan J and Yan K. A Deep Neural Network-Driven Feature Learning Method for Multi-view Facial Expression Recognition[J].IEEE Transactions on Multimedia,2016,18(12):2528-2536.

        [18]Li S and Deng W. Reliable Crowdsourcing and Deep Locality-Preserving Learning for Unconstrained Facial Expression Recognition[J].IEEE Transactions on Image Processing,2019,28(01):356-370.

        [19]Rao Y, Lu J and Zhou J.Attention-Aware Deep Reinforcement Learning for Video Face Recognition[Z].Proceedings of 2017 IEEE International Conference on Computer Vision (ICCV),Venice,2017:3951-3960.

        [20]Arriaga O,Ploger P G.,Valdenegro M.Real-time Convolutional Neural Networks for Emotion and Gender Classification[C].ICRA,2017(10).

        作者簡介:畢洪波,男,徐州市第二中學(xué)教師,徐州教育督導(dǎo)室專職督學(xué),研究方向為教育信息化;謝春麗,通訊作者,女,副教授,研究方向為教育智能化;洪慶成,男,江蘇師范大學(xué)本科生;孫磊,男,江蘇師范大學(xué)本科生。

        基金項目:江蘇省高等學(xué)校大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計劃項目(202010320035Z),教育部產(chǎn)學(xué)合作協(xié)同育人項目(d2a33dac-9bb7-4408-a778-19fbc71d68de)。

        3797500589292

        猜你喜歡
        教學(xué)反饋教學(xué)分析深度學(xué)習(xí)
        “預(yù)檢展評測”教學(xué)模式研究
        考試周刊(2017年7期)2017-02-06 21:12:57
        如何打造初中生物優(yōu)質(zhì)課堂
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        如何提升小學(xué)語文教學(xué)中學(xué)生的寫作興趣
        中學(xué)物理教學(xué)探究
        基于學(xué)習(xí)任務(wù)分析的教學(xué)設(shè)計
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        高職院校《貨幣銀行學(xué)》課程教學(xué)分析
        色综合悠悠88久久久亚洲| 久久无码一一区| 亚洲日产AV中文字幕无码偷拍| 精品女厕偷拍视频一区二区区| 无码人妻一区二区三区免费看| 伊人久久大香线蕉av一区| 91免费播放日韩一区二天天综合福利电影 | av片在线观看免费| 无码国产精品一区二区AV| 在线看高清中文字幕一区| 4455永久免费视频| 亚洲欧美另类激情综合区| 97色综合| 中文字幕高清视频婷婷| 精品久久久bbbb人妻| 国产黄a三级三级三级av在线看| 激,情四虎欧美视频图片| 午夜免费观看国产视频| 国产精品久久久久9999吃药| 久久99国产亚洲高清观看韩国| 日本av在线精品视频| 国产主播一区二区三区蜜桃| 亚洲男人av天堂午夜在| 国产激情久久99久久| 一区二区三区四区午夜视频在线 | 视频国产自拍在线观看| 色欲人妻综合aaaaa网| 日韩手机在线免费视频| 亚洲免费看三级黄网站| 国产精品毛片无遮挡高清| 色婷婷综合久久久久中文| av无码一区二区三| 熟妇人妻精品一区二区视频免费的| 免费a级毛片无码免费视频120软件 | 狠狠躁天天躁无码中文字幕图| 亚洲 欧美精品suv| AV无码专区亚洲AVL在线观看| 国语淫秽一区二区三区四区| 久久久久人妻一区精品色欧美| 久久亚洲伊人| 综合激情五月三开心五月|