亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        鐵路調(diào)度員疲勞狀態(tài)檢測軟件研究與設(shè)計(jì)

        2024-03-20 02:00:14鄭偉陳亮呂宏宇胡大欣俱巖飛張春光
        鐵道通信信號 2024年3期
        關(guān)鍵詞:關(guān)鍵點(diǎn)特征檢測

        鄭偉,陳亮,呂宏宇,胡大欣,俱巖飛,張春光

        調(diào)度中心作為鐵路運(yùn)輸?shù)闹笓]中樞,負(fù)責(zé)指揮各部門協(xié)同完成運(yùn)輸工作,擔(dān)負(fù)著保障運(yùn)輸安全、組織客貨運(yùn)輸、保證國家重點(diǎn)運(yùn)輸任務(wù)、提高客貨服務(wù)質(zhì)量的重要責(zé)任。調(diào)度指揮的準(zhǔn)確性、可靠性、安全性是鐵路運(yùn)營安全的重要保障。調(diào)度員的工作狀態(tài)極大地影響著鐵路的運(yùn)營安全,而疲勞是誘發(fā)人因失誤的主要原因之一[1-3]。因此,對調(diào)度員疲勞狀態(tài)進(jìn)行在線檢測,是保障鐵路正常運(yùn)輸秩序、提質(zhì)增效亟待解決的問題。

        目前,國內(nèi)外關(guān)于飛行員、司機(jī)駕駛疲勞檢測技術(shù)的研究較多,調(diào)度員疲勞檢測可以進(jìn)行借鑒。文獻(xiàn)[4]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法,用來自動識別睡意狀態(tài),采用單通道原始腦電信號作為深度學(xué)習(xí)算法的輸入,從中提取特征;文獻(xiàn)[5]采用8個(gè)腦電通道對高鐵司機(jī)狀態(tài)進(jìn)行檢測,使用矩陣分解算法對從無線可穿戴腦電信號采集設(shè)備獲得的信號進(jìn)行疲勞狀態(tài)分類;文獻(xiàn)[6]基于機(jī)器學(xué)習(xí)方法,將PERCLOS[7]判定準(zhǔn)則的f值、最長持續(xù)閉眼時(shí)間和嘴部張開次數(shù)作為神經(jīng)網(wǎng)絡(luò)的輸入,構(gòu)建3層反向傳播神經(jīng)網(wǎng)絡(luò)識別疲勞狀態(tài);文獻(xiàn)[8]提出基于改進(jìn)Retina-Face模型和改進(jìn)ShuffleNetV2網(wǎng)絡(luò)模型提取圖像特征,實(shí)現(xiàn)通過人臉檢測及眼睛嘴巴開合狀態(tài)對疲勞狀態(tài)進(jìn)行判斷;文獻(xiàn)[9]通過模糊推理系統(tǒng),將眼睛開合度、嘴巴開合度、眼動速率等3個(gè)判斷指標(biāo)相結(jié)合,用來判斷疲勞;文獻(xiàn)[10]提出一種基于上身姿態(tài)的雙流融合網(wǎng)絡(luò)模型,判斷高鐵司機(jī)疲勞程度。

        綜上所述,基于類似腦電的人體生理指標(biāo)檢測方法對于疲勞檢測較為直接,但穿戴設(shè)備對工作人員的侵入性和干擾性較強(qiáng),影響正常工作;而基于面部、眼部圖像的檢測方法,僅采用單一特征,檢測效果也有待提高,且視頻數(shù)據(jù)如果采用人工監(jiān)控的方式,成為一種事后取證的工具,很難進(jìn)行統(tǒng)計(jì)分析,無法滿足鐵路局對調(diào)度員疲勞狀態(tài)統(tǒng)一管理和考核的需求。

        為此,結(jié)合調(diào)度員工作特點(diǎn),本文提出基于圖像多特征融合的調(diào)度員疲勞檢測方法。該方法基于圖像識別技術(shù)的非接觸式設(shè)計(jì),在調(diào)度員前方安裝單目攝像頭并連接工控機(jī),實(shí)時(shí)檢測調(diào)度員臉部及其上半身姿態(tài),利用疲勞檢測模型對調(diào)度員當(dāng)前的疲勞狀態(tài)進(jìn)行分類。在不干擾調(diào)度員工作的前提下,可提高疲勞檢測準(zhǔn)確率及時(shí)效性,實(shí)現(xiàn)對調(diào)度員疲勞狀態(tài)數(shù)據(jù)的分析與管理。

        1 疲勞狀態(tài)檢測算法

        1.1 基于Retina-Face的臉部關(guān)鍵點(diǎn)檢測算法

        PERCLOS P80是檢測人體疲勞公認(rèn)較為準(zhǔn)確的方法之一。PERCLOS的全稱為“Percentage of Eye Closure over the Pupil for the Required Observation Time”,即在所需觀測時(shí)間內(nèi)瞳孔上眼瞼閉合的百分比。PERCLOS P80是指在單位時(shí)間(60 s)內(nèi)測量眼睛閉合程度超過80%的時(shí)間所占的比例(用P80表示)。用該方法可以實(shí)現(xiàn)非接觸式檢測,對被監(jiān)測人員不產(chǎn)生影響,但需要對人臉部,尤其是眼部、嘴部的關(guān)鍵點(diǎn)進(jìn)行準(zhǔn)確而快速的定位。

        目前,面部關(guān)鍵點(diǎn)定位有多種解決方法,如級聯(lián)形狀回歸方法、基于深度學(xué)習(xí)方法等。其中,精度最高的是基于深度學(xué)習(xí)的方法,考慮到現(xiàn)場實(shí)際應(yīng)用,需要選擇精度較高且模型體積較小的關(guān)鍵點(diǎn)定位方法。Retina-Face是insightface團(tuán)隊(duì)提出的一種專門檢測人臉的單階段多任務(wù)深度學(xué)習(xí)檢測算法,其網(wǎng)絡(luò)模型特點(diǎn)包括:單階段目標(biāo)檢測、特征金字塔網(wǎng)絡(luò)方法、上下文特征模塊、多任務(wù)學(xué)習(xí)、錨點(diǎn)框機(jī)制及輕量級主干網(wǎng)絡(luò)等,能夠識別人臉關(guān)鍵點(diǎn),進(jìn)而檢測出打哈欠、眨眼等動作。該模型在推理速度和準(zhǔn)確性方面較優(yōu)秀,適合在小型工控機(jī)上完成人臉關(guān)鍵點(diǎn)檢測任務(wù)。綜上所述,本研究基于Retina-Face模型識別面部關(guān)鍵點(diǎn),截取眼部圖片;然后結(jié)合方向梯度直方圖(Histogram of Oriented Gradient, HOG)與支持向量機(jī)算法(Support Vector Machine, SVM),即HOG-SVM算法實(shí)現(xiàn)眼部睜眼、閉眼分類;最后采用PERCLOS方法評估調(diào)度員疲勞狀態(tài),準(zhǔn)確地檢測并判斷個(gè)體的眼部動作和疲勞程度。

        本文基于Retina-Face的面部關(guān)鍵點(diǎn)檢測算法,重新設(shè)計(jì)了21個(gè)人臉檢測關(guān)鍵點(diǎn)[11]:左右雙眼各6個(gè)、鼻尖1個(gè)、嘴部8個(gè),面部關(guān)鍵點(diǎn)檢測示意見圖1。

        圖1 基于Retina-Face的面部關(guān)鍵點(diǎn)檢測示意

        Retina-Face包含3個(gè)任務(wù):人臉分類、臉框檢測、關(guān)鍵點(diǎn)檢測。當(dāng)使用人臉分類、臉框檢測的預(yù)訓(xùn)練網(wǎng)絡(luò)權(quán)重文件進(jìn)行預(yù)測時(shí),無需對權(quán)重文件再次訓(xùn)練,僅對面部關(guān)鍵點(diǎn)檢測權(quán)重單獨(dú)訓(xùn)練即可,可以大幅提高訓(xùn)練效率,并且由于預(yù)訓(xùn)練權(quán)重對人臉檢測效果較好,還可以對關(guān)鍵點(diǎn)檢測的準(zhǔn)確性起到積極作用。以打哈欠為例,提取嘴部8個(gè)關(guān)鍵點(diǎn)并進(jìn)行定位。一般打哈欠時(shí),嘴部縱橫比MAR會產(chǎn)生較大變化,與說話時(shí)的MAR值有明顯區(qū)分,因此本文采用固定閾值的方法進(jìn)行面部關(guān)鍵點(diǎn)的打哈欠檢測。當(dāng)MAR<0.3時(shí),確定為口閉或開口說話;當(dāng)MAR>0.3時(shí),確定嘴部狀態(tài)為打哈欠。嘴部MAR變化情況見圖2。

        圖2 嘴部MAR變化情況(截?。?/p>

        1.2 基于BiLSTM-SVM的自適應(yīng)增強(qiáng)算法

        針對工作中僅能拍到調(diào)度員半身坐姿的特點(diǎn),提出一種基于雙向長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)(Bidirectional Long Short-Term Memory,BiLSTM)和自適應(yīng)增強(qiáng)算法的人體姿態(tài)分類方法。BiLSTM是一種更高級的循環(huán)神經(jīng)網(wǎng)絡(luò),有效避免了梯度消失和梯度爆炸的問題。

        針對多分類問題,運(yùn)用單一的人工智能方法已經(jīng)不能滿足對分類問題的泛化與推理能力的提升。而集成學(xué)習(xí)方法可以有效提高模型能力,Ada-Boost算法由Freund提出,是最具代表性的自適應(yīng)增強(qiáng)算法之一。該算法會增加錯(cuò)誤訓(xùn)練實(shí)例的相對權(quán)重,然后使用更新后的權(quán)重訓(xùn)練第2個(gè)分類器,并再次對訓(xùn)練集進(jìn)行預(yù)測,更新實(shí)例權(quán)重,以此類推。Adaboost算法模型見圖3。

        圖3 Adaboost算法模型

        根據(jù)動作時(shí)間序列特點(diǎn),本文采用循環(huán)神經(jīng)網(wǎng)絡(luò)與集成學(xué)習(xí)算法相結(jié)合的思路,基于高分辨率網(wǎng)絡(luò)(High-Resolution Net, HRNet)人體姿態(tài)關(guān)鍵點(diǎn)檢測模型,提取人體骨骼關(guān)鍵點(diǎn)信息[12];通過構(gòu)建人體動作行為角度特征與長度比例特征,實(shí)現(xiàn)數(shù)據(jù)降維與特征提取;采用SVM替代網(wǎng)絡(luò)輸出層Softmax函數(shù)完成動作分類,以達(dá)到提高識別率的目的;最后以BiLSTM-SVM作為Adaboost算法的基礎(chǔ)分類器,在提高識別率的同時(shí),降低泛化誤差,實(shí)現(xiàn)調(diào)度員疲勞動作的識別。

        2 方案設(shè)計(jì)

        通過放置在調(diào)度臺的攝像頭,采集調(diào)度員面部及身體姿態(tài)視頻信息,分析調(diào)度員的眨眼頻率、時(shí)長和打哈欠頻率等面部特征,以及低頭、趴桌等瞌睡姿態(tài)特征,對調(diào)度員的疲勞狀態(tài)數(shù)據(jù)進(jìn)行實(shí)時(shí)記錄、分類、分析與跟蹤。軟件架構(gòu)共分為5層,分別是顯示層、功能業(yè)務(wù)層、數(shù)據(jù)層、傳輸層、采集層,見圖4。

        圖4 軟件架構(gòu)

        1)顯示層?;赑yQT設(shè)計(jì)的軟件人機(jī)交互界面,具有視頻實(shí)時(shí)顯示、本地視頻播放、疲勞狀態(tài)檢測結(jié)果顯示、歷史數(shù)據(jù)查詢等功能。

        2)功能業(yè)務(wù)層。負(fù)責(zé)實(shí)現(xiàn)軟件的基本操作與核心算法,包括調(diào)度員疲勞檢測的各項(xiàng)功能模塊:攝像頭實(shí)時(shí)數(shù)據(jù)采集、視頻數(shù)據(jù)播放及檢測、多特征融合疲勞檢測模型、聲音報(bào)警等。實(shí)現(xiàn)調(diào)度員疲勞狀態(tài)的檢測與報(bào)警,同時(shí)與數(shù)據(jù)層進(jìn)行相關(guān)疲勞數(shù)據(jù)的讀寫,是該軟件的核心。

        3)數(shù)據(jù)層。作為軟件的數(shù)據(jù)中心,存儲調(diào)度員疲勞狀態(tài)數(shù)據(jù)、視頻數(shù)據(jù)文件等。

        4)傳輸層。通過有線網(wǎng)絡(luò)的方式進(jìn)行攝像頭與主機(jī)間視頻圖像的傳輸。

        5)采集層。通過硬件設(shè)備單目廣角攝像頭,完成調(diào)度員視頻圖像的采集。

        3 軟件設(shè)計(jì)與實(shí)現(xiàn)

        軟件利用人工智能、圖像處理等計(jì)算機(jī)技術(shù),對實(shí)時(shí)采集的調(diào)度員面部表情和行為姿態(tài)視頻信號進(jìn)行識別、分析和統(tǒng)計(jì),具有在線監(jiān)控、視頻管理、統(tǒng)計(jì)分析等功能,滿足調(diào)度中心對調(diào)度員疲勞狀態(tài)監(jiān)控及管理需求。

        3.1 檢測算法流程

        首先,通過視頻采集設(shè)備獲取調(diào)度員的實(shí)時(shí)視頻圖像;其次,利用Retina-Face模型提取人眼、鼻尖和嘴部的關(guān)鍵點(diǎn),根據(jù)眼部圖片,計(jì)算HOG特征,輸入SVM中,同時(shí)通過HRNet人體姿態(tài)關(guān)鍵點(diǎn)檢測模型提取人體關(guān)鍵點(diǎn),將人體姿態(tài)特征輸入BiLSTM-SVM自適應(yīng)增強(qiáng)算法模型中,得到疲勞狀態(tài)下的各特征值;最后,將所有特征值作為人工神經(jīng)網(wǎng)絡(luò)的輸入,計(jì)算多特征融合的疲勞狀態(tài)。檢測算法流程見圖5。

        圖5 鐵路調(diào)度員疲勞狀態(tài)檢測算法流程

        通常情況下,人體在疲勞狀態(tài)時(shí),眨眼頻率、PERCLOS值、打哈欠次數(shù)都會增加。進(jìn)行疲勞檢測時(shí),如果計(jì)算周期過長則無法及時(shí)發(fā)現(xiàn)疲勞狀態(tài),周期過短則易導(dǎo)致疲勞誤檢率過高。為了兼顧疲勞檢測的實(shí)時(shí)性和準(zhǔn)確率,軟件將疲勞檢測周期設(shè)定為60 s,視頻采樣幀率為30幀/s,即計(jì)算1 800幀數(shù)據(jù)中各項(xiàng)特征的數(shù)值及調(diào)度員疲勞狀態(tài)。

        3.2 軟件實(shí)現(xiàn)

        軟件開發(fā)使用Python語言,開發(fā)環(huán)境采用PyCharm,界面利用QtDesigner設(shè)計(jì),數(shù)據(jù)層采用SQL Lite進(jìn)行設(shè)計(jì)與管理。其中QtDesigner提供了前端常用的按鈕、對話框、文本框等控件。根據(jù)前后端分離設(shè)計(jì)的軟件實(shí)現(xiàn)思路,前端界面的設(shè)計(jì)完成后,通過調(diào)用后臺邏輯文件實(shí)現(xiàn)軟件業(yè)務(wù)功能。整個(gè)數(shù)據(jù)庫采用一張用戶表設(shè)計(jì),包括ID、姓名、工號、疲勞狀態(tài)、起始時(shí)間、截止時(shí)間、視頻文件路徑等參數(shù)。

        如圖6所示,軟件操作界面采用分區(qū)顯示,左側(cè)區(qū)域?yàn)橐汛娴匿浵褚曨l檢測及顯示,右側(cè)區(qū)域?yàn)閷?shí)時(shí)檢測視頻。

        圖6 疲勞狀態(tài)檢測軟件操作界面

        4 試驗(yàn)驗(yàn)證

        試驗(yàn)數(shù)據(jù)集為自制數(shù)據(jù)集,采用攝像頭拍攝在調(diào)度模擬仿真實(shí)驗(yàn)室進(jìn)行試驗(yàn)時(shí)志愿者的視頻數(shù)據(jù)。共有5位不同年齡段的志愿者,包括3名男生、2名女生,身體狀況良好。每個(gè)志愿者均采集40 min的視頻數(shù)據(jù),時(shí)間分布為上午9:00—10:00間采集10 min,下午3:00—4:00間采集10 min,晚上23:00—24:00采集20 min(疲勞狀態(tài)),共采集200 min,包括輕度及以下疲勞狀態(tài)、中度疲勞狀態(tài)、重度疲勞狀態(tài)。每一個(gè)數(shù)據(jù)為1 min,共200條數(shù)據(jù),經(jīng)過篩選,可用數(shù)據(jù)為192條。將其分為138條訓(xùn)練數(shù)據(jù),54條作為測試數(shù)據(jù),訓(xùn)練數(shù)據(jù)采用5折交叉驗(yàn)證法,輪流將訓(xùn)練集中110條數(shù)據(jù)用來訓(xùn)練,另外28條用來驗(yàn)證。

        首先將采集到的視頻數(shù)據(jù)輸入到Retina-Face模型進(jìn)行人臉關(guān)鍵點(diǎn)定位,得到人眼部12個(gè)、嘴部8個(gè)、鼻尖1個(gè)關(guān)鍵點(diǎn)位置數(shù)據(jù);然后根據(jù)每一幀圖像的眼部與鼻尖關(guān)鍵點(diǎn),計(jì)算得到基準(zhǔn)眼的眼部截圖,提取HOG特征,并將其輸入采用粒子群算法訓(xùn)練好的支持向量機(jī)SVM分類器中進(jìn)行睜閉眼識別,計(jì)算最近1 800幀的PERCLOS值。

        眨眼是一個(gè)過程,一個(gè)完整的眨眼約需0.1~0.4 s[13]。視頻幀率為30幀/s,一幀的采樣時(shí)間大約為0.033 s,所以在無特殊遮擋情況下,眨一次眼睛軟件至少可以采集到2張圖片,因此基于實(shí)際測試效果,軟件處理邏輯確定將2次連續(xù)的閉眼圖片計(jì)為1次眨眼。

        再根據(jù)嘴部8個(gè)關(guān)鍵點(diǎn)位置數(shù)據(jù),計(jì)算每幀圖像的MAR,采用固定閾值判定打哈欠的發(fā)生,同樣計(jì)算最近1 800幀內(nèi)打哈欠動作的次數(shù)。在采集面部關(guān)鍵點(diǎn)進(jìn)行計(jì)算時(shí),視頻數(shù)據(jù)同時(shí)輸出給BiLSTM-SVM自適應(yīng)增強(qiáng)模型,計(jì)算得到打哈欠、低頭、趴桌等行為的次數(shù)。

        為證明本文選取多特征的有效性,選取3種不同特征下的疲勞分類方法進(jìn)行準(zhǔn)確率的對比分析,共有54個(gè)測試樣本,檢測結(jié)果對比見表1。

        表1 單因素與多特征融合算法檢測結(jié)果對比

        表1數(shù)據(jù)表明:檢測調(diào)度員疲勞狀態(tài)過程中,在單一眼部特征檢測基礎(chǔ)上,引入打哈欠的面部特征后,算法準(zhǔn)確率明顯提升;融合了眨眼、打哈欠的面部特征和行為特征的多特征融合算法,不僅能檢測眨眼、打哈欠等動作,還能識別一定的疲勞姿態(tài),進(jìn)一步提高了疲勞狀態(tài)檢測準(zhǔn)確率。

        5 結(jié)論

        1)本文提出的鐵路調(diào)度員疲勞狀態(tài)檢測方法,將終端檢測的信息通過智能算法解析,識別調(diào)度員的疲勞程度,并根據(jù)識別的結(jié)果進(jìn)行聲音報(bào)警;同步將數(shù)據(jù)記錄至數(shù)據(jù)庫,便于管理、統(tǒng)計(jì)、分析,滿足當(dāng)前鐵路局和調(diào)度中心集中管控的需求。

        2)系統(tǒng)采用基于多特征融合的鐵路調(diào)度員疲勞檢測方法,構(gòu)建了多個(gè)疲勞特征判據(jù),并將基于圖像識別的面部信息與行為動作姿態(tài)信息融合,作為疲勞狀態(tài)檢測的手段,依托調(diào)度仿真實(shí)驗(yàn)室的模擬試驗(yàn),疲勞狀態(tài)檢測準(zhǔn)確率為96.3%,證明了該方法的有效性。

        本方法提高了鐵路調(diào)度員的工作安全水平,對保障鐵路的安全運(yùn)營具有重要意義。下一步,將繼續(xù)完善網(wǎng)絡(luò)與傳輸功能,為提升鐵路行車安全水平發(fā)揮更大作用。

        猜你喜歡
        關(guān)鍵點(diǎn)特征檢測
        聚焦金屬關(guān)鍵點(diǎn)
        肉兔育肥抓好七個(gè)關(guān)鍵點(diǎn)
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        小波變換在PCB缺陷檢測中的應(yīng)用
        醫(yī)聯(lián)體要把握三個(gè)關(guān)鍵點(diǎn)
        亚洲av永久综合网站美女| 久久精品国产亚洲av蜜臀| 国内揄拍国内精品少妇国语| 狠狠亚洲婷婷综合色香五月| 丰满熟女人妻一区二区三区| 国产婷婷色一区二区三区深爱网| 日本黄网站三级三级三级| 秋霞午夜无码鲁丝片午夜精品| 青青青国产免A在线观看| 成人男性视频在线观看| 97精品人人妻人人| 丰满女人又爽又紧又丰满| 亚洲av成人在线网站| 久久影院最新国产精品| 97久久婷婷五月综合色d啪蜜芽| 久久精品娱乐亚洲领先| 成人亚洲欧美久久久久| 亚洲桃色蜜桃av影院| 国产av无码专区亚洲版综合| 好吊色欧美一区二区三区四区 | 另类亚洲欧美精品久久不卡| 日韩精品中文字幕免费人妻| 日本女优在线一区二区三区 | 免费人成视频在线| 亚洲VA不卡一区| 老司机在线免费视频亚洲| 国产成人无码a区在线观看导航| 一本大道久久东京热无码av| 国产三级精品美女三级| 日本精品一级二区三级| 午夜福利理论片在线观看| 激情综合欧美| 日本女优中文字幕四季视频网站| 青青草精品视频在线播放| 亚洲精品92内射| 在线观看国产精品91| 中文字幕av素人专区| 久久久亚洲av成人网站| 日韩在线免费| 青青青视频手机在线观看| 大尺度无遮挡激烈床震网站|