亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于圖像的地鐵車站施工人員不安全行為識別研究

        2023-08-11 13:52:59祝銘悅牛梓儒萬勇朱仁遲張丹郭海林
        河北工業(yè)科技 2023年1期
        關(guān)鍵詞:動作檢測模型

        祝銘悅 牛梓儒 萬勇 朱仁遲 張丹 郭海林

        關(guān)鍵詞:安全管理工程其他學(xué)科;地鐵車站施工;不安全行為;動作識別;模型優(yōu)化

        中圖分類號:X947 文獻標識碼:A DOI: 10.7535/hbgykj.2023yx01004

        隨著中國城市建設(shè)的快速發(fā)展,地面交通壓力越來越大。為緩解城市交通壓力,地鐵項目相繼開工,在建設(shè)過程中出現(xiàn)大量安全事故。近15年來,發(fā)生在施工階段的地鐵安全事故占比約為60%[1],其中,人的不安全行為導(dǎo)致的安全事故占總數(shù)的70%~98%[2]。由于在地鐵車站施工中,人員的不安全行為復(fù)雜多樣,傳統(tǒng)的人盯人安全監(jiān)管已不能滿足現(xiàn)場管理需求;同時監(jiān)控攝像頭已廣泛應(yīng)用于施工現(xiàn)場,為圖像識別提供了良好的硬件基礎(chǔ)[3]。因此,有必要開展地鐵車站施工人員不安全行為的圖像識別研究,為實時監(jiān)管施工人員的不安全行為提供科學(xué)依據(jù)。

        圖像識別作為計算機視覺中的一個分支,近幾年有了長足的進步和發(fā)展。目前,圖像識別在人們的日常生活中十分常見[4],如高鐵站身份核對、指紋打卡、人臉支付等,應(yīng)用領(lǐng)域也十分廣泛。尤其在建筑行業(yè),人體姿態(tài)識別技術(shù)受到研究者們的青睞。楊梟[5]利用Open Pose算法提取人體關(guān)鍵點信息,建立二維的人體骨骼模型,提出多特征融合的CamShift跟蹤算法來完成叉車人員安全檢測任務(wù)。元黎明[6]首先將建筑工人不安全行為分為4大類,運用AI智能框架Eazy DL設(shè)計不安全行為檢測系統(tǒng)識別動作。于言滔[7]通過將不安全行為的檢測轉(zhuǎn)化為對前置動作的識別,構(gòu)建的人體模型用關(guān)節(jié)參數(shù)角度表示不安全前置動作,建立實時采集模塊識別工人依靠、高處傾倒和攀爬3類動作。謝逸等[8]從人身檢測、入侵檢測以及協(xié)同作業(yè)檢測3個方面對人員不安全行為進行監(jiān)測,同時提出了較為系統(tǒng)的檢測框架。地鐵施工中,王凱迪[9]構(gòu)建基于YOLO 的小目標檢測網(wǎng)絡(luò),能較好地對地鐵施工人員以及安全帽進行識別。綜上,目前人體動作識別研究十分廣泛,研究成果較為豐富,但仍然存在對地鐵車站施工人員的行為識別研究較少、復(fù)雜環(huán)境下識別模型復(fù)雜與識別率不高等問題。

        因此,為解決地鐵車站施工人員不安全行為的實時監(jiān)管等現(xiàn)實問題[10],本文擬在對地鐵車站施工人員不安全行為分類的基礎(chǔ)上,基于現(xiàn)場圖像研究人員越界行為的檢測方法,并構(gòu)建施工人員行為數(shù)據(jù)庫,利用機器學(xué)習(xí)和深度學(xué)習(xí)算法對施工人員動作進行識別,為實現(xiàn)地鐵車站施工安全智能管理提供支持。

        1 地鐵車站施工不安全行為分析

        1.1 施工人員不安全行為定義

        狹義的行為安全領(lǐng)域研究表示,不安全行為包括施工人員作業(yè)時的某種行為、行為引發(fā)事故的趨勢與選擇此行為的原因3個因素[11-13]。由此可知,地鐵施工人員的不安全行為是指在地鐵施工過程中施工人員產(chǎn)生的已經(jīng)導(dǎo)致事故發(fā)生或可能會造成安全事故的人為差錯,包括導(dǎo)致傷害事故發(fā)生的不安全動作以及規(guī)定實施而沒有執(zhí)行的安全行為。

        1.2 施工人員不安全行為分類

        在地鐵施工過程中,現(xiàn)場人員必須遵守國家標準規(guī)范、規(guī)章制度及各類安全管理條例[14],例如《安全生產(chǎn)法》《建筑安裝安全操作規(guī)程》、地鐵施工相關(guān)規(guī)范以及公司制定的地鐵工程施工安全管理制度等。根據(jù)法律法規(guī)、參考文獻以及地鐵車站施工實地調(diào)研,本文將地鐵車站施工人員的不安全行為從識別角度分為4類:不安全位置類、不安全動作類[15]、未正確使用個人勞動防護用品和其他。

        本文主要針對地鐵車站施工現(xiàn)場人員處于不安全位置和做出不安全動作進行識別。

        2 檢測基本算法

        2.1 基于MobileNet V1的SSD目標檢測算法

        本文采用基于MobileNet V1 的SSD(shotmultibox detector)算法,全連接層、最大池化層和Softmax 等最后幾層被省略[16],同時具有MobileNet V1算法延遲低和SSD算法的高精度檢測特點?;贛obileNet V1的SSD架構(gòu)模式如圖1所示。

        越界檢測效果如圖2所示,圖中藍色區(qū)域為標定的不安全區(qū)域,當人員進入畫面時顯示目標的ID,從0開始,并用白色矩形框標注,通過計算矩形框內(nèi)人體像素重心坐標,利用射線法判斷重心越過不安全區(qū)域邊界時發(fā)出警告,區(qū)域邊界顯示為紅色,輸入視頻測試時幀率達到30 f/s,檢測識別效果較好。

        3 基于骨骼序列的施工人員不安全行為識別數(shù)據(jù)集的構(gòu)建

        3.1 實驗設(shè)計

        在實驗室環(huán)境下模擬施工人員在施工現(xiàn)場經(jīng)常出現(xiàn)的8種行為,并對其進行識別,包括現(xiàn)場安全行為和不安全行為,包括堆放、行走、蹲坐、揮手、攀爬斜坡、依靠、跌倒和下樓打電話。本文采用雙攝像頭進行視頻錄制,攝像頭通過USB與電腦直接連接,通過軟件保存實驗視頻數(shù)據(jù),攝像頭幀率為30 f/s,圖像大小為1 280×720 px,攝像頭高度設(shè)為1.4 m,分別采集人體正面和側(cè)面2個方向的數(shù)據(jù)。為保證能夠完整拍攝到人體動作,在攝像頭畫面中規(guī)定動作區(qū)域并用紅線表示。

        實驗人數(shù)為20,所有被試者均為非專業(yè)施工人員,實驗分為預(yù)采集階段和正式采集階段,預(yù)采集階段人數(shù)為1,實驗編號為0,正式采集階段共19人,實驗編號為1~19。施工現(xiàn)場男多女少,因此本文實驗被試者中男性15名,女性5名。

        每個動作從開始到結(jié)束采集時間設(shè)定為15 s,每個動作采集6次,實驗前被試者休息5~10 min,隨后引導(dǎo)被試者站立在畫線區(qū),確保能夠捕捉到整個身體,開始捕捉。每種動作采集6 次后休息2 min,避免疲勞實驗,8 種動作采集完畢后實驗結(jié)束。

        3.2 數(shù)據(jù)采集與處理

        實驗中每個動作采集了120個視頻數(shù)據(jù),總共采集視頻數(shù)據(jù)1 920個。采集到的視頻每隔20 f提取一張圖片轉(zhuǎn)換成圖片數(shù)據(jù),剔除掉部分不符合要求的圖片。然后對每張圖片使用Open Pose模型估計圖像中人體骨骼點的空間位置信息和置信度,并將骨骼點信息保存到csv文件中。

        對于本文所采集的動作,移除了頭部和腳掌的關(guān)節(jié)數(shù)據(jù),同時刪除置信度較低(低于0.3)的信息。數(shù)據(jù)預(yù)處理之后,手動設(shè)計和提取可能對區(qū)分動作類型有用的顯著特征。為區(qū)分不同動作并消除不同圖像大小的影響,降低數(shù)據(jù)維度,提高模型的訓(xùn)練速度和準確性,本文將骨骼點位置信息轉(zhuǎn)換為10個關(guān)節(jié)角度,使用的Open Pose算法獲取人體骨骼中鼻子、脖子等25個關(guān)節(jié)點編號。

        4 模型構(gòu)建與結(jié)果分析

        4.1 KNN 模型參數(shù)優(yōu)化與識別結(jié)果分析

        在本文建立的模擬施工人員行為數(shù)據(jù)集上,用KNN 算法作為分類器,相關(guān)超參數(shù)設(shè)置為“n_neighbors”表示取臨近點的數(shù)量k,通過不同k 值的測試,“n_ neighbors”設(shè)置為25。權(quán)重參數(shù)“weights”設(shè)置為“distance”,表示權(quán)重為距離的倒數(shù),距離近的對分類判決影響大。“algorithm”設(shè)置為“kd_tree”,表示通過構(gòu)造KD 樹來實現(xiàn)鄰近樣本的搜索。距離參數(shù)“p”設(shè)置為2,表示距離的度量方法使用的是歐氏距離。

        KNN模型評估參數(shù)如表1所示,輸出混淆矩陣如圖3所示。使用KNN 算法得到的總體準確率為93.45%,所有動作的精確率均高于83.00%,平均精確率為93.28%;召回率均高于73.00%,平均召回率為93.50%;F1 值均高于80.00%,其平均值為93.20%。其中“下樓打電話”動作的F1 值僅80.60%,識別效果最差;該算法對“行走”“蹲坐”“堆放”和“依靠”4個動作識別效果較好,F(xiàn)1 值均大于95.00%。由輸出混淆矩陣可知,對于“下樓打電話”動作有17.00%的概率被錯誤識別為“攀爬斜坡”,有3.00%的概率被錯誤識別為“揮手”,有3.00%的概率被錯誤識別為“蹲坐”,錯誤率最高,其他動作的錯誤識別率均在3.00%以下。

        4.2 MLP模型構(gòu)建與識別結(jié)果分析

        編寫程序使用基于TensorFlow 平臺的Keras深度學(xué)習(xí)框架構(gòu)建MLP模型,考慮到函數(shù)式模型和序貫?zāi)P偷奶攸c,本文編寫的MLP模型使用序貫?zāi)P停⊿equential)。構(gòu)建的最終模型由5個全連接層組成,模型前4個全連接層均使用ReLU 激活函數(shù),最后一層用Softmax作為激活函數(shù)。為防止模型過擬合,全連接層中權(quán)重矩陣用Keras.regularizers.l2正則化方法,正則化參數(shù)λ 設(shè)置為0.01。

        MLP模型評估參數(shù)如表2所示,輸出混淆矩陣如圖4所示。使用MLP模型得到的總體準確率為93.94%。除“下樓打電話”動作的精確率較低為76.05%,其余動作準確率均高于92.00%,平均精確率為94.22%;所有動作的召回率均高于85.00%,平均召回率為93.85%;F1值均高于81.00%,其平均值為94.73%。其中“下樓打電話”動作的F1值為81.86%,“揮手”和“行走”動作的F1值均高于98.00%,識別效果較好。

        4.3 LSTM模型構(gòu)建與識別結(jié)果分析

        基于TensorFlow 的Keras庫構(gòu)建模型,分類模型添加了3個LSTM 層和1個Dense層,激活函數(shù)設(shè)置為Softmax,損失函數(shù)使用categorical_crossentropy(交叉熵函數(shù)),采用Adam 算法作為優(yōu)化器,超參數(shù)中學(xué)習(xí)率α 設(shè)置為0.000 1。

        LSTM 模型評估參數(shù)如表3所示,輸出混淆矩陣如圖5所示。LSTM 模型得到的總體準確率為93.68%。所有動作準確率均高于83.00%,平均精確率為93.57%;除“跌倒”動作召回率只有74.84%,其余動作的召回率均高于94.00%,平均召回率為93.72%;F1 值均高于80.00%,其平均值為93.53%,“跌倒”動作的F1值最低,為80.26%。

        綜上,KNN,MLP 與LSTM 模型的總體準確率分別為93.45%,93.94%和93.68%;F1的平均值分別為93.20%,94.73%和93.53%。

        5 結(jié)語

        為解決人工監(jiān)測地鐵車站施工人員不安全行為不夠理想的問題,本文提出了新型不安全行為分類方法和優(yōu)化的MLP識別模型,主要研究結(jié)論如下。

        1)通過刺激-反應(yīng)行為模式和勒維特行為模型,并依據(jù)現(xiàn)場調(diào)研從圖像的角度將地鐵車站施工人員不安全行為分為4類。

        2)為解決施工人員的定位和追蹤問題,通過實驗確定不安全行為特征,結(jié)合傳統(tǒng)的射線法和越界警報,對MobileNet V1的SSD算法進行了優(yōu)化,判斷了施工人員是否出現(xiàn)在不安全區(qū)域,實驗結(jié)果驗證了該方法的有效性和可行性。

        3)依據(jù)地鐵車站施工現(xiàn)場情況以及分析車站施工安全事故選取了8種動作進行識別,在自建數(shù)據(jù)集中,傳統(tǒng)機器學(xué)習(xí)算法KNN 總體準確率達到93.45%,平均召回率達到了93.50%;優(yōu)化后的MLP和LSTM 兩種神經(jīng)網(wǎng)絡(luò)模型總體準確率分別為93.94%和93.68%,平均召回率達到了93.85%和93.72%;相對傳統(tǒng)KNN 算法,MLP 和LSTM模型的總體準確率分別提高了0.49%和0.23%。而MLP模型的識別準確率和F1 值最高,對不安全行為的識別錯誤率最低,可選擇MLP模型作為地鐵車站施工人員不安全行為的識別模型,為構(gòu)建地鐵施工安全智能識別系統(tǒng)提供模型基礎(chǔ)。

        論文實現(xiàn)了基于圖像的多區(qū)域條件下的施工人員不安全行為的識別,但是目前所提出的模型在人員行為預(yù)測等方面還有待研究,后續(xù)可加入人員行為預(yù)測功能,以進一步提高識別系統(tǒng)的安全性和人機交互性。

        猜你喜歡
        動作檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        動作描寫要具體
        畫動作
        動作描寫不可少
        3D打印中的模型分割與打包
        天天碰免费上传视频| 99久久免费精品色老| 亚洲av日韩精品一区二区| 99久久国产精品网站| 国产午夜鲁丝片av无码| 在线一区不卡网址观看| 免费高清视频在线观看视频| 国产高清视频在线不卡一区| 欧美激情在线播放| 亚洲aⅴ无码成人网站国产app | 精品麻豆一区二区三区乱码| 国产亚洲精品美女久久久m| 国产成人亚洲精品无码h在线| 久久亚洲成a人片| 少妇被猛烈进入中文字幕 | 国产短视频精品区第一页| 全程国语对白资源在线观看| 久久综合九色欧美综合狠狠| 无码午夜成人1000部免费视频| 亚洲欧洲日产国产AV无码| 国内精品女同一区二区三区| 97色伦图片97综合影院| 精品久久久久久久久久中文字幕| 骚片av蜜桃精品一区| 男人的天堂av你懂得| 日韩精品专区av无码| 精品国产a∨无码一区二区三区 | 精品国产成人av久久| av一区二区三区人妻少妇| 国产综合精品久久亚洲| 国产自拍三级黄片视频| 欧美牲交a欧美牲交aⅴ| 成 人 色综合 综合网站| 国产在线一区二区视频免费观看| 国产91久久麻豆黄片| 羞羞视频在线观看| 国产亚洲美女精品久久| 熟女人妻一区二区三区| 国产精品99精品无码视亚| h国产视频| 青青草在线成人免费视频|