趙崇志,盧 俊,田 源,邢金臺,董金平,張 蕾,田 楓
(1.中國石油天然氣股份有限公司冀東油田分公司,河北 唐山 063004;2.東北石油大學 計算機與信息技術學院,黑龍江 大慶 163318)
目前,油田閥門的規(guī)范操作識別的研究尚未相關報道,閥門規(guī)范操作的識別雖然屬于行為識別,但是一方面,行為識別擁有其獨特的特點,包括處理難度大、數據集樣本少、檢測速度慢、過于依賴于場景等問題,也使得行為識別與目標檢測相比發(fā)展緩慢。當前行為識別領域也涌現出了各種不同的技術方法,比如Cao等人[1]提出了用于行為識別的最新OpenPose模型,與RMPE(regional multi-person pose estimation)模型[2]和Mask R-CNN(region-based convolutional neural network)模型[3]相比,該網絡模型的優(yōu)勢在于大大縮短了關鍵點的檢測周期,并保持檢測精度基本不變。但是,它缺點是參數共享率低、冗余度高、時間成本長、模型太大,仍不能解決實際應用需求。
另一方面,基于深度學習的目標檢測技術在識別行為方面展現了其優(yōu)越性,邢予權使用基于手勢識別目標檢測的監(jiān)控場景下抽煙識別,取得了不錯的識別效果[4]。王春輝、王全民[5]使用改進的YOLOv3識別學生的“抬頭”“低頭”“說話”3種姿態(tài),除滿足識別的精度外,速度也能滿足實時檢測。鄧永川[6]使用DSC-Net+YOLOv3的漏油檢測方法,檢測精度達到了96.22%,滿足油田企業(yè)檢測要求?;谝陨蟽煞矫?,該文選用深度學習目標檢測方法解決閥門的規(guī)范操作識別,不僅保證了識別的精確度,并且速度也達到實時的視頻智能監(jiān)控。
目前,目標檢測算法在深度學習領域可以分為兩類,一是雙階段目標檢測算法,其中包括最具有代表性的Faster R-CNN(faster region-CNN)[7];二是單階段目標檢測算法,代表的有YOLO(you only look once)[8]、單次多框檢測(single shot multibox detector,SSD)[9]算法。2016年,Redmon J[8]提出了Yolo算法,可以一次性地識別圖片內多個物品的類別和位置,實現了端到端的圖像識別,運行速度快。此后,YOLO系列算法[10-12]逐步更新?lián)Q代,最新提出的YOLOv5s相比于Faster R-CNN不僅速度快而且參數小,僅27 MB。
基于YOLOv5s的網絡結構,該文提出了一種采用YOLOv5s深度學習算法的作業(yè)現場閥門規(guī)范操作識別的模型。自主拍攝閥門操作的數據集,并利用數據增強方式擴充數據集,然后將處理好的數據輸入YOLOv5s網絡訓練,保存最優(yōu)的訓練權重數據,并用作測試集測試。測試結果表明,所用算法模型的檢測速度和準確性都達到了油田作業(yè)現場的要求,智能監(jiān)控系統(tǒng)部署后,閥門安全操作監(jiān)管防護效果很好。
開關閥門是采油工生產中經常進行的最基本的操作內容,正確開關閥門不僅僅是確保人身安全的保障措施,還可以使閥門始終處于良好的使用狀態(tài),確保設備的安全運行。正確操作閥門時,人體應位于閥門手輪的側面,隨閥門位置高低不同,身體適當彎曲,頭部在閥門側上方30 cm左右。錯誤操作最危險的一種就是人體占位不同,應禁止人體直面閥門,這樣會危及操作人員的人身安全。正確操作和錯誤操作閥門如圖1所示。二者差別很大,可以使用目標檢測進行識別。
圖1 閥門操作示意圖
油田作業(yè)現場工作人員閥門的操作識別主要由數據集獲取、模型訓練和錯誤操作報警三部分完成。數據集獲取是使用??低晹z像頭采集工作人員閥門操作的視頻,接下來將獲取到的視頻利用python代碼逐幀截取成圖片,然后對圖片進行數據增強和歸一化處理;模型訓練是指采用YOLOv5s網絡訓練處理好的數據集,且將訓練好的模型用于智能監(jiān)控視頻系統(tǒng),進行實時的檢測任務;錯誤操作報警是指出現異常操作就進行報警提示,并將異常出現后的第一幀開始進行圖片保存和視頻保存,以備后續(xù)調查備案。識別流程如圖2所示。
圖2 識別流程
UItralytics團隊在2020年提出了YOLOv5模型,其目標檢測速度高達0.007 s,每秒可以處理140幀,同時結構更為小巧,有四個不同的版本[13],使得在模型的快速部署上具有極強的優(yōu)勢,只需簡單調節(jié)一些網絡的深度和寬度即可。與傳統(tǒng)的網絡相比[14],YOLOv5模型將網絡分為檢測區(qū)和候選區(qū)兩個階段,是一種直接利用回歸網絡實現目標檢測的算法[3]。其在大部分目標檢測任務中同時兼顧了速度和準確度。YOLOv5s的網絡結構如圖3所示。
圖3 YOLOv5s網絡結構
YOLOv5s目標檢測網絡以Focus結構為主干,而Focus結構,在YOLOv3和YOLOv4中并沒有這個結構,其中比較關鍵是切片操作,并且YOLOv5s有兩種CSP模塊,一種是CSP1_X結構,其應用于Backbone主干網絡,另一種是CSP2_X結構,其應用于Neck網絡中,二者結合后進一步增強整個網絡的學習能力;YOLOv5s網絡頸部是采用PAN和FPN的結構,FPA是自上而下的,將高層特征通過上采樣和低層特征作融合得到用于預測的特征圖;PAN是一個自底向上的特征金字塔,其自底向上進行強定位特征的提取。二者相互促進,從不同的主干層對不同的檢測層進行參數聚合;YOLOv5s頭部繼續(xù)沿用YOLOv4 的檢測頭,使用頸部的特征來預測邊界框和類標簽;YOLOv5s使用一個在線的數據增強策略增加輸入圖像可變性,豐富圖像特征信息,包括Mosaic數據增強和自適應錨框計算以及自適應圖片縮放。設計的目標檢測模型可以實現更高的魯棒性,同時,采用標簽平滑和學習率余弦退火衰減等技術來優(yōu)化網絡訓練過程[15]。
3.1 護理質量管理的信息化 信息技術的使用是當前護理質量管理走向科學化的必由之路。通過充分整合搜索引擎技術、數據庫技術、分布存儲技術等,設計醫(yī)院護理質量信息化管理軟件,包括數據錄入、統(tǒng)計分析、實時反饋、重大案例分析、專家在線咨詢、工作提醒、危重癥護理實時監(jiān)測、標準查詢等護理質量管理資源共享模塊,實現全市護理質量評價數據實時監(jiān)測、動態(tài)評價、專家反饋以及護理質量改進的科學決策,研制開發(fā)護理風險危機管理系統(tǒng),建立全市范圍的護理安全管理共享平臺,從而真正實現護理質量管理的自動化與智能化。
YOLOv5s網絡訓練中的損失函數由三部分組成:邊界框回歸損失Lciou、分類的損失Lclass、置信度損失Lconf。當某個邊界框內沒有目標時,只計算置信度損失Lconf,若存在一個目標時,三個損失同時計算。三種損失函數學表達式為[16]:
通過交叉熵的方法計算置信度損失與分類損失,通過Lciou損失函數計算邊界框回歸損失,相比傳統(tǒng)的損失函數,Lciou損失函數更多地關注預測邊框和實際邊框二者之間的位置和大小以及距離,進而提高了預測邊框的準確度和速度。
該文使用的是一個自制數據集,其被用在在作業(yè)現場閥門規(guī)范操作識別模型上,使用油田現場專業(yè)的海康威視攝像頭拍攝工人對閥門操作,拍攝視頻剪輯后,通過python代碼處理視頻獲取每幀的照片,按1∶1的正樣本和負樣本選取2 000張閥門操作照片。
由于收集到的數據量很小,為了避免模型的過度擬合,提高模型的泛化能力,使用了隨機角度旋轉和隨機亮度增強的方法以及大小不等的黑色遮擋策略擴充數據樣本,因此訓練后的網絡模型能夠滿足欄桿遮擋,不同姿勢的閥門操作識別需求,其數據增強示例見圖4。
圖4 數據增強
通過數據增強獲得閥門操作圖片5 000張,包含隨機黑塊遮擋、隨機方向選擇、隨機亮度變化下閥門操作圖片。圖片數據中有兩類閥門操作圖片,總計2 500張正確操作圖片,2 500錯誤操作圖片,可以保證數據的豐富性,以及正負樣本的平衡。
在訓練YOLOv5s 模型之前,應該對處理后的數據集進行標簽標注。在實驗中,使用了標簽標注工具LableImage,設置正確操作閥門標簽為operation,錯誤操作閥門標簽為error operation,標簽標注后被保存為xml數格式的文件,兩個類別閥門操作的圖片標簽標記信息如圖5所示。
圖5 數據標注
標注后保存的xml標簽內容見表1。表格中每一行的數據代表一個標注邊框的位置信息,其中x、y、w、h分別代表標注框中心點的x 軸及y軸方向的坐標位置以及標注框的寬和高。實驗進行模型訓練,隨機劃分75%的數據集作為訓練集,25%作為測試集。
表1 數據標注
訓練平臺的參數配置越高,圖形計算能力更強,模型訓練的效果會更好。為了使模型達到良好的訓練效果,在GPU上對YOLOv5s網絡進行訓練,YOLOv5s網絡模型的訓練平臺的配置信息如表2所示。
表2 訓練平臺配置
處理好的自制數據集傳入神經網絡進行訓練,訓練設置的超參數如表3所示。
表3 超參數設置
損失值是指由損失函數計算出的樣本預測值和真實值之間的誤差。損失值越小,預測效果越高。在網絡訓練結束后,會生成完整的訓練日志,取日志中的部分數據進行折線圖繪制,得到損失值折線圖如圖6所示。
圖6 損失值曲線
從圖6損失值曲線可以看出,隨著迭代次數的增加,損失值開始逐漸減少。經過300次的迭代,損失值穩(wěn)定在0.01,這證明網絡模型的訓練效果良好。
為了驗證模型的檢測效果,在200張測試集上測試,得到如表4所示結果,結果表明YOLOv5s無論是在準確率還是mAP上,YOLOv5s表現能力更好。
表4 不同算法對比
為驗證基于YOLOv5s的作業(yè)人員閥門規(guī)范操作模型的可行性和實時檢測能力,所以將模型嵌入到油田智能視頻監(jiān)控系統(tǒng),使用??低曄鄼C在線獲取作業(yè)人員閥門操作視頻流,網絡模型對獲得的視頻流進行實時檢測,檢測的效果見圖7。
圖7 檢測效果圖
由圖7可知,該模型完成了對作業(yè)人員錯誤操作閥門的檢測任務,檢測準確率達到93%,能達到實時檢測,能夠滿足智能監(jiān)控系統(tǒng)下的作業(yè)人員閥門操作的識別。
為了解決人工的監(jiān)控手段不能對閥門操作錯誤行為及時進行檢測和發(fā)出預警,使得危險事故不能在較短時間之內得到有效妥善的處理的問題,文中提出了一種基于YOLOv5s 網絡的作業(yè)現場閥門規(guī)范操作識別的模型,自己制作閥門操作數據集,通過圖像增強方法解決閥門周圍的欄桿遮擋問題,保證了數據集的豐富性。訓練后的模型實際檢測效果很好,檢測準確率達到了93%,檢測速度能達到實時的效果。