摘" 要: 針對目前實驗室場景缺少對人員行為檢測的方法,且主流算法精度低、誤檢率高的問題,文中提出一種改進YOLOv7?tiny的人員行為檢測算法,并通過多源信息融合,提高人員行為在實際實驗室場景中的識別準確率。首先,在檢測算法主干網(wǎng)絡(luò)引入GhostNetV2輕量化網(wǎng)絡(luò),進一步降低模型計算量和復(fù)雜度;其次,在頸部網(wǎng)絡(luò)嵌入改進后的CBAM_E注意力模塊,加強目標重要特征的提??;再次,在預(yù)測端使用SIoU替換原有的損失函數(shù),減少角度因素和邊界框回歸精度的影響。檢測結(jié)果表明,相較于YOLOv7?tiny,文中算法精度提升10.08%,模型參數(shù)量和復(fù)雜度分別下降36.45%和46.76%。最后通過將檢測數(shù)據(jù)與傳感器采集數(shù)據(jù)運用D?S證據(jù)理論進行信息融合后發(fā)現(xiàn),人員不規(guī)范行為檢測的誤檢率得到有效降低。結(jié)果表明,該方法可實現(xiàn)對實驗室人員不規(guī)范行為的有效檢測。
關(guān)鍵詞: 實驗室場景; 人員行為; YOLOv7?tiny; 輕量化網(wǎng)絡(luò); 注意力模塊; 損失函數(shù); D?S證據(jù)理論; 信息融合
中圖分類號: TN911.73?34; TP391.41" " " " " " " "文獻標識碼: A" " " " " " " " " "文章編號: 1004?373X(2024)19?0153?08
Improvement of YOLOv7?tiny combined with D?S theory for research of
laboratory personnel behavior detection
YANG Yongliang, CAO Min, XU Linghua, WANG Xiao, YANG Jing, WANG Tao, FENG Pingping
(College of Electrical Engineering, Guizhou University, Guiyang 550025, China)
Abstract: In view of the lack of detection methods of the personnel behavior in laboratory scenarios and the low accuracy and high 1 detection rate of the mainstream algorithms at present, an improved personnel behavior detection algorithm based on improved YOLOv7?tiny is proposed. It aims to improve the recognition accuracy rate of personnel behavior in real laboratory scenarios by fusing multi?source information. The GhostNetV2 lightweight network is introduced into the backbone network of the detection algorithm to reduce the calculated quantities and complexity of the model. The improved attention module CBAM_E is embedded in the neck network to enhance the extraction of important features of the object. The original loss function is replaced by SIoU (simplified intersection over union) at the prediction end to reduce the influence of the angular factor and the bounding?box regression accuracy. The detection results show that the accuracy of the proposed algorithm is improved by 10.08%, and the number of its parameters and complexity are decreased by 36.45% and 46.76%, respectively, in comparison with YOLOv7?tiny. The misdetection rate of personnel irregular behavior detection is reduced effectively after information fusion of the detection data and the sensor acquisition data with D?S evidence theory. The results show that the method can realize the effective detection of irregular behavior of laboratory personnel.
Keywords: laboratory scene; personnel behavior; YOLOv7?tiny; lightweight network; attention module; loss function; D?S evidence theory; information fusion
0" 引" 言
高校實驗室是高校用于開展教學和科研工作的重要場所。在過去近十年中,全國各高校實驗室發(fā)生各類安全事故萬余起,死傷近百人[1]。2023年2月,教育部在印發(fā)的《高等學校實驗室安全規(guī)范》中明確表明:高校實驗室要建立健全的安全管理制度,同時要求出臺的文件應(yīng)具有可操作性和實際管理效應(yīng)[2]。通過對相關(guān)高校實驗室事故認定分析可知,人員不遵守相關(guān)規(guī)定的不規(guī)范行為是引發(fā)事故的主要原因之一,如何有效、及時發(fā)現(xiàn)實驗室人員不規(guī)范行為,成為高校實驗室管理的難點。
隨著深度學習的發(fā)展,圖像檢測技術(shù)被廣泛應(yīng)用在人員行為檢測方面,可有效對人員行為進行檢測。文獻[3]通過在SSD算法卷積層引入ECA注意力機制,提升模型在小目標檢測方面的精度。文獻[4]通過改進目標預(yù)測框分數(shù)策略,增加目標預(yù)測框個數(shù),來提升模型對遮擋目標的檢測率。文獻[5]在YOLOv5的基礎(chǔ)上,通過優(yōu)化損失函數(shù)、引入注意力模塊和小目標檢測層等方法,在提升準確率的同時降低漏檢、誤檢率。文獻[6]基于YOLOv5模型,采用MobileViT框架,并引入注意力機制和EIoU損失函數(shù),加強目標識別與定位精度。文獻[7]基于YOLOv7[8]模型,提出了一種輕量級實時高效的目標檢測改進算法,大幅度降低了模型的計算量和復(fù)雜度。文獻[9]提出在物聯(lián)網(wǎng)應(yīng)用中,將多傳感器數(shù)據(jù)組合起來,以實現(xiàn)關(guān)注指標的穩(wěn)健狀態(tài)評估。文獻[10]在設(shè)計多源異構(gòu)信息采集與處理框架的基礎(chǔ)上,對決策分析中群體意見匯總方法和實時數(shù)據(jù)決策方法分別進行了研究。
然而在高校實驗室場景下,因人員眾多,流動性大、易聚集,行為易被遮擋,傳統(tǒng)模型在檢測實驗室人員行為時普遍存在檢測精度低、速度慢的問題,極易發(fā)生漏判、誤判的情況,并且在實驗室不同應(yīng)用場景下,僅依靠圖像識別判斷容易出現(xiàn)誤判和漏判的情況。為解決上述問題,且方便后續(xù)進行邊緣端部署,本文基于YOLOv7?tiny算法,提出一種改進人員行為檢測算法,并結(jié)合多源信息融合理論,實現(xiàn)對實驗室人員不規(guī)范行為實時檢測的目的。
1" 相關(guān)工作
1.1" YOLOv7?tiny算法簡介
YOLOv7?tiny算法是在YOLOv7的基礎(chǔ)上,針對速度?精度的均衡性問題,為邊緣部署設(shè)計的網(wǎng)絡(luò)模型。系統(tǒng)結(jié)構(gòu)如圖1所示。
1.2" 多源信息融合技術(shù)簡介
多源信息融合又稱多傳感信息融合,于20世紀70年代提出,最早應(yīng)用在軍事領(lǐng)域中,主要利用計算機進行多源信息處理,從而得到可綜合利用信息的理論和方法。
信息融合研究的關(guān)鍵問題就是提出一些理論和方法,對具有相似或不同特征模式的多源信息進行處理,以獲得具有相關(guān)和集成特性的融合信息。研究的重點是特征識別和算法,這些算法導(dǎo)致多傳感信息的互補集成,改善不確定環(huán)境中的決策過程,解決把數(shù)據(jù)用于確定共用時間和空間框架的信息理論問題,同時用來解決模糊和矛盾的問題[11]。
1.3" 適用于本文不規(guī)范行為的說明及邊界定義
研究對象:高校工科實驗室。
設(shè)備定義:供電形式包括但不限于工頻單相電、工頻三相電;用途包括但不限于科研、教學、行業(yè)培訓(xùn)。
實驗室環(huán)境:包括但不限于存放精密操作設(shè)備,易燃、易爆、有毒氣體和液體等。
不規(guī)范行為種類:包括但不限于教師、學生、設(shè)備維保人員等人群產(chǎn)生的抽煙、接打電話、在設(shè)備旁飲食、追逐打鬧嬉戲、無視設(shè)備看手機等。
不規(guī)范行為判定:根據(jù)人員行為、實驗室環(huán)境、設(shè)備運行等不同事件交互耦合過程,運用本文圖像或多源融合識別方法,分為松判決(單事件)、軟判決(兩事件交互)和硬判決(三個或以上事件交互)三種類型,供實驗室管理者制定不同的處置策略,以最終實現(xiàn)實驗室安全管控。
2" 模型的改進與優(yōu)化
2.1" 基于輕量級GhostNetV2特征提取網(wǎng)絡(luò)改進
相較于YOLOv7,YOLOv7?tiny參數(shù)更少、復(fù)雜度更低,檢測速度快且精度較高,但因其主干網(wǎng)絡(luò)含大量ELAN模塊,計算量仍偏大,易出現(xiàn)特征融合冗余的現(xiàn)象,不利于邊緣部署,檢測速度和精度仍有優(yōu)化空間。為此,本文采用GhostNetV2[12]改進主干網(wǎng)絡(luò),實現(xiàn)模型輕量化。
其中,GhostNet通過將輸入特征圖分為兩部分來減少計算量:一部分由卷積生成,另一部分由線性操作直接獲得。此方法可顯著降低模型的計算代價,但可能會導(dǎo)致重要特征的丟失,從而影響檢測精度。
針對這個問題,GhostNetV2引入了一個解耦全連接注意力模塊(DFC attention)。這個模塊具有動態(tài)校準和捕捉長距離空間信息的能力,使其在邊緣端部署更為適宜。GhostNetV2結(jié)構(gòu)如圖2所示。
本文將模型主干網(wǎng)絡(luò)ELAN模塊替換為GhostNetV2輕量級模塊,顯著減少模型參數(shù)量和計算量,訓(xùn)練和推理速度得到大幅提升。
2.2" 基于CBAM_E機制的特征融合網(wǎng)絡(luò)改進
高校實驗室中場景復(fù)雜,存在大量冗余信息,且人員易聚集,行為易被遮擋,不便于進行行為檢測。為了強化檢測圖像特征,提高模型檢測精度,本文在YOLOv7?tiny算法特征融合網(wǎng)絡(luò)部分引入一種基于CBAM注意力機制[13]的CBAM_E注意力模塊,對圖像特征進行有區(qū)分度的加權(quán)學習,更加強化重要特征,抑制無用特征,提高對實驗室場景中被遮擋人員的檢測精度。
CBAM注意力模塊分為通道注意力模塊(CAM)和空間注意力模塊(SAM)兩部分。針對實驗室場景中人員來往密集、人員易遮擋的情況,為加強模型對圖像特征進行有區(qū)分度的加權(quán)學習,本文同時引入文獻[14]和文獻[15]中的方法,對CBAM注意力模塊做出如下改進。
1) 去除CAM模塊中的全局最大池化操作,運用一維卷積替換原始MLP網(wǎng)絡(luò)。
2) 將改進后的CAM模塊與原始SAM模塊進行并行連接,減少兩種模塊的相互影響。
改進后的CBAM_E注意力模塊如圖3所示。
計算公式如式(1)所示:
[F2=MS(F)?MC(F)?F] (1)
式中:[F2]表示最終輸出特征層;[MC]為通道壓縮權(quán)值矩陣;[MS]為空間壓縮權(quán)值矩陣;“[?]”為矩陣元素依次相乘。
本文根據(jù)實際測試,在頸部網(wǎng)絡(luò)兩個輸入特征層后添加CBAM_E注意力機制,可以有效加強模型特征提取能力,提高目標檢測的精度。
2.3" 基于SIoU的邊界框損失函數(shù)改進
YOLOv7中邊界框損失CIoU雖考慮框縱橫比,但忽略真實框與預(yù)測框的不匹配,導(dǎo)致收斂慢、效果差,預(yù)測框易產(chǎn)生偏差,阻礙了模型有效優(yōu)化相似性。本文考慮實驗室攝像角度和邊界框回歸精度優(yōu)化,采用SIoU[16]損失函數(shù)替換CIoU來提升性能。
以SIoU損失函數(shù)作為基礎(chǔ)損失函數(shù),重新定義懲罰指標,計算公式如式(2)所示:
[LSIoU=1-IoU+Δ+Ω2] (2)
式中:[Δ]表示距離損失;[Ω]表示形狀損失;IoU表示IoU損失。
將位置損失部分CIoU損失函數(shù)更換為SIoU損失函數(shù)后,模型復(fù)雜度降低,訓(xùn)練速度提升,能夠更好地約束預(yù)測框的位置和尺度,從而提高檢測精度和框的質(zhì)量。
3" 實驗結(jié)果與分析
3.1" 實驗環(huán)境
實驗環(huán)境為Ubuntu 20.04操作系統(tǒng),CPU為i9?12900K,顯卡為NVIDIA GeForce RTX 4090,顯存為24 GB,采用PyTorch 1.13.1框架運行代碼,CUDA版本為11.7.64,集成開發(fā)環(huán)境為Pycharm 2023.2.1,訓(xùn)練環(huán)境與測試環(huán)境相同。
3.2" 實驗數(shù)據(jù)集
本文選取“打電話”“抽煙”“吃東西”三種常見的違規(guī)行為作為實驗對象,構(gòu)建本文所需的人員不規(guī)范行為數(shù)據(jù)集。
人員不規(guī)范行為數(shù)據(jù)集選自公共數(shù)據(jù)集“HMDB51”[17],共選取400個樣本,運用Python技術(shù)進行分幀處理,共得到7 000張照片,包含13 652條標簽,包含打電話行為2 650張,吸煙行為2 350張,飲食行為2 000張,部分圖片如圖4所示。
對實驗數(shù)據(jù)集使用LabelImg軟件進行標注,并生成對應(yīng).xml文件。為滿足實驗需求,本文以8∶1∶1的比例劃分訓(xùn)練集、驗證集和測試集,各類別標簽數(shù)量如表1所示。
3.3" 實驗評價指標
本文采用[P](準確率,Precision)、[R](召回率,Recall)、mAP(平均精度值,mean Average Precision)、Par(模型參數(shù)量,Parameters)、[Fs](模型計算量,F(xiàn)LOPs)、[W](模型權(quán)重,Weights)和FPS(每秒傳輸幀數(shù),F(xiàn)rame Per Second)作為主要評價指標,計算公式如式(3)~式(6)所示:
[P=TPTP+FP×100%] (3)
[R=TPTP+FN×100%] (4)
[mAP=1Ni=0N-1APi] (5)
[FPS=nT] (6)
式中:TP指正確檢測出的目標框數(shù)量;FP指錯誤檢測出的目標框數(shù)量;FN指未檢測到的正確目標框數(shù)量;[N]為檢測的類別數(shù)量;[n]為處理的圖片數(shù)量;[T]為所消耗的時間。
3.4" 改進算法評估
3.4.1" 消融實驗
為分析三個改進點對模型的影響及有效性,設(shè)計七組實驗與原模型對比。實驗在相同數(shù)據(jù)集、環(huán)境及參數(shù)下訓(xùn)練,結(jié)果如表2所示。其中:“√”代表應(yīng)用該改進方法;“×”表示未應(yīng)用該改進方法。
實驗數(shù)據(jù)表明,三種改進方法均優(yōu)化了模型性能,降低了參數(shù)量和復(fù)雜度。最終改進算法相比原算法,準確率、召回率和mAP@0.5分別提升了10.08%、14.12%和10.63%,同時模型參數(shù)量減少了17.61%,復(fù)雜度降低27.34%,權(quán)重大小下降33.19%,檢測精度得到明顯提升。
3.4.2" 損失函數(shù)收斂對比
本文在相同實驗條件下,對消融實驗中算法損失函數(shù)進行收斂性對比驗證,對比情況如圖5所示。
由圖5顯示,隨著迭代次數(shù)增加,原算法與7種改進方法的損失函數(shù)均收斂。原算法損失約0.040 9,而最終改進算法損失降至0.031 0左右,表明改進后算法性能更優(yōu)。
3.4.3" 改進YOLOv7模型與其他模型對比
為進一步驗證本文算法的可行性,將其與目前主流的目標檢測算法進行對比,結(jié)果如表3所示。
由表3顯示,在相同條件下,本文改進算法較傳統(tǒng)目標檢測算法有明顯優(yōu)勢。其中,與YOLOv7相比,雖部分指標稍低,但參數(shù)量與復(fù)雜度有顯著降低、檢測更快;相較原YOLOv7?tiny算法,各指標明顯提升的同時,參數(shù)量與復(fù)雜度更加輕量化,適合在邊緣端部署。
圖6為各檢測算法mAP@0.5值對比圖,本文改進YOLOv7?tiny算法大約在100次epoch時達到收斂,為84.22%。
3.5" 檢測效果分析
為對比本文改進模型與原模型檢測效果,針對實際情況,采用某高校實驗室人員做實驗時部分監(jiān)控視頻進行檢測對比,對比結(jié)果如圖7~圖9所示。
由檢測效果可以看出,改進模型精準檢測出了所有的不規(guī)范行為,降低了實驗室中人員行為被遮擋時的漏檢、誤檢情況。如圖7b)所示,原模型誤將戴耳機識別成抽煙,而改進模型未發(fā)生此錯誤;如圖8c)所示,改進模型準確識別出人員吸煙和打電話行為,而原模型由于被部分遮擋的原因,僅識別出打電話行為,證明本文改進方法在復(fù)雜場景下具備良好的適用性和先進性。
4" 多源信息采集與數(shù)據(jù)融合
實際應(yīng)用中,由于實驗室中人員不規(guī)范行為判定有時相對靈活,僅依賴視覺判斷不規(guī)范行為易產(chǎn)生誤判和漏判的情況。為優(yōu)化決策,降低誤判、漏判,本文結(jié)合目標檢測與設(shè)備運行狀態(tài)進行判斷,收集人員行為和設(shè)備狀態(tài)數(shù)據(jù),運用專家經(jīng)驗定義不同設(shè)備狀態(tài)下的人員行為,通過時間關(guān)聯(lián)融合信息。最終判斷其是否真正不規(guī)范。多源信息采集和數(shù)據(jù)融合流程框架如圖10所示。
信息采集與數(shù)據(jù)融合框架涵蓋數(shù)據(jù)源、原始數(shù)據(jù)、信息轉(zhuǎn)換和決策計算,可以實現(xiàn)全程決策。重點在于分類決策意見、計算檢測數(shù)據(jù)權(quán)重,并融合數(shù)據(jù)以得出最終決策。
4.1" 原始數(shù)據(jù)采集與異構(gòu)數(shù)據(jù)轉(zhuǎn)換
針對實驗室場景,收集人員行為和設(shè)備狀態(tài)數(shù)據(jù)。在圖像識別的基礎(chǔ)上,結(jié)合設(shè)備運行狀態(tài)數(shù)據(jù),通過多源信息融合,實現(xiàn)對人員不規(guī)范行為的精準判斷。人員行為數(shù)據(jù)由目標檢測算法獲得,設(shè)備狀態(tài)則通過設(shè)備傳感器監(jiān)測實時功率判定。兩者數(shù)據(jù)在時間維度上統(tǒng)一,為數(shù)據(jù)分析提供基礎(chǔ)。
4.2" 決策專家意見處理
仍以工科實驗室為例,當實驗設(shè)備處于運行狀態(tài)時,人員不應(yīng)該進行任何與實驗無關(guān)的行為;而當實驗設(shè)備處于關(guān)機狀態(tài)時,人員打電話、吃東西等行為不應(yīng)該判定為不規(guī)范行為。因此,為了更好地分析人員行為是否屬于不規(guī)范行為,本文采用專家經(jīng)驗的方案進行決策,為后續(xù)不規(guī)范行為判定提供信息支撐,具體流程如圖11所示。
設(shè)備運行狀態(tài)采集采用ESP8266WiFi核心板+IM12B1B交流電能采集模塊,將實驗設(shè)備的用電情況實時上傳到后臺。
以工科實驗室常用工控機為采集對象,其運行時最大功率約為300 W,運行狀態(tài)分為斷電、關(guān)機、待機、運行四種,將采集的實時功率進行歸一化處理后,結(jié)合人員行為分類,由專家經(jīng)驗定義設(shè)備狀態(tài)分級與人員行為是否屬于不規(guī)范,如表4和表5所示。
4.3" 基于D?S證據(jù)理論的多源信息融合方法
D?S證據(jù)理論(Dempster?Shafer Evidence Theory)最初是由Dempster在統(tǒng)計推斷的背景下提出的,然后由Shafer擴展,并作為處理不確定問題的理論方法[18]。
在D?S證據(jù)融合理論中,全域[Y](識別框架、假設(shè)空間)包含所有可能的事件或行為,包括空集。其中每個事件均有基本概率分配,構(gòu)成全域[Y]的概率描述。在全域[Y]內(nèi)的所有子集中,基本概率分配函數(shù)之和須等于1,如式(7)所示:
[m(?)=0A?Ym(A)=1] (7)
式中:[m]為統(tǒng)計證據(jù)獲得的mass函數(shù);[?]為空集;[A]為全域[Y]的假設(shè)。
某個假設(shè)的信度函數(shù)Bel為該假設(shè)所有的子集概率之和,如式(8)所示:
[Bel(A)=B?Am(B)] (8)
式中[B]為假設(shè)[A]的子集。
同時,與該假設(shè)交集不為空的概率之和稱為似然函數(shù)[Pl(A)],如式(9)所示:
[Pl(A)=B?A≠?m(B)] (9)
對于假設(shè)[A],由信任函數(shù)與似然函數(shù)組成的閉區(qū)間[[Bel(A)],[Pl(A)]],即為假設(shè)[A]的信任區(qū)間,表示對假設(shè)[A]的確認程度。
對于\"[A?Y],[Y]上的2個mass函數(shù)[m1]、[m2]的合成規(guī)則如式(10)所示:
[m1⊕m2(A)=1KB?C=Am1(B)·m2(C)]" (10)
式中:[B]、[C]為所有兩兩相交結(jié)果對[A]的假設(shè);[K]為歸一化系數(shù)。[K]的表達式如式(11)所示:
[K=B?C=?m1(B)·m2(C)=1-B?C=?m1(B)·m2(C)] (11)
在D?S證據(jù)融合理論中,確保證據(jù)間的獨立性是至關(guān)重要的,其是D?S證據(jù)融合理論得以正確應(yīng)用的前提條件。通過傳感器采集到的設(shè)備功率數(shù)據(jù)與人員行為檢測數(shù)據(jù)是由不同采集系統(tǒng)獲取,相互獨立,因此滿足D?S數(shù)據(jù)融合的先決條件。
4.4" 實驗結(jié)果驗證
經(jīng)過改進YOLOv7?tiny與D?S證據(jù)理論相結(jié)合的方法進行判斷后,得出人員行為檢測結(jié)果的預(yù)測值,如表6所示。
由表6可知,僅依賴單一圖像檢測判斷易發(fā)生誤判情況。而運用D?S證據(jù)理論將圖像檢測與設(shè)備狀態(tài)數(shù)據(jù)融合后,轉(zhuǎn)為概率預(yù)測,準確性得到提高。如序號2中檢測打電話行為概率為0.89,初判為不規(guī)范行為。但經(jīng)信息融合后,不規(guī)范行為概率降為0.16,不是不規(guī)范行為概率升至0.70,判定結(jié)果與人工判斷結(jié)果相符。
為驗證兩種方法的漏檢、誤檢實際應(yīng)用效果,本文選取200張實驗室人員打電話行為圖片,其中160張經(jīng)人工判斷為不規(guī)范行為圖片,分別用本文提出的兩種算法進行對比,結(jié)果如圖12所示。
由圖12可知,單一使用改進YOLOv7?tiny算法進行檢測,漏檢、誤檢率為8%,而使用改進YOLOv7?tiny與D?S證據(jù)理論相結(jié)合后的方法進行檢測,漏檢、誤檢率為2%。由以上結(jié)果表明,在實際實驗室場景下,本文提出的多源融合決策改進YOLOv7?tiny+D?S證據(jù)理論,漏檢和誤檢率顯著下降,同時又解決了復(fù)雜多應(yīng)用場景決策的事件耦合帶來的不確定性,更符合人工決策的過程,體現(xiàn)了智能決策的主要思想。
5" 結(jié)" 語
由于目前針對人員不規(guī)范行為的檢測,引入信息融合技術(shù)進行判斷的方法較少,且存在未針對實驗室場景優(yōu)化,檢測精度較低、誤檢率較高等問題,本文提出一種改進YOLOv7?tiny與D?S證據(jù)理論相結(jié)合進行實驗室場景下人員不規(guī)范行為判定的方法,將圖像檢測數(shù)據(jù)和實驗室設(shè)備運行狀態(tài)進行信息融合來判定人員不規(guī)范行為的概率。實驗結(jié)果表明,相較于依托于單事件的松判決方法,該方法在提升檢測精度的同時顯著降低了復(fù)雜度和模型參數(shù)量,且有效降低了漏檢、誤檢率,更符合實際情況,具備良好的適用性和先進性。
在未來的工作中,將考慮對數(shù)據(jù)集進行擴增,增加實際情況下不同實驗室的不規(guī)范行為檢測類別,并考慮進行硬判決方法的設(shè)計,完善部署工作。
注:本文通訊作者為曹敏。
參考文獻
[1] LUO M L, XU L H, YANG Y L, et al. Laboratory flame smoke detection based on an improved YOLOX algorithm [J]. Applied sciences, 2022, 12(24): 12876.
[2] 中華人民共和國教育部辦公廳.教育部辦公廳關(guān)于印發(fā)《高等學校實驗室安全規(guī)范》的通知[J].中華人民共和國教育部公報,2023(3):40?51.
[3] 趙鵬飛,謝林柏,彭力.融合注意力機制的深層次小目標檢測算法[J].計算機科學與探索,2022,16(4):927?937.
[4] BODLA N, SINGH B, CHELLAPPA R, et al. Soft?NMS: Impro?ving object detection with one line of code [C]// IEEE International Conference on Computer Vision. New York: IEEE, 2017: 5562?5570.
[5] CAO Z, MEI F, ZHANG D, et al. Recognition and detection of persimmon in a natural environment based on an improved YOLOv5 model [J]. Electronics, 2023, 12(4): 1?14.
[6] NIU J X, GU S K, DU J M, et al. Underwater waste recognition and localization based on improved YOLOv5 [J]. Computers, materials amp; continua, 2023, 76(2): 2015?2031.
[7] 吳志高,陳明.基于改進YOLO v7的微藻輕量級檢測方法[J].大連海洋大學學報,2023,38(1):129?139.
[8] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag?of?freebies sets new state?of?the?art for real?time object detectors [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2022: 7464?7475.
[9] ZHANG Z, JIANG W, GENG J, et al. Fault diagnosis based on non?negative sparse constrained deep neural networks and Dempster?Shafer theory [J]. IEEE access, 2020, 8: 18182?18195.
[10] 王小藝,白玉廷,陽譯,等.基于多源異構(gòu)信息的藻類水華治理群決策方法[J].安全與環(huán)境學報,2022,22(3):1575?1584.
[11] 戴亞平,馬俊杰,王笑涵.多傳感器數(shù)據(jù)智能融合理論與應(yīng)用[M].北京:機械工業(yè)出版社,2021.
[12] 劉慶華,楊欣儀,接浩,等.基于融合GhostNetV2的YOLO v7水稻籽粒檢測[J].農(nóng)業(yè)機械學報,2023,54(12):253?260.
[13] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module [C]// Proceedings of the IEEE European Conference on Computer Vision. Heidelberg, Germany: Springer, 2018: 3?19.
[14] 王昕,董琴,楊國宇.基于優(yōu)化CBAM改進YOLOv5的農(nóng)作物病蟲害識別[J].計算機系統(tǒng)應(yīng)用,2023,32(7):261?268.
[15] 王美華,吳振鑫,周祖光.基于注意力改進CBAM的農(nóng)作物病蟲害細粒度識別研究[J].農(nóng)業(yè)機械學報,2021,52(4):239?247.
[16] GEVORGYAN Z. SIoU loss: More powerful learning for boun?ding box regression [EB/OL]. [2022?09?01]. https: //arxiv.org/abs/2205.12740.
[17] KUEHNE H, JHUANG H, GARROTE E, et al. HMDB: A large video database for human motion recognition [C]// Proceedings of International Conference on Computer Vision. New York: IEEE, 2011: 2556?2563.
[18] 羅依夢,許慶陽,段賀輝,等.基于D?S證據(jù)融合理論的軌道電路補償電容故障判決方法研究[J].鐵道通信信號,2024,60(2):32?39.
作者簡介:楊永亮(1998—),男,河北滄州人,碩士研究生,主要研究方向為圖像處理與目標檢測。
曹" 敏(1976—),女,貴州貴陽人,碩士研究生,副教授,碩士生導(dǎo)師,主要研究方向為智能控制。
徐凌樺(1976—),男,貴州貴陽人,碩士研究生,副教授,碩士生導(dǎo)師,主要研究方向為嵌入式系統(tǒng)、傳感器網(wǎng)絡(luò)。
王" 霄(1985—),男,黑龍江哈爾濱人,博士研究生,副教授,碩士生導(dǎo)師,主要研究方向為物聯(lián)網(wǎng)理論及應(yīng)用、人工智能理論及應(yīng)用。
楊" 靖(1973—),男,貴州貴陽人,博士研究生,教授,博士生導(dǎo)師,主要研究方向為物聯(lián)網(wǎng)技術(shù)與應(yīng)用。
王" 濤(1999—),男,海南臨高人,碩士研究生,主要研究方向為計算機視覺和路徑規(guī)劃。
馮平平(1999—),男,貴州遵義人,碩士研究生,主要研究方向為群智能算法和任務(wù)分配。
收稿日期:2024?03?13" " " " " "修回日期:2024?03?29
基金項目:國家自然科學基金資助項目(61861007);貴州省教育廳創(chuàng)新群體項目(黔教合KY字[2021]012);貴州省科技計劃項目(黔科合支撐[2023]一般411);貴州省科技計劃項目(黔科合支撐[2023]一般412)