摘要:針對鐵路軌道異物檢測中不同尺度異物目標(biāo)的檢測易受復(fù)雜環(huán)境的影響,導(dǎo)致出現(xiàn)檢測精度低及檢測速度慢等問題,提出一種多尺度特征融合的鐵軌異物檢測(RMF-YOLO)算法。首先,設(shè)計并引入改進(jìn)的卷積注意力模塊(ICBAM),結(jié)合YOLOv7特征提取網(wǎng)絡(luò),以增強(qiáng)復(fù)雜場景下的特征提取能力。其次,在所有高效層聚合網(wǎng)絡(luò)模塊中采用GhostConv替代普通卷積層,以降低計算復(fù)雜度,提高特征輸出效率;設(shè)計一種改進(jìn)的加權(quán)雙向特征金字塔網(wǎng)絡(luò)N-BiFPN結(jié)構(gòu),加強(qiáng)多尺度特征融合能力,平衡不同層級特征信息,提高多尺度檢測能力。最后,為進(jìn)一步提升檢測精度,采用WIoU損失函數(shù)結(jié)合動態(tài)非單調(diào)聚集機(jī)制,有效應(yīng)對低質(zhì)量錨框產(chǎn)生的梯度,提高模型對不同尺度異物檢測的整體性能。實(shí)驗(yàn)結(jié)果表明:在自制的鐵軌異物數(shù)據(jù)集上,RMF-YOLO算法減少了原網(wǎng)絡(luò)模型的參數(shù)量,有效提升了模型的檢測精度與檢測速度,改善了漏檢與誤檢問題,平均精度提升了5.5%,檢測速度提升了5.88%,計算量減少了12.25%,能滿足鐵軌入侵異物檢測中對檢測精度和實(shí)時性的需求。
關(guān)鍵詞:鐵軌異物檢測;特征融合;多尺度;YOLOv7;損失函數(shù)
中圖分類號:TP391.41;U298 文獻(xiàn)標(biāo)志碼:A
DOI:10.7652/xjtuxb202409014 文章編號:0253-987X(2024)09-0139-15
Research on Railway Track Foreign Object Intrusion Detection
Based on Multi-Scale Feature Fusion
WANG Nan, HOU Tao, NIU Hongxia
(School of Automation and Electrical Engineering, Lanzhou Jiaotong University, Lanzhou 730070, China)
Abstract:To address the issues of low detection accuracy and slow detection speed caused by the influence of complex environments on detecting foreign objects of different scales on railroad tracks, this paper proposes a multi-scale feature fusion RMF-YOLO (railway multi-scale fusion YOLO) method for railroad track foreign object detection. Firstly, ICBAM, an improved convolutional attention module, is designed and introduced in combination with the YOLOv7 feature extraction network to enhance feature extraction capability in complex scenarios. Subsequently, GhostConv is adopted in all efficient layer aggregation network modules instead of regular convolutional layers to reduce computational complexity and enhance feature output efficiency.An improved weighted bi-directional feature pyramid network (N-BiFPN) structure is introduced to enhance multi-scale feature fusion, balance feature information across different levels, and improve multi-scale detection capabilities. Lastly, to further enhance detection accuracy, the WIoU loss function combined with the dynamic non-monotonic aggregation mechanism is used to effectively deal with the gradient generated by the low-quality anchor frames and to improve the overall performance of the model for the detection of foreign objects at different scales. The experimental results indicate that on the self-made railway track foreign object dataset, the RMF-YOLO algorithm reduces the parameter count of the original network model, effectively enhancing the model’s detection accuracy and detection speed of the model and addressing issues related to missed and 1 detections. On average, the precision increased by 5.5%, the frames per second (FPS) improved by 5.88%, and the computational load decreased by 12.25%. These enhancements meet the requirements for both detection accuracy and real-time performance in railway track foreign object detection.
Keywords:railroad foreign object detection; feature fusion; multi-scale; YOLOv7; loss function
鐵路在全球運(yùn)輸系統(tǒng)中扮演著重要角色,隨著鐵路運(yùn)輸?shù)目焖侔l(fā)展,鐵路運(yùn)輸安全也越來越受到人們的關(guān)注。對于鐵路運(yùn)輸安全,鐵軌附近出現(xiàn)的入侵異物是威脅鐵路系統(tǒng)安全的原因之一,典型的鐵路非法入侵有行人、車輛、動物、軌旁基礎(chǔ)設(shè)施坍塌等,特別是在開放式鐵路環(huán)境下,行人的行為是不可預(yù)測的[1]。列車前方異物的入侵會對高速列車的安全構(gòu)成重大威脅,因此及時發(fā)現(xiàn)非法入侵異物,確保列車安全至關(guān)重要。
有效的鐵路異物入侵檢測方法對鐵路安全具有重要意義。目前,鐵路入侵檢測主要有兩種方法:接觸式和非接觸式。接觸式檢測需要大量的工程工作,主要是利用傳感器技術(shù)判斷異物是否與傳感器接觸,這種物理保護(hù)方法受到外界因素影響較大,不適合大規(guī)模的使用?;谏疃葘W(xué)習(xí)的異物目標(biāo)檢測是一種典型的非接觸式檢測方法,具有易于維護(hù)和準(zhǔn)確性較高的特點(diǎn),目標(biāo)檢測方法可分為兩階段和單階段。兩階段方法涉及生成候選區(qū)域,然后進(jìn)行分類和回歸,雖然具有較高的檢測精度,但是由于計算復(fù)雜而難以進(jìn)行實(shí)時檢測[2]。單階段方法需要生成位置和類別概率[3-5]。近年來,涌現(xiàn)出基于Transformer的目標(biāo)檢測算法,將目標(biāo)檢測任務(wù)視為序列到序列的預(yù)測問題,并通過引入自注意力機(jī)制推理目標(biāo)與全局圖像的上下文關(guān)系,如端到端目標(biāo)檢測器(DETR)[6]等。
目前,已經(jīng)有很多學(xué)者開展基于深度學(xué)習(xí)的鐵路異物入侵檢測研究。Guo等[7]通過改進(jìn)的SSD網(wǎng)絡(luò)進(jìn)行高速鐵路間隙入侵檢測,將高級特征反卷積為低級特征,并與原始的低級特征融合,以增強(qiáng)語義信息。汪世財?shù)龋?]根據(jù)障礙物的點(diǎn)云位置特征和時間特征去除背景點(diǎn)云數(shù)據(jù),以提高障礙物關(guān)聯(lián)可靠性。徐巖等[9]針對鐵路異物檢測問題,提出一種替代全連接層的方法,然而這種方法在復(fù)雜環(huán)境下的異物檢測性能相對較弱。張劍等[10]采用可切換的空心卷積提取特征,降低了目標(biāo)檢測的誤報率,但每秒幀數(shù)(FPS)較低,不能滿足實(shí)時檢測的要求。Hussain等[11]提出使用反向注意力機(jī)制進(jìn)行目標(biāo)對象的清晰邊界檢測,使用二元交叉熵(BCE)損失與結(jié)構(gòu)相似性指數(shù)度量(SSIM)和交集(IoU)損失的組合來監(jiān)督訓(xùn)練。胡行濤等[12]將不確定性添加到檢測系統(tǒng)中,可以有效提高檢測精度,但該方法對特征遮擋和快速移動的目標(biāo)存在漏檢情況。Cai等[13]提出一種基于毫米波雷達(dá)的異物檢測系統(tǒng),在雷達(dá)數(shù)據(jù)的基礎(chǔ)上對不同維度的數(shù)據(jù)進(jìn)行處理,以獲得目標(biāo)信息。He等[14]結(jié)合多種多尺度增強(qiáng)方法,提高了小目標(biāo)物體的檢測能力,但是實(shí)時性較弱。Wang等[15]提出一種基于深度生成網(wǎng)絡(luò)和自回歸模型的無監(jiān)督入侵檢測方法,通過重建和原始輸入圖像的差值定位異常區(qū)域。管嶺等[16]提出一種改進(jìn)的YOLOv4-tiny網(wǎng)絡(luò)模型用于軌道異物檢測,融合跨階段結(jié)構(gòu)和引入多頭注意力機(jī)制,從而提高網(wǎng)絡(luò)性能和效率。
隨著網(wǎng)絡(luò)結(jié)構(gòu)的深入和更多新架構(gòu)的出現(xiàn)[17],現(xiàn)有的鐵軌異物檢測算法存在難以平衡檢測精度和速度的問題,不能滿足鐵路入侵檢測的實(shí)時性和準(zhǔn)確性的需求。不同光照環(huán)境、天氣、遮擋等復(fù)雜環(huán)境也影響了入侵異物的可視化特征,對鐵軌異物目標(biāo)的檢測造成干擾。鐵軌附近可能出現(xiàn)的異物尺寸復(fù)雜多樣,異物目標(biāo)也會因與攝像頭的距離差異而導(dǎo)致成像尺寸差異較大。這些因素都對目標(biāo)檢測算法的實(shí)用性和魯棒性提出了更高的要求?,F(xiàn)有的目標(biāo)檢測算法并不能保證在復(fù)雜環(huán)境下檢測多尺度異物,對于姿態(tài)各異的工人以及遠(yuǎn)處的物體,在提取特征不足的情況下,可能難以檢測出來。
針對上述問題,本文以YOLOv7為基礎(chǔ)網(wǎng)絡(luò),提出了一種基于多尺度特征融合的RMF-YOLO (rail multi-scale fusion YOLO)鐵軌異物入侵檢測算法,旨在實(shí)現(xiàn)更小的參數(shù)量和更高的檢測精度。通過引入改進(jìn)的卷積注意力模塊(ICBAM)、多尺度特征融合網(wǎng)絡(luò)以及改進(jìn)損失函數(shù)等策略,對YOLOv7網(wǎng)絡(luò)進(jìn)行改進(jìn),以提高異物檢測的準(zhǔn)確性,特別是針對不同尺度異物的特征提取能力。本文主要貢獻(xiàn)如下。
(1)在特征提取網(wǎng)絡(luò)中設(shè)計一種混合注意力機(jī)制,即ICBAM。該注意力機(jī)制通過提取全局上下文信息,可以有效提高局部表達(dá)能力,更好地擬合入侵異物特征信息,提高異物入侵圖像中對不同尺度異物的檢測能力。
(2)為了降低網(wǎng)絡(luò)的計算復(fù)雜度,在所有高效層聚集網(wǎng)絡(luò)(ELAN)模塊中引入GhostConv模塊,代替普通卷積,實(shí)現(xiàn)模型壓縮,以平衡檢測精度和速度。
(3)在特征融合網(wǎng)絡(luò)中,提出一種改進(jìn)的特征金字塔網(wǎng)絡(luò)N-BiFPN作為特征融合模塊,代替原有的路徑聚合網(wǎng)絡(luò)(PANet),從而實(shí)現(xiàn)高效的雙向跨尺度連接和加權(quán)特征融合,以獲得更多的特征信息,避免了異物特征的丟失,顯著提高了算法的檢測能力。
(4)在損失函數(shù)的計算中引入WIoUv3(wise-intersection over union)損失函數(shù),采用梯度增益分配策略,增強(qiáng)模型對低質(zhì)量錨框的聚集,提高模型在鐵軌異物檢測中的整體性能。
1 RMF-YOLO算法的網(wǎng)絡(luò)模型
1.1 YOLOv7算法
YOLOv7[18]的結(jié)構(gòu)框架包括輸入端、特征提取網(wǎng)絡(luò)、特征融合網(wǎng)絡(luò)以及頭部架構(gòu)。特征提取網(wǎng)絡(luò)主要由一系列卷積層組成,專門用于從輸入數(shù)據(jù)中提取特征。首先,將固定分辨率為640×640像素的圖像分批輸入到骨干網(wǎng)絡(luò),進(jìn)入主干層后產(chǎn)生雙下采樣特征圖。之后,由Conv層和ELAN層卷積組成網(wǎng)絡(luò)層,產(chǎn)生4倍下采樣圖像。然后,進(jìn)行3次重復(fù)的最大池化(核尺寸n=1)下采樣,結(jié)合ELAN層,得到32倍下的采樣特征圖。在特征融合網(wǎng)絡(luò)中,空間金字塔池化跨階段模塊(SPPCSPC)[19]首先通過將特征通道的數(shù)量減半來匯集來自上部輸出的特征。然后,采用路徑聚合特征金字塔網(wǎng)絡(luò)(PANet)模塊進(jìn)行多尺度的特征融合,采用自上而下的結(jié)構(gòu)傳遞深層的強(qiáng)語義特征,以增強(qiáng)整個金字塔。同時,采用自下而上的結(jié)構(gòu),將淺層的圖像結(jié)構(gòu)、顏色、邊緣等特征位置信息傳遞上去,從而實(shí)現(xiàn)不同層次特征高效融合。最后,頭部架構(gòu)采用REP結(jié)構(gòu)對PANet結(jié)構(gòu)進(jìn)行通道數(shù)調(diào)整,將特征送入尺寸為1×1 的卷積模塊,用來預(yù)測圖像的置信度、類別、錨框信息,并最終生成檢測結(jié)果。YOLOv7算法結(jié)構(gòu)圖如圖1所示。
1.2 RMF-YOLO算法的網(wǎng)絡(luò)結(jié)構(gòu)
雖然YOLOv7網(wǎng)絡(luò)具有良好的檢測性能,但是對于鐵路環(huán)境中異物特征不明顯、遮擋、尺度變化較大的情況仍存在檢測精度不高的問題,故而需要進(jìn)行改進(jìn)和優(yōu)化。本文在YOLOv7網(wǎng)絡(luò)結(jié)構(gòu)上進(jìn)行了改進(jìn),提出了一種基于多尺度特征融合的RMF-YOLO網(wǎng)絡(luò)模型,使其可以適用于檢測鐵軌異物,準(zhǔn)確識別復(fù)雜環(huán)境中大小不一的異物目標(biāo)。RMF-YOLO算法的整體結(jié)構(gòu)如圖2所示。
2 基于RMF-YOLO算法的異物目標(biāo)檢測
RMF-YOLO算法集成了ICBAM混合注意力模塊、GhostConv模塊、改進(jìn)的BiFPN特征融合網(wǎng)絡(luò)和WIoUv3損失函數(shù),以提高對具有復(fù)雜特征的多個對象的識別能力。首先,將ICBAM注意力模塊添加在特征提取網(wǎng)絡(luò)中,幫助網(wǎng)絡(luò)有效抑制無關(guān)對象的干擾,從而實(shí)現(xiàn)對異物的準(zhǔn)確檢測,提高特征的表達(dá)能力。其次,用GhostConv代替普通卷積,可以讓模塊在幾乎沒有額外計算復(fù)雜度的情況下運(yùn)行,提高模型性能,減少模型參數(shù),有助于提高鐵軌異物檢測的速度。然后,在PANet的基礎(chǔ)上進(jìn)行改進(jìn),構(gòu)建一種新的具有聚合路徑的加權(quán)雙向特征金字塔網(wǎng)絡(luò)N-BiFPN,從而有效地優(yōu)化特征融合過程,可以更好地獲取異物目標(biāo)的多尺度特征,獲得更高的檢測精度??紤]對難以檢測異物目標(biāo)的關(guān)注,提出將WIoUv3損失作為邊界框損傷的計算方法,有助于進(jìn)一步提高模型的性能,具體見圖2特征融合網(wǎng)絡(luò)部分。
2.1 混合注意力機(jī)制
在鐵路軌道場景中,由于光照、遮擋、背景等因素的影響,可能產(chǎn)生對入侵異物的漏檢和錯檢,尤其是對遠(yuǎn)端小物體的檢測。為了進(jìn)一步解決復(fù)雜環(huán)境中對鐵軌入侵異物的檢測,降低環(huán)境信息對異物檢測的干擾,本文在卷積注意力模塊(CBAM)[20]的基礎(chǔ)上進(jìn)行改進(jìn),得到ICBAM混合注意力機(jī)制,聚集特征圖的通道和空間維度,從而進(jìn)一步提高檢測精度。ICBAM由兩個相互連接的子模塊組成,在輸入和輸出之間新增一個殘差連接,以滿足更短的有效梯度傳播路徑。通過使用具有sigmoid函數(shù)的全局最大池化來增強(qiáng)由全局平均池化生成的信道映射,對通道注意力模塊進(jìn)行改進(jìn),得到增強(qiáng)型通道注意力模塊(ECAM),從而增強(qiáng)通道特征聚合并減少多層感知器(MLP)計算。通過ECAM和空間注意力模塊(SAM),特征提取網(wǎng)絡(luò)可以自適應(yīng)地調(diào)整輸入的特征圖,并集中在其中重要的特征部分。
ICBAM混合注意力機(jī)制計算過程表示為
Fx=Meca(F)F(1)
Fs=(Msa(Fx)Fx)F (2)
式中:特征圖F∈RC×H×W,C為特征圖的通道數(shù),H×W為特征圖大??;Meca(F)為通道注意力特征;Msa(Fx)為空間注意力特征;Fx表示通過ECAM得到的特征圖。
在提取原網(wǎng)絡(luò)特征之后,利用ICBAM注意力機(jī)制將通道注意力和空間注意力串聯(lián)。在模型訓(xùn)練過程中對于異物目標(biāo)分配更多的權(quán)值參數(shù),對原有的入侵異物特征圖進(jìn)行信息提煉,突出前景異物目標(biāo)的權(quán)重,使網(wǎng)絡(luò)在學(xué)習(xí)過程中更關(guān)注于前景異物的特征,提高對目標(biāo)對象的特征提取能力。將ICBAM注意力機(jī)制應(yīng)用于鐵路周界異物入侵檢測,可以提升算法對異物目標(biāo)的提取能力,改善由于復(fù)雜環(huán)境引起的異物目標(biāo)特征信息減弱,致使檢測的準(zhǔn)確性降低等問題。應(yīng)用該注意力機(jī)制可以保留更多的特征信息來提升網(wǎng)絡(luò)對全局信息的學(xué)習(xí),進(jìn)而提升網(wǎng)絡(luò)對異物目標(biāo)的檢測準(zhǔn)確率。ICBAM混合注意力模塊結(jié)構(gòu)如圖3所示。
在混合注意力機(jī)制下,輸入特征圖F經(jīng)過ECAM,對特征圖在空間維度上進(jìn)行壓縮。ECAM突出顯示輸入特征有意義的通道,為了有效地計算通道注意力特征,使用sigmoid函數(shù)將全局平均池化操作乘以全局最大池化操作,以增強(qiáng)通道注意力。然后,將得到的參數(shù)通過多層感知器MLP進(jìn)行疊加,進(jìn)一步壓縮輸入特征圖的空間維度,以生成通道注意力特征Meca(F)。輸出特征圖計算公式為
Meca(F)=σ(W2(W1(Fecavgσ(Fecmax))))(3)
式中:σ表示sigmoid函數(shù);Fecavg和Fecmax分別為通道注意力機(jī)制的全局平均池化運(yùn)算和最大平均池化運(yùn)算;W1和W2分別為多層感知器第1層和第2層權(quán)重。
將給定特征圖Fx送入SAM,沿通道維度聚合空間信息,連接平均池化和最大池化特征圖。然后,通過卷積和sigmoid函數(shù)激活,得到空間注意力特征Msa(F),計算公式為
Msa(F)=σ(f7×7(Fsavg; Fsmax)) (4)
式中:f7×7表示濾波器為7×7的卷積運(yùn)算,7×7表示卷積核的尺寸;Fsavg和Fsmax分別為空間注意力機(jī)制的平均池化運(yùn)算和最大平均池化運(yùn)算。
2.2 Ghost模塊的構(gòu)建
由于卷積神經(jīng)網(wǎng)絡(luò)的不斷發(fā)展和對于嵌入式設(shè)備需求的增加,在有限的計算資源下部署更高效的神經(jīng)網(wǎng)絡(luò)已成為神經(jīng)網(wǎng)絡(luò)發(fā)展的迫切需求。Han等[21]利用特征圖的冗余特性進(jìn)行一系列的線性變換,提出了一種更輕量級的卷積模塊GhostConv,使用更少的參數(shù)和計算實(shí)現(xiàn)更多的特征圖。普通卷積和GhostConv卷積對比如圖4所示。
為了減少生成冗余特征圖所需的濾波器的數(shù)量,本文利用這種輕量級的GhostConv模塊代替YOLOv7模型中的普通卷積模塊,可減少網(wǎng)絡(luò)的計算量和參數(shù)量。使用Ghost卷積層替換標(biāo)準(zhǔn)卷積層,但保留了批處理歸一化和SiLU激活函數(shù),使得CBS模塊變?yōu)镚BS模塊,也使得其他模塊轉(zhuǎn)變?yōu)镚host對應(yīng)模塊。
GhostConv卷積在常規(guī)卷積的基礎(chǔ)上進(jìn)行了線性運(yùn)算,首先是通過提取特征信息進(jìn)行少量卷積,獲得一般特征圖;然后利用普通卷積給出的固有特性映射,將一般特征圖中的每一個通道的特征做線性運(yùn)算,生成同等通道數(shù)的Ghost特征圖,可以在幾乎不影響檢測精度的同時有效降低普通卷積的冗余性;最后將兩次獲得的特征圖堆疊起來,形成新的輸出特征圖。GhostConv卷積在保證模型性能的情況下,大幅度減少參數(shù)和計算量,從而實(shí)現(xiàn)更高效、更輕量級的網(wǎng)絡(luò)部署。
假設(shè)輸入特征圖的高、寬和通道數(shù)分別為c、h、w,經(jīng)過一次卷積后輸出特征的高度和寬度為H、W,卷積核數(shù)量為n,卷積核大小為k,線性變換卷積核大小為d,經(jīng)過s次變換,普通卷積操作的計算量與GhostConv卷積的計算量之比為
rs=nHWckk
(n/s)HWckk+(s-1)(n/s)HWdd=
ckk(1/s)ckk+((s-1)/s)dd≈scs+c-1≈s(5)
式中:n/s為第1次變換時的輸出通道數(shù)目;s-1是恒等映射不需要進(jìn)行計算,但也算作第2次變換中的一部分。
計算卷積核的參數(shù)量為
rc=nckk
(n/s)ckk+(s-1)(n/s)dd≈
scs+c-1≈s(6)
結(jié)合式(5)和式(6)可以看出,計算量和參數(shù)量之比受變換數(shù)量s的影響,即生成特征圖越多,模型加速效果越好。在模型中引入GhostConv卷積可以有效減少模型的計算量和參數(shù)量,提高模型的運(yùn)行速度和效率。
2.3 多尺度特征融合網(wǎng)絡(luò)
有效的特征融合可以增強(qiáng)目標(biāo)檢測的精度,不同特征金字塔如圖5所示。特征金字塔網(wǎng)絡(luò)(FPN)[22]提出了一種自頂向下的路徑,具有橫向連接,通過構(gòu)造多尺度特征融合結(jié)構(gòu)來傳播語義上較強(qiáng)的路徑。在FPN中建立一條自上而下的通路,進(jìn)行特征融合,用融合后的具有更高語義信息的特征圖進(jìn)行預(yù)測,可以提高一定的精度,結(jié)構(gòu)如圖5(a)所示。但是經(jīng)過研究發(fā)現(xiàn),這種自頂向下的FPN網(wǎng)絡(luò)受到單向信息流約束的影響,精度不能得到有效提高?;诖?,PANet引入自底向上的路徑,縮短底層與頂層特征之間的信息路徑,通過雙向融合網(wǎng)絡(luò)深層特征圖的語義信息和淺層特征圖的定位信息提高了檢測精度,讓頂層網(wǎng)絡(luò)在保持語義特征的同時增加了空間特征[23]。YOLOv7在特征融合網(wǎng)絡(luò)層采用PANet結(jié)構(gòu),該結(jié)構(gòu)具有自頂向下和自底向上的特點(diǎn),結(jié)構(gòu)如圖5(b)所示。這種結(jié)構(gòu)增加了參數(shù)量,降低了模型效率,只通過簡單的求和運(yùn)算來融合來自不同層的特征,導(dǎo)致特征融合不夠充分。
為了解決這一問題,在以PANet為基礎(chǔ)的框架上,借鑒加權(quán)雙向特征金字塔網(wǎng)絡(luò) (BiFPN)[24]結(jié)構(gòu)的設(shè)計思想,本文提出了N-BiFPN作為多尺度特征融合模塊。該模塊旨在實(shí)現(xiàn)不同尺度特征圖的融合,從而加強(qiáng)特征信息表達(dá),實(shí)現(xiàn)對特征的多尺度融合和上下文信息的豐富,結(jié)構(gòu)如圖5(c)所示。
N-BiFPN在PANet的基礎(chǔ)上,移除PANet中的單輸入節(jié)點(diǎn),該節(jié)點(diǎn)所包含信息較少,沒有進(jìn)行特征融合,刪除該節(jié)點(diǎn)可以簡化多尺度融合結(jié)構(gòu),減少計算量。在原始輸入節(jié)點(diǎn)和輸出節(jié)點(diǎn)之間添加新的聚合路徑,在節(jié)省資源消耗的同時融合更多的特征信息。N-BiFPN通過構(gòu)造雙向通道實(shí)現(xiàn)跨尺度連接,將特征提取網(wǎng)絡(luò)中的特征直接與自下而上路徑中的相對大小特征融合。自頂向下的路徑可以提高網(wǎng)絡(luò)的識別能力,向底層網(wǎng)絡(luò)傳遞強(qiáng)語義信息,自底向上的路徑增強(qiáng)網(wǎng)絡(luò)特征層次的定位能力,保留了更淺層的細(xì)節(jié)特征。為改善多尺度特征融合效果,針對每個輸入特征設(shè)置了一個可學(xué)習(xí)的特征融合因子,并采用通道級聯(lián)的方式進(jìn)行特征融合的操作。這種方式在保留更多特征信息的同時,可以簡化融合計算,降低冗余操作。
N-BiFPN相當(dāng)于一個具有權(quán)重的特征融合機(jī)制,權(quán)重信息在所有特征層之間共享,通過有效的路徑優(yōu)化實(shí)現(xiàn)路徑增強(qiáng),確保網(wǎng)絡(luò)在訓(xùn)練過程中逐漸學(xué)習(xí)每個輸入特征的重要信息。同時,多尺度特征融合可以提高模型的感受野,在不同尺度上提取和融合多尺度的特征信息,提高對多尺度目標(biāo)的檢測性能,使模型能夠更好地理解所采集鐵軌圖像中的異物。這種多尺度的特征融合網(wǎng)絡(luò)可以提高檢測精度,使得模型能夠在不同尺度物體上進(jìn)行檢測。
N-BiFPN結(jié)構(gòu)采用快速歸一化融合方法進(jìn)行權(quán)值融合,其加權(quán)特征融合公式為
O=∑iwiε+∑iwjIi (7)
式中:O表示加權(quán)特征融合的輸出特征;Ii表示輸入的特征;wi、wj表示可學(xué)習(xí)的特征融合因子;ε表示用于約束數(shù)值振蕩的極小值學(xué)習(xí)率。
以節(jié)點(diǎn)P4為例,N-BiFPN特征融合過程如下
F4=Convw3P4+DBS(P5)
w3+w4+ε (8)
N4=Convw3P4+w4F4+w4DBS(N3)
w3+w4+w5+ε (9)
式中:Pi為第i層的輸入特征;Fi為自上而下的中間特征;Ni 為自下而上的輸出特征;Conv表示卷積運(yùn)算操作;wi為各層對應(yīng)的權(quán)重,描述特征融合過程中各個特征的重要程度;DBS為輸入的上采樣或下采樣運(yùn)算。
2.4 損失函數(shù)的改進(jìn)
損失函數(shù)用來衡量預(yù)測結(jié)果與實(shí)際標(biāo)簽之間的差異,合理設(shè)計的損失函數(shù)可以顯著提高模型的檢測性能。邊界框損失函數(shù)作為目標(biāo)檢測損失函數(shù)的重要組成部分,良好的改進(jìn)將為目標(biāo)檢測模型帶來顯著的性能提升。原YOLOv7采用的CIoU(complete intersection over union)損失函數(shù)[25],考慮了預(yù)測框與真實(shí)框的長寬比、中心點(diǎn)距離、重疊面積,但是對于小標(biāo)注框和低質(zhì)量標(biāo)注框的回歸有一定局限性,且CIoU 損失函數(shù)的計算十分耗時,最終導(dǎo)致較長的訓(xùn)練時間。CIoU的相關(guān)公式如下
LCloU=1-IoU+ ρ2(b,bgt)c2+αv(10)
α=v(1-IoU)+v (11)
v=4π2arctanwgthgt-arctanwg2 (12)
式中:IoU為交并比,即預(yù)測框與真實(shí)框的交集除以二者的并集;b、bgt分別為預(yù)測框和真實(shí)框的中心點(diǎn);ρ為兩個中心點(diǎn)之間的歐式距離;α表示權(quán)重函數(shù);v為用來衡量預(yù)測框與真實(shí)框之間的寬高比的一致性;wgt、hgt為真實(shí)框的寬和高。相關(guān)參數(shù)示意如圖6所示,其中ch和cw為預(yù)測框和真實(shí)框形成的最小封閉框的高度和寬度。
CIoU中預(yù)測框的寬和高w、h相對于v的梯度如下
vw=8π2arctanwh-arctanwgthgt2hh2+w2 (13)
vh=8π2arctanwh-arctanwgthgt2wh2+w2 (14)
由式(13)和式(14)可以看出,以上兩個梯度呈現(xiàn)相反態(tài)勢,即w、h不能同時增大或者縮小。故而,為降低低質(zhì)量標(biāo)注框?qū)z測性能的干擾,進(jìn)一步提高檢測精度,本文引入LWIoUv3損失函數(shù)[26]。WIoU損失函數(shù)是基于動態(tài)非單調(diào)聚集機(jī)制設(shè)計的,采用合理的梯度增益分配策略,使模型更聚焦于低質(zhì)量的錨框。WIoU因?yàn)闆]有對縱橫比進(jìn)行計算,相比于CIoU具有更快的速度,耗時少。WIoU相關(guān)公式如下
LWIoUv3=RWIoULIoU (15)
RWIoU=exp(bgtcx-bcx)2+(bgtcy-bcy)2
(c2w+c2h)* (16)
IIoU=1-IoU(17)
式中:RWIoU為懲罰項(xiàng);L為不同類型損失函數(shù);(bcx,bcy)和(bgtcx,bgtcy)分別表示真實(shí)框和預(yù)測框的中心點(diǎn)坐標(biāo);上標(biāo)*表示將ch和cw從計算圖中分離,防止RWIoU產(chǎn)生阻礙收斂的梯度。
在式(15)的基礎(chǔ)上,構(gòu)造單調(diào)聚集系數(shù)Lγ*IoU,得到
LWIoUv2=Lγ*IoULWIoUv1, γgt;0 (18)
在模型訓(xùn)練過程中,Lγ*IoU的梯度增益隨著LIoU的減小而減小,故而引入LIoU的均值作為歸一化因子,得到
LWIoUv2=L*IoUIoUγLWIoUv1(19)
式中:IoU為動量m的平均運(yùn)行值;動態(tài)更新歸一化因子使梯度增益r=L*IoULIoUγ保持在較高水平。
在式(19)的基礎(chǔ)上,引入動態(tài)非單調(diào)聚集系數(shù),得到
LWIoUv3=rLWIoUv1 (20)
r=βδαβ-σ (21)
β=L*IoULIoU∈[0,+∞] (22)
式中:β表示離群值;α和δ為控制梯度增益r的超參數(shù)。
WIoUv3采用合理的梯度增益分配策略,動態(tài)優(yōu)化損失中高低質(zhì)量錨框的權(quán)值,使模型聚集于平均質(zhì)量樣本,提高模型的整體性能。與YOLOv7模型中的原始損失計算相比,在鐵軌異物檢測任務(wù)中,WIoUv3損失函數(shù)可以動態(tài)優(yōu)化不同尺度異物的損失權(quán)重,提高模型的檢測性能。
3 實(shí)驗(yàn)與結(jié)果分析
3.1 鐵路軌道異物檢測存在的問題
在實(shí)際鐵路軌道交通場景中,鐵軌異物可能會因?yàn)榱熊囋谶\(yùn)行過程中,導(dǎo)致攝像機(jī)采集的圖像視角差異,增加了異物目標(biāo)誤檢的可能性。不同天氣狀況也可能導(dǎo)致誤檢率上升。為提高模型的泛化能力,需要在訓(xùn)練過程中包含不同天氣狀況下的數(shù)據(jù);鐵路軌道異物目標(biāo)具有隨機(jī)性,容易發(fā)生異物的遮擋,導(dǎo)致多個目標(biāo)中可能出現(xiàn)漏檢誤檢的問題。
現(xiàn)有的公開數(shù)據(jù)集并不適用于鐵路軌道異物入侵檢測,需要構(gòu)建專門的數(shù)據(jù)集,并采取相應(yīng)的方法以解決問題,提高異物檢測的準(zhǔn)確率。
3.2 數(shù)據(jù)集
由于目前尚無公開的鐵路入侵異物數(shù)據(jù)集,根據(jù)實(shí)驗(yàn)的需要,建立鐵軌異物目標(biāo)入侵的數(shù)據(jù)集,模擬真實(shí)環(huán)境中的入侵。該數(shù)據(jù)集分為2部分,一部分是從公開數(shù)據(jù)集(Pascal voc2007/2012)中選取具有與本文研究對象特征相近的數(shù)據(jù);另一部分從不同的拍攝角度和場景中采集所有可能妨礙鐵路系統(tǒng)正常運(yùn)行的物體,以創(chuàng)建鐵路異物檢測數(shù)據(jù)集。在實(shí)驗(yàn)中,選擇行人、汽車、火車和動物等典型異物作為研究對象。
為增加模型在實(shí)際情況下的泛化能力,防止因數(shù)據(jù)不足而產(chǎn)生的過擬合現(xiàn)象,對所獲得的原始數(shù)據(jù)采取圖像增強(qiáng)的方法,增加訓(xùn)練數(shù)據(jù)集中圖像的變化。通過隨機(jī)調(diào)整對比度、增加噪聲、旋轉(zhuǎn)、調(diào)節(jié)亮度等操作,將訓(xùn)練樣本的數(shù)量增加了35%,進(jìn)一步提高了模型的泛化能力,防止數(shù)據(jù)集中存在可能的偏差。
數(shù)據(jù)集分為6500個訓(xùn)練集、1000個驗(yàn)證集和1000個測試集,用于評估每種策略的性能實(shí)驗(yàn)。為了制備數(shù)據(jù)集,由于檢測任務(wù)是有監(jiān)督的機(jī)器學(xué)習(xí)問題,因此需要將地面真實(shí)標(biāo)簽返送到模型以進(jìn)行訓(xùn)練。使用開源圖像標(biāo)注工具LabelImg,對經(jīng)過預(yù)處理的數(shù)據(jù)集進(jìn)行人工標(biāo)注,部分?jǐn)?shù)據(jù)集標(biāo)注結(jié)果如圖7所示。
3.3 實(shí)驗(yàn)環(huán)境
本文的實(shí)驗(yàn)環(huán)境:基于Python3.9版,CUDA 11.2版,編程軟件為PyCharm,實(shí)驗(yàn)?zāi)P偷拇罱?、?xùn)練和測試均在深度學(xué)習(xí)Pytorch框架下完成,采用Windows10操作系統(tǒng),搭載NVIDIA RTX3060顯卡。
3.4 評價指標(biāo)
本文采用以下指標(biāo)來評估模型的性能:平均精確度(記作PmAP)、精確度(P)、召回率(R)、檢測速度(FPS)和計算量(GLOPs)。計算公式如下
P=TPTP+FP (23)
R=TPTP+FN (24)
PmAP=1n∑ni=1PA=∫10P(R)dR (25)
式中:TP為陽性樣本被正確分類;TN為陰性樣本被正確分類;FP為陰性樣本被錯誤分類;FN為陽性樣本被錯誤分類;n為所有類別數(shù)量;PA為目標(biāo)類別的平均精確度。
3.5 鐵軌異物入侵檢測實(shí)驗(yàn)結(jié)果
3.5.1 混淆矩陣
混淆矩陣又稱誤差矩陣,是一種常見的用于評估分類器性能的方法,反映了樣本數(shù)據(jù)的真實(shí)類別與分類器的預(yù)測類別之間的關(guān)系[27]?;煜仃囍袡M軸表示預(yù)測值,縱軸表示真實(shí)值,圖中對角線為正確識別的樣本數(shù),顏色越深表示數(shù)量越多。通過混淆矩陣對測試結(jié)果進(jìn)行可視化,不僅能統(tǒng)計每個類別的正確識別數(shù),而且可以了解錯誤識別的分布情況。在相同數(shù)據(jù)集中,由YOLOv7和RMF-YOLO檢測到的混淆矩陣如圖8所示。
從圖8可以看出:本文提出的RMF-YOLO算法模型中混淆矩陣的對角線區(qū)域顏色比YOLOv7深,表明該算法正確預(yù)測目標(biāo)類別的能力得到了增強(qiáng)。在原YOLOv7中,對于行人、狗、貓等小型物體的漏檢率較高,改進(jìn)后的模型降低了這些類別的漏檢率,檢測正確率分別提高了5.84%、8.78%、9.25%、7.84%。該算法各類別異物部分檢測結(jié)果如圖9所示,圖中數(shù)值為目標(biāo)類別的置信度。
3.5.2 對比實(shí)驗(yàn)
(1)不同注意力機(jī)制對比實(shí)驗(yàn)。為了驗(yàn)證本文所提出的ICBAM混合注意力模塊的有效性,進(jìn)行實(shí)驗(yàn)驗(yàn)證,并將ICBAM混合注意力模塊與其他常用的注意力模塊進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表1所示,PmAP@0.5表示Iov為0.5時的平均精度。
由表1可得,在基準(zhǔn)模型中分別引進(jìn)5種注意力機(jī)制后,本文所提出的ICBAM混合注意力機(jī)制檢測精度優(yōu)于其他4種注意力機(jī)制。與其他注意力機(jī)制相比,+ICBAM的精確度、召回率和平均精確度PmAP分別提高了1.4%、1.5% 和1.2%,圖片處理速度提高到90幀/s。同時,ICBAM混合注意力機(jī)制在保持良好檢測精度的同時保證了檢測的實(shí)時性,能夠有效提升模型對不同尺度異物的檢測能力,驗(yàn)證了該方法的可行性。在鐵路軌道異物入侵檢測過程中,利用深層次特征提取網(wǎng)絡(luò)雖然能增強(qiáng)入侵異物的特征感知,但是會影響模型的推理速度,提高網(wǎng)絡(luò)的復(fù)雜度。使用注意力機(jī)制既能保證模型的速度,又能在一定程度上消除背景噪聲干擾,提高特征提取網(wǎng)絡(luò)對異物特征的感知能力。
(2)不同場景下多種檢測算法檢測結(jié)果的對比實(shí)驗(yàn)。使用訓(xùn)練好的檢測模型分別針對遮擋、多尺度及沙塵天氣等不同復(fù)雜場景,利用多種主流檢測算法對不同的入侵異物進(jìn)行實(shí)驗(yàn)對比,結(jié)果如圖10~圖12所示。
對于異物具有遮擋的場景,YOLOv5和YOLOv7算法均存在不同程度因遮擋發(fā)生少檢、漏檢情況;文獻(xiàn)[9]算法對于近端的異物檢測置信度較高,但對于遠(yuǎn)端的異物存在漏檢,且置信度較低;文獻(xiàn)[16]算法部分遮擋人物也出現(xiàn)了漏檢的現(xiàn)象;YOLOX-S算法[28]對于遮擋異物的檢測有所提高,但是對于特殊姿勢的檢測率較低;本文算法RMF-YOLO可以檢出全部異物,對于特殊姿勢的異物檢測更準(zhǔn)確,且定位更加精確,置信度更高,證明本文的算法可以有效提高模型定位精度,提高模型魯棒性。圖10檢測結(jié)果中工人手中的工具通常不會構(gòu)成安全隱患,因此本文方法主要關(guān)注鐵軌上的異物目標(biāo)而非工人手中的工具,未單獨(dú)檢測到工具不影響我們方法的有效性和可靠性。
對于不同尺度的異物場景,尤其針對由于攝像頭距離引起的遠(yuǎn)端異物的檢測,YOLOv5、YOLOv7、YOLOX-S和文獻(xiàn)[16] 算法均存在像素占用小的漏檢目標(biāo)的情況,僅檢測出大尺度的異物目標(biāo)。文獻(xiàn)[9]算法雖然可以檢測出較小尺寸的異物,但是置信度較低。本文算法RMF-YOLO可以有效檢測出不同尺度的入侵異物,與YOLOv7相比,RMF-YOLO在準(zhǔn)確性和錨幀回歸方面表現(xiàn)出性能優(yōu)勢,證明本文方法提高了對不同尺度的鐵軌入侵異物的感知能力。
對于沙塵復(fù)雜環(huán)境下的場景,YOLOv5、文獻(xiàn)[9]和文獻(xiàn)[16]算法受到環(huán)境的影響,較大尺度異物的置信度有所下降;文獻(xiàn)[16]算法和YOLOX-S對于特殊姿勢的異物檢測精確度低;與YOLOv7相比,本文RMF-YOLO算法異物檢測的置信度更高,對于不同尺度異物檢測的精確度均有所提高,可以證明本文算法對于沙塵環(huán)境影響下的特征提取也有改善。
(3)主流目標(biāo)檢測算法對比實(shí)驗(yàn)。為了進(jìn)一步驗(yàn)證本文算法的有效性和優(yōu)越性,在同樣的訓(xùn)練條件和數(shù)據(jù)的前提下,將本文提出的算法與其他算法進(jìn)行對比,結(jié)果見表2。
通過表2中不同算法的實(shí)驗(yàn)結(jié)果可以看出,本文算法RMF-YOLO的平均精確度PmAP指標(biāo)明顯高于其他主流目標(biāo)檢測算法,具有較高的檢測精度,比原YOLOv7的PmAP提高了5.5%,比YOLOv5提高了6.1%,比YOLOv3-SPP提高了7.5%。與SSD-MonileNet、Mask R-CNN、YOLOX-S和YOLO7-tiny算法相比,本文算法的檢測準(zhǔn)確率分別提高了8.3%、9.3%、5.3%和5.5%。相對于具有相近檢測速度YOLOv5和YOLOv3-SPP算法來說,本文算法的檢測準(zhǔn)確率明顯優(yōu)勢,雖然YOLOv7-tiny具有更高的檢測速度,但其檢測精度相對較低,無法滿足對復(fù)雜的鐵路環(huán)境下的異物檢測。本文算法的平均精確度PmAP和檢測速度都高于原YOLOv7目標(biāo)檢測算法,檢測精度上有了顯著的提高,每秒幀數(shù)提高了5.88%,達(dá)到了速度和精度的平衡。綜上所述,本文所提算法與其他主流算法相比更加符合復(fù)雜道路場景目標(biāo)檢測的實(shí)時性和準(zhǔn)確性需求。
3.5.3 消融實(shí)驗(yàn)
消融實(shí)驗(yàn)是通過在完整模型中移除一個或多個模塊,來檢測對模型的性能影響。為了驗(yàn)證本文提出的優(yōu)化措施的效果,依次對RMF-YOLO網(wǎng)絡(luò)進(jìn)行縮減,分別在測試集上進(jìn)行消融實(shí)驗(yàn),以評價各個優(yōu)化模塊對檢測算法性能的影響,結(jié)果如表3所示。
從表3可以看出,第2組在原始模型基礎(chǔ)上融合了GhostConv模塊,與普通卷積模塊相比,GhostConv模塊能夠提高模型精度,同時降低模型復(fù)雜度,檢測速度提高了9.41%,浮點(diǎn)運(yùn)算次數(shù)減少了26.41%。第3組實(shí)驗(yàn)在第2組的基礎(chǔ)上加入了ICBAM注意力機(jī)制模塊,檢測計算量大幅上升,識別速度有所降低,但是檢測精度提高了1.1%,表明該模塊對原始模型的精度提升起到了關(guān)鍵作用。第4組實(shí)驗(yàn)則在原模型中引入了ICBAM和N-BiFPN模塊,在異物檢測的平均精度方面有了顯著提高,較原始基準(zhǔn)模型的PmAP 提高了2.2%。第5組實(shí)驗(yàn)采用了ICBAM和改進(jìn)的損失函數(shù),精度提升了1.6%,證明對識別目標(biāo)的尺寸和位置進(jìn)行有針對性的算法改進(jìn)具有意義。第6組實(shí)驗(yàn)檢測精度提高了1.4%,而檢測速度降低了4.71%。第7組實(shí)驗(yàn),在對損失函數(shù)進(jìn)行替換后,模型性能達(dá)到最佳,與原基準(zhǔn)實(shí)驗(yàn)相比,PmAP提高了5.5%,幀數(shù)提高到90,計算量減少了12.25%,表明模型具有較好的泛化能力,進(jìn)一步驗(yàn)證了本模型方案的有效性。
4 結(jié)束語
本文針對鐵路軌道異物檢測中的挑戰(zhàn),開展了基于多尺度特征融合RMF-YOLO算法的鐵軌異物檢測研究。以YOLOv7為骨干網(wǎng)絡(luò)設(shè)計并引入ICBAM注意力機(jī)制,增強(qiáng)了網(wǎng)絡(luò)對關(guān)鍵特征的關(guān)注和特征提取能力。采用GhostConv替代原模型中的普通卷積層,提高了檢測速度。提出N-BiFPN結(jié)構(gòu)進(jìn)行跨層特征融合,充分結(jié)合深層語義特征和淺層位置特征,增強(qiáng)了網(wǎng)絡(luò)的特征融合能力。最后,引入WIoUv3損失函數(shù),采用動態(tài)樣本分配策略,降低了模型對極端樣本的關(guān)注,提升了模型整體效果。
實(shí)驗(yàn)結(jié)果表明,本文提出的RMF-YOLO算法具有更高的檢測精度,對于遮擋和尺度不一的異物檢測能力均有所提高,改善了漏檢誤檢的情況,滿足復(fù)雜環(huán)境背景下鐵軌異物檢測實(shí)時性的要求。相較于YOLOv7 算法,檢測精度提升了5.5%,每秒幀數(shù)提高了5.88%,計算量減少了12.25%。與現(xiàn)有的主流算法相比,該方法在提高檢測精度的同時降低了對計算能力的要求,易于部署在資源受限的設(shè)備上。
參考文獻(xiàn):
[1]RISTIC-DURRANT D, FRANKE M, MICHELS K. A review of vision-based on-board obstacle detection and distance estimation in railways [J]. Sensors, 2021, 21(10): 3452.
[2]LEI Yang, HE Xiuxiu, YAO Jincao, et al. Breast tumor segmentation in 3D automatic breast ultrasound using mask scoring R-CNN [J]. Medical Physics, 2021, 48(1): 204-214.
[3]LAW H, DENG Jia. CornerNet: detecting objects as paired keypoints [J]. International Journal of Computer Vision, 2020, 128(3): 642-656.
[4]XU Renjie, LIN Haifeng, LU Kangjie, et al. A forest fire detection system based on ensemble learning [J]. Forests, 2021, 12(2): 217.
[5]CAO Jinghao, ZHANG Junju, JIN Xin. A traffic-sign detection algorithm based on improved sparse R-CNN [J]. IEEE Access, 2021, 9: 122774-122788.
[6]WANG Dashuai, LI Zhuolin, DU Xiaoqiang, et al. Farmland obstacle detection from the perspective of UAVs based on non-local deformable DETR [J]. Agriculture, 2022, 12(12): 1983.
[7]GUO Baoqing, SHI Jiafeng, ZHU Liqiang, et al. High-speed railway clearance intrusion detection with improved SSD network [J]. Applied Sciences, 2019, 9(15): 2981.
[8]汪世財, 談東奎, 謝有浩, 等. 基于激光雷達(dá)點(diǎn)云密度特征的智能車障礙物檢測與跟蹤 [J]. 合肥工業(yè)大學(xué)學(xué)報(自然科學(xué)版), 2019, 42(10): 1311-1317.
WANG Shicai, TAN Dongkui, XIE Youhao, et al. Obstacle detection and tracking for intelligent vehicle based on density characteristics of point cloud using 3D lidar [J]. Journal of Hefei University of Technology(Natural Science), 2019, 42(10): 1311-1317.
[9]徐巖, 陶慧青, 虎麗麗. 基于Faster R-CNN網(wǎng)絡(luò)模型的鐵路異物侵限檢測算法研究 [J]. 鐵道學(xué)報, 2020, 42(5): 91-98.
XU Yan, TAO Huiqing, HU Lili. Railway foreign body intrusion detection based on Faster R-CNN network model [J]. Journal of the China Railway Society, 2020, 42(5): 91-98.
[10]張劍, 王等準(zhǔn), 莫光健, 等. 基于改進(jìn)YOLOv3的高鐵異物入侵檢測算法 [J]. 計算機(jī)技術(shù)與發(fā)展, 2022, 32(2): 69-74.
ZHANG Jian, WANG Dengzhun, MO Guangjian, et al. High-speed rail foreign body intrusion detection algorithm based on improved YOLOv3 [J]. Computer Technology and Development, 2022, 32(2): 69-74.
[11]HUSSAIN R, KARBHARI Y, IJAZ M F, et al. Revise-net: exploiting reverse attention mechanism for salient object detection [J]. Remote Sensing, 2021, 13(23): 4941.
[12]胡行濤, 劉大明, 虞發(fā)桐. 基于FCN不確定性特征的鐵路入侵異物檢測算法 [J]. 計算機(jī)應(yīng)用與軟件, 2023, 40(4): 141-146.
HU Xingtao, LIU Daming, YU Fatong. Foreign intrusion object detection algorithm for railway intrusion based on FCN uncertainty [J]. Computer Applications and Software, 2023, 40(4): 141-146.
[13]CAI Huiling, LI Fei, GAO Dianzhu, et al. Foreign objects intrusion detection using millimeter wave radar on railway crossings [C]//2020 IEEE International Conference on Systems, Man, and Cybernetics (SMC).Piscataway, NJ, USA: IEEE, 2020: 2776-2781.
[14]HE Deqiang, QIU Yefeng, MIAO Jian, et al. Improved mask R-CNN for obstacle detection of rail transit [J]. Measurement, 2022, 190: 110728.
[15]WANG Yao, YU Zujun, ZHU Liqiang. Intrusion detection for high-speed railways based on unsupervised anomaly detection models [J]. Applied Intelligence, 2023, 53(7): 8453-8466.
[16]管嶺, 賈利民, 謝征宇. 融合注意力機(jī)制的軌道入侵異物檢測輕量級模型研究 [J]. 鐵道學(xué)報, 2023, 45(5): 72-81.
GUAN Ling, JIA Limin, XIE Zhengyu. Research on lightweight model for railway intrusion detection integrating attention mechanism [J]. Journal of the China Railway Society, 2023, 45(5): 72-81.
[17]HE Deqiang, YANG Yanjie, CHEN Yanjun, et al. An integrated optimization model of metro energy consumption based on regenerative energy and passenger transfer [J]. Applied Energy, 2020, 264: 114770.
[18]WANG C Y, BOCHKOVSKIY A, LIAO H-Y M. YOLOv7: trainable bag-of-freebies sets new state-of-the-art for real-time object detectors [C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, NJ, USA: IEEE, 2023: 7464-7475.
[19]HUANG Peile, WANG Shenghuai, CHEN Jianyu, et al. Lightweight model for pavement defect detection based on improved YOLOv7 [J]. Sensors, 2023, 23(16): 7112.
[20]WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module [C]//Computer Vision-ECCV 2018. Cham, Germany: Springer International Publishing, 2018: 3-19.
[21]HAN Kai, WANG Yunhe, TIAN Qi, et al. GhostNet: more features from cheap operations [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, NJ, USA: IEEE, 2020: 1577-1586.
[22]ZHAO Xiaotong, LI Wei, ZHANG Yifan, et al. Aggregated residual dilation-based feature pyramid network for object detection [J]. IEEE Access, 2019, 7: 134014-134027.
[23]YU Haifeng, LI Xinbin, FENG Yankai, et al. Multiple attentional path aggregation network for marine object detection [J]. Applied Intelligence, 2023, 53(2): 2434-2451.
[24]SONG Zhiwei, HUANG Xinbo, JI Chao, et al. Intelligent identification method of hydrophobic grade of composite insulator based on efficient GA-YOLO former network [J]. IEEJ Transactions on Electrical and Electronic Engineering, 2023, 18(7): 1160-1175.
[25]GAO Jinfeng, CHEN Yu, WEI Yongming, et al. Detection of specific building in remote sensing images using a novel YOLO-S-CIOU model. case: gas station identification [J]. Sensors, 2021, 21(4): 1375.
[26]ZHAO Qing, WEI Honglei, ZHAI Xianyi. Improving tire specification character recognition in the YOLOv5 network [J]. Applied Sciences, 2023, 13(12): 7310.
[27]張開放, 蘇華友, 竇勇. 一種基于混淆矩陣的多分類任務(wù)準(zhǔn)確率評估新方法 [J]. 計算機(jī)工程與科學(xué), 2021, 43(11): 1910-1919.
ZHANG Kaifang, SU Huayou, DOU Yong. A new multi-classification task accuracy evaluation method based on confusion matrix [J]. Computer Engineering amp; Science, 2021, 43(11): 1910-1919.
[28]GE Zheng, LIU Songtao, WANG Feng, et al. YOLOX: exceeding YOLO series in 2021 [EB/OL]. (2021-08-06)[2023-11-12]. https://arxiv.org/abs/2107.08430.
[29]SU Xiaodong, HU Jianxing, CHEN Linzhou, et al. Research on real-time dense small target detection algorithm of UAV based on YOLOv3-SPP [J]. Journal of the Brazilian Society of Mechanical Sciences and Engineering, 2023, 45(9): 488.
[30]TIAN Zhi, SHEN Chunhua, CHEN Hao, et al. FCOS: a simple and strong anchor-free object detector [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(4): 1922-1933.
(編輯 杜秀杰)