亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv7的高鐵異物入侵檢測(cè)算法

        2024-07-20 00:00:00晏朋李遇鑫李治林王等準(zhǔn)李修余梅謝本亮
        無(wú)線電工程 2024年5期
        關(guān)鍵詞:深度學(xué)習(xí)高鐵

        摘 要:針對(duì)復(fù)雜環(huán)境下高鐵軌道入侵異物對(duì)列車的安全行駛有嚴(yán)重的威脅,而現(xiàn)有檢測(cè)方法不能滿足實(shí)際的高鐵軌道異物檢測(cè)工作,提出一種基于改進(jìn)YOLOv7 的高鐵異物入侵檢測(cè)算法。引入CARAFE 算子作為上采樣算法,減少輸入圖像的特征信息損失,增大網(wǎng)絡(luò)感受野;在YOLOv7 模型中引入GhostConv 卷積,可以有效地減少模型的計(jì)算量和參數(shù)量;引入全局注意力機(jī)制(Global Attention Mechanisms,GAM),增強(qiáng)全局信息交互能力和表達(dá)能力,提高檢測(cè)性能;采用Alpha_GIoU 損失函數(shù),提升小目標(biāo)的檢測(cè)能力和模型的收斂速度。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的YOLOv7-CGGA 模型的平均檢測(cè)精度(mean Average Precision,mAP) 和平均每秒推理速度(Frames Per Second,FPS) 值分別達(dá)到96. 7% 和96. 1,與原YOLOv7模型相比,分別提升了1. 6% 和31. 1,較好地平衡了模型的檢測(cè)精度和效率,可以滿足實(shí)際的檢測(cè)需求。

        關(guān)鍵詞:YOLOv7;高鐵;異物入侵;深度學(xué)習(xí)

        中圖分類號(hào):TN919. 81 文獻(xiàn)標(biāo)志碼:A 開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

        文章編號(hào):1003-3106(2024)05-1099-11

        0 引言

        隨著我國(guó)鐵路行業(yè)的快速發(fā)展,近年來(lái)高鐵已逐漸成為人們外出旅行的首選交通方式。截至2022 年底,全國(guó)鐵路營(yíng)業(yè)里程達(dá)到15. 5 萬(wàn)km,其中高鐵里程為4. 2 萬(wàn)km,高鐵里程穩(wěn)居世界第一[1]。然而,高鐵的安全問(wèn)題一直是人們關(guān)注的焦點(diǎn),在高速行駛的過(guò)程中,如果軌道上存在異物,將對(duì)列車的正常運(yùn)行造成嚴(yán)重威脅。因此,高鐵軌道異物檢測(cè)技術(shù)的研究和應(yīng)用具有重要意義。目前,傳統(tǒng)的高鐵軌道異物檢測(cè)技術(shù)主要是指在高速運(yùn)行的列車上利用各種傳感器和裝置來(lái)檢測(cè)軌道上的異物,如破碎的石子、家禽、行人和汽車等。李志南等[2]設(shè)計(jì)了一種融合攝像頭和二維激光雷達(dá)的鐵路軌道異物檢測(cè)技術(shù),可為鐵路安全檢測(cè)系統(tǒng)的智能化激光雷達(dá)檢測(cè)技術(shù)提供理論參考和依據(jù)。林向會(huì)[3]提出了一種基于視頻的鐵路異物侵限檢測(cè)的新方法,該方法先劃分和提取鐵路軌道侵限區(qū)域,然后利用改進(jìn)后的YOLOv3-tiny 算法對(duì)異物進(jìn)行檢測(cè),并且部署到硬件平臺(tái)上,可以滿足實(shí)時(shí)檢測(cè)的需求。Wang 等[4]提出了一種新的、簡(jiǎn)單的、統(tǒng)一的檢測(cè)軌道監(jiān)控系統(tǒng)傳感器異物入侵的算法,不僅能夠快速、準(zhǔn)確地檢測(cè)異物,而且能夠有效地減少軌跡監(jiān)控系統(tǒng)中需要存儲(chǔ)的大數(shù)據(jù)量。Liu 等[5]提出了一種車站軌道區(qū)域智能異物入侵檢測(cè)系統(tǒng)的設(shè)計(jì)方案,利用傳感器采集和傳輸數(shù)據(jù),結(jié)合智能算法對(duì)掃描數(shù)據(jù)進(jìn)行處理。雖然這些技術(shù)能夠提高高鐵運(yùn)行的安全性、可靠性和經(jīng)濟(jì)效益,但是還存在諸多不足,如安裝和維修這些檢測(cè)系統(tǒng)需要耗費(fèi)大量資金和人力資源,受環(huán)境因素影響較大,在不同環(huán)境因素會(huì)對(duì)這些傳感器產(chǎn)生干擾,誤判率較高,從而影響檢測(cè)的準(zhǔn)確率。

        近年來(lái),隨著人工智能技術(shù)的迅速發(fā)展,其在計(jì)算機(jī)視覺(jué)領(lǐng)域被廣泛應(yīng)用,基于人工智能深度學(xué)習(xí)的目標(biāo)檢測(cè)算法在高鐵異物檢測(cè)方面也取得了重要進(jìn)展。在使用目標(biāo)檢測(cè)算法對(duì)鐵路軌道異物檢測(cè)任務(wù)中,俞軍燕等[6]提出了一種基于改進(jìn)MobileNet模型的航拍視頻軌道異物檢測(cè)方法,能有效檢測(cè)出航拍視頻中的軌道異物,但是存在誤檢和漏檢的問(wèn)題。張劍等[7]使用YOLOv3 設(shè)計(jì)出一種高鐵異物檢測(cè)方法,但是該模型的參數(shù)量較大導(dǎo)致檢測(cè)效率較低。管嶺等[8]提出了一種基于改進(jìn)YOLOv4-tiny 的軌道異物入侵檢測(cè)輕量級(jí)模型,模型參數(shù)量和體積分別降低50% 和55% ,很大程度上提升了網(wǎng)絡(luò)的實(shí)時(shí)性,但是檢測(cè)精度僅達(dá)到66. 3% 。葉濤等[9]設(shè)計(jì)出一種基于LAM-Net 的軌道入侵異物自主檢測(cè)系統(tǒng),可以實(shí)現(xiàn)在復(fù)雜的鐵路軌道交通情況下對(duì)異物的檢測(cè),檢測(cè)精度為92. 96% ,但是模型尺寸較大,不易部署在邊緣設(shè)備上。因此,上述研究不能滿足實(shí)際工作中的檢測(cè)需求,模型的檢測(cè)精度和效率還有待進(jìn)一步提升。

        為了解決上述問(wèn)題,本文提出一種基于改進(jìn)YOLOv7 的高鐵異物檢測(cè)算法,在檢測(cè)效率和精度之間取得了較好的平衡。在YOLOv7 網(wǎng)絡(luò)的引入上采樣算子CARAFE,可以擴(kuò)大網(wǎng)絡(luò)的感受野和提升網(wǎng)絡(luò)的檢測(cè)性能;將GhostConv 卷積引入網(wǎng)絡(luò)的ELAN 和ELANW 模塊,可以有效減少計(jì)算量和參數(shù)量,從而提升檢測(cè)效率;其次引入GAM 注意力機(jī)制,使模型更具有小目標(biāo)區(qū)域的針對(duì)性,從而提高網(wǎng)絡(luò)的檢測(cè)性能;最后,為解決CIoU 損失函數(shù)在小目標(biāo)檢測(cè)中收斂不穩(wěn)定的問(wèn)題,選擇Alpha_GIoU 函數(shù)去替代CIoU 損失函數(shù),可以提升模型的收斂速度和小目標(biāo)檢測(cè)能力。

        1 改進(jìn)YOLOv7 的網(wǎng)絡(luò)結(jié)構(gòu)

        1. 1 YOLOv7 網(wǎng)絡(luò)架構(gòu)

        YOLOv7 是You Only Look Once(YOLO)系列的最新算法,在目標(biāo)檢測(cè)領(lǐng)域應(yīng)用廣泛[10-11]。與其他YOLO 系列網(wǎng)絡(luò)模型相比,YOLOv7 在結(jié)構(gòu)上進(jìn)行了優(yōu)化和創(chuàng)新,使其在檢測(cè)精度、速度和適應(yīng)性方面都得到了顯著提升。

        YOLOv7 的檢測(cè)思路與YOLO 系列的其他網(wǎng)絡(luò)模型相似,其結(jié)構(gòu)如圖1 所示,主要由輸入端(input)、主干網(wǎng)絡(luò)(backbone)、頭部網(wǎng)絡(luò)(head)和預(yù)測(cè)頭(prediction)組成。輸入端的主要作用是對(duì)輸入的圖像進(jìn)行一系列預(yù)處理操作,包括Mosaic 數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計(jì)算以及圖片縮放等。

        主干網(wǎng)絡(luò)由若干CBS 卷積模塊、ELAN 模塊及MP1 模塊組成。CBS 模塊由卷積層、批量標(biāo)準(zhǔn)化BN 層和SiLU 激活函數(shù)組成。ELAN 模塊由若干個(gè)卷積模塊組成,通過(guò)控制最短最長(zhǎng)的梯度路徑,從而更有效地學(xué)習(xí)和收斂。

        頭部網(wǎng)絡(luò)主要包括SPPCSPC 模塊、ELANW 模塊、UPsmaple 模塊和MP-2 模塊。它對(duì)主干網(wǎng)絡(luò)的輸出圖像進(jìn)行特征處理,采用路徑聚合特征金字塔網(wǎng)絡(luò)(Path Aggregtion Feature Pyramid Network,PAF-PN)結(jié)構(gòu)進(jìn)行多尺度的特征融合[12]。采用自上而下的結(jié)構(gòu),將深層的強(qiáng)語(yǔ)義特征傳遞下來(lái),對(duì)整個(gè)金字塔進(jìn)行特征加強(qiáng);通過(guò)自下而上的結(jié)構(gòu),將淺層的圖像結(jié)構(gòu)、顏色、邊緣和位置等特征信息傳遞上去,從而實(shí)現(xiàn)不同層次特征高效融合。

        預(yù)測(cè)頭采用REP 結(jié)構(gòu)(降低誤差剪枝法),對(duì)PAFPN 結(jié)構(gòu)輸出的P3、P4、P5 特征進(jìn)行通道數(shù)調(diào)整。最后,將這些特征送入一個(gè)1 ×1 的卷積模塊,用于預(yù)測(cè)圖像的置信度、類別和錨框信息,并生成最終的檢測(cè)結(jié)果。

        1. 2 上采樣算子CARAFE

        在YOLOv7 網(wǎng)絡(luò)模型中的UPsample 模塊使用最鄰近插值的方式完成上采樣操作。即對(duì)于圖像的每一個(gè)像素點(diǎn),選取距離該像素點(diǎn)最近的一個(gè)像素作為它的像素值,而忽略了其他3 個(gè)相鄰像素值的影響,從而造成插值生成的圖像灰度上的不連續(xù),在灰度變化的地方存在明顯的鋸齒狀。因此為了更好地對(duì)高鐵異物進(jìn)行檢測(cè),本文使用上采樣算子CA-RAFE[13] 對(duì)該網(wǎng)絡(luò)的上采樣算法進(jìn)行替換。CARAFE 在引入較少參數(shù)和計(jì)算量的情況下,可以擴(kuò)大網(wǎng)絡(luò)的感受野,還可以減少對(duì)輸入圖像的處理過(guò)程中特征信息的損失,從而提高異物檢測(cè)的性能。

        CARAFE 由2 個(gè)模塊組成,分別是上采樣核預(yù)測(cè)模塊和特征重組模塊,其結(jié)構(gòu)如圖2 所示。假設(shè)上采樣倍率為σ,給定一個(gè)形狀為H×W×C 的輸入特征圖,CARAFE 首先利用上采樣核預(yù)測(cè)模塊預(yù)測(cè)上采樣核,然后利用特征重組模塊完成上采樣,得到形狀為σH×σW×C 的輸出特征圖。

        1. 3 GhostConv 卷積。

        由于卷積神經(jīng)網(wǎng)絡(luò)的不斷演進(jìn)和嵌入式設(shè)備需求的增加,在有限的內(nèi)存和計(jì)算資源下部署更高效、更輕量級(jí)的神經(jīng)網(wǎng)絡(luò)已成為卷積神經(jīng)網(wǎng)絡(luò)未來(lái)發(fā)展的趨勢(shì)。Han 等[14]充分揭示了特征圖潛在信息的本質(zhì)特征,并利用特征圖的冗余特性進(jìn)行一系列成本低廉的線性變換,提出了一種更輕量級(jí)的卷積模塊GhostConv。本文利用這種輕量級(jí)的GhostConv 模塊替代YOLOv7 模型中的ELAN 和ELAN-W 模塊中的部分普通卷積模塊,用來(lái)減少網(wǎng)絡(luò)的計(jì)算量和參數(shù)量。普通卷積與GhostConv 卷積分別如圖3 和圖4 所示,顯示了普通卷積與GhostConv 卷積的區(qū)別。

        GhostConv 卷積在少量傳統(tǒng)卷積的基礎(chǔ)上進(jìn)行了廉價(jià)的線性運(yùn)算,將普通卷積分為兩部分:第一部分是進(jìn)行普通卷積,但嚴(yán)格控制普通卷積的數(shù)量;第二部分是利用普通卷積給出的固有特征映射,進(jìn)行一系列簡(jiǎn)單的線性運(yùn)算,生成更多的特征映射,然后將2 次獲得的特征圖連接起來(lái),形成新的輸出。這樣可以在保證模型性能的情況下,大幅度減少參數(shù)和計(jì)算量,從而實(shí)現(xiàn)更高效、更輕量級(jí)的神經(jīng)網(wǎng)絡(luò)部署。設(shè)h、w 和c 為輸入特征的高、寬和通道數(shù),輸出特征的高度和寬度為H 和W,卷積核數(shù)量為n,卷積核大小為k,線性變換卷積核大小為d,變換數(shù)量為s。rs 和rc 分別為普通卷積和GhostConv 卷積的計(jì)算量和參數(shù)量之比,計(jì)算如下:

        結(jié)合式(1)和式(2)可以看出,計(jì)算量和參數(shù)量之比受變換數(shù)量s 的影響,即生成特征圖越多,模型加速效果越好。由此可知,在模型中引入GhostConv卷積可以有效地減少模型的計(jì)算量和參數(shù)量,提高模型的運(yùn)行速度和效率。

        1. 4 GAM 注意力機(jī)制

        注意力機(jī)制最早起源于對(duì)人類視覺(jué)的研究,模擬了人類選擇性地關(guān)注某些可見(jiàn)信息而忽略其他信息以合理利用有限的視覺(jué)處理資源的現(xiàn)象,通過(guò)只選擇輸入信息的一部分或者對(duì)輸入信息的不同部分賦予不同的權(quán)重來(lái)解決信息冗余的問(wèn)題,同時(shí)用于提高神經(jīng)網(wǎng)絡(luò)的表達(dá)能力和泛化能力。

        為了較好地平衡模型的輕量化和檢測(cè)精度,本文提出將GAM 注意力機(jī)制[15]添加到YOLOv7 網(wǎng)絡(luò)中。GAM 重新設(shè)計(jì)了CBAM 的子模塊,具有通道注意力機(jī)制模塊和空間注意力機(jī)制2 個(gè)模塊。通過(guò)選擇性聚焦于通道和空間的期望部分來(lái)提取相關(guān)信息,在三維通道、空間寬度和空間高度上捕獲重要特征,以提高模型的識(shí)別精度。GAM 注意力機(jī)制的整體結(jié)構(gòu)如圖5 所示。

        通道注意力子模塊使用三維排列來(lái)保存3 個(gè)維度的信息,采用多層感知器放大跨維通道空間相關(guān)性??臻g注意力子模塊采用了2 個(gè)7 ×7 的卷積層進(jìn)行空間信息融合。通過(guò)減小信息離散度,增強(qiáng)全局信息交互能力,增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力,使模型更具有目標(biāo)區(qū)域的針對(duì)性,從而提高網(wǎng)絡(luò)的檢測(cè)性能。

        1. 5 Alpha_GIoU 損失函數(shù)

        YOLOv7 網(wǎng)絡(luò)模型的總損失函數(shù)為3 種不同損失的加權(quán)和,其中包括定位損失(LCIoU )、置信度損失(Lobj)和分類損失(Lcls )。YOLOv7 中的損失函數(shù)如式(3)所示。其中,置信度損失和分類損失函數(shù)使用二元交叉熵?fù)p失,定位損失使用CIoU 損失函數(shù)。CIoU 損失函數(shù)如式(4)所示。

        式中:ρ 表示預(yù)測(cè)框和真實(shí)框之間的歐幾里得距離,(b,bgt)表示預(yù)測(cè)框與真實(shí)框的中心點(diǎn)坐標(biāo),c 表示能夠同時(shí)能夠包含預(yù)測(cè)框和真實(shí)框的最小外接矩形的對(duì)角線距離,β 表示平衡參數(shù),wgt / hgt 和w / h 分別表示真實(shí)框和預(yù)測(cè)框的寬度和高度的比值;變量v用來(lái)衡量寬度和高度的比值是否一致,且從式(6)可以看出,當(dāng)預(yù)測(cè)框與真實(shí)框的寬高比相等時(shí),v 為0,將無(wú)法穩(wěn)定地表達(dá)寬高比的懲罰項(xiàng)。同時(shí)這種傳統(tǒng)的CIoU 損失函數(shù)只考慮了真實(shí)框與預(yù)測(cè)框的距離、重疊區(qū)域和縱橫比,而沒(méi)有考慮真實(shí)框與預(yù)測(cè)框的夾角,導(dǎo)致模型的收斂速度較慢。其次,CIoU 損失函數(shù)在處理小目標(biāo)時(shí)表現(xiàn)不佳,容易產(chǎn)生過(guò)度擬合的情況。此外,CIoU 損失函數(shù)對(duì)目標(biāo)邊界框的大小和位置變化比較敏感,如果目標(biāo)邊界框與預(yù)測(cè)邊界框之間存在較大的偏移或畸變,將會(huì)導(dǎo)致?lián)p失函數(shù)值的不穩(wěn)定性。

        與CIoU 損失函數(shù)相比,Alpha_GIoU 損失函數(shù)的計(jì)算方式更簡(jiǎn)單,模型的訓(xùn)練速度也會(huì)更快;同時(shí)考慮了目標(biāo)框之間的長(zhǎng)寬比和位置關(guān)系,可以更精確地計(jì)算2 個(gè)目標(biāo)框的重疊程度,從而加快模型收斂速度;在檢測(cè)小目標(biāo)時(shí),CIoU 損失函數(shù)可能會(huì)因?yàn)榉帜篙^小而導(dǎo)致梯度消失或爆炸的問(wèn)題,而Alpha_GIoU 損失函數(shù)采用了平方根形式的約束項(xiàng),對(duì)小目標(biāo)的檢測(cè)效果更好。Alpha_GIoU 是一種基于GIoU 損失函數(shù)的冪函數(shù),通過(guò)調(diào)整參數(shù)α 的值以滿足不同的回歸精度。Alpha_GIoU 損失函數(shù)的計(jì)算公式如下:

        式中:C 為預(yù)測(cè)框與真實(shí)框的最小限界矩形,Bp 和Bgt 分別為預(yù)測(cè)框和真實(shí)框之間的并集區(qū)域,當(dāng)預(yù)測(cè)框和真實(shí)框之間出現(xiàn)重合現(xiàn)象時(shí),α 為功率參數(shù),當(dāng)α = 1 時(shí),Alpha_GIoU 損失函數(shù)即為原始的GIoU 損失函數(shù)。

        因此,本文最終選擇Alpha_GIoU 損失函數(shù)替代基準(zhǔn)模型中的CIoU 損失函數(shù),并將功率參數(shù)α 設(shè)置為3。

        2 實(shí)驗(yàn)和分析

        2. 1 實(shí)驗(yàn)環(huán)境和超參數(shù)

        本文所有實(shí)驗(yàn)均在同一實(shí)驗(yàn)環(huán)境上完成,實(shí)驗(yàn)環(huán)境具體配置信息如表1 所示。

        訓(xùn)練網(wǎng)絡(luò)模型時(shí),優(yōu)化器為隨機(jī)梯度下降(Sto-chastic Gradient Descent,SGD),將迭代次數(shù)設(shè)置為300,權(quán)重衰減系數(shù)設(shè)置為0. 000 5,初始學(xué)習(xí)率設(shè)置為0. 001,學(xué)習(xí)率動(dòng)量設(shè)置為0. 937,批量大小設(shè)置為16。

        2. 2 實(shí)驗(yàn)數(shù)據(jù)集

        本文所使用的實(shí)驗(yàn)數(shù)據(jù)集為自建數(shù)據(jù)集,該數(shù)據(jù)集包括貴州境內(nèi)的幾個(gè)高鐵站站臺(tái)的部分監(jiān)控視頻素材,以及一部分網(wǎng)絡(luò)上收集到的高鐵軌道異物入侵圖像,包含人、石頭、汽車、狗、牛、羊和火車7 種對(duì)象。經(jīng)過(guò)篩選后,該數(shù)據(jù)集共有3 000 張圖像,圖像分辨率為1 920 pixel×1 080 pixel,部分?jǐn)?shù)據(jù)集示例如圖6 所示。

        2. 3 圖像預(yù)處理

        針對(duì)數(shù)據(jù)集樣本較少易造成模型訓(xùn)練時(shí)出現(xiàn)過(guò)擬合的情況,為增強(qiáng)模型泛化性和魯棒性,本文將對(duì)所有原始圖像進(jìn)行預(yù)處理操作。首先將原始圖像的分辨率都調(diào)整為640 pixel×640 pixel,然后對(duì)該數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)操作,即對(duì)每一張圖像做椒鹽噪聲、顏色抖動(dòng)和翻轉(zhuǎn)以及調(diào)整圖像對(duì)比度操作,該數(shù)據(jù)集由原來(lái)的3 000 張圖像擴(kuò)充為12 000 張。根據(jù)YOLOv7 網(wǎng)絡(luò)訓(xùn)練的所需格式,使用LabelImg 工具對(duì)12 000 張圖像分別進(jìn)行標(biāo)注,包含軌道異物的位置和類別信息。然后按照8 ∶ 1 ∶ 1 的比例劃分?jǐn)?shù)據(jù)集,其中訓(xùn)練集9 600 張、測(cè)試集1 200 張、驗(yàn)證集1 200 張。

        2. 4 評(píng)價(jià)指標(biāo)

        在目標(biāo)檢測(cè)過(guò)程中,通過(guò)檢測(cè)圖像來(lái)定性評(píng)價(jià)和評(píng)估模型性能,即比較是否存在錯(cuò)檢、漏檢的情況。本文的實(shí)驗(yàn)采用了多個(gè)指標(biāo)來(lái)衡量模型檢測(cè)性能,包括所有類別的平均檢測(cè)精度均值(meanAverage Precision,mAP )、參數(shù)量(Parameters,Pa-rams)、計(jì)算量(GFLOPs)和平均每秒推理速度(Frames Per Second,FPS)。在計(jì)算mAP 時(shí),需要先計(jì)算每個(gè)類別的平均精度(Average Precision,AP),其表示數(shù)據(jù)集中該類別的檢測(cè)精度平均值,然后將不同類別的AP 值進(jìn)行平均化,得到mAP,計(jì)算如下:

        式中:P 表示查準(zhǔn)率,即模型識(shí)別的正確結(jié)果在所識(shí)別的所有結(jié)果中的比率;R 表示查全率,即模型識(shí)別的正確結(jié)果在數(shù)據(jù)集中需要被識(shí)別出結(jié)果的比率;N 表示數(shù)據(jù)集中待檢測(cè)的類別數(shù)目,本實(shí)驗(yàn)中N =7,即人、石頭、火車、狗、牛和羊7 種入侵異物。

        FPS 幀率是指網(wǎng)絡(luò)每秒鐘可預(yù)測(cè)的圖片數(shù)量,FPS 越高,網(wǎng)絡(luò)的推理速度越快。模型的FPS 越高,就能更好地滿足實(shí)時(shí)檢測(cè)需求。

        2. 5 實(shí)驗(yàn)

        2. 5. 1 不同訓(xùn)練策略實(shí)驗(yàn)

        為了研究不同邊界損失函數(shù)和注意力機(jī)制模塊對(duì)本文改進(jìn)算法的性能影響,分別設(shè)置了2 組對(duì)比實(shí)驗(yàn),2 組實(shí)驗(yàn)硬件環(huán)境和其他參數(shù)均相同。表2和表3 分別展示了不同損失函數(shù)和對(duì)本文模型的檢測(cè)效果影響。通過(guò)表2 的不同損失函數(shù)對(duì)比實(shí)驗(yàn)結(jié)果可以看出,損失函數(shù)的改變對(duì)模型的FPS 影響不大,但是當(dāng)引入Alpha_GIoU 損失函數(shù)時(shí),該模型的mAP@ 0. 5 和mAP@ 0. 5:0. 95 都是最高的,因此選擇Alpha _ GIoU 損失函數(shù)替換YOLOv7 模型中的CIoU 損失函數(shù)。從表3 不同注意力機(jī)制模塊對(duì)比實(shí)驗(yàn)結(jié)果可知,在基準(zhǔn)模型中分別引進(jìn)3 種注意力機(jī)制后,模型的參數(shù)量均變化不大,但是加入GAM注意力機(jī)制的模型的mAP@ 0. 5 和mAP@ 0. 5:0. 95在3 種注意力機(jī)制中是最高的。

        為了進(jìn)一步探究GAM 注意力機(jī)制的最優(yōu)應(yīng)用位置,以達(dá)到最佳的檢測(cè)效果,本文設(shè)計(jì)了3 組實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表4 所示。第一組實(shí)驗(yàn)是在backbone 網(wǎng)絡(luò)的3 個(gè)輸出層之后添加GAM 注意力機(jī)制;第二組實(shí)驗(yàn)是將GAM 注意力機(jī)制替換MP-2模塊中的一個(gè)CBS 模塊;第三組實(shí)驗(yàn)是在backbone網(wǎng)絡(luò)的最后一層和head 網(wǎng)絡(luò)的3 個(gè)輸出層之后添加GAM 注意力機(jī)制。通過(guò)表1 的實(shí)驗(yàn)結(jié)果可以發(fā)現(xiàn),第二組和第三組實(shí)驗(yàn)都能夠提升模型的精度,而且只帶來(lái)了較小的計(jì)算開(kāi)銷,但是第三組實(shí)驗(yàn)效果更好。基于此,本文在backbone 網(wǎng)絡(luò)的最后一層和head 網(wǎng)絡(luò)的3 個(gè)輸出層之后添加GAM 注意力機(jī)制。

        2. 5. 2 消融實(shí)驗(yàn)

        為了驗(yàn)證本文所提出的各種改進(jìn)策略的效果,需要設(shè)計(jì)消融實(shí)驗(yàn)來(lái)進(jìn)行驗(yàn)證。在相同實(shí)驗(yàn)條件下,通過(guò)消融實(shí)驗(yàn)對(duì)比分析各種改進(jìn)策略給模型的檢測(cè)效果帶來(lái)的影響。消融實(shí)驗(yàn)的對(duì)比結(jié)果如表5所示。

        從表5 可以看出,在基準(zhǔn)模型中引入CARAFE算子后,參數(shù)量和計(jì)算量變化不大,但是可以擴(kuò)大模型的感受野和減少特征提取過(guò)程中的信息損失,從而使模型的mAP @ 0. 5 提升0. 5% ;引入輕量級(jí)的GhostConv 卷積后,較初始網(wǎng)絡(luò)模型,mAP @ 0. 5 降低1. 5% ,以損失模型的檢測(cè)精度為代價(jià),使得參數(shù)量和計(jì)算量分別減少4. 97 MB 和16. 6 GFLOPs,同時(shí)使模型的FPS 提升31. 4;引入GAM 注意力機(jī)制之后,可以在三維通道、空間寬度和空間高度上捕獲輸入圖像的重要特征,以提高模型的識(shí)別精度,較初始網(wǎng)絡(luò)模型,mAP@ 0. 5 提升1. 3% ;當(dāng)把CARAFE算子、GhostConv 卷積、GAM 注意力機(jī)制和Alpha _GIoU 損失函數(shù)同時(shí)引入到YOLOv7 網(wǎng)絡(luò)中時(shí),較基準(zhǔn)模型,參數(shù)量減少了4. 8 MB,計(jì)算量減少了16. 3 GFLOPs,FPS 增加了31. 1,mAP@ 0. 5 提升了1. 6% 。上述消融實(shí)驗(yàn)表明,在基準(zhǔn)模型模型中引入GhostConv 卷積,可以很大程度上減少該模型的參數(shù)量和計(jì)算量,雖然會(huì)使平均檢測(cè)精度均值會(huì)有一點(diǎn)降低,但是通過(guò)引入CARAFE 算子、GAM 注意力機(jī)制和Alpha_GIoU 損失函數(shù),可以彌補(bǔ)GhostConv 卷積所帶來(lái)的精度的下降,同時(shí)還可以加快模型的檢測(cè)速度。因此,通過(guò)上述改進(jìn)可以使本文的模型在檢測(cè)精度和檢測(cè)速度上取得較好的平衡。

        2. 5. 3 不同模型對(duì)比實(shí)驗(yàn)

        為了評(píng)估本文所提出的改進(jìn)算法的可行性與有效性,本文將最終提出的算法與YOLOv7、YOLOv7tiny、YOLOv6[16]、YOLOv5s[17]、YOLOv4[18]、YOLOv3SPP[19]、RetinaNet[20]、SSD[21]、Faster R-CNN[22]算法在本文的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果如表6所示。

        從表6 可知,本文提出的YOLOv7-CGGA 改進(jìn)算法相較于其他算法模型,在mAP@ 0. 5 上最高,同時(shí)FPS 也取得較好的表現(xiàn)。其中相較于參數(shù)量最少的YOLOv7-tiny 網(wǎng)絡(luò),雖然它的參數(shù)量?jī)H有6. 03 MB、FPS 高達(dá)114,但是該網(wǎng)絡(luò)的檢測(cè)精度僅為88. 7% ;相比于檢測(cè)速度較相近的YOLOv5s 算法和YOLOv6-tiny 算法,本文提出的算法在平均檢測(cè)精度均值上有明顯優(yōu)勢(shì),其精度比YOLOv5s 高12. 5% ,比YOLOv6-tiny 高10. 6% ;相較于其他的網(wǎng)絡(luò)如SSD、Faster R-CNN、RetinaNet、YOLOv3-SPP 以及YOLOv4算法,本文所提算法的FPS 均高于這些網(wǎng)絡(luò),且檢測(cè)精度分別高了31. 2% 、26. 5% 、28. 2% 、14. 4% 和15% 。與上述所有算法相比,本文提出的基于改進(jìn)YOLOv7 的高鐵異物檢測(cè)算法不僅在檢測(cè)精度上達(dá)到了96. 7% ,同時(shí)保持較好的實(shí)時(shí)性,整體表現(xiàn)顯著,證明了本文所提出的改進(jìn)算法的可行性和有效性。

        2. 5. 4 檢測(cè)效果分析

        為了更好地驗(yàn)證本文算法,將對(duì)基準(zhǔn)模型YOLOv7 網(wǎng)絡(luò)改進(jìn)前后的檢測(cè)效果進(jìn)行對(duì)比分析,如圖7 所示。圖7(a)出現(xiàn)了漏檢現(xiàn)象,圖7(c)和圖7(e)都出現(xiàn)了誤檢現(xiàn)象,在圖中都用紅色虛線方框做了標(biāo)記;而圖7(b)、圖7(d)和圖7(f)中檢測(cè)出所有的目標(biāo)且有著更高的檢測(cè)精度。這表明在復(fù)雜的高鐵軌道背景下,本文算法擁有更好的檢測(cè)效果。

        3 結(jié)束語(yǔ)

        本文提出一種YOLOv7-CGGA 的高鐵異物檢測(cè)算法,可以對(duì)高鐵軌道上的常見(jiàn)入侵異物進(jìn)行實(shí)時(shí)穩(wěn)定的檢測(cè),應(yīng)用于軌道的日常檢測(cè)和維修。首先將上采樣算法替換為CARAFE 算子,解決了上采樣過(guò)程中圖像出現(xiàn)不連續(xù)和鋸齒狀的問(wèn)題;其次在YOLOv7 網(wǎng)絡(luò)中將普通卷積替換為GhostConv 卷積,可以減少模型的參數(shù)量和計(jì)算量,加快模型的檢測(cè)速度;然后在主干網(wǎng)絡(luò)和頭部網(wǎng)絡(luò)中添加GAM 注意力機(jī)制模塊,增強(qiáng)對(duì)目標(biāo)區(qū)域的感知能力,從而提升網(wǎng)絡(luò)的檢測(cè)性能;最后使用Alpha_GIoU 損失函數(shù)替換YOLOv7 網(wǎng)絡(luò)中的CIoU 損失函數(shù),提升小目標(biāo)的檢測(cè)能力和模型的收斂速度。多次實(shí)驗(yàn)驗(yàn)證表明,本文改進(jìn)算法的mAP 和FPS 分別到達(dá)了96. 7% 和96. 1,較基準(zhǔn)模型相比,分別提升了1. 6%和31. 1,可以用于實(shí)際的高鐵軌道異物檢測(cè)工作。

        參考文獻(xiàn)

        [1] 胡昊. 面向高鐵運(yùn)行環(huán)境安全的侵限監(jiān)測(cè)關(guān)鍵技術(shù)研究[D]. 北京:中國(guó)鐵道科學(xué)研究院,2022.

        [2] 李志南,劉瑋,韓麗娟,等. 基于二維LiDAR 的軌道侵入異物檢測(cè)系統(tǒng)與方法研究[J]. 光電子· 激光,2020,31(3):262-268.

        [3] 林向會(huì). 基于視頻分析的鐵路異物侵限檢測(cè)系統(tǒng)的設(shè)計(jì)[D]. 貴陽(yáng):貴州大學(xué),2021

        [4] WANG X,CHEN F E,LIANG X M. Foreign BodyIntrusion Detection Algorithm for Track Surveillance Systems in Smart Cities[C]∥2020 Chinese Automation Congress (CAC). Shanghai:IEEE. 2020:5209-5213.

        [5] LIU K Y,LI L F,TAN F G. A Design of IntelligentForeign Object Intrusion Detection System in Subway Station Track Area[C]∥ Sixth International Conference onTransportation Engineering. Chengdu:[s. n. ],2020:1092-1097.

        [6] 俞軍燕,黃皓冉,楊毅,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的航拍視頻軌道異物檢測(cè)方法[J]. 城市軌道交通研究,2022,25(10):91-97.

        [7] 張劍,王等準(zhǔn),莫光健,等. 基于改進(jìn)YOLOv3 的高鐵異物入侵檢測(cè)算法[J]. 計(jì)算機(jī)技術(shù)與發(fā)展,2022,32(2):69-74.

        [8] 管嶺,賈利民,謝征宇. 融合注意力機(jī)制的軌道入侵異物檢測(cè)輕量級(jí)模型研究[J]. 鐵道學(xué)報(bào),2023,45(5):72-81.

        [9] 葉濤,趙宗揚(yáng),鄭志康. 基于LAMNet 的軌道侵入界異物自主檢測(cè)系統(tǒng)[J]. 儀器儀表學(xué)報(bào),2022,43 (9):206-218.

        [10]WANG C Y,BOCHKOVSKIY A,LIAO H Y M. YOLOv7:Trainable Bagoffreebies Sets New Stateoftheart forRealtime Object Detectors[C]∥2023 IEEE / CVF Conference on Computer Vision and Pattern Recognition. Vancouver:IEEE,2023:7464-7475.

        [11] REDMON J,DIVVALA S,GIRSHICK R,et al. You OnlyLook Once:Unified,Realtime Object Detection [C]∥2016 IEEE Conference on Computer Vision and PatternRecognition. Las Vegas:IEEE,2016:779-788.

        [12] GE Z,LIU S T,WANG F,et al. YOLOX:ExceedingYOLO Series in 2021[EB / OL]. (2021-07-18)[2023-05-11]. https:∥arxiv. org / abs / 2107. 08430v2.

        [13] WANG J Q,CHEN K,XU R,et al. CARAFE:Contentaware Reassembly of Features[C]∥2019 IEEE / CVF International Conference on Computer Vision. Seoul:IEEE,2019:3007-3016.

        [14] HAN K,WANG Y H,TIAN Q,et al. GhostNet:More Features from Cheap Operations[C]∥2020 IEEE / CVF Conference on Computer Vision and Pattern Recognition. Seattle:IEEE,2020:1577-1586.

        [15] LIU Y C,SHAO Z R,HOFFMANN N. Global AttentionMechanism:Retain Information to Enhance Channelspatial Interactions [EB / OL]. (2021 - 12 - 10 )[2023 -05-11]. https:∥arxiv. org / abs / 2112. 05561.

        [16] LI C Y,LI L L,JIANG H L,et al. YOLOv6:A SinglestageObject Detection Framework for Industrial Applications[EB / OL]. (2022-09-07)[2023-05-11]. https:∥arxiv.org / abs/ 2209. 02976.

        [17] ZHU X K,LYU S C,WANG X,et al. TPHYOLOv5:Improved YOLOv5 Based on Transformer Prediction Headfor Object Detection on Dronecaptured Scenarios[C]∥2021 IEEE / CVF International Conference on ComputerVision. Montreal:IEEE,2021:2778-2788.

        [18] BOCHKOVSKIY A,WANG C Y,LIAO H Y M. YOLOv4:Optimal Speed and Accuracy of Object Detection [EB /OL]. (2020 - 04 - 23)[2023 - 05 - 11]. https:∥ arxiv.org / abs / 2004. 10934.

        [19] PEBRIANTO W,MUDJIRAHARDJO P,PRAMONO S H,et al. YOLOv3 with Spatial Pyramid Pooling for ObjectDetection with Unmanned Aerial Vehicles [EB / OL ].(2023-05-21)[2023-05-24]. https:∥arxiv. org / abs /2305. 12344.

        [20] LIN T Y,GOYAL P,GIRSHICK R,et al. Focal Loss forDense Object Detection [C]∥ 2017 IEEE InternationalConference on Computer Vision. Venice:IEEE,2017:2999-3007.

        [21] LIU W,ANGUELOV D,ERHAN D,et al. SSD:SingleShot Multibox Detector [C]∥ Computer Vision - ECCV2016. Amsterdam:Springer,2016:21-37.

        [22] REN S Q,HE K M,GIRSHICK R,et al. Faster RCNN:Towards Realtime Object Detection with Region ProposalNetworks[J]. IEEE Transactions on Pattern Analysis andMachine Intelligence,2017,39(6):1137-1149.

        作者簡(jiǎn)介

        晏 朋 男,(1999—),碩士研究生。主要研究方向:圖像處理和目標(biāo)檢測(cè)。

        李遇鑫 男,(1998—),碩士研究生。主要研究方向:計(jì)算機(jī)視覺(jué)和目標(biāo)檢測(cè)。

        李治林 男,(1997—),碩士研究生。主要研究方向:圖像處理和目標(biāo)檢測(cè)。

        王等準(zhǔn) 男,(1997—),碩士研究生。主要研究方向:圖像處理和自動(dòng)駕駛。

        李修? 女,(2000—),碩士研究生。主要研究方向:圖像處理和目標(biāo)檢測(cè)。

        余 梅 女,(1998—),碩士研究生。主要研究方向:圖像處理。

        (*通信作者)謝本亮 男,(1978—),博士,副教授。主要研究方向:計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)。

        基金項(xiàng)目:貴州省基礎(chǔ)研究計(jì)劃(自然科學(xué)類)項(xiàng)目(黔科合基礎(chǔ)-ZK[2023]一般060);半導(dǎo)體功率器件教育部工程研究中心開(kāi)放基金項(xiàng)目(ERCMEKFJJ2019-(06)

        猜你喜歡
        深度學(xué)習(xí)高鐵
        一起坐高鐵
        高鐵下班后
        第一次乘高鐵
        高鐵會(huì)飛嗎
        人地百米建高鐵
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        国产精品人成在线观看| 亚洲国产精品久久电影欧美| 老少配老妇老熟女中文普通话| 日韩精品无码区免费专区 | 国产熟女自拍视频网站| 在线免费观看蜜桃视频| 少妇伦子伦精品无吗| 后入内射欧美99二区视频| 啊v在线视频| 免费看av网站在线亚洲| 国产精品av在线| 狠狠人妻久久久久久综合| 精品一区二区三区人妻久久| 日韩高清不卡一区二区三区| 在线精品无码字幕无码av| 最新69国产成人精品视频免费| 色 综合 欧美 亚洲 国产| 国产爽爽视频在线| 日本高清二区视频久二区| 亚洲综合一区中文字幕| 中文字幕一区二区人妻性色| 纯肉无遮挡H肉动漫在线观看国产 国产精品自产拍在线观看免费 | 极品嫩模大尺度av在线播放| 骚片av蜜桃精品一区| 日本午夜国产精彩| 日韩一区二区三区人妻中文字幕| 免费毛儿一区二区十八岁| 人妻少妇av中文字幕乱码| 久久亚洲成a人片| 国产免费成人自拍视频| 亚洲乱码一区av春药高潮| 亚洲国产毛片| 国内精品极品久久免费看| 国产亚洲精品一区二区无| 高潮抽搐潮喷毛片在线播放| 国产精品无码日韩欧| 国产又粗又猛又黄色呦呦| 日韩精品一区二区三区在线视频| 成人a级视频在线观看| 91精品啪在线观看国产色| 日韩一二三四区在线观看|