亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv7的路面病害檢測(cè)算法

        2024-09-14 00:00:00葛焰劉心中馬樹(shù)森趙津李鎮(zhèn)宏
        現(xiàn)代電子技術(shù) 2024年11期
        關(guān)鍵詞:路面病害注意力機(jī)制目標(biāo)檢測(cè)

        摘" 要: 針對(duì)公路路面病害圖像存在光影變化大、背景干擾多、尺度差異大等問(wèn)題,提出基于改進(jìn)YOLOv7的路面病害檢測(cè)算法。首先,對(duì)YOLOv7網(wǎng)絡(luò)模型中的ELAN模塊進(jìn)行了優(yōu)化,通過(guò)通道和空間注意力機(jī)制優(yōu)化信息提取,增強(qiáng)網(wǎng)絡(luò)對(duì)重要特征的提取能力;接著,使用ACmix注意力模塊提高網(wǎng)絡(luò)對(duì)小目標(biāo)的關(guān)注度,有效解決原網(wǎng)絡(luò)模型對(duì)小目標(biāo)的漏檢問(wèn)題;其次,采用大下采樣比率的卷積輸出,提高對(duì)小目標(biāo)的檢測(cè)精度;最后,引入WIoUv3替換原網(wǎng)絡(luò)模型中的CIoU來(lái)優(yōu)化損失函數(shù),構(gòu)造梯度增益的計(jì)算方法來(lái)附加聚焦機(jī)制。實(shí)驗(yàn)結(jié)果表明:改進(jìn)后的YOLOv7模型平均精度均值(mAP)與原模型相比提升了4.5%,檢測(cè)效果優(yōu)于原網(wǎng)絡(luò)模型與傳統(tǒng)經(jīng)典目標(biāo)檢測(cè)網(wǎng)絡(luò)模型。

        關(guān)鍵詞: 目標(biāo)檢測(cè); YOLOv7; 路面病害; 損失函數(shù); WIoUv3; 注意力機(jī)制

        中圖分類號(hào): TN911.73?34; TP391.41" " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " 文章編號(hào): 1004?373X(2024)11?0031?07

        Pavement distress detection algorithm based on improved YOLOv7

        GE Yan, LIU Xinzhong, MA Shusen, ZHAO Jin, LI Zhenhong

        (School of Ecological Environment and Urban Construction, Fujian University of Technology, Fuzhou 350118, China)

        Abstract: In view of the substantial light and shadow variations, excessive background interference and large scale differences in highway pavement distress images, a pavement distress detection algorithm based on improved YOLOv7 is proposed. This research primarily focuses on the optimization of the ELAN module within the YOLOv7 network model, wherein an advanced amalgamation of channel and spatial attention mechanisms is employed to optimize the information extraction and elevate the network′s ability in discerning and extracting important features. In order to mitigate the issue of missed detections of smaller objects in the original network model, the ACmix attention module is adeptly integrated, which amplifies the network′s acuity towards smaller?scale objects. This paper introduces an innovative approach by adopting a convolutional outputs with heightened downsampling ratio to improve the precision in detecting smaller objects. The WIoUv3 is introduced to replace CIoU of the original network model to optimize the loss function, and the computation of gradient gain is constructed to attach the focusing mechanism. The experimental results show that the mean average precision (mAP) of the model based on improved YOLOv7 is increased by 4.5% relative to that of the original model, and its detection effect is better than not only the original network model but also the traditional classical object detection model.

        Keywords: object detection; YOLOv7; pavement distress; loss function; WIoUv3; attention mechanism

        0" 引" 言

        隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,目標(biāo)檢測(cè)領(lǐng)域取得了顯著的進(jìn)展。路面病害檢測(cè)作為交通基礎(chǔ)設(shè)施維護(hù)和安全保障的重要任務(wù),不僅關(guān)系到道路的使用壽命和維護(hù)成本,更直接影響著行車安全和交通流暢,因此對(duì)路面病害的及時(shí)準(zhǔn)確檢測(cè)變得尤為關(guān)鍵。然而,路面病害圖像的檢測(cè)面臨多重挑戰(zhàn),如光影變化大、背景干擾多、病害信息弱、尺度差異大[1]等問(wèn)題,使得傳統(tǒng)方法難以取得令人滿意的檢測(cè)效果。

        近年來(lái),許多學(xué)者針對(duì)基于深度學(xué)習(xí)的路面病害檢測(cè)算法展開(kāi)了相關(guān)工作。文獻(xiàn)[2]提出一種改進(jìn)Faster?RCNN[3]的瀝青路面裂縫檢測(cè)方法,精度達(dá)到85.64%,但檢測(cè)速度較慢,不適用于快速實(shí)時(shí)檢測(cè)的應(yīng)用。文獻(xiàn)[4]將特征融合思想引入U(xiǎn)?Net的跳躍連接,并添加特征細(xì)化頭來(lái)優(yōu)化網(wǎng)絡(luò),提高模型的泛化能力和通用性。但模型參數(shù)較大,不利于實(shí)時(shí)檢測(cè)。文獻(xiàn)[5]將修剪技術(shù)和EvoNorm?S0結(jié)構(gòu)引入YOLOv4[6]網(wǎng)絡(luò),可以處理工程檢測(cè)中復(fù)雜且容易產(chǎn)生歧義的目標(biāo)。然而,YOLOv4的訓(xùn)練和預(yù)測(cè)時(shí)間較長(zhǎng),仍有提升實(shí)時(shí)性能的空間。文獻(xiàn)[7]使用組合濾波?三直方圖均衡化算法弱化背景環(huán)境干擾,并在YOLOv7模型的骨干架構(gòu)中引入M?MHSA模塊,提升模型的準(zhǔn)確率和在復(fù)雜背景下的特征提取能力,但不能很好地平衡檢測(cè)精度和檢測(cè)速度。

        為了解決上述問(wèn)題,本文提出一種基于改進(jìn)YOLOv7的路面病害檢測(cè)算法,在檢測(cè)效率和精度之間取得了較好的平衡。在YOLOv7基準(zhǔn)網(wǎng)絡(luò)的ELAN模塊進(jìn)行優(yōu)化來(lái)增強(qiáng)網(wǎng)絡(luò)提取到關(guān)鍵特征的能力;接著,引入注意力機(jī)制,降低網(wǎng)絡(luò)對(duì)小目標(biāo)的漏檢率;其次,優(yōu)化檢測(cè)頭,提高對(duì)小目標(biāo)的檢測(cè)精度;最后,替換原網(wǎng)絡(luò)中的損失函數(shù)來(lái)提升模型的定位性能。

        1" YOLOv7算法

        YOLOv7[8]的網(wǎng)絡(luò)模型由輸入端(Input)、骨干網(wǎng)絡(luò)(Backbone)、頸部(Neck)以及檢測(cè)頭(Head)這四部分構(gòu)成。首先,圖像通過(guò)預(yù)處理過(guò)程進(jìn)行歸一化和大小調(diào)整,以適應(yīng)模型的輸入尺寸要求。通常,輸入圖像會(huì)被轉(zhuǎn)換成一個(gè)640×640×3尺寸的圖片,作為模型的輸入,然后傳遞到骨干網(wǎng)絡(luò)。骨干網(wǎng)絡(luò)通過(guò)一系列卷積、池化和非線性激活函數(shù)的操作實(shí)現(xiàn)對(duì)圖像的特征提取,隨后,提取到的特征經(jīng)過(guò)Neck模塊特征融合處理得到3 種不同尺寸的特征[9]。最后,由主干網(wǎng)絡(luò)輸出的3個(gè)特征層在頭部得到進(jìn)一步訓(xùn)練,經(jīng)過(guò)整合不同尺寸的預(yù)測(cè)結(jié)果,實(shí)現(xiàn)對(duì)目標(biāo)的多尺度檢測(cè)。

        YOLOv7網(wǎng)絡(luò)架構(gòu)如圖1所示,Backbone部分由CBS、ELAN和MP模塊構(gòu)成,這些模塊共同實(shí)現(xiàn)了對(duì)輸入圖像的特征提取。

        CBS模塊通過(guò)高效的特征重用提高模型的性能,ELAN模塊則通過(guò)增強(qiáng)大尺寸激活區(qū)域來(lái)促進(jìn)特征的提取。MP模塊則通過(guò)最大池化操作實(shí)現(xiàn)對(duì)特征圖的下采樣,減小計(jì)算負(fù)擔(dān)同時(shí)保持關(guān)鍵信息。Neck部分包括FPN(Feature Pyramid Network)和PAN(Path Aggregation Network)模塊,主要負(fù)責(zé)融合多尺度特征圖的信息。FPN模塊通過(guò)自上而下和自下而上的路徑連接,實(shí)現(xiàn)了特征圖的金字塔式融合,提升了模型對(duì)不同尺度目標(biāo)的感知。

        PAN模塊進(jìn)一步增強(qiáng)了信息融合,通過(guò)路徑聚合機(jī)制有效地整合了特征圖中的語(yǔ)義信息。Head部分由SPPCSPC、ELAN?C、MP和REP(Reorganize Exponential Parameterization)模塊構(gòu)成,負(fù)責(zé)最終的目標(biāo)預(yù)測(cè)。SPPCSPC模塊通過(guò)空間金字塔池化實(shí)現(xiàn)對(duì)不同感受野的信息捕捉,提高了模型的感知廣度;REP模塊則通過(guò)重新組織參數(shù),優(yōu)化了模型的表達(dá)能力,有助于更精準(zhǔn)的目標(biāo)定位。

        2" YOLOv7算法改進(jìn)

        2.1" CBAM?ELAN模塊

        ELAN模塊是一種局部區(qū)域關(guān)注模塊,旨在幫助模型在圖像中建立局部關(guān)聯(lián)性。然而,對(duì)于許多計(jì)算機(jī)視覺(jué)任務(wù),特征表示的提升需要考慮到通道關(guān)注,因?yàn)橥ǖ谰S度中包含了豐富的語(yǔ)義信息。因此,在ELAN模塊中引入CBAM[10](Convolutional Block Attention Module)注意力機(jī)制,如圖2所示。CBAM?ELAN模塊能夠增加重要特征通道的權(quán)重,減少次要特征通道的權(quán)重,以實(shí)現(xiàn)對(duì)關(guān)鍵特征的強(qiáng)化和對(duì)次要特征的抑制,從而提升模型的檢測(cè)性能[11]。

        CBAM?ELAN模塊原理如下:首先,給定具有維度[H'×W'×C](高度[H']、寬度[W']、通道數(shù)[C])的特征圖[X'],經(jīng)過(guò)ELAN的卷積操作,形成維度為[H×W×C]的特征圖[U];隨后,CBAM的通道注意力模塊(CAM)通過(guò)進(jìn)行全局平均池化將特征圖[U]的空間維度降采樣為[1×1×C],并學(xué)習(xí)通道權(quán)重以反映各通道的重要性;然后,通過(guò)Sigmoid歸一化生成的通道權(quán)重對(duì)特征圖[U]進(jìn)行加權(quán)操作。此外,CBAM的空間注意力模塊(SAM)通過(guò)全局最大池化、全連接層和激活函數(shù),學(xué)習(xí)特征圖的空間權(quán)重以提高空間分辨率,并應(yīng)用Sigmoid歸一化生成權(quán)重,對(duì)特征圖[U]進(jìn)行加權(quán)操作。

        2.2" ACmix注意力模塊

        路面病害圖像往往出現(xiàn)在復(fù)雜的背景環(huán)境中[12?13],可能受到光照、陰影、雜物等因素的干擾,這使得它們?cè)趫D像中與背景混淆,難以通過(guò)傳統(tǒng)的特征提取方法捕獲其鮮明的特征信息。為了有效地識(shí)別和檢測(cè)路面病害,本文引入ACmix注意力機(jī)制來(lái)改進(jìn)路面病害的識(shí)別和檢測(cè)。ACmix注意力機(jī)制[14]選擇性地關(guān)注圖像中相關(guān)區(qū)域,并動(dòng)態(tài)調(diào)整注意力以強(qiáng)調(diào)重要的病害位置。這種集成注意力機(jī)制的方法將增強(qiáng)網(wǎng)絡(luò)對(duì)小尺寸、弱特征的病害感知能力[15],從而提高識(shí)別和檢測(cè)的準(zhǔn)確性。如圖3所示,ACmix注意力模塊有效地結(jié)合了傳統(tǒng)卷積和自注意力模塊的優(yōu)點(diǎn)。

        ACmix分為兩個(gè)關(guān)鍵階段。在初始階段,輸入的[H×W×C]特征經(jīng)過(guò)三層卷積操作進(jìn)行投影,將特征重新組合成[N]個(gè)子集,形成包含3×[N]個(gè)特征映射的子特征集。接下來(lái),這些生成的特征子集被饋送到兩個(gè)獨(dú)立的分支。在上分支中,遵循一個(gè)核大小為[k]的卷積路徑,以從局部接收域中收集信息。這些特征隨后經(jīng)過(guò)一個(gè)輕量級(jí)的全連接層,并經(jīng)歷了一系列移位、聚合和卷積操作,最終生成了[H×W×C]的特征映射。同時(shí),下分支利用自注意力機(jī)制來(lái)整合全局信息。3[N]個(gè)中間特征對(duì)應(yīng)三個(gè)特征圖,分別為Query、Key和Value。這些分組特征被送入多頭自我關(guān)注模型中進(jìn)行處理。接著,通過(guò)一系列的移位、聚合和卷積操作,產(chǎn)生了[H×W×C]的特征圖。最后,兩個(gè)分支的輸出進(jìn)行加權(quán)求和,如式(1)所示:

        [Fout =αFatt +βFconv ] (1)

        式中:[Fout ]表示輸出結(jié)果;[Fatt ]表示自注意力路徑上的輸出;[Fconv ]表示卷積注意力路徑上的輸出;[α]和[β]的值為1。

        2.3" 大下采樣模塊

        考慮到路面病害在圖像中占據(jù)較小的像素,以及YOLOv7算法在多次下采樣過(guò)程中可能會(huì)丟失小目標(biāo)的特征信息,因此本文在不改變其他特征圖尺度的前提下,對(duì)頸部網(wǎng)絡(luò)進(jìn)行了優(yōu)化:在原有頸部網(wǎng)絡(luò)上采樣過(guò)程的最后一個(gè)ELAN?C模塊之后,添加了一個(gè)分辨率為160×160的P2檢測(cè)層。P2檢測(cè)層的輸入由兩部分組成。首先,一部分是主干網(wǎng)絡(luò)中第一個(gè)ELAN?C模塊進(jìn)行卷積后的特征圖;其次,另一部分是經(jīng)過(guò)卷積和上采樣操作擴(kuò)展的特征圖。通過(guò)融合這兩部分的特征圖,P2檢測(cè)層得到了包含豐富位置信息的特征圖。P2、P3、P4、P5檢測(cè)層分別對(duì)應(yīng)4倍、8倍、16倍、32倍下采樣特征圖。由于4倍下采樣特征圖的感受野較小,位置信息更加豐富,因此其特征圖包含大量小目標(biāo)的紋理特征和更多的細(xì)節(jié)信息。在特征圖的傳遞過(guò)程中,能夠最大程度地保留小目標(biāo)的特征,從而提升小目標(biāo)檢測(cè)精度。最終改進(jìn)后的I?YOLOv7檢測(cè)頭如圖4所示。

        2.4" WIoUv3損失函數(shù)

        YOLOv7中的損失函數(shù)如公式(2)所示:

        [Lobject=Lloc+Lconf+Lclass] (2)

        式中:[Lloc]表示定位損失;[Lconf]表示置信度損失;[Lclass]表示分類損失。

        置信度損失和分類損失函數(shù)使用二元交叉熵?fù)p失,定位損失使用CIoU[16]損失函數(shù)。CIoU公式為:

        [LCloU=1-IoU+ρ2b,bgtc2+αv] (3)

        [v=4π2arctan wgthgt-arctan wh2] (4)

        [α=v1-IoU+v] (5)

        式中:[ρ2]([b,bgt])表示預(yù)測(cè)框和真實(shí)框中心點(diǎn)之間的歐氏距離;[c]表示兩框相交時(shí)構(gòu)成的最小外接矩形的對(duì)角線距離;[α]為權(quán)重參數(shù);[v]用來(lái)衡量長(zhǎng)寬比;[wgt]、[hgt]和[w]、[h]分別表示真實(shí)框?qū)?、高以及預(yù)測(cè)框?qū)?、高。從式?)可以看出,當(dāng)預(yù)測(cè)框的寬高比與真實(shí)框的寬高比相等時(shí),CIoU損失函數(shù)中的懲罰項(xiàng)[v]為零,這可能導(dǎo)致?lián)p失函數(shù)在某些情況下變得不穩(wěn)定。

        為了解決CIoU損失函數(shù)不穩(wěn)定的問(wèn)題,提出了WIoU(Wise Intersection over Union)損失函數(shù),WIoU通過(guò)構(gòu)建兩層注意力機(jī)制來(lái)防止收斂速度過(guò)慢,提高了收斂精度,并增強(qiáng)了模型的泛化能力。

        假設(shè)([x],[y])在目標(biāo)框的對(duì)應(yīng)位置為([xgt],[ygt]),[RWIoU]表示高質(zhì)量錯(cuò)框的損失,WIoUv1公式為:

        [LWIoUv1=RWIoULIoU] (6)

        其中:

        [RWIoU=expx-xgt2+y-ygt2wc2+hc2*] (7)

        在WIoUv1的基礎(chǔ)上,利用[β]構(gòu)造了一個(gè)非單調(diào)聚焦系數(shù),得到具有動(dòng)態(tài)非單調(diào)的WIoUv3,以提高模型的檢測(cè)性能。WIoUv3公式為:

        [LWIoUv3=λLWIoUv1] (8)

        其中:

        [λ=βδαβ-δ] (9)

        [β=L*IoULIoU] (10)

        3" 實(shí)驗(yàn)結(jié)果與分析

        3.1" 數(shù)據(jù)集

        本文使用印度理工學(xué)院與東京大學(xué)開(kāi)源的RDD 2022[17]數(shù)據(jù)集。該數(shù)據(jù)集總共包含47 420張來(lái)自六個(gè)不同國(guó)家的道路病害圖像。本文僅使用日本的13 133張圖像、印度的9 665張圖像、美國(guó)的6 005張圖像和中國(guó)的4 478張圖像,共 33 281張圖像。

        鑒于該數(shù)據(jù)集存在明顯的類別不平衡問(wèn)題,本研究移除了標(biāo)簽數(shù)量極為有限的分類,包括但不限于 D01:縱向拼接縫,D11:橫向拼接縫,以及與道路病害無(wú)直接關(guān)聯(lián)的標(biāo)簽。僅保留了四個(gè)國(guó)家共同具有的與道路病害直接相關(guān)的標(biāo)簽,即D00:縱向裂縫,D10:橫向裂縫,D20:網(wǎng)狀裂縫,以及D40:坑洞等四個(gè)類別[18]。數(shù)據(jù)集部分樣本如圖5所示。篩選后的數(shù)據(jù)集共包含帶標(biāo)注圖片28 802張,其中訓(xùn)練集、測(cè)試集、驗(yàn)證集的比例設(shè)為8∶1∶1,最終劃分結(jié)果為:訓(xùn)練集23 042張圖片,測(cè)試集和驗(yàn)證集2 880張圖片。

        3.2" 評(píng)價(jià)指標(biāo)

        在路面病害檢測(cè)實(shí)驗(yàn)中,通常使用準(zhǔn)確率[P](Precision)和召回率[R](Recall)等指標(biāo)來(lái)評(píng)估算法的性能。準(zhǔn)確率是指檢測(cè)出的正樣本數(shù)與檢測(cè)出的總樣本數(shù)之比;召回率是指檢測(cè)出的正樣本數(shù)與所有正樣本數(shù)之比。評(píng)價(jià)指標(biāo)公式分別如下:

        [P=TPTP+FP] (11)

        [R=TPTP+FN] (12)

        [AP=01P(R)dR] (13)

        式中:TP表示成功檢測(cè)到的目標(biāo)數(shù)量;FP表示錯(cuò)誤地將非目標(biāo)區(qū)域識(shí)別為目標(biāo);FN表示未能正確檢測(cè)到的目標(biāo)數(shù)量。通過(guò)對(duì)每個(gè)類別的AP(AP為[P?R]曲線下的面積,反映模型對(duì)某個(gè)類別識(shí)別效果的好壞)值取平均值,可以得到mAP(mean Average Precision),通常用來(lái)評(píng)價(jià)模型在所有類別上的性能。

        3.3" 實(shí)驗(yàn)環(huán)境及訓(xùn)練過(guò)程

        本文實(shí)驗(yàn)使用Pytorch框架,實(shí)驗(yàn)配置的具體信息如表1所示。

        在模型訓(xùn)練過(guò)程中,圖像輸入尺寸為640×640,初始學(xué)習(xí)率為0.01,動(dòng)量為0.9,batch size為16,迭代次數(shù)為100次。網(wǎng)絡(luò)損失值的變化曲線如圖6所示。

        觀察圖6的損失曲線發(fā)現(xiàn),在前40輪的訓(xùn)練中,損失曲線下降速度較快,曲線波動(dòng)大。當(dāng)模型訓(xùn)練到60輪時(shí),損失曲線已經(jīng)接近水平狀態(tài),收斂效果理想。相比原模型下降了0.024 2,表明改進(jìn)后模型的訓(xùn)練效果更加理想。

        3.4" 消融實(shí)驗(yàn)

        為了對(duì)比不同模塊在路面病害測(cè)試集上的檢測(cè)效果,通過(guò)在YOLOv7網(wǎng)絡(luò)基礎(chǔ)上進(jìn)行五組消融實(shí)驗(yàn),深入分析了不同模塊對(duì)于路面病害檢測(cè)性能的影響。CBAM?ELAN、ACmix、檢測(cè)頭優(yōu)化和WIoUv3,以及這些模塊的組合使用對(duì)于模型性能的影響,實(shí)驗(yàn)結(jié)果如表2所示。

        由表2可知,實(shí)驗(yàn)A作為基準(zhǔn),沒(méi)有引入任何額外模塊,其mAP為75.4%,為后續(xù)實(shí)驗(yàn)設(shè)定了初始性能評(píng)估基線。當(dāng)加入CBAM?ELAN模塊時(shí),mAP提升至76.2%,增加了0.8%,證明了通道和空間注意力機(jī)制在關(guān)鍵特征提取上的有效性。接著,當(dāng)加入ACmix模塊,mAP提升至78.1%,增加了1.9%,證明該模塊能顯著提高網(wǎng)絡(luò)對(duì)小尺度病害的識(shí)別能力。此外,當(dāng)加入WIoUv3模塊,通過(guò)優(yōu)化損失函數(shù)提升了模型的收斂速度和回歸精度,使mAP增至78.8%,提升了0.7%。最后,將所有模塊結(jié)合使用,結(jié)果顯示mAP達(dá)到了79.9%,驗(yàn)證了這些模塊綜合應(yīng)用在提升網(wǎng)絡(luò)性能方面的顯著效果,為路面病害檢測(cè)任務(wù)帶來(lái)了更高的準(zhǔn)確性和魯棒性。

        3.5" 對(duì)比實(shí)驗(yàn)

        為進(jìn)一步分析I?YOLOv7模型的綜合性能,將本文算法與Faster R?CNN、YOLOv5、YOLOv6、YOLOv7共5種算法在測(cè)試集上進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表3和表4所示。從表3中可知,I?YOLOv7在準(zhǔn)確率、召回率和mAP等指標(biāo)上均顯著優(yōu)于其他對(duì)比算法。相較于YOLOv7,改進(jìn)后的I?YOLOv7準(zhǔn)確率提升了7.7%,召回率提升了2.4%,mAP提升了4.5%。相比其他算法,I?YOLOv7在綜合性能上表現(xiàn)出色,驗(yàn)證了本文引入的多模塊改進(jìn)在路面病害檢測(cè)任務(wù)中的有效性。進(jìn)一步觀察表4,I?YOLOv7對(duì)于各類病害都取得了較高的平均準(zhǔn)確率,遠(yuǎn)遠(yuǎn)超過(guò)其他模型。

        圖7為部分測(cè)試集檢測(cè)結(jié)果,可以看出在復(fù)雜的道路背景下,本文I?YOLOv7算法比原模型擁有更好的檢測(cè)效果。圖7a)中出現(xiàn)了誤檢現(xiàn)象,在圖7c)和圖7e)都出現(xiàn)了漏檢現(xiàn)象,而圖7b)、圖7d)、圖7f)和圖7h)中檢測(cè)出所有的目標(biāo)且有著更高的檢測(cè)精度。

        4" 結(jié)" 論

        針對(duì)路面病害圖像存在光影變化大、背景干擾多、尺度差異大等問(wèn)題,本文提出一種基于YOLOv7改進(jìn)的路面病害檢測(cè)方法。首先,對(duì)原網(wǎng)絡(luò)的ELAN模塊進(jìn)行優(yōu)化,強(qiáng)化了網(wǎng)絡(luò)對(duì)關(guān)鍵特征的提取能力;接著,在YOLOv7的主干網(wǎng)中引入ACmix注意力模塊,將自注意力機(jī)制和傳統(tǒng)卷積注意力機(jī)制相融合,提高了對(duì)細(xì)小病害的檢測(cè)精度;其次,添加分辨率為160×160的P2檢測(cè)層,提高對(duì)小目標(biāo)的檢測(cè)精度;最后,對(duì)損失函數(shù)進(jìn)行優(yōu)化,使用WIoUv3替換原網(wǎng)絡(luò)的CIoU損失函數(shù),增強(qiáng)了網(wǎng)絡(luò)模型的收斂速度,提高了檢測(cè)的準(zhǔn)確性。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的YOLOv7模型檢測(cè)效果優(yōu)于原模型和傳統(tǒng)目標(biāo)檢測(cè)模型。下一步將在保證模型高檢測(cè)精度的前提下,優(yōu)化模型的計(jì)算效率,以滿足實(shí)時(shí)性需求。

        參考文獻(xiàn)

        [1] 陳建瑜,鄒春龍,王生懷,等.改進(jìn)YOLOv5的路面缺陷快速檢測(cè)方法研究[J].電子測(cè)量技術(shù),2023,46(10):129?135.

        [2] 徐康,馬榮貴,基于改進(jìn)Faster?RCNN的瀝青路面裂縫檢測(cè)[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2022,31(7):341?348.

        [3] REN S Q, HE K M, GIRSHICK R, et al. Faster R?CNN: Towards real?time object detection with region proposal networks [J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(6): 1137?1149.

        [4] 張明星,徐健,劉秀平,等.改進(jìn)U?Net的路面裂縫檢測(cè)方法[J/OL].計(jì)算機(jī)工程與應(yīng)用,1?10[2023?10?10].http://kns.cnki.net/kcms/detail/11.2127.TP.20231008.1724.026.html.

        [5] WU P R, LIU A R, FU J Y, et al. Autonomous surface crack identification of concrete structures based on an improved one?stage object detection algorithm [J]. Engineering structures, 2022, 272: 114962.

        [6] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4:

        Optimal speed and accuracy of object detection [EB/OL]. [2020?04?28]. https://arxiv.org/abs/2004.10934.

        [7] 倪昌雙,李林,羅文婷,等.改進(jìn)YOLOv7的瀝青路面病害檢測(cè)[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(13):305?316.

        [8] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag?of?freebies sets new state?of?the?art for real?time object detectors [C]// IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 7464?7475.

        [9] 戚玲瓏,高建瓴.基于改進(jìn)YOLOv7的小目標(biāo)檢測(cè)[J].計(jì)算機(jī)工程,2023,49(1):41?48.

        [10] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module [C]// Proceedings of the 2018 European Conference on Computer Vision (ECCV). Heidelberg, Germany: Springer, 2018: 3?19.

        [11] 范先友,過(guò)峰,俞建峰,等.基于改進(jìn)YOLOv7的液晶面板電極缺陷視覺(jué)檢測(cè)技術(shù)研究[J].電子測(cè)量與儀器學(xué)報(bào),2023,37(19):225?233.

        [12] 孫建誠(chéng),楊舒涵,龔芳媛,等.基于改進(jìn)YOLOv5的復(fù)雜背景下路面裂縫檢測(cè)[J].中國(guó)科技論文,2023,18(7):779?785.

        [13] 竇智,胡晨光,李慶華,等.改進(jìn)YOLOv7的小樣本鋼板表面缺陷檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(23):283?292.

        [14] PAN X R, GE C J, LU R, et al. On the integration of self?attention and convolution [C]// Proceedings of 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2022: 805?815.

        [15] 龍伍丹,彭博,胡節(jié),等.基于加強(qiáng)特征提取的道路病害檢測(cè)算法[J/OL].計(jì)算機(jī)應(yīng)用,1?9[2023?09?27].http://kns.cnki.net/kcms/detail/51.1307.tp.20230925.1639.010.html.

        [16] ZHENG Z H, WANG P, LIU W, et al. Distance?loU loss: Faster and better learning for bounding box regression [C]// Proceedings of the 2020 AAAI Conference on Artificial Intelligence. [S.l.]: AAAI, 2020: 12993?13000.

        [17] ARYA D, MAEDA H, GHOSH S K, et al. RDD2022: A multi?national image dataset for automatic road damage detection [EB/OL]. [2022?09?18]. https://doi.org/10.48550/arXiv.2209.08538.

        [18] ARYA D, MAEDA H, GHOSH S K, et al. Deep learning?based road damage detection and classification for multiple countries [J]. Automation in construction, 2021, 132: 103935.

        作者簡(jiǎn)介:葛" 焰(1999—),男,碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺(jué)。

        劉心中(1963—),男,教授,研究方向?yàn)楣腆w廢棄物資源化。

        馬樹(shù)森(1998—),男,碩士研究生,研究方向?yàn)楣虖U混凝土強(qiáng)度預(yù)測(cè)。

        趙" 津(1999—),男,碩士研究生,研究方向?yàn)楣虖U混凝土強(qiáng)度預(yù)測(cè)。

        李鎮(zhèn)宏(1999—),男,碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺(jué)。

        猜你喜歡
        路面病害注意力機(jī)制目標(biāo)檢測(cè)
        基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
        基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
        基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
        軟件工程(2017年11期)2018-01-05 08:06:09
        InsunKBQA:一個(gè)基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)
        淺析瀝青路面病害分析及處理措施
        瀝青混凝土路面病害分析及預(yù)防措施
        卷宗(2016年10期)2017-01-21 15:35:58
        視頻中目標(biāo)檢測(cè)算法研究
        軟件(2016年4期)2017-01-20 09:38:03
        行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
        移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
        淺談水泥混凝土路面常見(jiàn)病害防治方法
        玩弄放荡人妻一区二区三区| 人妻少妇中文字幕在线观看| 中国美女a级毛片| 亚洲美女又黄又爽在线观看| 色www亚洲| 伊人狼人影院在线视频| 日本精品视频二区三区| 中文字幕乱偷无码av先锋蜜桃 | 中文字幕精品一区二区精品 | 成人xx免费无码| 久久亚洲精精品中文字幕早川悠里| 人妻免费一区二区三区免费 | 国产好片日本一区二区三区四区 | 日韩在线一区二区三区免费视频| 久久国产乱子伦精品免费强| 亚洲一区域二区域三区域四| 精品国产一区二区三区2021| www国产亚洲精品久久网站| 亚洲成在人线电影天堂色| 亚洲av手机在线一区| 日本欧美大码a在线观看| 使劲快高潮了国语对白在线| 欧美日韩国产在线成人网| 在线不卡av一区二区| 日韩精品专区av无码| 亚洲女人被黑人巨大进入| 国产精品成人无码a 无码| 亚洲国产av一区二区三区| 免费a级毛片无码av| 热久久久久久久| av网站韩日在线观看免费| 天天做天天爱夜夜爽毛片毛片| 国产成人精品999在线观看| 国产成人久久精品激情91| 日本精品一级二区三级| 无人区一码二码三码四码区| 亚洲美女影院| 久久网站在线免费观看| 国产a级毛片久久久精品毛片| 18禁高潮出水呻吟娇喘蜜芽| 热re99久久精品国产66热6|