摘" 要: 道路病害檢測(cè)對(duì)于確保道路的安全性和可持續(xù)性至關(guān)重要,對(duì)城市和社會(huì)的發(fā)展具有積極作用。為提高目前道路病害檢測(cè)模型的性能,文中提出一種基于改進(jìn)YOLOv8的道路病害檢測(cè)算法。設(shè)計(jì)一種新型高效的特征融合模塊(DWS),提高模型獲取特征信息和全局上下文信息的能力;提出將ECABlock、LeakyReLU激活函數(shù)與卷積相結(jié)合的新模塊ELConv來(lái)提高深層網(wǎng)絡(luò)對(duì)目標(biāo)的定位能力;另外,使用Dynamic Head檢測(cè)頭替換原始YOLOv8的頭部,結(jié)合尺度、空間和任務(wù)三種注意力機(jī)制提升模型頭部表征能力;最后,采用WIoU損失函數(shù)代替原損失函數(shù)來(lái)改善邊界框精確度和匹配度。相比基線模型,改進(jìn)模型在road damage detection數(shù)據(jù)集和RDD2022_Japan數(shù)據(jù)集上都得到了有效的驗(yàn)證,表明改進(jìn)模型滿足當(dāng)下道路病害檢測(cè)的需求,展示了高靈活性、準(zhǔn)確性和效率。
關(guān)鍵詞: 道路病害檢測(cè); 深度學(xué)習(xí); YOLOv8; 特征融合; 激活函數(shù); Dynamic Head; WIoU損失函數(shù)
中圖分類號(hào): TN911.73?34; TP391.4" " " " " " " " " " 文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " "文章編號(hào): 1004?373X(2024)23?0119?06
Road damage visual recognition algorithm based on improved YOLOv8
ZHANG Qiang, DU Haiqiang, ZHAO Weikang, CUI Dong
(School of Information and Electrical Engineering, Hebei University of Engineering, Handan 056038, China)
Abstract: Road damage detection is crucial to ensure the safety and sustainability of roads, and plays a positive role in the development of cities and society. A road damage detection algorithm based on improved YOLOv8 is proposed to improve the performance of the current road damage detection model. A new and efficient feature fusion module DWS is designed to enhance the model ability of obtaining feature information and global context information. A new module ELConv, which combines activation functions ECABlock and LeakyReLU with convolution, is proposed to improve the deep network′s ability to locate objects. In addition, the detection head Dynamic Head is used to replace the head of the original YOLOv8. The three attention mechanisms of scale, space and task are combined to improve the representation ability of the model head. The loss function WIoU is used to replace the original loss function to improve the accuracy and match of the bounding box. In comparison with the baseline model, the improved model is verified on both the road damage detection dataset and the RDD2022_Japan dataset effectively. It shows that the improved model can meet the current needs of road damage detection, demonstrating high flexibility, accuracy and efficiency.
Keywords: road damage detection; deep learning; YOLOv8; feature fusion; activation function; DyHead; loss function WIoU
0" 引" 言
隨著城市化進(jìn)程的不斷加速,道路網(wǎng)絡(luò)的建設(shè)和維護(hù)變得尤為重要。然而,傳統(tǒng)的道路巡檢方法通常依賴于人工巡查,這既費(fèi)時(shí)費(fèi)力又昂貴,且容易出現(xiàn)漏檢或誤檢。因此,研究高效率、低成本的道路病害檢測(cè)方法具有重要的現(xiàn)實(shí)意義。
早期的道路病害檢測(cè)技術(shù)以傳統(tǒng)LBP、Gabor等紋理特征提取為主,往往在實(shí)際中呈現(xiàn)的效果不是很理想。近兩年來(lái)的研究中,文獻(xiàn)[1]提出的改進(jìn)道路表觀病害檢測(cè)模型(IPD?YOLOv5)通過引入ASPP模塊和SE?Net[2]注意力機(jī)制雖然在道路病害檢測(cè)方面表現(xiàn)出了很多優(yōu)勢(shì),但是增加了模型的計(jì)算復(fù)雜性,導(dǎo)致需要更多的計(jì)算資源和時(shí)間來(lái)進(jìn)行訓(xùn)練和推理。文獻(xiàn)[3]針對(duì)細(xì)長(zhǎng)路面病害的語(yǔ)義與形狀特征,提出了雙階段的Epd RCNN路面病害檢測(cè)方法。文獻(xiàn)[4]將注意力機(jī)制模塊融入到Y(jié)OLOv5目標(biāo)檢測(cè)模型當(dāng)中,該通道注意力機(jī)制模塊為道路病害的特征賦予權(quán)重,以優(yōu)化檢測(cè)性能。
盡管現(xiàn)有的研究可以有效地對(duì)道路病害進(jìn)行檢測(cè),但在當(dāng)前的研究中,有三大問題未充分解決:
1) 模型對(duì)于復(fù)雜道路病害的特征融合不夠充分,使得檢測(cè)精度降低;
2) 模型對(duì)于道路病害的特征提取不夠充分,僅簡(jiǎn)單考慮了特征提取與融合,導(dǎo)致在網(wǎng)絡(luò)中特征信息丟失的問題;
3) 網(wǎng)絡(luò)的泛化性和魯棒性也未能有效驗(yàn)證。
基于此,本文提出了一種基于YOLOv8模型改進(jìn)的道路病害檢測(cè)算法。
本文首先簡(jiǎn)要介紹了YOLOv8算法的原理以及模型結(jié)構(gòu),此后,針對(duì)現(xiàn)有道路病害檢測(cè)研究中存在的問題提出了改進(jìn)YOLOv8的方案,并進(jìn)行了實(shí)驗(yàn)。該過程中首先對(duì)比了不同模型對(duì)于道路病害的檢測(cè)效果,驗(yàn)證了YOLOv8模型在道路病害檢測(cè)中有一定的優(yōu)勢(shì);其次對(duì)比了不同模塊嵌入到模型中的檢測(cè)效果;另外,通過消融實(shí)驗(yàn)探究了本文改進(jìn)方案的有效性,并在公開數(shù)據(jù)集上驗(yàn)證了模型的泛化性;最后,對(duì)本文的研究?jī)?nèi)容進(jìn)行了總結(jié)。
1" YOLOv8算法
YOLOv8為一個(gè)具有里程碑意義的SOTA模型,它包含P5 640與P6 1 280分辨率的目標(biāo)檢測(cè)模型,其特性和YOLOv5相似,都是依據(jù)縮放系數(shù)提供N/S/M/L/X尺度的多種型號(hào),以適應(yīng)各種應(yīng)用場(chǎng)景。區(qū)別在于,其骨干網(wǎng)絡(luò)與Neck部分采用了YOLOv5[5]所沒有的C2f結(jié)構(gòu),該結(jié)構(gòu)在梯度流動(dòng)方面更為豐富。此外,針對(duì)不同尺度的模型調(diào)整了相應(yīng)的通道數(shù)量。在Head部分,YOLOv8采用了解耦頭結(jié)構(gòu),將分類與檢測(cè)頭分開,并從基于Anchor的思想轉(zhuǎn)變?yōu)锳nchor?Free的思想[6]。YOLOv8網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
2" YOLOv8算法改進(jìn)
為了更有效地應(yīng)對(duì)道路病害檢測(cè)的需求,本文提出了一種改良的基于YOLOv8的模型,其架構(gòu)如圖2所示。圖2中設(shè)計(jì)了一個(gè)全新的特征融合模塊DWS用于主干網(wǎng)絡(luò)特征融合;另外,提出了一種新的卷積結(jié)構(gòu)用于替換原網(wǎng)絡(luò)頸部的卷積;其次,在模型的頭部添加了基于注意力機(jī)制的目標(biāo)檢測(cè)頭Dynamic Head[7](DyHead);最后使用Wise?IoU[8](WIoU)損失函數(shù)代替原模型的損失函數(shù)。DWS模塊提高了模型獲取特征信息和全局上下文信息的能力;ELConv模塊提高了深層網(wǎng)絡(luò)對(duì)目標(biāo)的定位能力;Dynamic Head提高了目標(biāo)檢測(cè)頭部的表示能力;W?IoU損失函數(shù)改善了模型在邊界框的精確性和匹配度。
2.1" 高效特征融合模塊
設(shè)計(jì)的DWS模塊為多支路并行模塊,可以感受不同尺度的目標(biāo)信息。通過深度可分離卷積和最大池化等操作,可以有效地提取圖像中的特征信息,并且通過不同尺度的最大池化(Spatial Pyramid Pooling)進(jìn)行特征組合,可以捕獲不同尺度下的信息,有助于提高模型的感知能力和泛化能力。DWS結(jié)構(gòu)如圖3所示。
DWS模塊包含兩個(gè)普通卷積層、兩個(gè)深度可分離卷積層DWConv[9]以及三個(gè)最大池化層。普通卷積層的輸入通道數(shù)為[c1],輸出通道數(shù)為[c](隱藏通道數(shù)),卷積核大小為1×1,其輸出如式(1)所示:
[cv1(x)=Conv(x,wcv1)+bcv1] (1)
式中:[x]是輸入特征圖;[wcv1]是第一個(gè)卷積層的卷積核;[bcv1]是偏置項(xiàng)。
深度可分離卷積(DWConv)可以表示為深度卷積和逐點(diǎn)卷積兩步操作的組合。假設(shè)輸入特征圖為[x],深度卷積核為[wd],逐點(diǎn)卷積核為[wp],則深度可分離卷積表示如式(2)所示:
[DWConv(x,wd,wp)=PD(x,wd),wp] (2)
式中:[D(x,wd)]表示深度卷積操作;[P(x,wp)]表示逐點(diǎn)卷積操作。最大池化操作可表示為:
[MaxPool(x,k)=maxi∈[1,n](xi)] (3)
式中[k]為池化核的大小。
通過普通卷積層、深度可分離卷積層和最大池化層,最終輸出6個(gè)特征圖到連接層并按照指定的維度進(jìn)行拼接得到新的特征圖。最終卷積層的輸入通過Concat模塊進(jìn)行拼接,具體拼接方式如式(4)所示:
[Concat=torch.cat(x,y1,y2,y3,x+a2,a1),1] (4)
式中:torch.cat表示拼接操作;[x]是第一個(gè)普通卷積層的輸出特征圖;[y1]、[y2]、[y3]分別是通過三個(gè)最大池化層得到的三個(gè)特征圖;[a1]、[a2]分別是通過深度可分離卷積層得到的兩個(gè)特征圖;最后一個(gè)參數(shù)“1”表示按照第一個(gè)維度進(jìn)行拼接。
2.2" ELConv模塊
增加卷積網(wǎng)絡(luò)的深度可以捕獲更豐富的語(yǔ)義特征,但會(huì)降低特征圖的分辨率,并丟失一部分位置信息,致使更多的研究?jī)A向于開發(fā)更復(fù)雜的注意力模塊,以獲得更好的性能,這不可避免地增加了模型的復(fù)雜性。為了解決這一問題,本文提出將通道注意力ECABlock嵌入到卷積當(dāng)中,并使用Leaky ReLU作為模塊的激活函數(shù),達(dá)到顯著降低模型復(fù)雜度的同時(shí)帶來(lái)性能增益的效果。
ELConv模塊結(jié)構(gòu)如圖4所示。
ECABlock[10]采用了一種更加高效的方法來(lái)學(xué)習(xí)通道注意力,它使用一個(gè)1D卷積層對(duì)每個(gè)通道的特征進(jìn)行卷積,然后使用Sigmoid函數(shù)學(xué)習(xí)通道注意力。這樣可以大大降低計(jì)算復(fù)雜度,并在一定程度上提高模型性能。
普通的ReLU激活函數(shù)[11]雖然對(duì)訓(xùn)練神經(jīng)網(wǎng)絡(luò)起到有效的作用,但是在訓(xùn)練的過程中可能會(huì)出現(xiàn)一些神經(jīng)元始終不會(huì)激活,從而讓神經(jīng)網(wǎng)絡(luò)表達(dá)能力下降,為了避免這一問題,Leaky ReLU激活函數(shù)[12]在負(fù)半軸增加了一個(gè)很小的梯度值,這樣在保留一定稀疏性的同時(shí)也避免了神經(jīng)元壞死的問題。Leaky ReLU激活函數(shù)的前向傳播過程如圖5所示。
2.3" 基于注意力機(jī)制的目標(biāo)檢測(cè)頭
Dynamic Head(DyHead)將目標(biāo)檢測(cè)頭部與注意力統(tǒng)一起來(lái)。該方法結(jié)合多個(gè)自注意力機(jī)制,實(shí)現(xiàn)了任務(wù)感知、空間位置之間和尺度感知,在不增加模型計(jì)算量的前提下有效地提高了目標(biāo)檢測(cè)頭部的表示能力。Dynamic Head在特征的每個(gè)特定維度上分別部署注意力機(jī)制,即水平、空間和渠道??筛兄叨鹊淖⒁饬δK只部署在水平尺寸上。感知空間的注意力模塊部署在空間維度上(即高度×寬度)。任務(wù)感知的注意力模塊部署在通道上。將張量重塑為三維張量,實(shí)現(xiàn)了檢測(cè)頭的統(tǒng)一注意力機(jī)制[13]。
2.4" 損失函數(shù)的優(yōu)化
針對(duì)目標(biāo)檢測(cè)數(shù)據(jù)集每張圖片質(zhì)量高低參差不齊的情況,使用WIoU損失函數(shù)替換原模型的損失函數(shù),WIoU損失函數(shù)是一種用于目標(biāo)檢測(cè)器的邊界框回歸損失函數(shù),它結(jié)合了IoU度量和平滑項(xiàng),作為邊界框回歸損失,包含一種動(dòng)態(tài)非單調(diào)機(jī)制,并設(shè)計(jì)了一種合理的梯度增益分配,該策略減少了極端樣本中出現(xiàn)的大梯度或有害梯度。WIoU損失函數(shù)的定義公式為:
[LWIoU=1-i=1nwiIoU(bi,gi)i=1nwi] (5)
式中:[n]代表目標(biāo)物體的邊界框總數(shù);[bi]指第[i]個(gè)物體的預(yù)測(cè)邊界框位置;[gi]為相應(yīng)的第[i]個(gè)物體的實(shí)際標(biāo)注邊界框的位置;[wi]為對(duì)應(yīng)權(quán)重值;IoU[(bi,gi)]用于衡量第[i]個(gè)預(yù)測(cè)邊界框與真實(shí)標(biāo)注框之間的交并比。
3" 實(shí)驗(yàn)與分析
3.1" 數(shù)據(jù)集
為了全面地證明改進(jìn)算法的有效性,采用自建數(shù)據(jù)集road damage detection和公開數(shù)據(jù)集RDD 2022_Japan分別對(duì)本文改進(jìn)算法進(jìn)行實(shí)驗(yàn)驗(yàn)證。
road damage detection數(shù)據(jù)集部分圖片來(lái)源于Roboflow,Roboflow為YOLOv8提供了一種更便捷、更快速的方式來(lái)準(zhǔn)備訓(xùn)練數(shù)據(jù)。隨后對(duì)數(shù)據(jù)集進(jìn)行了數(shù)據(jù)增強(qiáng),并使用LabelImg軟件對(duì)道路病害進(jìn)行標(biāo)注,同時(shí)LabelImg軟件會(huì)生成對(duì)應(yīng)的標(biāo)簽文件,數(shù)據(jù)集為7分類:alligator cracking(鱷魚開裂)、edge cracking(邊緣開裂)、longitudinal cracking(縱向開裂)、patching(修補(bǔ)痕跡)、pothole(坑洼)、rutting(車轍)和transverse cracking(橫向開裂)。road damage det數(shù)據(jù)集包含3 912張圖片,經(jīng)劃分后得到訓(xùn)練集2 738張,驗(yàn)證集783張,測(cè)試集391張。
RDD 2022_Japan數(shù)據(jù)集[14]來(lái)源于RDD 2022。RDD 2022由東京大學(xué)發(fā)布,其中包括47 420幅道路圖像,數(shù)據(jù)集共捕捉到四類道路損壞,包括D00(縱向裂縫)、D10(橫向裂縫)、D20(網(wǎng)狀裂縫)和D40(坑洞),選取其中10 506張照片作為數(shù)據(jù)集,經(jīng)劃分得到訓(xùn)練集8 404張,驗(yàn)證集1 050張,測(cè)試集1 052張。
3.2" 實(shí)驗(yàn)設(shè)備及評(píng)價(jià)指標(biāo)
本文選用PyTorch深度學(xué)習(xí)架構(gòu)對(duì)網(wǎng)絡(luò)模型進(jìn)行開發(fā)及優(yōu)化,并進(jìn)行了模型的訓(xùn)練以及實(shí)驗(yàn)。訓(xùn)練所使用設(shè)備的CPU為14 vCPU Intel[?] Xeon[?] Gold 6330 CPU,GPU為RTX 3090(24 GB),設(shè)置batch_size為16,初始學(xué)習(xí)率lr為0.01,訓(xùn)練輪次400輪,CUDA版本為11.0。本文從[F1]分?jǐn)?shù)、模型的mAP@0.5(mean Average Precision)、模型的mAP@0.5:0.95、模型的參數(shù)量(Params)、每秒10億次的浮點(diǎn)運(yùn)算數(shù)(GFLOPs)五個(gè)指標(biāo)來(lái)評(píng)價(jià)模型的性能。以正確率和召回率作為基本指標(biāo),使用準(zhǔn)確率和召回率作為基礎(chǔ)評(píng)估指標(biāo),同時(shí)計(jì)算基于這兩者得分的[F1]分?jǐn)?shù)和平均精度均值(mAP),以全面評(píng)價(jià)模型識(shí)別的準(zhǔn)確性。此外,使用GFLOPs來(lái)衡量模型的計(jì)算復(fù)雜度,Params指標(biāo)則用以表示模型所占用的存儲(chǔ)空間。一般而言,Params和GFLOPs的數(shù)值越低,說明模型對(duì)計(jì)算資源的需求越少。
3.3" 消融實(shí)驗(yàn)
設(shè)置消融實(shí)驗(yàn)來(lái)分析本文中各改進(jìn)模塊對(duì)模型性能的影響。所有消融均在road damage detection數(shù)據(jù)集上進(jìn)行,評(píng)價(jià)指標(biāo)選用[F1]分?jǐn)?shù)、mAP@0.5和mAP@0.5:0.95。表1是以YOLOv8模型為基線,√表示在模型中使用該模塊。
由表1數(shù)據(jù)可知,單獨(dú)替換原模型損失函數(shù)為WIoU,各項(xiàng)指標(biāo)都沒有變動(dòng),單獨(dú)引入本文設(shè)計(jì)的DWS模塊,[F1]分?jǐn)?shù)、mAP@0.5和mAP@0.5:0.95分別提高了1%、0.6%和1.9%;單獨(dú)替換頸部卷積為ELConv,三個(gè)評(píng)價(jià)指標(biāo)分別提升了1%、0.9%和2.1%;替換目標(biāo)檢測(cè)頭為DyHead,替換損失函數(shù)為WIoU,三個(gè)指標(biāo)分別提高了1%、1.7%和1.7%;在替換目標(biāo)檢測(cè)頭為DyHead,替換損失函數(shù)為WIoU的基礎(chǔ)之上使用DWS特征融合模塊,三個(gè)指標(biāo)分別提升了2%、2.2%和2.9%。最后一個(gè)為本文最終改進(jìn)模型,[F1]分?jǐn)?shù)、mAP@0.5和mAP@0.5:0.95分別提高了3%、3.1%和4.8%。本文提出的優(yōu)化策略在保持較低的參數(shù)增長(zhǎng)和計(jì)算負(fù)擔(dān)的基礎(chǔ)上,其他各項(xiàng)指標(biāo)均達(dá)到了提升的效果。
為了驗(yàn)證優(yōu)化后的損失函數(shù)的有效性,將原始模型與僅改進(jìn)損失函數(shù)的模型進(jìn)行對(duì)比,圖6為原始模型和改進(jìn)模型的損失曲線對(duì)比圖。
圖6中,灰線代表原始函數(shù)損失曲線,黑線代表優(yōu)化損失函數(shù)后的算法損失曲線。由圖6可知,改進(jìn)模型的損失函數(shù)可以更快達(dá)到收斂狀態(tài)。
3.4" 不同模型檢測(cè)與識(shí)別對(duì)比實(shí)驗(yàn)
為了驗(yàn)證YOLOv8模型在道路病害檢測(cè)中的優(yōu)勢(shì),與其他主流的目標(biāo)檢測(cè)算法模型進(jìn)行比較。以[F1]分?jǐn)?shù)、mAP@0.5和mAP@0.5:0.95和計(jì)算量GFLOPs作為評(píng)價(jià)指標(biāo),數(shù)據(jù)集選用自建數(shù)據(jù)集road damage detection,表2展示了對(duì)比結(jié)果。
由表2可知:YOLOv8模型在多個(gè)評(píng)價(jià)指標(biāo)上超過了兩階段的Faster?RCNN[15]算法和單階段EfficientNet[16]算法,并且與RT?DETR?L相比,RT?DETR?L模型雖然檢測(cè)精度比YOLOv8提升了0.1%,但是其參數(shù)量和計(jì)算量龐大;與YOLO系列其他算法YOLOv3tiny[17]和YOLOv4tiny[18]相比,YOLOv8在保持低參數(shù)量、低計(jì)算量的同時(shí),[F1]分?jǐn)?shù)分別提高了14%和15%,mAP@0.5分別提高了7%和8.3%,mAP@0.5:0.95分別提高了5.9%和8%。結(jié)果顯示,在針對(duì)道路病害識(shí)別的任務(wù)中,YOLOv8算法在與其他流行的目標(biāo)檢測(cè)方法對(duì)比中表現(xiàn)突出,顯示出其在這一領(lǐng)域的適用性。
3.5" 泛化性驗(yàn)證
為了進(jìn)一步驗(yàn)證改進(jìn)模型的泛化性,分別將原始YOLOv8算法與本文提出的改進(jìn)后模型算法在公開數(shù)據(jù)集RDD 2022_Japan上進(jìn)行實(shí)驗(yàn)。以mAP@0.5和mAP@0.5:0.95作為評(píng)價(jià)指標(biāo),實(shí)驗(yàn)結(jié)果如表3所示。
數(shù)據(jù)顯示改進(jìn)模型在四個(gè)類別上的檢測(cè)精度均高于YOLOv8模型,改進(jìn)模型的效果在公開數(shù)據(jù)集上得到了驗(yàn)證。
4" 結(jié)" 論
基于傳統(tǒng)的YOLOv8算法,本文設(shè)計(jì)了高效特征融合模塊,提出了一種新的卷積結(jié)構(gòu)ELConv模塊,替換原模型頭部為DyHead檢測(cè)頭,引入WIoU函數(shù)作為模型的損失函數(shù),提出了一種新型道路病害檢測(cè)識(shí)別方法。本文的主要貢獻(xiàn)如下。
1) 設(shè)計(jì)了高效的特征融合模塊DWS,提高模型獲取特征信息和全局上下文信息的能力。
2) 針對(duì)現(xiàn)有部分研究存在對(duì)深度網(wǎng)絡(luò)特征提取不充分的問題,提出了新的ELConv卷積模塊,目標(biāo)的空間信息得到了更好的感知,檢測(cè)精度得到了有效提升。
3) 引入了添加基于注意力機(jī)制的目標(biāo)檢測(cè)頭DyHead,結(jié)合尺度、空間和任務(wù)三種注意力機(jī)制,提升了目標(biāo)檢測(cè)頭部的表示能力。
4) 使用WIoU損失函數(shù)替換原模型的損失函數(shù),改善了模型在邊界框的精確性和匹配度。在公開數(shù)據(jù)集RDD 2022_Japan上驗(yàn)證了模型的泛化性。
最終通過實(shí)驗(yàn)證明,本文提出的改進(jìn)YOLOv8算法有效解決了現(xiàn)有研究中存在的問題,可以滿足道路病害的檢測(cè)需求。
注:本文通訊作者為崔冬。
參考文獻(xiàn)
[1] 喻露,戴甜杰,余麗華.基于改進(jìn)YOLOv5的道路病害智能檢測(cè)[J].福建工程學(xué)院學(xué)報(bào),2023,21(4):332?337.
[2] 王燕,王振宇.基于改進(jìn)SE?Net和深度可分離殘差的高光譜圖像分類[J].蘭州理工大學(xué)學(xué)報(bào),2024,50(2):87?95.
[3] 許慧青,陳斌,王敬飛,等.基于卷積神經(jīng)網(wǎng)絡(luò)的細(xì)長(zhǎng)路面病害檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用,2022,42(1):265?272.
[4] 王鵬飛,黃漢明,王夢(mèng)琪.改進(jìn)YOLOv5的復(fù)雜道路目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(17):81?92.
[5] WEN H H, LI Y, WANG Y, et al. Usage of an improved YOLOv5 for steel surface defect detection [J]. Materials testing, 2024, 66(5): 726?735.
[6] 李松,史濤,井方科.改進(jìn)YOLOv8的道路損傷檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(23):165?174.
[7] DAI X Y, CHEN Y P, XIAO B, et al. Dynamic head: Unifying object detection heads with attentions [C]// IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 7373?7382.
[8] TONG Z J, CHEN Y H, XU Z W, et al. Wise?IoU: Bounding box regression loss with dynamic focusing mechanism [EB/OL]. [2023?01?26]. https://doi.org/10.48550/arXiv.2301.10051.
[9] 張磊,李熙尉,燕倩如,等.基于改進(jìn)YOLOv5s的綜采工作面人員檢測(cè)算法[J].中國(guó)安全科學(xué)學(xué)報(bào),2023,33(7):82?89.
[10] MOHARM K, ELTAHAN M, ELSAADANY E. Wind speed forecast using LSTM and Bi?LSTM algorithms over Gabal El?Zayt wind farm [C]// 2020 International Conference on Smart Grids and Energy Systems. Heidelberg: Springer, 2020: 922?927.
[11] 張愷翊,張寧燕,江志浩,等.深度學(xué)習(xí)模型中不同激活函數(shù)的性能分析[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2023,42(z1):149?156.
[12] 王攀杰,郭紹忠,侯明,等.激活函數(shù)的對(duì)比測(cè)試與分析[J].信息工程大學(xué)學(xué)報(bào),2021,22(5):551?557.
[13] 高昂,梁興柱,夏晨星,等.一種改進(jìn)YOLOv8的密集行人檢測(cè)算法[J].圖學(xué)學(xué)報(bào),2023,44(5):890?898.
[14] ARYA D, MAEDA H, GHOSH S K, et al. Crowdsensing?based road damage detection challenge [C]// 2022 IEEE International Conference on Big Data (Big Data). New York: IEEE, 2022: 6378?6386.
[15] 王曾龍,蔣勇勇,彭海峰,等.一種基于Faster?RCNN的棉花蟲害識(shí)別與統(tǒng)計(jì)方法[J].大眾科技,2023,25(5):5?7.
[16] TAN M X, LE Q V. EfficientNet: Rethinking model scaling for convolutional neural networks [C]// International Conference on Machine Learning. New York: PMLR, 2019: 6105?6114.
[17] ADARSH P, RATHI P, KUMAR M. YOLO v3?tiny: Object detection and recognition using one stage improved model [C]// 2020 6th International Conference on Advanced Computing and Communication Systems (ICACCS). New York: IEEE, 2020: 687?694.
[18] JIANG Z C, ZHAO L Q, LI S Y, et al. Real?time object detection method based on improved YOLOv4?tiny [EB/OL]. [2020?11?09]. https://arxiv.org/abs/2011.04244.
作者簡(jiǎn)介:張" 強(qiáng)(1977—),男,河北邯鄲人,碩士研究生,副教授,研究方向?yàn)橛?jì)算機(jī)應(yīng)用技術(shù)。
杜海強(qiáng)(2000—),男,河北保定人,在讀碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺。
趙偉康(1991—),女,河北邯鄲人,博士研究生,講師,研究方向?yàn)橛?jì)算機(jī)視覺。
崔" 冬(1977—),女,河北邯鄲人,碩士研究生,講師,研究方向?yàn)閿?shù)據(jù)庫(kù)技術(shù)及應(yīng)用。