doi:10.11835/j.issn.1000-582X.2023.101
摘要:針對已有目標(biāo)檢測方法在混凝土橋梁表觀病害檢測的應(yīng)用中識別精度低且伴隨較多誤檢和漏檢的問題,提出了一種改進(jìn)的YOLOv5s橋梁表觀病害檢測方法。針對目前橋梁表觀病害特征成分較復(fù)雜的問題,為了更有效地利用不同尺度的缺陷特征,在主干網(wǎng)中添加修改后的空間金字塔池化模塊,提高了整體網(wǎng)絡(luò)對缺陷特征信息的獲取能力,同時(shí)減少了運(yùn)算工作量;針對由病害圖像中不同缺陷特征交叉分布導(dǎo)致的誤檢率、漏檢率高的問題,在YOLOv5s網(wǎng)絡(luò)中加入輕量化注意力模塊;針對橋梁缺陷尺寸差異大、分類困難和數(shù)據(jù)集小而導(dǎo)致的邊界回歸不匹配的問題,采用考慮了向量角度的損失函數(shù)。實(shí)驗(yàn)證明,改進(jìn)后的YOLOv5s檢測器在橋梁表觀病害目標(biāo)檢測識別任務(wù)中能夠有效提高精度、降低誤檢率和漏檢率。
關(guān)鍵詞:病害檢測;YOLOv5s;特征融合;平均精度
中圖分類號:TP391.4文獻(xiàn)標(biāo)志碼:A文章編號:1000-582X(2024)09-091-10
Apparent disease detection of bridges using improved YOLOv5s
DONG Shaojiang1,TAN Hao1,LIU Chao1,HU Xiaolin2
(1.School of Mechatronics and Vehicle Engineering,Chongqing Jiaotong University,Chongqing 400074,P.R.China;2.Chongqing Industrial Big Data Innovation Center Co.,Ltd.,Chongqing 404100,P.R.China)
Abstract:To solve the problems of low accuracy,high false detection rate,and high missed detection rate in current target detection methods for apparent diseases in concrete bridges,an improved YOLOv5s method is proposed.To achieve more effective fusion of features at different scales and increase receptive fields,an improved spatial pyramid pooling module is added to the YOLOv5s network to enhance feature extraction capabilities and reduce computational cost;a light-weight attention module is incorporated into the YOLOv5s network to tackle the high false detection and missed detection rates caused by the cross-distribution of different defect features in disease images;and a loss function considering vector angles is adopted to solve the problems related to varying defect sizes,classification difficulties and small dataset-induced boundary box regression mismatches.Experimental results show that the improved YOLOv5s detector significantly improves accuracy while reducing false detection and missed detection rates in the task of detecting apparent diseases in bridges.
Keywords:disease detection;YOLOv5s;feature fusion;mean average accuracy
截至2021年底,中國的公路橋梁總共有96.11萬座,全長73 802.1 km。橋梁的運(yùn)營過程中,隨之而來的是橋梁功能的退化和橋梁本體結(jié)構(gòu)的損傷,因此對橋梁結(jié)構(gòu)的表觀檢測是橋梁運(yùn)維的重要工作之一。目前橋梁表觀缺陷檢測的主要方式為目測和簡單儀器測量,但這些檢測方法主觀性較強(qiáng),且受現(xiàn)場環(huán)境等綜合因素影響,對一些存在病害的地方可能產(chǎn)生大量誤檢、漏檢。為了解決這一問題,基于機(jī)器視覺的檢測方法被提出,通過無人機(jī)和爬壁機(jī)器人[1]等設(shè)備來獲取圖像,將獲取的圖像導(dǎo)入計(jì)算機(jī)并且提取圖像特征,進(jìn)一步識別和分類,達(dá)到缺陷識別的目的,如Nishikawa等[2]在對橋梁表面裂縫識別中引入機(jī)器學(xué)習(xí)的方法。雖然機(jī)器學(xué)習(xí)方法相較于傳統(tǒng)檢測技術(shù)在檢測效率、魯棒性上有一定提升[3],但這些方法的特征提取過程十分繁瑣,且不能夠一次性、端到端地解決缺陷識別問題。
近年來,基于深度學(xué)習(xí)的缺陷檢測方法解決了傳統(tǒng)機(jī)器學(xué)習(xí)方法檢測速率低、漏檢率高的問題,同時(shí)兼具檢測速度快、魯棒性強(qiáng)等優(yōu)點(diǎn)?;谏疃葘W(xué)習(xí)的檢測方式按照其網(wǎng)絡(luò)體系結(jié)構(gòu)分為以下2類:第1類是以區(qū)域卷積神經(jīng)網(wǎng)絡(luò)[4](regional convolutional neural networks,R-CNN)為代表的Fast R-CNN[5]、Faster R-CNN[6]等雙階段檢測算法。R-CNN借用了滑動(dòng)窗口來產(chǎn)生候選框域的思想,這種方法步驟復(fù)雜、計(jì)算量大。針對R-CNN較費(fèi)時(shí)的選擇性搜索,F(xiàn)aster R-CNN使用了一個(gè)區(qū)域候選網(wǎng)絡(luò)來取代選擇性搜索,如Cha等[7]將Faster R-CNN用于識別混凝土和鋼鐵裂縫相關(guān)的多種表面損傷。雖然大量研究證實(shí)了雙階段檢測方法可用于鋼筋混凝土等結(jié)構(gòu)件表面缺陷的檢測,但中間過程繁瑣,且需要大量重復(fù)性實(shí)驗(yàn),因此其檢驗(yàn)效率不夠好,無法適應(yīng)現(xiàn)場檢測要求。第2類是以SSD(single shot detector)[8]、YOLO(you only look once)[9]為代表的單階段檢測算法。它并不要求先給出目標(biāo)候選框,而是直接把目標(biāo)圖像特征的提取和預(yù)測框的確定結(jié)合在一起進(jìn)行圖像的類別估計(jì)和區(qū)域坐標(biāo)評估,極大地提高了檢測效率。SSD算法的缺點(diǎn)明顯,一是較低層級的特征非線性程度不夠,導(dǎo)致訓(xùn)練精度不如YOLO;二是候選框尺寸需要人工經(jīng)驗(yàn)判斷。隨著YOLOv3[10]、YOLOv4[11]、YOLOv5的先后提出,YOLO系列算法與其他算法比較在檢測速率和精度上均表現(xiàn)出較大的優(yōu)越性。Peng等[12]提出一種使用改進(jìn)YOLO的雙網(wǎng)絡(luò)方法來提高算法對塊狀缺陷和裂縫病害的檢測能力;Jang等[13]提出一種基于混合擴(kuò)展卷積塊的深度學(xué)習(xí)網(wǎng)絡(luò)HDCB-Net,并結(jié)合YOLOv4用于實(shí)現(xiàn)像素級的裂紋檢測。
現(xiàn)有基于YOLOv3、YOLOv4的橋梁表觀病害檢測識別方法在現(xiàn)場作業(yè)時(shí)不能滿足實(shí)時(shí)檢測需求,YOLOv5系列算法則在檢測精度、速度上都優(yōu)于YOLOv3,其在一些公共數(shù)據(jù)集如COCO[14](common objects in context)數(shù)據(jù)集上有較好的表現(xiàn),但在數(shù)據(jù)特征較為復(fù)雜的橋梁表觀病害檢測中尚有改進(jìn)空間。本研究的目的是探討對YOLOv5s算法的改進(jìn)及其對橋梁表觀病害檢測任務(wù)的適用性。
1 YOLOv5s模型框架
YOLOv5s是一種單階段檢測方法,結(jié)合特征提取和預(yù)測框設(shè)定對目標(biāo)的分類概率和定位坐標(biāo)進(jìn)行評估。相對于其他算法,YOLOv5s具有模型小、檢測速度快和檢測精度高等優(yōu)勢。YOLOv5s結(jié)構(gòu)如圖1所示,可將YOLOv5s算法模型劃分為4個(gè)部分。
第1部分是輸入層,主要負(fù)責(zé)對已提供的圖像數(shù)據(jù)進(jìn)行預(yù)處理,包括數(shù)據(jù)強(qiáng)化、自適應(yīng)錨框算法和自適應(yīng)圖像縮放。YOLOv5s使用Mosaic數(shù)據(jù)增強(qiáng)技術(shù),通過對前4張圖片隨機(jī)壓縮、剪切、重新排布并加以拼接,以加強(qiáng)對小目標(biāo)的檢測效果;自適應(yīng)錨框主要是根據(jù)當(dāng)前數(shù)據(jù)集選擇與其長寬對應(yīng)的錨框;自適應(yīng)圖像縮放不同于上一代YOLOv4,為圖片增加最少像素的額外黑邊,最大程度保持圖片的原有性質(zhì),同時(shí)減少不必要的計(jì)算量。圖1中Input為輸入;Conv2d表示二維卷積;BN表示歸一化層;Silu為激活函數(shù);CBS表示順序連接的Conv2d層、BN層和Silu層;C3表示包含3個(gè)卷積層的跳躍連接模塊,C3的數(shù)量為模塊中殘差結(jié)構(gòu)的數(shù)量;SPPF表示空間金字塔池融合模塊;Concat為拼接;Upsample為上采樣;Head為模型輸出頭。
第2部分為主干網(wǎng)絡(luò),主要作用是提取圖像中目標(biāo)的特征。在YOLOv4算法的基礎(chǔ)上,使用了改進(jìn)后的CSP-Darknet53結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。輸入特征圖通過2個(gè)維度進(jìn)行計(jì)算,首先都使用1×1卷積(Conv)進(jìn)行變換,其中一路在經(jīng)過步幅為2的3×3卷積后與另一路跨階段層級拼接。這不僅保證了準(zhǔn)確率,同時(shí)也解決了普通網(wǎng)絡(luò)在信息傳遞時(shí)梯度重復(fù)的問題,因此參數(shù)更小,網(wǎng)絡(luò)計(jì)算量更少,進(jìn)一步節(jié)省內(nèi)存開支。
第3部分為頸部網(wǎng)絡(luò),作用為收集目標(biāo)特征,其結(jié)構(gòu)為特征金字塔網(wǎng)絡(luò)加路徑聚合網(wǎng)絡(luò)。特征金字塔網(wǎng)絡(luò)的作用是傳遞高層語義特征,路徑聚合網(wǎng)絡(luò)主要傳遞定位信息,對特征金字塔網(wǎng)絡(luò)進(jìn)行補(bǔ)充。
第4部分為檢測層,主要用于預(yù)測信息損失部分。
2改進(jìn)的橋梁表觀病害檢測模型
本研究中將改進(jìn)的快速空間金字塔池化(Relu spatial pyramid pooling-fast,RSPPF)融入骨干網(wǎng)絡(luò),加入高效通道注意力[15](efficient channel attention,ECA),提出用于橋梁表觀病害檢測的網(wǎng)絡(luò)(YOLOv5s of bridge detection,YOLOv5s-BD)如圖3所示,并使用SIoU[16]進(jìn)行損失計(jì)算。
YOLOv5s-BD中,將原骨干網(wǎng)絡(luò)末端的金字塔池化塊替換為改進(jìn)的RSPPF,并在網(wǎng)絡(luò)的第5和第8層添加RSPPF,在第11層添加ECA注意力模塊。
2.1空間金字塔池化
空間金字塔池化[17](spatial pyramid pooling,SPP)網(wǎng)絡(luò)結(jié)構(gòu)是將輸入特征先通過一個(gè)卷積,然后分別進(jìn)行不同卷積核的池化后與輸入拼接,再通過一個(gè)卷積,中間的卷積核大小分別為5×5、9×9和13×13。不僅在一定程度上避免了由區(qū)域裁剪、縮放導(dǎo)致的失真問題和重復(fù)特征提取的問題,同時(shí)也節(jié)省了計(jì)算成本。SPP能夠?qū)D片在不同維度上的特征信息融合到一個(gè)維度上。
YOLOv5s中的快速金字塔池化(spatial pyramid pooling-fast,SPPF)借鑒了SPP的思想,但通道間的傳遞關(guān)系改為順序傳遞,YOLOv5s中的SPPF模塊如圖4所示,圖中Maxpool表示最大池化層,k代表卷積核大小。RSPPF沿用SPPF結(jié)構(gòu),其中CBR為使用了Relu激活函數(shù)替換掉Silu激活函數(shù)的卷積操作,中間卷積核大小統(tǒng)一為5×5,在保證網(wǎng)絡(luò)精度的同時(shí)減少模塊計(jì)算量。Silu和Relu函數(shù)關(guān)系如圖5所示。
Relu函數(shù)表達(dá)式:
Silu函數(shù)表達(dá)式:
顯然Silu無上界有下界、平滑而不單調(diào)的特征使它在深層模型的效果上具有突出的優(yōu)點(diǎn),但其包含的指數(shù)運(yùn)算和除法運(yùn)算會占用大量計(jì)算量。Relu為線性函數(shù),計(jì)算量小,更適合特征選取,且能夠有效避免反向傳播帶來的梯度彌散。
2.2輕量級注意力機(jī)制ECA
ECA是由Huang等[18]提出的一個(gè)不降維的局部跨通道互動(dòng)方法,克服了普通注意力中降維對學(xué)習(xí)的負(fù)面影響,實(shí)現(xiàn)了不同通道間的交互。ECA網(wǎng)絡(luò)模型如圖6所示,其中W、H分別為特征圖的寬和高,C為通道維數(shù),σ表示Sigmoid激活函數(shù),GAP為全局平均池化,χ和χ(?)分別為輸入張量和輸出張量。
ECA網(wǎng)絡(luò)中利用矩陣Wk來學(xué)習(xí)通道注意力:
Wk由k×C個(gè)參數(shù)組成,避免了特征在不同通道上相互獨(dú)立的問題。通道注意力ω可通過下式計(jì)算:
式中:C1D表示一維卷積,y為輸出。通道維數(shù)C與卷積核大小k關(guān)系公式如下:
式中:γ和b為可調(diào)參數(shù)。
因此,卷積核尺寸表達(dá)式為:
式中:+odd表示與+值最相近的整數(shù);k的取值會影響網(wǎng)絡(luò)的整體運(yùn)算速度及準(zhǔn)確率,k值過小會導(dǎo)致交互的覆蓋范圍小,k值過大會增加計(jì)算量,在本網(wǎng)絡(luò)中,設(shè)置k=3。
2.3損失函數(shù)
交并比(intersection over union,IoU)用于計(jì)算預(yù)測框損失,很大程度上決定了模型預(yù)測結(jié)果的準(zhǔn)確程度。YOLOv5s使用完全交并比(complete intersection over union,CIoU),減少了其他類IoU在計(jì)算中的發(fā)散現(xiàn)象。
CIoU計(jì)算公式為
式中:α是權(quán)重系數(shù);v用來度量寬高比的一致性;w、h分別為候選框的寬和高;ρ為歐氏距離;c為預(yù)測框和標(biāo)注框的對角線長度。
式(7)中的ρ2(b,bgt)表示預(yù)測框b和真實(shí)框bgt中心點(diǎn)之間的歐式距離d。c代表它們的對角線距離,如圖7所示。
在IoU、GIoU和CIoU等邊界框回歸指標(biāo)中,預(yù)測框和真實(shí)框之間的方向不匹配時(shí),會降低模型的收斂速度和效率。考慮回歸向量角度并重新定義懲罰指標(biāo)的SIoU損失函數(shù)由4個(gè)代價(jià)函數(shù)組成:角度函數(shù)、距離函數(shù)、形狀函數(shù)和IoU函數(shù)。角度函數(shù)為
式中:x==sin(α),這里的cx和cy分別為對角線距離的長和寬分量。
角度函數(shù)最大限度地減少了與距離相關(guān)的不匹配變量數(shù)量,收斂過程中首先最小化α。距離函數(shù)為
形狀函數(shù)為
式中:ωw=;ωh=;θ值由數(shù)據(jù)集決定。
由SIoU定義的損失函數(shù)為
式中:IoU為預(yù)測框和真實(shí)框的交并比。
3實(shí)驗(yàn)結(jié)果分析
3.1實(shí)驗(yàn)環(huán)境及數(shù)據(jù)集來源
實(shí)驗(yàn)在Windows操作系統(tǒng)環(huán)境下進(jìn)行,使用CPU為AMD Ryzen7 5800H,RAM為16 GB隨機(jī)存取內(nèi)存,GPU為RTX 3060 Laptop,6 GB顯示內(nèi)存。深度學(xué)習(xí)框架為pytorch,整個(gè)訓(xùn)練過程設(shè)置epoch為300,Batch_size為8,訓(xùn)練時(shí)使用SGD優(yōu)化算法進(jìn)行參數(shù)優(yōu)化,初始學(xué)習(xí)率為0.01,輸入圖片分辨率為640×640。
實(shí)驗(yàn)數(shù)據(jù)集為Mundt等[19]在2019年公開的用于橋梁混凝土缺陷檢測的多目標(biāo)具體分類數(shù)據(jù)集CODEBRIM(COncrete DEfect BRidge IMage Dataset)。該數(shù)據(jù)集包含裂縫、脫落、腐蝕、露筋和風(fēng)化共5種橋梁病害,如圖8所示,有效缺陷圖像共1 052張。由于數(shù)據(jù)樣本較少,且未考慮實(shí)際檢測環(huán)境變化,因此使用數(shù)據(jù)增強(qiáng)技術(shù)對缺陷圖像樣本進(jìn)行擴(kuò)充,將原數(shù)據(jù)進(jìn)行裁剪、鏡像、亮度調(diào)節(jié)操作,得到有效缺陷圖像共3 807張。將數(shù)據(jù)集按9:1的比例隨機(jī)分為訓(xùn)練集、驗(yàn)證集。
3.2評價(jià)指標(biāo)
多標(biāo)簽圖片劃分任務(wù)中不止一種圖像標(biāo)簽,因此不能用普通單標(biāo)簽圖片劃分任務(wù)的精度標(biāo)準(zhǔn)來作為評判指標(biāo)。本研究中采用mAP(mean average precision)作為評價(jià)指標(biāo)。二元分類問題分類結(jié)果的混淆矩陣如表1所示,判斷結(jié)果依據(jù)其標(biāo)記類和預(yù)測類的組合可分為4類,分別為真正例、假正例、真負(fù)例和假負(fù)例,分別對應(yīng)表1的TP、FP、TN和FN。
精確度(precision,P)和召回率(recall,R)計(jì)算公式如下:
精確度表示該模型預(yù)測為正例的樣本中實(shí)際為正例的樣本所占的比例;召回率表示實(shí)際為正例的樣本中模型預(yù)測為正例的樣本所占的比例。每個(gè)類的精度值(AP)就是P-R曲線與坐標(biāo)軸圍成的面積。mAP是這些缺陷分類的P-R曲線下的面積取平均值,mAP可以作為一個(gè)相對較好的度量指標(biāo)。AP和mAP公式如下:
式中:M表示用于檢測的類別總數(shù);N表示測試的圖像數(shù)量。mAP包含了mAP@0.5和mAP@0.5:0.95,具體由設(shè)定的IoU閾值決定,其表達(dá)式如下:
由式(18)和式(19)可知,mAP@0.5即IoU閾值為0.5時(shí)的平均精度,揭示了精確度P和召回率R的變化趨勢。mAP@0.5:0.95是以0.05為步進(jìn),IoU閾值從0.50到0.95的平均精度的平均值,揭示了模型在不同IoU閾值下的綜合表現(xiàn),mAP@0.5:0.95越高代表模型的邊界回歸能力越強(qiáng),預(yù)測框與標(biāo)注框的擬合越精確。
3.3實(shí)驗(yàn)結(jié)果與分析
本研究中使用的數(shù)據(jù)集缺陷不易于分類,且某些缺陷(如裂縫)這樣的小目標(biāo)受輸入圖片分辨率的影響,在檢測時(shí),設(shè)置輸入圖片分辨率為640×640。為了驗(yàn)證提出的方法的有效性,考慮到實(shí)時(shí)性檢測的需求,將使用了YOLOv5s的原生模型檢測效果分別與改進(jìn)空間金字塔池化的YOLOv5s-RSPPF、加入ECA注意力模塊的YOLOv5s-ECA、使用SIoU進(jìn)行損失計(jì)算的YOLOv5s-SIoU和本文中提出的改進(jìn)骨干網(wǎng)絡(luò)和損失函數(shù)的YOLOv5s-BD通過測試數(shù)據(jù)集進(jìn)行對比,結(jié)果見表2,其中FPS為每秒檢測幀數(shù)(frames per second)。
改進(jìn)后的YOLOv5s-BD相較于YOLOv5s的原生模型對各種缺陷的檢測效果均有提升。其中,由于對預(yù)測框的損失函數(shù)做出改進(jìn),YOLOv5s-SIoU相較于原模型mAP@0.5提升了0.8%,mAP@0.5:0.95提升了0.6%;由于對原生模型的SPPF模塊做出改進(jìn),YOLOv5s-RSPPF相較于原模型mAP@0.5提升了1.1%,mAP@0.5:0.95提升了1.4%;由于在特征提取網(wǎng)絡(luò)尾部加入ECA注意力機(jī)制,YOLOv5s-ECA相較于原模型mAP@0.5提升了1.8%,mAP@0.5:0.95提升了1.8%。結(jié)合以上幾種方法,YOLOv5s-BD相較于原模型mAP@0.5提升了3.8%,mAP@0.5:0.95提升了6.1%。雖然總體網(wǎng)絡(luò)層數(shù)有所增加,但由于改進(jìn)的網(wǎng)絡(luò)采用了更加輕量化的計(jì)算方式,每秒檢測幀數(shù)FPS也略微提升,滿足實(shí)時(shí)檢測需求。
為了進(jìn)一步驗(yàn)證本研究中的模型在用于混凝土橋梁表觀缺陷檢測時(shí)的優(yōu)勢,在不改變數(shù)據(jù)集的情況下,使用本研究改進(jìn)網(wǎng)絡(luò)YOLOv5s-BD與Faster RCNN、SSD和YOLOv3進(jìn)行實(shí)驗(yàn)驗(yàn)證,結(jié)果見表3。
通過表3可以看出,由于YOLOv5s-BD擁有對交叉分布病害特征更有效的提取能力和更先進(jìn)的邊界框回歸指標(biāo),不論是以Faster RCNN為代表的雙階段檢測算法,還是SSD、YOLOv3這類單階段檢測算法,平均準(zhǔn)確率和FPS都比YOLOv5s-BD算法低,證明本研究中改進(jìn)的網(wǎng)絡(luò)模型在應(yīng)用于混凝土橋梁表觀病害檢測方面有更大的優(yōu)勢。
3.4缺陷檢測的效果
對測試集中的樣本進(jìn)行隨機(jī)抽檢,其檢測效果如圖9所示。
圖9(a)檢測到部分裂紋(crack),圖9(b)檢測到了更多的裂紋,且沒有誤檢;圖9(c)將脫落(spallation)誤檢為露筋(exposed bars)且漏檢了裂紋,圖9(d)準(zhǔn)確檢測到脫落和裂紋;圖9(e)檢測到露筋但沒有檢測到脫落;圖9(f)準(zhǔn)確識別到露筋和脫落。綜上所述,相比于YOLOv5s,YOLOv5s-BD模型平均精度mAP@0.5提升了3.8%,mAP@0.5:0.95提升了6.1%,檢測速度也略有提升,能夠有效地檢測到更多缺陷且擁有更低的誤檢率和漏檢率,因此更適用于混凝土橋梁表觀病害檢測。
4結(jié)束語
針對當(dāng)前目標(biāo)檢測算法在應(yīng)用于橋梁表觀病害檢測時(shí)精度低、誤檢率高、漏檢率高和檢測速率低的問題,提出一種用于橋梁表觀病害檢測的改進(jìn)YOLOv5s檢測網(wǎng)絡(luò);針對橋梁缺陷尺寸差異大、分類困難,以及數(shù)據(jù)集小的問題,為提高缺陷預(yù)測的精確度,引入新的預(yù)測框損失函數(shù)進(jìn)行訓(xùn)練。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的YOLOv5s模型在進(jìn)行橋梁表觀缺陷實(shí)時(shí)檢測時(shí),多種缺陷的檢測平均精度均有明顯提升,且滿足實(shí)時(shí)檢測需求,相比于原模型漏檢率和誤檢率更低。下一步工作為:1)針對直接破壞橋梁結(jié)構(gòu)的缺陷(如裂縫)進(jìn)行尺寸檢測工作;2)研究搭載YOLOv5改進(jìn)算法的無人機(jī)或者爬壁機(jī)器人在進(jìn)行橋梁病害檢測中的應(yīng)用,取代人工目視來達(dá)到病害精準(zhǔn)識別和保證工人安全的目的。
參考文獻(xiàn)
[1]Ellenberg A,Kontsos A,Bartoli I,et al.Masonry crack detection application of an unmanned aerial vehicle[C]//2014 International Conference on Computing in Civil and Building Engineering,June 23-25,2014,Orlando,F(xiàn)lorida,USA.Reston,VA,USA:American Society of Civil Engineers,2014:1788-1795.
[2]Nishikawa T,Yoshida J,Sugiyama T,et al.Concrete crack detection by multiple sequential image filtering[J].Computer-Aided Civil and Infrastructure Engineering,2012,27(1):29-47.
[3]周清松,董紹江,羅家元,等.改進(jìn)YOLOv3的橋梁表觀病害檢測識別[J].重慶大學(xué)學(xué)報(bào),2022,45(6):121-130.
Zhou Q S,Dong S J,Luo J Y,et al.Bridge apparent disease detection based on improved YOLOv3[J].Journal of Chongqing University,2022,45(6):121-130.(in Chinese)
[4]Girshick R,Donahue J,Darrell TjuEr81qsxM9H/hFKMSJDbg==,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),June 23-28,2014,Columbus,OH,USA.IEEE,2014:580-587.
[5]Girshick R.Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision(ICCV),December 7-13,2015,Santiago,Chile.IEEE,2015:1440-1448.
[6]Ren S,He K,Girshick R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[7]Cha Y J,Choi W,Suh G,et al.Autonomous structural visual inspection using region-based deep learning for detecting multiple damage types[J].Computer-Aided Civil and Infrastructure Engineering,2018,33(9):731-747.
[8]Liu W,Anguelov D,Erhan D,et al.SSD:single shot multibox detector[M]//Computer Vision-ECCV 2016.Cham:Springer International Publishing,2016:21-37.
[9]Redmon J,Divvala S,Girshick R,et al.You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),June 27-30,2016,Las Vegas,NV,USA.IEEE,2016:779-788.
[10]Redmon J,F(xiàn)arhadi A.YOLOv3:an incremental improvement[EB/OL].2018-04-08[2022-08-12].https://arxiv.org/abs/1804.02767.
[11]Bochkovskiy A,Wang C Y,Liao H Y M.YOLOv4:optimal speed and accuracy of object detection[EB/OL].2020-04-23[2022-08-12].https://arxiv.org/abs/2004.10934.
[12]彭雨諾,劉敏,萬智,等.基于改進(jìn)YOLO的雙網(wǎng)絡(luò)橋梁表觀病害快速檢測算法[J].自動(dòng)化學(xué)報(bào),2022,48(4):1018-1032.
Peng Y N,Liu M,Wan Z,et al.A dual deep network based on the improved YOLO for fast bridge surface defect detection[J].Journal of Automation,2022,48(4):1018-1032.(in Chinese)
[13]Jiang W,Liu M,Peng Y,et al.HDCB-Net:a neural network with the hybrid dilated convolution for pixel-level crack detection on concrete bridges[J].IEEE Transactions on Industrial Informatics,2020,17(8):5485-5494.
[14]Lin T Y,Maire M,Belongie S,et al.Microsoft COCO:common objects in context[C]//European Conference on Computer Vision(ECCV),September 06-12,2014,Zurich,Switzerland.ECCV,2014:740-755.
[15]Wang Q,Wu B,Zhu P,et al.ECA-Net:efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR),June 13-19,2020,Seattle,WA,USA.IEEE,2020:2575-7075.
[16]Gevorgyan Z.SIoU loss:more powerful learning for bounding box regression[EB/OL].2022-05-25[2022-08-12].https://arxiv.org/abs/2205.12740.
[17]Purkait P,Zhao C,Zach C.SPP-Net:deep absolute pose regression with synthetic views[EB/OL].2017-12-09[2022-08-12].https://arxiv.org/abs/1712.03452.
[18]Wang Q,Wu B,Zhu P,et al.ECA-Net:Efficient channel attention for deep convolutional neural networks[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.IEEE,2020:11534-11542.
[19]Mundt M,Majumder S,Murali S,et al.Meta-learning convolutional neural architectures for multi-target concrete defect classification with the COncrete DEfect BRidge IMage Dataset[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR),June 15-20,2019,Long Beach,CA,USA.IEEE,2019:11188-11197.
(編輯羅敏)