基金項(xiàng)目:
2021年度廣西高校中青年教師科研基礎(chǔ)能力提升項(xiàng)目“基于多傳感器融合技術(shù)的新型自動(dòng)駕駛控制系統(tǒng)的研究與開(kāi)發(fā)”(編號(hào):桂科2021KY1130);2021年度廣西科技重大專項(xiàng)“限定區(qū)域和特定場(chǎng)景智能網(wǎng)聯(lián)汽車技術(shù)開(kāi)發(fā)與示范應(yīng)用”(編號(hào):桂科AA22068101)
作者簡(jiǎn)介:
林土淦(1988—),工程師,研究方向:智能交通產(chǎn)品研發(fā)。
摘要:文章提出一種基于無(wú)人機(jī)與深度學(xué)習(xí)結(jié)合的橋梁表面裂縫分割方法。該方法采用無(wú)人機(jī)遍歷橋梁各區(qū)域采集圖像,通過(guò)網(wǎng)絡(luò)傳輸?shù)綐蛄毫芽p檢測(cè)系統(tǒng)進(jìn)行圖像分析;采用U-Net深度學(xué)習(xí)網(wǎng)絡(luò)對(duì)橋梁圖像進(jìn)行訓(xùn)練與特征提取,以提高系統(tǒng)準(zhǔn)確率;針對(duì)圖像存在光照不均勻、低對(duì)比度問(wèn)題,采用對(duì)比度受限自適應(yīng)直方圖均衡化對(duì)數(shù)據(jù)進(jìn)行處理以提高圖像的邊緣對(duì)比度,獲得更細(xì)膩的裂縫特征。通過(guò)驗(yàn)證實(shí)驗(yàn)表明,該方法相比于原始的U-Net和YOLOv8-seg網(wǎng)絡(luò),其mAP分別提高了1.63%、2.01%。
關(guān)鍵詞:橋梁裂縫檢測(cè);圖像分割;CLAHE;U-Net模型
中圖分類號(hào):U446.2文獻(xiàn)標(biāo)識(shí)碼:A 01 001 3
0 引言
橋梁設(shè)施的有效維護(hù)和損傷的預(yù)防依賴于對(duì)橋梁缺陷的及時(shí)檢測(cè),如裂縫、坑洞、車轍、沉降或其他表面損傷[1]。由于我國(guó)公路和橋梁的總里程數(shù)不斷增加,傳統(tǒng)的人工橋梁檢測(cè)方法往往需要借助橋梁檢查車及特殊設(shè)備(如梯子等)進(jìn)行觀測(cè),需要耗費(fèi)大量的人力、物力資源。在地震或極端天氣發(fā)生時(shí),對(duì)橋梁設(shè)施的緊急維護(hù)和檢查尤為重要,采用人工檢測(cè)存在巨大的安全隱患。因此,隨著技術(shù)的發(fā)展,業(yè)界開(kāi)始探索使用無(wú)人機(jī)進(jìn)行橋梁設(shè)施檢測(cè),以打造更為安全和高效的檢查系統(tǒng),再結(jié)合機(jī)器視覺(jué)技術(shù)有望實(shí)現(xiàn)橋梁設(shè)施的自動(dòng)檢測(cè)[2]。
通過(guò)對(duì)無(wú)人機(jī)捕獲的圖像進(jìn)行處理,能夠有效識(shí)別橋梁表面的損傷[3]。最初,研究人員使用閾值化、像素對(duì)比度、邊緣檢測(cè)等方法檢測(cè)圖像中是否存在裂縫,大致是通過(guò)手動(dòng)處理圖像特征,根據(jù)像素強(qiáng)度分布對(duì)圖像有無(wú)裂縫進(jìn)行分類。隨著人工智能技術(shù)的不斷發(fā)展,研究人員引入了機(jī)器學(xué)習(xí)方法來(lái)進(jìn)行啟發(fā)式橋梁裂縫檢測(cè),為處理各種類似的裂縫提供了一種自適應(yīng)解決方案。然而,由于模型簡(jiǎn)單與特征提取能力不足,預(yù)測(cè)精度會(huì)受到限制。另一方面,深度卷積神經(jīng)網(wǎng)絡(luò)具有多層級(jí)抽象和深度分解已識(shí)別特征的能力,在橋梁表面圖像處理領(lǐng)域得到廣泛應(yīng)用[4],并取得較好的裂縫分類精度。在此背景下,業(yè)界對(duì)橋梁表面檢測(cè)系統(tǒng)提出了更高的要求,在準(zhǔn)確分類的基礎(chǔ)上,探索能準(zhǔn)確識(shí)別橋梁裂縫的更多信息(如位置、大小、形狀等)。李澤榮等[5]提出一種可用于水下機(jī)器人的橋梁水下結(jié)構(gòu)缺陷自動(dòng)識(shí)別方法,通過(guò)圖像增強(qiáng)算法獲取高對(duì)比度圖像,使用改進(jìn)YOLOv7-tiny網(wǎng)絡(luò)模型進(jìn)行裂縫目標(biāo)檢測(cè),準(zhǔn)確率明顯提升。
雖然目標(biāo)檢測(cè)算法能夠識(shí)別裂縫及其位置,但是無(wú)法獲得像素層面的裂縫信息,難以進(jìn)一步定量評(píng)估裂縫對(duì)橋梁健康狀態(tài)的影響,還需要在候選框內(nèi)結(jié)合閾值或邊緣檢測(cè)算法提取裂縫像素。與傳統(tǒng)圖像分割算法相比,基于深度學(xué)習(xí)的圖像分割算法能直接從圖像中高效提取裂縫像素,其中全卷積神經(jīng)網(wǎng)絡(luò)、YOLO、U-Net、Mask R-CNN等在圖像分割任務(wù)上獲得顯著成效。譚國(guó)金等[6]基于改進(jìn)DeepLabv3+的圖像分割模型在大量實(shí)際橋梁裂縫圖像中達(dá)到了90%以上的像素準(zhǔn)確率。余加勇等[7]提出基于YOLOv5和U-Net算法構(gòu)建裂縫定位與分割一體化橋梁裂縫智能識(shí)別方法。然而,由于裂縫圖像分割數(shù)據(jù)集的標(biāo)注成本較高,標(biāo)注質(zhì)量難以保證,使得在裂縫圖像分割任務(wù)上模型難以訓(xùn)練且性能較差。因此,需根據(jù)特定任務(wù)與數(shù)據(jù)量選擇合適的模型。
本文提出了一種混合方法,通過(guò)無(wú)人機(jī)航行攝像來(lái)采集橋梁的表面圖像,將對(duì)比度受限自適應(yīng)直方圖均衡化(Contrast Limited Adaptive Histogram Equalization,CLAHE)技術(shù)與U-Net網(wǎng)絡(luò)相結(jié)合,實(shí)現(xiàn)高效、高精度的橋梁裂縫圖像分割任務(wù)。首先,對(duì)圖像進(jìn)行灰度化處理并進(jìn)行CLAHE處理,然后將增強(qiáng)處理后的圖像用于訓(xùn)練U-Net模型,實(shí)現(xiàn)裂縫圖像的特征提取與分割。最后,在不同數(shù)據(jù)集以及無(wú)人機(jī)捕獲的圖像上進(jìn)行的實(shí)驗(yàn)表明,與基于U-Net模型、YOLOv8-seg模型的裂縫檢測(cè)方法相比,所提出的具有CLAHE對(duì)比度增強(qiáng)的U-Net更有優(yōu)勢(shì)。該方法將無(wú)人機(jī)與深度學(xué)習(xí)圖像處理技術(shù)相結(jié)合,提高了裂縫檢測(cè)的效率和準(zhǔn)確性,同時(shí)降低了檢測(cè)成本并保障了檢查員的安全。
1 系統(tǒng)設(shè)計(jì)
在橋梁的日常維護(hù)和檢修工作中,系統(tǒng)不僅需要滿足一定頻率的巡檢任務(wù),而且需要實(shí)現(xiàn)自動(dòng)圖像采集與處理。研究人員嘗試在移動(dòng)設(shè)備上(如手機(jī)、無(wú)人機(jī)等)進(jìn)行部署,但是移動(dòng)設(shè)備的算力有限,部署的模型推理速度慢,難以完成大量而全面的檢測(cè)工作。因此,本系統(tǒng)采用模塊化設(shè)計(jì),由圖像采集模塊、數(shù)據(jù)傳輸模塊、數(shù)據(jù)處理終端三部分組成,如圖1所示。這樣可以根據(jù)不同的場(chǎng)景使用不同的方案,且在系統(tǒng)更新通過(guò)模塊復(fù)用降低成本。
數(shù)據(jù)采集終端由攝像頭、電池、云臺(tái)、安裝架組成。數(shù)據(jù)傳輸采用無(wú)線通信模塊,將采集的圖像數(shù)據(jù)即時(shí)回傳數(shù)據(jù)處理端。數(shù)據(jù)處理終端由PC或移動(dòng)電腦組成,用于部署模型,同時(shí)完成推理前的數(shù)據(jù)預(yù)處理工作。見(jiàn)圖2。
2 算法模型原理
2.1 U-Net模型
U-Net是用于圖像分割的卷積神經(jīng)網(wǎng)絡(luò),由Ronneberger等人[8]提出。其采用全卷積結(jié)構(gòu),包括下采樣和上采樣兩部分,并通過(guò)跳躍連接捕獲空間信息。U-Net在醫(yī)學(xué)影像、衛(wèi)星圖像、工業(yè)瑕疵檢測(cè)等任務(wù)中廣泛應(yīng)用并取得了顯著的效果。
U-Net采用編碼器-解碼器的結(jié)構(gòu),編碼器部分通過(guò)卷積和池化操作提取圖像中的特征,而解碼器部分則逐漸恢復(fù)圖像的空間信息,使得U-Net網(wǎng)絡(luò)能夠同時(shí)捕捉圖像的局部細(xì)節(jié)和全局上下文信息,對(duì)于裂縫檢測(cè)這類需要精細(xì)分割的任務(wù)非常有效。本研究中設(shè)計(jì)的U-Net模型由1個(gè)雙層卷積塊、4個(gè)上采樣層、4個(gè)下采樣層與1個(gè)輸出卷積層組成。其中,雙層卷積塊包括1個(gè)3×3卷積層、1個(gè)批標(biāo)準(zhǔn)化層、1個(gè)64×64卷積層以及1個(gè)以ReLU為激活函數(shù)的激活層,按順序堆疊兩次。上采樣層由2×2的逆卷積層與雙層卷積塊構(gòu)成,該雙層卷積塊由3×3卷積層、1個(gè)批標(biāo)準(zhǔn)化層和ReLU激活層組成。再將上采樣層按順序堆疊4次(各層具有不同的卷積核大?。┙M成上采樣部分,各層通道由1 024減小至64。下采樣層與上采樣層的結(jié)構(gòu)類似,同樣由逆卷積層與雙層卷積塊構(gòu)成,并按順序堆疊4次,組成下采樣部分,各層通道則由64增大到1 024。最終輸出層通過(guò)雙層卷積塊輸出。
2.2 直方圖均衡
直方圖均衡(Histogram Equalization,HE)作為一種經(jīng)過(guò)廣泛驗(yàn)證的技術(shù),旨在顯著增強(qiáng)圖像的對(duì)比度。該技術(shù)通過(guò)重新分配圖像中所有像素的強(qiáng)度值,有效地?cái)U(kuò)展了可用的動(dòng)態(tài)范圍,從而提升了圖像的視覺(jué)表現(xiàn)。直方圖均衡化的變換函數(shù)可具體表述為:
Gi,j=L-1MN∑ik=0 ∑ji=0pfk,l
(1)
式中:G(i,j)——增強(qiáng)后圖像的像素值;
L——強(qiáng)度等級(jí)的數(shù)量;
M和N——圖像的維度;
p(f(k,l))——像素強(qiáng)度的累積分布函數(shù)。
盡管直方圖均衡化在改善對(duì)比度方面效果顯著,但也可能導(dǎo)致過(guò)度增強(qiáng),特別是在強(qiáng)度均勻的區(qū)域,這可能會(huì)增加對(duì)噪聲的敏感性。
CLAHE是一種HE的改進(jìn)方法,旨在解決局部圖像區(qū)域中噪聲過(guò)度放大的問(wèn)題。其將圖像劃分為若干個(gè)小塊,并對(duì)每個(gè)小塊分別應(yīng)用直方圖均衡化,從而限制對(duì)比度的放大。這種限制是通過(guò)在指定的閾值處裁剪直方圖來(lái)實(shí)現(xiàn)的。CLAHE可以表示為:
Gi,j=L-1MN∑ik=0 ∑ji=0pfk,l,C
(2)
式中:C——用于直方圖裁剪的閾值。
CLAHE能夠有效地保留局部細(xì)節(jié)并自適應(yīng)地增強(qiáng)對(duì)比度,使其適合用于采集到的橋梁圖像分析,對(duì)精確定位混凝土裂縫至關(guān)重要。
3 實(shí)驗(yàn)分析與討論
本節(jié)主要關(guān)注基于U-Net的裂縫檢測(cè)模型的構(gòu)建過(guò)程,主要內(nèi)容包括以下四個(gè)部分:數(shù)據(jù)集準(zhǔn)備、數(shù)據(jù)邊緣增強(qiáng)、網(wǎng)絡(luò)結(jié)構(gòu)改變以及實(shí)驗(yàn)結(jié)果分析。
3.1 數(shù)據(jù)集制作
研究采用公開(kāi)數(shù)據(jù)集與自采集數(shù)據(jù)集混合用于模型訓(xùn)練。其中公開(kāi)數(shù)據(jù)集從SDNET 2018[x]的混凝土橋面部分與Crack Segmentation混凝土裂縫數(shù)據(jù)中隨機(jī)抽取混合獲得。其中SDNET 2018數(shù)據(jù)集僅提供了是否存在裂縫的標(biāo)簽,無(wú)用于裂縫分割的像素標(biāo)注標(biāo)簽。在訓(xùn)練開(kāi)始前需要將圖像通過(guò)標(biāo)注工具Labelme進(jìn)行標(biāo)注。
橋梁裂縫圖像采集由于光照不均、陰影干擾以及裂縫本身的細(xì)微特征等原因,往往呈現(xiàn)出對(duì)比度低、細(xì)節(jié)模糊等問(wèn)題。CLAHE方法通過(guò)局部直方圖均衡化和對(duì)比度限制,有效地增強(qiáng)了圖像的局部對(duì)比度,同時(shí)避免了過(guò)度增強(qiáng)導(dǎo)致的噪聲放大。在橋梁裂縫圖像處理中,CLAHE能夠針對(duì)裂縫區(qū)域的局部特征,自適應(yīng)地調(diào)整像素值的分布,如圖3所示,可以看到裂縫細(xì)節(jié)更加突出。
3.2 實(shí)驗(yàn)環(huán)境
本實(shí)驗(yàn)硬件平臺(tái)CPU是AMD Ryzen R7 7700,使用NVIDIA GeForce RTX4060Ti(顯存16 GB)、32 GB的運(yùn)行內(nèi)存;使用PyTorch深度學(xué)習(xí)框架構(gòu)建網(wǎng)絡(luò)模型,版本為2.1.0,CUDA版本為12.1;使用OpenCv對(duì)圖像進(jìn)行直方圖均衡。其他軟件環(huán)境為Windows 10系統(tǒng),Python版本為3.9.18。
3.3 評(píng)價(jià)指標(biāo)
實(shí)驗(yàn)采用像素準(zhǔn)確率(Pixel Accuracy,PA)、交并比(Intersection-Over-Union,IOU)、平均精度均值(mean Average Precision,mAP)來(lái)評(píng)價(jià)圖像分割的性能。PA、IOU、mAP的計(jì)算公式如下:
PA=∑ni=0 pii∑ni=0 ∑nj=0 pij=TP+TNTP+TN+FP+FN
(3)
IOU=A∩BA∪B=TPTP+FP+FN
(4)
mAP=10P(R)dR
(5)
式中:TP——模型正確預(yù)測(cè)為正例的像素?cái)?shù)量;
FP——模型錯(cuò)誤預(yù)測(cè)為正例的像素?cái)?shù)量;
TN——模型正確預(yù)測(cè)為負(fù)例的像素?cái)?shù)量;
FN——模型錯(cuò)誤預(yù)測(cè)為負(fù)例的像素?cái)?shù)量。
3.4 實(shí)驗(yàn)結(jié)果分析與對(duì)比
為了驗(yàn)證所設(shè)計(jì)的U-Net網(wǎng)絡(luò)與CLAHE圖像邊緣增強(qiáng)方法的有效性,采用對(duì)比實(shí)驗(yàn)進(jìn)行驗(yàn)證。實(shí)驗(yàn)分為3組,環(huán)境及參數(shù)設(shè)置均保持統(tǒng)一。模型的訓(xùn)練完成后的預(yù)測(cè)對(duì)比結(jié)果如表1所示。
第1組為采用原始圖片作為輸入的U-Net模型的實(shí)驗(yàn),mAP值為79.6%。
第2組為采用原始圖片作為輸入的YOLOv8-seg模型的實(shí)驗(yàn),mAP值為79.3%。
第3組為增加CLAHE圖像邊緣增強(qiáng)的圖像作為輸入的U-Net模型實(shí)驗(yàn),檢測(cè)mAP值為80.9%,相較第1、第2組模型性能分別提升了1.63%、2.01%。
訓(xùn)練過(guò)程中,隨著訓(xùn)練批次的增加,兩次實(shí)驗(yàn)的損失逐漸下降。經(jīng)過(guò)50個(gè)批次訓(xùn)練后,U-Net與CLAHE+U-Net模型最終的損失在0.16附近,且CLAHE+U-Net模型的損失更低,為0.165 4。
實(shí)驗(yàn)結(jié)果顯示,U-Net模型在橋梁裂縫分割上的可用性,且其相較YOLOv8-seg模型效果略好,其原因可能是YOLOv8-seg網(wǎng)絡(luò)框架復(fù)雜,參數(shù)量大,在有限的數(shù)據(jù)集下無(wú)法充分發(fā)揮其優(yōu)勢(shì)。另外,經(jīng)CLAHE處理后的U-Net模型相較原模型,其精確度提升了1.63%,證明了橋梁裂縫圖像經(jīng)過(guò)邊緣增強(qiáng)后,模型效果得到提升。圖4展示了具有代表性的部分測(cè)試圖片在模型U-Net、YOLOv8-seg和采用CLAHE增強(qiáng)的U-Net圖像分割效果。由圖4可以看出,在細(xì)小的規(guī)整裂縫下,YOLOv8-seg的分割效果更好,但不規(guī)整、復(fù)雜裂縫情況下效果較差。另外,在細(xì)小裂縫上,經(jīng)過(guò)CLAHE處理后獲得的圖像分割結(jié)果相較原始U-Net更準(zhǔn)確;在明顯裂縫圖像上,兩個(gè)模型分割效果相近,但CLAHE處理的圖像效果略好;在多裂縫圖像上,CLAHE+U-Net的效果明顯好于未采用CLAHE增強(qiáng)的U-Net模型。
4 結(jié)語(yǔ)
本研究針對(duì)傳統(tǒng)橋梁裂縫人工檢測(cè)方法存在的問(wèn)題,將無(wú)人機(jī)與深度學(xué)習(xí)圖像處理技術(shù)相結(jié)合,提出了一種基于CLAHE與U-Net的橋梁裂縫檢測(cè)方法。通過(guò)采用對(duì)比度受限自適應(yīng)直方圖均衡化(CLAHE)進(jìn)行數(shù)據(jù)預(yù)處理,克服圖像質(zhì)量低、邊緣不明顯等問(wèn)題。在對(duì)公開(kāi)數(shù)據(jù)集和自采集數(shù)據(jù)集的模型進(jìn)行訓(xùn)練后,驗(yàn)證了所提方法的有效性。試驗(yàn)結(jié)果表明,所提方法在準(zhǔn)確性和平均精度(mAP)方面均優(yōu)于原始模型,分別提高了1.06%和1.63%,
表明基于CLAHE與U-Net模型的橋梁裂縫檢測(cè)方法在提升橋梁裂縫分割性能方面效果顯著,有望在實(shí)際應(yīng)用中發(fā)揮重要作用,提高橋梁裂縫檢測(cè)的效率和準(zhǔn)確性,為土木工程領(lǐng)域的結(jié)構(gòu)安全和質(zhì)量管理提供有力支持。
參考文獻(xiàn)
[1]杜彥良,孫寶臣,吳智深,等. 關(guān)于建立健全交通基礎(chǔ)設(shè)施長(zhǎng)壽命安全保障體系的戰(zhàn)略思考[J]. 中國(guó)工程科學(xué),2017,19(6):1-5.
[2]劉 睿. 基于無(wú)人機(jī)的橋梁病害檢測(cè)系統(tǒng)研究[J]. 北方交通,2024(1):17-20.
[3]鐘新谷,彭 雄,沈明燕. 基于無(wú)人飛機(jī)成像的橋梁裂縫寬度識(shí)別可行性研究[J]. 土木工程學(xué)報(bào),2019,52(4):52-61.
[4]楊杰文,章 光,陳西江,等. 基于深度學(xué)習(xí)的較復(fù)雜背景下橋梁裂縫檢測(cè)[J]. 鐵道科學(xué)與工程學(xué)報(bào),2020,17(11):2 722-2 728.
[5]李澤榮,劉愛(ài)榮,陳炳聰,等. 基于融合圖像增強(qiáng)與改進(jìn)YOLOv7算法的橋梁水下結(jié)構(gòu)缺陷識(shí)別[J]. 工程力學(xué),2024,41(S1):245-252.
[6]譚國(guó)金,歐 吉,艾永明,等. 基于改進(jìn)DeepLabv3+模型的橋梁裂縫圖像分割方法[J]. 吉林大學(xué)學(xué)報(bào)(工學(xué)版),2024,54(1):173-179.
[7]余加勇,劉寶麟,尹 東,等. 基于YOLOv5和U-Net3+的橋梁裂縫智能識(shí)別與測(cè)量[J]. 湖南大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,50(5):65-73.
[8]Ronneberger O,F(xiàn)ischer P,Brox T. U-Net:Convolutional Networks for Biomedical Image Segmentation[C].International Conference on Medical Image Computing and Computer-Assisted Intervention,2015.