亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)FasterR-CNN的機(jī)場跑道道面裂縫檢測方法

        2025-05-27 00:00:00張璐高培偉張芊伊李國慶
        粘接 2025年5期
        關(guān)鍵詞:精確度特征檢測

        中圖分類號:TP391.92;U418.6 文獻(xiàn)標(biāo)志碼:A文章編號:1001-5922(2025)05-0159-04

        Abstract:Civil aviation plays a vital rolein China's transportationsystem.With theextension of theservice life of airports,the problem of pavement damage is becoming more and more serious,which poses a major threat to the safetyof aircraft taxing,take-offand landing.Inorder to reduce theriskofaircraft inthe processof take-off and landing,an improved detection method based on Faster R-CNN was proposed.The detection method comprehensivelyused deep learningand objectdetection technologiessuch as GC-ASFF module,CIoU index,improved loss functionand transfer learning to achieve accurate detectionof pavement cracks,so as to evaluate thecurent pavement safety status by using the identified characteristic parameters of pavement cracks.The experimental results showedthat the improved model had high recognition accuracyand excelent comprehensive performance,and can accurately identify and detect runway pavement damage,which has high reliability.

        Key Words:crack detection;faster R-CNN;ASFF ;merging ratio;loss function

        機(jī)場跑道是飛機(jī)起降的主要區(qū)域,在荷載和環(huán)境因素的相互作用下,機(jī)場道面很容易出現(xiàn)各種病害,裂縫病害則是大多數(shù)問題的早期表現(xiàn)之一,若不及時進(jìn)行處理,則會造成巨大的安全隱患[1]。早期檢測方法主要有閾值法[2]、邊緣檢測法[3]和機(jī)器學(xué)習(xí)[4]等,但這些方式易受外部因素干擾,導(dǎo)致裂縫檢測效果不佳。隨著深度學(xué)習(xí)和計算機(jī)技術(shù)的共同進(jìn)步,目標(biāo)檢測已成為計算機(jī)視覺領(lǐng)域的研究熱點并得到了廣泛應(yīng)用[5]。目標(biāo)檢測算法通常分為單階段和二階段2種不同類型,其中,二階段檢測算法具有較高的識別精度和較低的漏檢率,但速度相對較慢,包括R-CNN[6]、FastR-CNN[7]、Faster

        R-CNN[8]、MaskR-CNN[9]等。針對裂縫識別問題,部分學(xué)者也進(jìn)行了很多研究,如提出了一種基于深度特征聚合網(wǎng)絡(luò)和空間通道擠壓激勵(scSE)注意機(jī)制模塊的裂紋檢測算法[10];提出了CNN與形態(tài)學(xué)的集成方法對道路檢測車采集的圖片進(jìn)行病害的有效搜索、定位,并準(zhǔn)確提取裂縫形態(tài)[11];提出了一種融合注意力機(jī)制的機(jī)場道面損傷自動檢測算法[12];提出了基于改進(jìn)FasterR-CNN的裂縫檢測方法,能有效檢測出復(fù)雜背景下的細(xì)微裂縫 。雖然國內(nèi)外關(guān)于路面裂縫檢測的研究很多,但檢測精度還不能達(dá)到理想的效果。因此,基于FasterR-CNN深度學(xué)習(xí)算法,提出了一種智能檢測混凝土裂縫的方法,通過計算機(jī)視覺與目標(biāo)檢測技術(shù)來識別混凝土道面損傷情況,以便及時采取措施進(jìn)行風(fēng)險規(guī)避。

        1機(jī)場混凝土道面裂縫檢測方法設(shè)計

        FasterR-CNN算法包含4個模塊:特征提取網(wǎng)絡(luò),區(qū)域生成網(wǎng)絡(luò)(RPN)ROIPooling層和分類回歸層,基本結(jié)構(gòu)如圖1所示。

        圖1 FasterR-CNN網(wǎng)絡(luò)Fig.1 FasterR-CNNnetwork

        FasterR-CNN的檢測流程包括以下幾個關(guān)鍵步驟:(1)將訓(xùn)練圖像調(diào)整到統(tǒng)一尺寸后輸入網(wǎng)絡(luò),并通過特征提取層獲得特征圖;(2)利用RPN網(wǎng)絡(luò),在特征圖上根據(jù)預(yù)設(shè)的交并比(IoU)閾值生成錨框;(3)將RPN生成的錨框與特征提取層生成的特征圖送入ROI池化層,得到固定尺寸(如7×7)的錨框映射特征圖;(4)將這些特征圖輸入分類回歸層,對錨框進(jìn)行回歸預(yù)測,調(diào)整其位置,同時進(jìn)行目標(biāo)分類和檢測,生成最終分類結(jié)果。

        1.1 vgg16網(wǎng)絡(luò)模型改進(jìn)

        1.1.1 ASFF

        ASFF[14],即自適應(yīng)空間特征融合,是一種針對單次檢測器中特征金字塔的不一致性而提出的創(chuàng)新策略,其核心思想在于通過學(xué)習(xí)適應(yīng)性空間過濾特征的能力,從而在不同層次的特征中動態(tài)地融合信息,以優(yōu)化目標(biāo)檢測性能。相較于其他方法,如元素乘積和 sigmoid 門控單元,ASFF更加靈活地學(xué)習(xí)每個位置的不同特征層次的重要性權(quán)重,從而避免了空間矛盾的產(chǎn)生。這種自適應(yīng)性的特征融合機(jī)制使得ASFF在處理目標(biāo)檢測任務(wù)中能夠更好地捕獲目標(biāo)的多尺度特征,提升了檢測的精準(zhǔn)度和魯棒性。

        1.1.2 GC 注意力機(jī)制

        GCNet[15],即全局上下文網(wǎng)絡(luò),是基于非局部網(wǎng)絡(luò)(NLNet)和壓縮-激勵網(wǎng)絡(luò)(SENet)的一種新穎體系結(jié)構(gòu),旨在以更低的計算量提高全局上下文建模的效率和準(zhǔn)確性,其通過引入GC塊實現(xiàn),如圖2所示。其核心在于通過加法融合機(jī)制有效地捕獲遠(yuǎn)程依賴關(guān)系,為視覺場景的全局理解提供支持。

        圖2 GC塊Fig.2 GCblock

        將全局上下文信息與ASFF模塊結(jié)合,形成基于GC注意力機(jī)制的空間自適應(yīng)網(wǎng)絡(luò)(GC-ASFF),以確保每一層級的特征圖中都包含了全局上下文信息。這樣做不僅使ASFF在加權(quán)融合時考慮到了空間位置的自適應(yīng)性,還同時考慮了全局上下文的協(xié)同關(guān)系,使得多尺度特征的融合更加自然流暢,信息表達(dá)更加充實全面。

        1.2 交并比

        在原有的FasterR-CNN算法中,通過IoU(IntersectionoverUnion)來衡量2個邊界框之間的重疊程度,并用于篩選正負(fù)樣本,具體公式如式(1)所示。如果重疊程度高于閾值,則將預(yù)測的邊界框視為正樣本(即與真實標(biāo)簽匹配),否則為負(fù)樣本。

        式中:A為真實框; B 為預(yù)測框; A∩ B 為預(yù)測框和真實框的重疊區(qū)域: .A∪ B 為預(yù)測框和真實框的并集。

        在處理復(fù)雜邊界框回歸時,IoU存在一定的限制。為應(yīng)對這一挑戰(zhàn),研究引人了CIoU(CompleteIoU)指標(biāo),該指標(biāo)在考慮了邊界框重疊度的基礎(chǔ)上,進(jìn)一步綜合了距離損失和長寬比損失,從而顯著提高了邊界框回歸的準(zhǔn)確性和穩(wěn)定性,具體的計算公式如式所示。這一改進(jìn)使得模型在面對形狀復(fù)雜的裂縫時仍能穩(wěn)定生成高精度的定位結(jié)果。

        1.3 損失函數(shù)改進(jìn)

        在混凝土裂縫檢測任務(wù)中,邊界框回歸損失函數(shù)的選擇對于模型的性能至關(guān)重要,為改進(jìn)模型性能,對損失函數(shù)進(jìn)行優(yōu)化,具體如下:Huber損失函數(shù)通過一個稱為δ的閾值參數(shù)來平衡平方差和絕對差損失,具體公式如式所示。當(dāng)誤差小于8時,Huber 損失等效于平方差損失;當(dāng)誤差大于 δ 時,Huber損失等效于絕對差損失。

        Smooth L1 損失函數(shù)可視為Huber損失函數(shù)在 δ 等于1時的特殊情況,具體公式如式所示。

        對損失函數(shù)進(jìn)行改進(jìn),則改進(jìn)后的計算公式

        如下:

        式中: λ 的取值范圍是 0~1 。

        2 試驗方法

        2.1 試驗環(huán)境

        模型代碼基于Python語言實現(xiàn),使用VSCODE軟件進(jìn)行代碼編譯操作,使用Pytorch網(wǎng)絡(luò)框架實現(xiàn)算法模型的運行。為了確保試驗的順利進(jìn)行,在進(jìn)行試驗之前需要對試驗環(huán)境和設(shè)備進(jìn)行調(diào)試,具體的試驗環(huán)境及配置信息如表1所示:

        表1試驗平臺設(shè)置

        Tab.1Test platform setup

        模型訓(xùn)練使用的優(yōu)化器為基于梯度下降算法的adam優(yōu)化器,batchsize設(shè)置為4,epochs設(shè)置為100,初始學(xué)習(xí)率設(shè)置為0.0001,學(xué)習(xí)率基于訓(xùn)練總epochs,每個step更新一次。

        2.2 數(shù)據(jù)獲取與處理

        試驗采用數(shù)碼相機(jī)拍攝安徽潁上縣某鄉(xiāng)村道路混凝土裂縫圖像4028張。對實拍數(shù)據(jù)集進(jìn)行一定的預(yù)處理操作,使深度學(xué)習(xí)模型獲得更好的學(xué)習(xí)表現(xiàn)。對數(shù)據(jù)集進(jìn)行預(yù)處理操作,在處理后的圖片中選出10000張較好的圖片構(gòu)建數(shù)據(jù)集,其中,訓(xùn)練集中包含圖片8100張,驗證集中包含圖片900張,測試集中包含圖片1000張。采用數(shù)據(jù)集標(biāo)注工具labelimg進(jìn)行處理生成XML標(biāo)注文件,將每個裂縫定義為“crack”,每張圖片及其標(biāo)注文件具有一一對應(yīng)關(guān)系。

        2.3 評價指標(biāo)

        2.3.1 精確度和召回率

        混淆矩陣是一個誤差矩陣,常用來可視化地評估監(jiān)督學(xué)習(xí)算法的性能,展示了模型在測試集上的預(yù)測結(jié)果與實際標(biāo)簽之間的對應(yīng)關(guān)系。在混淆矩陣中,行表示實際類別,列表示預(yù)測類別?;煜仃嚢?個元素:TP(TruePositive)FP(FalsePositive)、TN(TrueNegative)和FN(FalseNegative),這些元素分別表示模型正確預(yù)測的正例數(shù)量、將負(fù)例錯判為正例的數(shù)量、模型正確預(yù)測的負(fù)例數(shù)量和將正例錯判為負(fù)例的數(shù)量,其定義如表2所示。

        表2混淆矩陣

        Tab.2 Confusion matrix

        基于混淆矩陣,可對精確度和召回率進(jìn)行定義。精確度指模型正確判定出的正例占所有判定為正例樣本的比重,具體公式如式(8)所示。

        召回率是指模型正確判定出的正例占數(shù)據(jù)集中所有正例的比重,具體公式如式(9)所示。

        2.3.2 mAP

        在不同的置信度閾值下,模型對某一類別的預(yù)測有多組精確度和召回率,AP(AveragePrecison)即P-R曲線所圍面積,mAP(meanAveragePrecison)為所有類別AP的均值。由于僅進(jìn)行裂縫檢測的任務(wù),故 AP=mAP ,具體公式如下所示。

        2.3.3 得分

        得分是一項綜合考量精確度和召回率的度量標(biāo)準(zhǔn),用于評估分類模型的表現(xiàn),其值介于0和1之間,數(shù)值越高表示模型在精確度和召回率上的表現(xiàn)越好,具體公式如式(12)所示。

        3 結(jié)果與分析

        3.1主干特征提取網(wǎng)絡(luò)改進(jìn)結(jié)果與分析

        研究采用vggl6模型作為FasterR-CNN的主干特征提取網(wǎng)絡(luò),在設(shè)備環(huán)境不變,試驗環(huán)境參數(shù)不變的條件下,對模型改進(jìn)前后的各項性能指標(biāo)進(jìn)行對比與客觀分析。在vggl6模型的基礎(chǔ)上,考慮加入ASFF模塊和加入GC-ASFF模塊2種情況進(jìn)行對比試驗,在合成數(shù)據(jù)集下訓(xùn)練模型并開展測試,具體結(jié)果如表3所示。

        表3對比試驗結(jié)果Tab.3 Comparative test results

        由表3可知,相較于單獨添加ASFF的方案,添加GC-ASFF在 得分、mAP和精確度方面表現(xiàn)更優(yōu)。ASFF通過動態(tài)調(diào)整多尺度特征的融合權(quán)重,可以在一定程度上提升模型對不同尺寸裂縫的適應(yīng)能力。盡管單獨引人ASFF的方案在召回率上表現(xiàn)較好,但是較低的精度和 得分表明其在裂縫識別的準(zhǔn)確性上有所欠缺。這是因為ASFF注重特征的空間分布和尺寸變化,但在處理全局信息和上下文關(guān)系時存在局限性,導(dǎo)致模型在某些背景復(fù)雜的區(qū)域產(chǎn)生誤判。

        GC-ASFF則通過聚焦圖像的關(guān)鍵區(qū)域和結(jié)合全局上下文信息,能夠更有效地捕捉和利用圖像中的全局依賴關(guān)系,GC注意力機(jī)制增強(qiáng)了模型對場景的整體把握,優(yōu)化了特征的利用效率,使得模型在整體結(jié)構(gòu)上得到了提升。這種全局與局部的優(yōu)化協(xié)同作用,顯著提高了模型的精確率,同時也間接提升了mAP和 得分。

        3.2FasterR-CNN改進(jìn)結(jié)果與分析

        設(shè)備環(huán)境不變,試驗環(huán)境參數(shù)不變的條件下,對模型改進(jìn)前后的各項性能指標(biāo)進(jìn)行對比與客觀分析。為驗證GC-ASFF網(wǎng)絡(luò)結(jié)構(gòu)、CIoU指標(biāo)和改進(jìn)損失函數(shù)對FasterR-CNN網(wǎng)絡(luò)的實際效果,以FasterR-CNN為基準(zhǔn)模型進(jìn)行消融試驗,在合成數(shù)據(jù)集下進(jìn)行模型訓(xùn)練和測試。評估引入不同模塊對裂縫檢測任務(wù)的影響,具體結(jié)果如表4所示。

        表4消融試驗結(jié)果Tab.4Ablationtestresults

        由表4可知,通過引入GC-ASFF模塊、替換IoU為CIoU及調(diào)整損失函數(shù)對FasterR-CNN進(jìn)行改進(jìn),F(xiàn)1得分和精確度達(dá)到了最高,盡管召回率有所下降,但整體上,模型在綜合性能方面取得了最佳表現(xiàn)。

        為實現(xiàn)更全面的性能提升,對改進(jìn)后的FasterR-CNN進(jìn)行遷移學(xué)習(xí),結(jié)果如表5所示。

        表5遷移學(xué)習(xí)結(jié)果對比Tab.5Comparison of transfer learning results

        分析表5中數(shù)據(jù)可得,改進(jìn)后的FasterR-CNN與遷移學(xué)習(xí)結(jié)合使用,整體性能有顯著提升,尤其在F1得分和精確度上表現(xiàn)最為突出,同時mAP指標(biāo)也保持在較高水平,盡管召回率稍有下降,但仍在較高范圍內(nèi)。

        4結(jié)語

        針對已有目標(biāo)檢測算法在裂縫檢測中存在的識別率低的問題,研究提出了一種改進(jìn)的混凝土裂縫識別方法。試驗結(jié)果表明,改進(jìn)后的模型即使在背景信息復(fù)雜的圖像中也未出現(xiàn)漏檢、錯檢和重復(fù)檢測等問題,相較于基準(zhǔn)模型在F得分、精確度和mAP值分別提升了12.00%22.22%和0.46%,滿足了精準(zhǔn)完整的檢測要求。對于飛機(jī)跑道道面損傷能夠進(jìn)行精準(zhǔn)識別和檢測,充分符合機(jī)場道面裂縫識別檢測的實際應(yīng)用需要,能夠滿足其在實際場景的應(yīng)用,并能夠在復(fù)雜的條件下識別和降低飛行起降過程的風(fēng)險,提升整體的運行安全水準(zhǔn)。

        【參考文獻(xiàn)】

        [1] 牟守國,解團(tuán)結(jié).公路橋梁裂縫修復(fù)用改性新材料性 能測試及效果研究[J].粘接,2024,51(1):110-113

        [2] 李海豐,吳治龍,聶晶晶,等.基于深度圖像的機(jī)場道 面裂縫自動檢測算法[J].交通運輸工程學(xué)報,2020, 20(6) :250-260.

        [3] 邢曉敏,董行,林永清,等.結(jié)合角點的邊緣檢測法實 現(xiàn)輸電線路桿塔標(biāo)牌圖像定位[J].吉林電力,2020, 48(3) :32-36.

        [4] KOSAKA N,OHASHI G.Vision-based nighttime vehicle detection using censure and SVM[J].IEEE Trans.Intelligent transportation systems,2015,16(5):2599-2608.

        [5] 房振華,譚治海,朱哲,等.基于Faster-RCNN的探地雷 達(dá)公路病害圖像檢測[J].施工技術(shù)(中英文),2023, 52(24) :76-82.

        [6] GIRSHICKR,DONAHUEJ,DARRELL T,et al.Rich featurehierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. Columbus,OH, USA : Institute of Electrical and Electronics Engineers,2014.

        [7] GIRSHICK R.FAST R-CNN[C]//Proceedings of the IEEE international conference on computer vision.Santiago,Chile: Institute of Electrical and Electronics Engineers,2015.

        [8] RENS,HEK,GIRSHICKR,et al.Fasterr-cnn:Towards real-time object detection with region proposal networks [J]. Advances in neural information processing systems, 2015,28(2) :1021-1030.

        [9] HE K,GKIOXARI G,DOLLAR P,et al. Mask r-cnn[C]// Proceedings of the IEEE international conference on computervision.Venice,Italy:Institute ofElectrical and Electronics Engineers,2017.

        [10] QIAOW,LIUQ,WUX,etal.Automaticpixel-levelpavement crack recognition using a deep feature aggregation segmentation network with a scSE attention mechanism module[J].Sensors,2021,21(9) :2902-2926.

        [11] 晏班夫,徐觀亞,欒健,等.基于FasterR-CNN與形態(tài)法的 路面病害識別[J].中國公路學(xué)報,2021,34(9):181-193.

        [12] ZHANG H,DONG J,GAO Z.Automatic segmentation of airportpavement damagebyAM-Mask R-CNNalgorithm [J].EngineeringReports,2023,5(8):1-17.

        [13] 徐康,馬榮貴.基于改進(jìn)Faster-RCNN的瀝青路面裂 縫檢測[J].計算機(jī)系統(tǒng)應(yīng)用,2022,31(7):341-348.

        [14] RONG Y,ZIFEI M,QUAN G,et al. Target detection of teadisease based on improved YOLOv5s-ECA-ASFF algorithm[J]. Journal of Chinese Agricultural Mechanization,2024,45(1) :244-251.

        [15] CAOY,XUJ,LINS,et al.GCNet:Non-local networks meet squeeze-excitation networks and beyond[C]//Proceedings of the IEEE/CVF international conference on computer vision workshops.Seoul,South Korea:Institute ofElectrical and Electronics Engineers/Computer Vision Foundation,2019.

        (責(zé)任編輯:蘇帆)

        猜你喜歡
        精確度特征檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        研究核心素養(yǎng)呈現(xiàn)特征提高復(fù)習(xí)教學(xué)精確度
        “硬核”定位系統(tǒng)入駐兗礦集團(tuán),精確度以厘米計算
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        小波變換在PCB缺陷檢測中的應(yīng)用
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        国产一级一片内射视频在线| 免费人成视频在线观看网站| 乱子真实露脸刺激对白| 久久久www成人免费无遮挡大片| 亚洲av资源网站手机在线| 日韩在线永久免费播放| 全免费a级毛片免费看网站| 在线播放国产女同闺蜜| av网站在线观看二区| 国产亚洲成性色av人片在线观| 九九热线有精品视频86| 四虎永久免费影院在线| 国产白浆精品一区二区三区| 亚洲国产一区二区三区| 免费a级作爱片免费观看美国| 99在线精品国产不卡在线观看| 一本久久综合亚洲鲁鲁五月夫| 国内自拍速发福利免费在线观看| 日本入室强伦姧bd在线观看| 亚洲精品不卡电影| 亚洲视频一区二区蜜桃| 手机免费在线观看av网址| 日韩人妻无码精品-专区| 亚洲午夜无码AV不卡| 国产亚洲一区二区毛片| 欧洲女人与公拘交酡视频| 日韩精品无码一区二区三区视频| 无码熟妇人妻AV不卡| 丝袜美腿福利视频在线| 粗大猛烈进出白浆视频| 久久久久中文字幕精品无码免费| 手机免费在线观看日韩av| 18国产精品白浆在线观看免费| 狠狠色噜噜狠狠狠狠888奇禾| 人人妻人人澡av| 亚洲不卡高清av网站| 一本一道av中文字幕无码| 国产资源精品一区二区免费| 亚洲国产91精品一区二区| 一本一道人人妻人人妻αv| av在线色|