亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進DeeplabV3+和遷移學(xué)習(xí)的橋梁裂縫檢測

        2023-03-13 10:05:24趙雪冰王俊杰
        計算機工程與應(yīng)用 2023年5期
        關(guān)鍵詞:注意力精度橋梁

        趙雪冰,王俊杰

        中國海洋大學(xué) 工程學(xué)院,山東 青島 266100

        公路橋梁在當(dāng)前的交通運輸體系中占有重要的地位。對公路橋梁的檢測和評價不充分,會造成許多安全隱患。裂縫是評價公路橋梁安全可靠度的重要指標。起初,細小的裂縫不會產(chǎn)生明顯的損傷,裂縫在外力作用下會逐漸惡化。同時,空氣中的水分會通過鋼筋混凝土中的裂縫腐蝕,縮短和降低結(jié)構(gòu)的壽命和強度。因此,裂縫檢測對橋梁結(jié)構(gòu)的維護、安全防護和降損具有重要的實際應(yīng)用價值。裂縫檢測的任務(wù)不僅是檢測已經(jīng)形成的明顯的網(wǎng)狀或塊狀裂縫,還要檢測細小的裂縫?;谌斯さ牧芽p檢測方法,不僅費時費力,還存在諸多不安全因素。面對大面積橋梁評估時,該方法可操作性差,維護成本和人工成本高。

        隨著科學(xué)技術(shù)的發(fā)展,許多基于視覺的方法[1-3]逐漸取代了耗時、費力、主觀人工檢測。同時,結(jié)合無人機獲取的圖像[4],使橋梁裂縫檢測過程更加方便和高效。如目標檢測方法能夠快速確定裂縫的位置,張詩慧等[5]使用RetinaNet算法對高鐵無砟軌道表面裂縫進行檢測,能夠更好地滿足實際應(yīng)用的需要。然而由于裂縫通常是不規(guī)則的、細長的和連續(xù)的。目標檢測方法不能準確地描述裂縫的整個區(qū)域,且目標檢測方法不能提供裂縫檢測所需的形狀信息。而語義分割方法可以對目標進行分割,常用的方法有U-Net[6]、SegNet[7]和DeeplabV3+[8],它們的共同特點是編碼-解碼結(jié)構(gòu)。?;莸热薣9]在U-Net模型中添加SE模塊,來提升重要特征,抑制無用特征。Liu等[10]在U-Net模型中插入scSE塊,證明了scSE塊可以提高模型的分割精度。Chen等[11]提出的改進SegNet在裂縫檢測能力方面具有較強的泛化能力,并借助遷移學(xué)習(xí)方法,模型可以在訓(xùn)練過程中快速收斂。Chen等[12]提出了一種基于DeeplabV3+的弱夾層檢測和量化方法,證明DeeplabV3+具有較強的分割能力,不易受到背景噪聲的干擾。袁嘉豪等[13]基于DeeplabV3+模型,選擇多種主干網(wǎng)絡(luò)進行對比實驗,驗證模型在裂縫檢測中有較好的檢測性能。Wang等[14]基于DeeplabV3+模型進行隧道裂縫檢測,通過弱監(jiān)督網(wǎng)絡(luò)進行數(shù)據(jù)集標注,降低標注成本。因此,本文將DeeplabV3+模型應(yīng)用于橋梁裂縫檢測,為了使模型能夠重點關(guān)注像素之間的關(guān)系,將注意力機制融入DeeplabV3+中,提高模型的魯棒性。

        此外,通過語義分割方法檢測裂縫,需要大量的像素級標簽,標注過程耗時耗力。且橋梁裂縫樣本獲取較困難,由于通常要獲取橋面板上部、底部和橋梁側(cè)面裂縫圖像,而橋梁底部裂縫受到光照影響,獲取的裂縫圖像不清晰,導(dǎo)致樣本獲取的數(shù)量較少,從而出現(xiàn)小樣本的困境。遷移學(xué)習(xí)[15]方法能夠?qū)脑从驅(qū)W習(xí)到的低級特征遷移到目標域,在小規(guī)模數(shù)據(jù)集上使用遷移學(xué)習(xí)的方法訓(xùn)練網(wǎng)絡(luò)模型可以獲得很好的效果,能夠解決數(shù)據(jù)集不足的問題。

        本文創(chuàng)新點有以下兩點:首先,基于DeeplabV3+模型進行橋梁裂縫檢測,為提高模型對裂縫特征上下文的聯(lián)系能力,引入ECA注意力模塊和scSE注意力模塊重點關(guān)注裂縫的關(guān)鍵部分,改善模型在小樣本上檢測效果差的問題;其次,通過遷移學(xué)習(xí)的訓(xùn)練方法,在建立小樣本橋梁裂縫數(shù)據(jù)集上進行特征提取,解決小樣本對網(wǎng)絡(luò)性能的影響。實驗結(jié)果表明:本文所提模型適用于橋梁裂縫檢測小樣本的情形,減少樣本標注的時間成本,提高模型魯棒性。

        1 DeeplabV3+模型

        DeeplabV3+模型憑借自身良好的準確性能和計算效率,被廣泛應(yīng)用于橋梁裂縫的檢測任務(wù)中。DeeplabV3+模型主要由編碼器和解碼器兩部分組成,整體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 DeeplabV3+模型網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Structure of DeeplabV3+model

        編碼器包含骨干網(wǎng)絡(luò)和空洞空間金字塔池化(atrous spatial pyramid pooling,ASPP)模塊兩部分,骨干網(wǎng)絡(luò)采用Xception[16]進行特征提取,輸入圖像通過骨干網(wǎng)絡(luò)進行下采樣后生成高級語義特征圖。ASPP模塊用于獲取輸入特征圖的多尺度信息,該模塊應(yīng)用了空洞卷積,通過用不同空洞率高效、準確地提取多尺度信息。該模塊包含一個尺寸為1×1的卷積和三個尺寸為3×3的空洞卷積,當(dāng)輸入特征圖的空間分辨率與輸出的空間分辨率的比值,即輸出步長為16時,三個空洞卷積的空洞率分別為6、12、18,另外采用全局平均池化得到圖片級別特征,最后將五種特征進行通道維拼接,充分融合多尺度信息。

        在解碼器結(jié)構(gòu)中,首先采用雙線性插值對編碼器輸出的特征圖通過4倍上采樣,然后將具有相同空間分辨率的低層特征進行級聯(lián)。由于低層特征包含更多的空間信息,低層特征與高層特征的融合提高了分割性能,同時應(yīng)用1×1卷積減少底層特征的通道數(shù)量。最后,使用一些3×3卷積來優(yōu)化特征后,使用雙線性插值的4倍上采樣來產(chǎn)生預(yù)測結(jié)果。

        2 改進DeeplabV3+模型

        為生成細粒度的語義分割,改進DeeplabV3+依然采用編碼-解碼結(jié)構(gòu)。由于裂縫分割任務(wù)主要涉及裂縫和背景兩個標簽,語義信息相對簡單,因此選擇更容易優(yōu)化的ResNet-50[17]替代Xception作為骨干網(wǎng)絡(luò)。另外,裂縫分割任務(wù)更加關(guān)注裂縫的顏色和位置等細節(jié)特征,對小裂縫也需要較好的分割效果。因此,為增加模型對裂縫細粒度特征的感知,增強對小目標的檢測效果,同時解決小樣本數(shù)據(jù)集上的檢測效果差的問題,提高對上下文的聯(lián)系能力,對模型進行以下優(yōu)化:(1)在ResNet-50中引入ECA模塊;(2)在解碼器結(jié)構(gòu)中的批處理規(guī)范化層和ReLu層之間引入scSE模塊;(3)基于遷移學(xué)習(xí)方法與改進的DeeplabV3+模型相融合。改進后的模型如圖2所示。

        圖2 改進DeeplabV3+模型網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Structure of improve DeeplabV3+model

        2.1 引入高效通道注意力(ECA)模塊

        DeeplabV3+模型通過ASPP模塊能夠獲得多尺度信息,但是通過對各維度特征進行簡單拼接,無法獲取豐富的上下文信息,對于裂縫這種小目標特征提取是不足的。因此在編碼器結(jié)構(gòu)中加入高效通道注意力(ECA)模塊[18],以提高上下文的聯(lián)系能力。ECA模塊是對SENet模塊[19]的改進,有效避免了降維產(chǎn)生的讓通道和維度權(quán)值之間沒有直接聯(lián)系的弊端。如圖3所示,ECA模塊主要由三部分組成。首先,通過全局平均池化生成大小為1×1×C的特征圖;其次,根據(jù)公式(1)計算自適應(yīng)的卷積核尺寸:

        圖3 ECA注意力模塊的結(jié)構(gòu)示意圖Fig.3 Structure of ECA attention module

        其中γ和b分別為2和1。最后,將卷積核尺寸應(yīng)用到一維卷積中,得到每個通道的權(quán)值。該模塊通過一維卷積可以在保持性能的同時降低模型的復(fù)雜度,增加通道之間的信息交互,避免降維,有效地學(xué)習(xí)通道信息。

        2.2 引入scSE注意力模塊

        橋梁裂縫檢測任務(wù)對裂縫的邊緣特征和位置特征等細節(jié)信息關(guān)注度較高,且某些裂縫與背景差異不明顯,需要增強顯著性特征,抑制無用特征。因此,在解碼器結(jié)構(gòu)中的批處理規(guī)范化層和ReLu層之間引入scSE注意力模塊[20]。如圖4所示,scSE注意力模塊包括基于通道注意機制的空間擠壓和通道激勵(cSE)注意力模塊和基于空間注意機制的通道擠壓和空間激勵(sSE)注意力模塊。cSE注意力模塊的計算過程是輸入特性映射F=[f1,f2,…,fC]生成一個Z向量(1×1×C)后通過全局平均池化,然后經(jīng)過全連接層和ReLU層,再次通過全連接層,最后通過Sigmoid層得到激活值,它可以代表重要的渠道而忽略不重要的渠道。過程可表示為公式(2):

        圖4 scSE注意力模塊示意圖Fig.4 Structure of scSE attention module

        sSE注意力模塊的計算過程是輸入特征映射F=[f1,1,f1,2,…,fi,j,…,fH,W]通過卷積Wsq×F生成q向量,然后通過sigmoid層得到激活值。過程可表示為公式(3):

        2.3 遷移學(xué)習(xí)方法

        在進行模型訓(xùn)練時,由于實驗平臺配置的限制,批次大小只能設(shè)置為2或4。當(dāng)進行批量歸一化[21]操作時,批次大小設(shè)置較小會導(dǎo)致模型錯誤率很大[22]。本文采用的遷移學(xué)習(xí)訓(xùn)練方法能夠解決目標橋梁裂縫數(shù)據(jù)集少,且批次大小較?。ㄅ未笮?)的問題。遷移學(xué)習(xí)的過程如圖5所示。第一階段在PASCAL VOC數(shù)據(jù)集上初始化模型參數(shù)。第二階段不僅凍結(jié)ResNet-50的批量歸一層,而且凍結(jié)ASPP模塊和解碼器結(jié)構(gòu)的批量歸一層,進行特征遷移期間批量歸一化層不更新,能夠減少模型錯誤率并保證遷移效果。同時,通過在ALL_CRACK數(shù)據(jù)集上訓(xùn)練,對預(yù)先訓(xùn)練好的模型參數(shù)進行微調(diào)。最后階段,在目標橋梁裂縫數(shù)據(jù)集上再次執(zhí)行第二階段操作。

        圖5 遷移學(xué)習(xí)方法訓(xùn)練過程Fig.5 Transfer learning method training process

        3 數(shù)據(jù)集的建立

        通過遷移學(xué)習(xí),本階段產(chǎn)生了兩種數(shù)據(jù)集,分別為供遷移學(xué)習(xí)使用的源域數(shù)據(jù)集和目標域數(shù)據(jù)集。源域數(shù)據(jù)集中包含兩個數(shù)據(jù)集,一個為Pascal VOC公共數(shù)據(jù)集,用于初始化模型參數(shù);另一個圖像選取自公共裂縫數(shù)據(jù)集[23-27],共2 524幅圖像,其中包含分辨率為227×227的2 020幅圖像和448×448的504幅圖像,用于遷移裂縫的通用特征。為了保證遷移效果能夠達到預(yù)期的效果,本數(shù)據(jù)集包含了建筑物和道路場景中的各種裂縫,如圖6所示,這些裂縫的分布、形狀、寬度和大小都不同。裂縫標注工具采用Labelme[28],對圖像中裂縫的目標類型、點坐標、裂縫圖像的寬和高等信息進行標注,Labelme的標注流程及注釋可視化如圖7所示。本研究中數(shù)據(jù)集格式為PASCAL VOC數(shù)據(jù)集格式,最后只需要用Python程序?qū)son注釋文件轉(zhuǎn)換PASCAL VOC數(shù)據(jù)集格式,其中背景像素用0表示,裂縫像素用1表示。此數(shù)據(jù)集名為ALL_CRACK數(shù)據(jù)集。

        圖6 源域橋梁裂縫樣本Fig.6 Bridge crack sample in Source area

        圖7 Labelme標注流程及注釋可視化Fig.7 Labelme annotation process and annotation visualization

        目標域數(shù)據(jù)集來源于Original_Crack_DataSet_1024_1024[29],主要是公路橋梁裂縫圖像,樣本實例如圖8所示。為了提高訓(xùn)練速度和減少權(quán)重,將分辨率為1 024×1 024的圖像裁剪為448×448大小,隨機選取510張圖像。注釋方法與第一個數(shù)據(jù)集的方法類似。訓(xùn)練集、驗證集和測試集以大約6∶2∶2的比例隨機劃分,訓(xùn)練集包括306張圖片,驗證集包括102張圖片,測試集包括102張圖片。

        圖8 目標域橋梁裂縫樣本Fig.8 Bridge crack sample in target area

        第三部分數(shù)據(jù)集用于研究遷移學(xué)習(xí)對樣本標注成本的影響。將本文源域和目標域中的裂縫數(shù)據(jù)集進行整合,將源域的2 524張裂縫數(shù)據(jù)集加到目標域數(shù)據(jù)集中的訓(xùn)練集中,組成一份包含3 034張圖片的數(shù)據(jù)集。訓(xùn)練集包括2 830張圖片,驗證集包括102張圖片,測試集包括102張圖片。

        4 實驗和結(jié)果

        為了定量地證明本文所提方法的有效性,將改進DeeplabV3+模型與典型語義分割模型的訓(xùn)練與測試結(jié)果進行對比。實驗平臺軟硬件信息如表1所示。

        表1 實驗平臺配置Table 1 Experimental platform configuration

        4.1 評價指標

        為了準確地評估該方法的分割性能,需要考慮推理時間和精度。推理時間被認為是語義分割的重要指標之一,因為在模型部署后的推理階段,知道測試模型所需的時間是有意義的。通過有效評估設(shè)備與模型之間的匹配關(guān)系,為模型在各種場景下的應(yīng)用提供有效信息。

        在精度方面,采用平均交并比(MIoU)代替?zhèn)鹘y(tǒng)的機器學(xué)習(xí)分類任務(wù)的評估標準,如召回率和F1值。MIoU通常被用作語義分割的標準度量。符號的象征意義定義如下:假設(shè)n+1類數(shù)據(jù)集的數(shù)量(從0到n,其中0通常代表背景類別)和Pij代表所有像素數(shù)量中屬于i類別,但是被預(yù)測為j類別的個數(shù)。同樣,Pii和Pji有相似的含義。

        本文中類別只有背景和裂縫兩類,其中0表示背景類別,1表示裂縫類別。如圖9所示,IoU為真值與預(yù)測值的交集與并集之比,可表示為公式(4):

        圖9 預(yù)測值與真值關(guān)系圖Fig.9 Relationship between predicted value and true value

        MIoU表示兩類IoU值之和,再取其平均值,可表示為公式(5):

        4.2 損失函數(shù)

        由于本文只涉及兩種類別,因此訓(xùn)練模型采用的是二分類交叉熵損失函數(shù),該損失函數(shù)收斂較快,能夠描述真實結(jié)果的概率分布與預(yù)測結(jié)果概率分布之間的差異,損失值越小,模型錯誤率越小。損失函數(shù)公式如公式(6)所示:

        式中,y為標簽中對應(yīng)像素x的真實值,a表示網(wǎng)絡(luò)的預(yù)測值,n為圖像中的像素總數(shù)。

        4.3 訓(xùn)練細節(jié)

        所有模型的超參數(shù)如表2所示,DeeplabV3+模型采用二分類交叉熵損失函數(shù),U-Net模型采用Lovasz損失函數(shù)來比較模型預(yù)測值與真實值的概率分布。隨著模型的訓(xùn)練,繪制各模型在圖像驗證過程中的MIoU度量值,比較各模型的性能。

        表2 模型的超參數(shù)Table 2 Model hyperparameters

        4.4 不同模型的消融實驗

        將本文改進的模型與典型語義分割模型U-Net、SegNet進行對比,五種模型均用ResNet-50作為主干網(wǎng)絡(luò)提取裂縫特征,實驗的精度和推理時間指標見表3。本文提出的模型精度指標均高于其他三種網(wǎng)絡(luò),其MIoU較SegNet、U-Net、DeeplabV3+模型分別提高了9.04、6.75、3個百分點。計算效率略低于其他模型。

        表3 不同模型的檢測性能Table 3 Detection results of different models

        4.5 改進DeeplabV3+的消融實驗

        首先,應(yīng)用ResNet101[17]、MobilenetV2[30]、Xception[16]替代DeeplabV3+骨干網(wǎng)絡(luò)進行消融實驗。為了說明模型精度和推理時間之間的權(quán)衡,圖10比較了各種模型的精度和推理時間。以ResNet-50作為骨干網(wǎng)絡(luò)時,DeeplabV3+分割準確率最高。當(dāng)采用MobilenetV2作為編碼器架構(gòu)時,參數(shù)個數(shù)較少,訓(xùn)練和推理速度最快,但精度略低于DeeplabV3+(ResNet-50)。

        圖10 各種語義分割模型檢測結(jié)果Fig.10 Detection results of various semantic segmentation models

        另一方面,通過在DeeplabV3+(ResNet-50)中添加注意力模塊進行消融實驗。實驗結(jié)果表明,注意力模塊的添加并沒有降低模型的推理速度。圖11展示了注意力模塊提高模型精度的效果。如果只在模型中加入ECA或scSE模塊,模型的精度會略有提高或降低。但添加兩個模塊后,模型的分割精度提高了0.5個百分點。

        圖11 是否添加注意力模塊檢測結(jié)果Fig.11 Detection results whether adding attention module

        4.6 運用遷移學(xué)習(xí)的消融實驗

        為了展示遷移學(xué)習(xí)方法帶來的提升效果,同時突出本文提出的遷移學(xué)習(xí)訓(xùn)練得到的模型良好性能,進行了對比實驗。模型的性能總結(jié)如圖12所示,所有模型的MIoU值在訓(xùn)練過程的前10個階段快速增長,在訓(xùn)練過程的后期平穩(wěn)收斂。使用遷移學(xué)習(xí)方法訓(xùn)練后比原始DeeplabV3+(ResNet-50)模型的準確率提高了2.5個百分點。此外,應(yīng)用遷移學(xué)習(xí)方法后,在較短的訓(xùn)練時間內(nèi)可以達到較高的準確性。綜上所述,實驗結(jié)果表明,遷移學(xué)習(xí)方法可以提高DeeplabV3+模型的分割精度。

        圖12 DeeplabV3+和遷移學(xué)習(xí)的檢測性能Fig.12 Detection of DeeplabV3+and transfer learning

        本文通過消融實驗來尋找一種最適合該檢測任務(wù)的遷移學(xué)習(xí)方法。通過比較兩種遷移學(xué)習(xí)策略。實驗結(jié)果如表4所示,當(dāng)源任務(wù)向目標任務(wù)遷移更多相似的知識時,目標任務(wù)訓(xùn)練的模型會有更高的性能。此外,遷移學(xué)習(xí)在兩個不同數(shù)據(jù)集上的精度比在一個數(shù)據(jù)集上略有提高。綜合考慮了推理時間和準確性的評價指標,本文提出的方法在推理時間小幅度減少的情況下,準確性顯著提高。

        表4 不同遷移學(xué)習(xí)階段的檢測結(jié)果Table 4 Detection of different transfer learning stages

        4.7 檢測結(jié)果可視化分析

        除了基于精度和推理時間的性能評估之外,在測試集上評估可視化的分割結(jié)果也是有必要的。在本研究中,測試集圖片用來測試模型的分割效果。在預(yù)測結(jié)果中選取了不同裂縫分布走向的預(yù)測結(jié)果來分析本文方法裂縫檢測的效果。從圖13的預(yù)測結(jié)果可以看出,U-Net和DeeplabV3+兩種模型對裂縫都有很好的分割效果,特別是對寬度較大、特征明顯的裂縫。然而,這兩個模型受背景噪聲的影響較大,如圖13中前三行都存在誤檢的情況,把周圍孔洞識別為裂縫,并且圖13中后三行增加了冗余的裂縫信息。因此,這兩種模型在裂縫場景中對背景的魯棒性較差。在原有的DeeplabV3+模型中加入注意力模塊進行改進后,誤檢的情況在一定程度有所改善,但分割結(jié)果仍然達不到滿意的結(jié)果。在運用遷移學(xué)習(xí)訓(xùn)練改進的Deeplabv3+后,遷移了更多其他類型裂縫的特征。圖13中裂縫邊緣的細節(jié)分割效果得到了很大的改善,預(yù)測的裂縫結(jié)果與真值非常吻合。該模型幾乎不受背景的影響,沒有明顯的多余裂縫信息,具有較強的魯棒性。因此,本文提出的橋梁裂縫檢測方法是可行的。

        圖13 不同方法的裂縫預(yù)測結(jié)果對比Fig.13 Comparison of fracture prediction results of different methods

        4.8 遷移學(xué)習(xí)訓(xùn)練方法的影響分析

        前面的部分研究了本文提出的裂縫檢測方法在分割性能方面的有效性,本節(jié)定量分析遷移學(xué)習(xí)降低的標注成本。通過是否應(yīng)用遷移學(xué)習(xí)進行DeeplabV3+模型訓(xùn)練實驗,如表5所示,為達到檢測精度相近,未使用遷移學(xué)習(xí)訓(xùn)練模型則需要近十倍的訓(xùn)練集數(shù)量。因此,應(yīng)用遷移學(xué)習(xí)訓(xùn)練可以節(jié)省大量標注樣本的工作量。

        表5 訓(xùn)練模型所需的樣本對比Table 5 Comparison of samples required for training model

        同時,在實際檢測裂縫項目中,收集場景中的510張圖片可能仍然比較困難,使用不同數(shù)量的訓(xùn)練樣本作為遷移學(xué)習(xí)中目標域數(shù)據(jù)集中的訓(xùn)練集進行實驗,以此試圖在應(yīng)用遷移學(xué)習(xí)訓(xùn)練改進的DeeplabV3+模型時,估計出最低的樣本要求,并且提供一個參考標準。實驗結(jié)果如圖14所示,訓(xùn)練樣本越少,遷移學(xué)習(xí)方法的效果就越明顯,雖然隨著訓(xùn)練樣本數(shù)量的增多,但是精度的差距越來越小。當(dāng)訓(xùn)練樣本數(shù)超過200張時,模型的分割精度增長趨勢較小,分割精度在93.26%到93.3%區(qū)間;當(dāng)訓(xùn)練樣本小于100張時,分割精度為93%,精度有稍微的降低,但是訓(xùn)練樣本數(shù)量能減少一半。因此,建議訓(xùn)練樣本數(shù)量為100到200張,訓(xùn)練樣本最小數(shù)量為100張。

        圖14 訓(xùn)練樣本與精度之間的關(guān)系Fig.14 Relationship between training samples and accuracy

        5 結(jié)語

        本文提出了一種使用遷移學(xué)習(xí)訓(xùn)練改進DeeplabV3+模型檢測橋梁裂縫的方法。該方法使用空間注意力模塊和通道注意力模塊分別捕獲裂縫圖像中空間和通道的全局依賴關(guān)系,以提高DeeplabV3+模型的魯棒性,進而通過遷移學(xué)習(xí)的訓(xùn)練方法以實現(xiàn)在小樣本數(shù)據(jù)集上獲取更高的精度,進而降低標注成本,提高工作效率。消融實驗結(jié)果表明,注意力模塊能有效捕捉上下文信息,提高模型的性能,能達到91.34%的MIoU,提高0.5個百分點的精度。通過遷移學(xué)習(xí)方法訓(xùn)練改進的DeeplabV3+模型,分割精度達到了93.3%,較原始的DeeplabV3+提高了3個百分點。此外,該方法受背景噪聲或類不平衡的影響較小,具有較好的魯棒性。本文提出的方法在提高模型性能的同時,解決了小樣本訓(xùn)練的問題和像素級標注成本高問題。相比直接訓(xùn)練模型,在標注成本上可以節(jié)省10倍的時間,大幅提高工作效率;另外實驗結(jié)果顯示應(yīng)用遷移學(xué)習(xí)方法訓(xùn)練改進的DeeplabV3+模型需要100到200張訓(xùn)練樣本即可獲得較高的檢測效果。在將來,一方面對模型進行進一步優(yōu)化,提高模型對裂縫邊緣和細小裂縫的分割能力,提高模型的泛化能力。另一方面,為了提高在各種實際場景中的泛化能力,將更多受光照、遮擋等因素影響的圖像將擴展到當(dāng)前的數(shù)據(jù)集。

        猜你喜歡
        注意力精度橋梁
        讓注意力“飛”回來
        手拉手 共搭愛的橋梁
        句子也需要橋梁
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        高性能砼在橋梁中的應(yīng)用
        A Beautiful Way Of Looking At Things
        GPS/GLONASS/BDS組合PPP精度分析
        改進的Goldschmidt雙精度浮點除法器
        巧用磨耗提高機械加工精度
        河南科技(2014年14期)2014-02-27 14:11:53
        久9热免费精品视频在线观看| 玩弄白嫩少妇xxxxx性| 中国人在线观看免费的视频播放| 精品无码人妻夜人多侵犯18| 内射人妻少妇无码一本一道 | 撕开奶罩揉吮奶头视频| 色窝窝免费播放视频在线| 中文字幕不卡在线播放| 亚洲成av在线免费不卡| 亚洲av熟女传媒国产一区二区| 风韵丰满熟妇啪啪区99杏| 无码丰满熟妇一区二区| 日本国产视频| 亚洲av永久综合网站美女| 亚洲一区二区三区日韩在线观看| 欧美又粗又长又爽做受| 精品国产制服丝袜高跟| 亚洲 日韩 在线精品| 国产一区二区黑丝美女| 五月婷婷开心五月激情| 美女视频黄是免费| 大肉大捧一进一出好爽视频| 9999毛片免费看| 色婷婷av一区二区三区不卡| av天堂手机免费在线| 99久久精品免费看国产| 久久久久女人精品毛片| 99精品国产兔费观看久久| 精品蜜桃av免费观看| 国色天香中文字幕在线视频| 乌克兰粉嫩xxx极品hd| 久久狠色噜噜狠狠狠狠97| 国产成年女人特黄特色毛片免| 中文字幕人妻饥渴浪妇| 人妻少妇偷人精品无码| 久久夜色精品国产| 亚洲国产成人久久一区www妖精| 亚洲成a人片在线观看中| 三级网站亚洲三级一区| 天天躁夜夜躁狠狠是什么心态 | 国产av熟女一区二区三区老牛|