亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Faster R-CNN的多任務(wù)增強裂縫圖像檢測方法

        2021-07-05 10:57:40毛鶯池唐江紅王靜平萍王龍寶
        智能系統(tǒng)學(xué)報 2021年2期
        關(guān)鍵詞:檢測方法

        毛鶯池,唐江紅,王靜,平萍,王龍寶

        (河海大學(xué) 計算機與信息學(xué)院,江蘇 南京 211100)

        我國是世界上擁有水庫大壩最多的國家[1],但隨著時間的推移和壩齡的增長,大壩表面和內(nèi)部發(fā)生形變,出險幾率增加,威脅人民生命財產(chǎn)安全。裂縫是大壩的主要危害之一。

        近年來,圖像處理、模式識別和深度學(xué)習(xí)等技術(shù)的發(fā)展,為大壩裂縫圖像檢測提供技術(shù)支持。但由于大壩環(huán)境復(fù)雜等一系列因素的限制,導(dǎo)致裂縫圖像收集和標(biāo)記成本過高,因此難以獲得大壩裂縫圖像檢測的分類模型。遷移學(xué)習(xí)主要是針對規(guī)模不大,樣本數(shù)量有限的特定領(lǐng)域數(shù)據(jù)集使用機器學(xué)習(xí)容易產(chǎn)生過擬合而導(dǎo)致無法訓(xùn)練與學(xué)習(xí)的問題,通過利用具有一定相似性的領(lǐng)域中已訓(xùn)練好的較好優(yōu)秀模型和樣本構(gòu)建滿足任務(wù)需求的模型,從而實現(xiàn)小數(shù)據(jù)集下構(gòu)建良好模型的效果。

        Faster R-CNN[2]是目前基于區(qū)域卷積神經(jīng)網(wǎng)絡(luò)系列的目標(biāo)檢測算法中綜合性能最好的方法之一,但其對多目標(biāo)、小目標(biāo)情況檢測精度不高。本文提出了一種基于Faster R-CNN的多任務(wù)增強裂縫圖像檢測方法,以適應(yīng)大壩在不同光照環(huán)境,不同長度裂縫情況下的檢測。同時提出了一種基于K-means多源自適應(yīng)平衡TrAdaBoost遷移學(xué)習(xí)方法輔助網(wǎng)絡(luò)訓(xùn)練,解決樣本不足問題。

        1 相關(guān)工作

        根據(jù)卷積神經(jīng)網(wǎng)絡(luò)的使用方式,將基于CNN目標(biāo)檢測算法[3-4]分為兩大類:基于區(qū)域建議的深度學(xué)習(xí)目標(biāo)檢測算法和基于回歸思想的深度學(xué)習(xí)目標(biāo)檢測算法。前者的主流算法有:RCNN算法[5]、Fast R-CNN算法[6]和Faster RCNN算法。R-CNN首次將神經(jīng)網(wǎng)絡(luò)應(yīng)用在目標(biāo)檢測算法上,在 Pascal VOC 2012 的數(shù)據(jù)集上將平均精度mAP提升了30%。Fast R-CNN將候選框識別分類和位置回歸合成到一個網(wǎng)絡(luò)中,不再對網(wǎng)絡(luò)進行分步訓(xùn)練,提高了訓(xùn)練速度。Faster RCNN與Fast R-CNN最大的區(qū)別就是提出了區(qū)域建議網(wǎng)絡(luò)(region proposal networks, RPN)網(wǎng)絡(luò),極大地提升了檢測框的生成速度?;诨貧w思想的深度學(xué)習(xí)目標(biāo)檢測的主流算法有:SSD算法[7]和YOLO V2算法[8]。SSD算法和YOLO算法均沒有區(qū)域建議過程,極大地提高了檢測速度,但識別精度和位置回歸精度不足。

        從20世紀(jì)90年代起遷移學(xué)習(xí)開始逐漸進入機器學(xué)習(xí)領(lǐng)域,受到研究者們的關(guān)注。常用的遷移學(xué)習(xí)方法有AdaBoost[9]和TrAdaBoost[10]算法等。AdaBoost算法基本思想:當(dāng)一個訓(xùn)練樣本被錯誤分類時候,對此樣本增加樣本權(quán)重,再次訓(xùn)練時該樣本分錯的概率就會大大降低。TrAda-Boost算法是由AdaBoost算法演變而來的,該算法通過降低誤分類的源域訓(xùn)練數(shù)據(jù)權(quán)重,增加誤分類的目標(biāo)域訓(xùn)練數(shù)據(jù)權(quán)重,使得分類面朝正確的方向移動并訓(xùn)練出強分類模型。Al-Stouhi等[11]總結(jié)TrAdaBoost算法存在的問題,在此基礎(chǔ)上進行改進,提出一種動態(tài)TrAdaboost (dynamic TrAdaboost, DtrA)方法,DtrA方法能夠在迭代過程中動態(tài)調(diào)整樣本權(quán)重;郭勇[12]在DtrA方法基礎(chǔ)上進一步改進,提出一種自適應(yīng)TrAdaBoost (adaptive TrAdaBoost, AtrA) 方法,AtrA方法能夠反映出源領(lǐng)域訓(xùn)練數(shù)據(jù)集與目標(biāo)領(lǐng)域訓(xùn)練數(shù)據(jù)集之間是否具有相似性關(guān)系。

        2 ME-Faster R-CNN與K-MABtrA方法

        本文提出了一種基于Faster R-CNN的多任務(wù)增強裂縫圖像檢測的網(wǎng)絡(luò)模型,以適應(yīng)大壩在不同光照環(huán)境、不同長度裂縫情況下的檢測。同時,提出了一種基于K-means多源自適應(yīng)平衡TrAdaBoost遷移學(xué)習(xí)方法解決樣本不足問題。本文采用基于K-MABtrA遷移學(xué)習(xí)方法訓(xùn)練MEFaster R-CNN網(wǎng)絡(luò)模型,該方法通過已準(zhǔn)備的多源裂縫圖像數(shù)據(jù)集對卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)進行預(yù)訓(xùn)練,然后使用預(yù)訓(xùn)練得到的網(wǎng)絡(luò)權(quán)重作為初始權(quán)值,遷移到目標(biāo)數(shù)據(jù)集上進行微調(diào),得到適用于大壩裂縫檢測的模型。

        2.1 ME-Faster R-CNN模型

        ME-Faster R-CNN在Faster R-CNN模型基礎(chǔ)上進行改進,改進之處如圖1所示。其中,特征提取部分:選取輕量級的ResNet-50作為卷積神經(jīng)網(wǎng)絡(luò);特征融合部分以及候選區(qū)域生成部分:改進使用多任務(wù)增強RPN模型,改善錨盒尺寸大小提高Faster R-CNN搜索能力,提高檢測識別精度;檢測處理部分:特征圖和選擇區(qū)域建議經(jīng)過感興趣區(qū)域(ROI)池、全連接(FC)層分別發(fā)送給邊界回歸器和SVM分類器得到分類與回歸結(jié)果。

        圖 1 ME-Faster R-CNN模型改進之處Fig. 1 Improvements of ME-Faster R-CNN

        ME-Faster R-CNN檢測流程主要分為3個部分,分別是特征提取、特征融合以及候選區(qū)域生成、檢測處理。

        1)特征提?。罕疚倪x用ResNet-50深度殘差網(wǎng)絡(luò)[13]作為大壩裂縫圖像特征提取器,通過5級ResNet-50將圖片轉(zhuǎn)換成特征圖。

        2)特征融合以及候選區(qū)域生成:將所得特征圖輸入多任務(wù)增強RPN模型,并改善RPN模型的錨盒尺寸和大小以提高檢測識別精度,最后生成候選框。具體方法如下:

        ①多任務(wù)增強RPN方法:最初Faster RCNN模型結(jié)構(gòu)中只有一個RPN,RPN使用最后一個卷積層獲得特征圖[2]。稱之為原始RPN,其結(jié)構(gòu)如圖2(a)所示,輸入圖像大小為 224×224,原始RPN在網(wǎng)絡(luò)中感受野要遠遠大于 2 24×224,僅能獲得少量典型裂縫特征。然而,圖像中裂縫存在不同大小和比例。如果檢測到裂縫大小對于檢測區(qū)域太大,則檢測區(qū)域周圍多余裂縫形狀可能會被視為噪音。如果檢測到裂縫大小對于檢測區(qū)域太小,RPN將無法生成ROI。因此,原始RPN的功能不足以檢測不同大小和比例的完整裂縫對象。

        圖 2 原始RPN模型與多任務(wù)增強RPN模型Fig. 2 Primitive RPN module &multi-task enhanced RPN module

        針對以上問題,ME-Faster R-CNN方法提出一種多任務(wù)增強RPN方法,其結(jié)構(gòu)如圖2(b)所示。該方法在ResNet-50的基礎(chǔ)上引入多個RPN來產(chǎn)生ROI,提取不同大小特征圖。具體是在ResNet-50的第3卷積層Conv3_x后加入一個RPN模塊,其感受野大小為 146×146,用來檢測較小目標(biāo);同時在ResNet-50的第4卷積層Conv4_x后加入一個RPN模塊,其感受野大小為 229×229,用來檢測較大目標(biāo);在ResNet-50的第5卷積層Conv5_x之后利用多RPN任務(wù)可以輸出圖像總體信息。

        由于每個RPN輸出獨立的ROI數(shù)組,為聚集和選擇有效的區(qū)域,多任務(wù)增強RPN方法提供ROI-Merge Layer用于接受獨立ROI數(shù)組,ROIMerge Layer僅輸出一個數(shù)組。為了避免重復(fù)的ROI和低的ROI裂縫似然分?jǐn)?shù),本文使用非極大值抑制方法,不同卷積層后RPN輸出的候選區(qū)域中,在對應(yīng)位置兩ROI的交并比大于0.7的ROI為同一ROI。具體方法為,3個卷積層后RPN輸出的候選區(qū)域均帶有建議得分,該分?jǐn)?shù)對應(yīng)的是目標(biāo)的可能性,在對應(yīng)位置選取分?jǐn)?shù)最高的一個ROI區(qū)域,另外兩層對應(yīng)位置的ROI與所選ROI交并比IoU若大于0.7,則認(rèn)為是同一ROI,ROI-Merge Layer的輸出數(shù)組中對應(yīng)位置僅輸出該得分最高的數(shù)組。在使用非極大值抑制方法之后,選擇前100個值較高的ROI。因此,ROIMerge Layer只需要調(diào)整超參數(shù)即可控制ROI的數(shù)量。

        ②改善RPN模型的錨盒尺寸和大小:FasterR-CNN模型經(jīng)過卷積層提取特征圖,然后特征圖輸入RPN區(qū)域進行特征融合以及生成候選區(qū)域,此時特征圖上每個像素點映射不同比例寬度錨點,每個錨點放置若干個不同大小的錨,為解決不同尺度間隔的錨盒搜索能力不平衡的問題,本文設(shè)計了一種新型錨盒,新型錨盒尺度為:50×50 、 2 00×200 、 3 50×350 和 5 00×500,其中,50×50 和 2 00×200 適用于較小的裂縫檢測,350×350 和 5 00×500 適用于較大的裂縫檢測。這4種尺度每種尺寸按1∶1,1∶2,2∶1 的長寬比例縮放,共12種尺度作為RPN需要評估的候選框,在預(yù)測時候選框的順序是固定的。RPN的目標(biāo)就是對原圖中的每個錨點對應(yīng)的12個框,預(yù)測其是否是一個存在目標(biāo)的框??蚺c真值框的 IoU>0.7就 認(rèn)為這個框是一個候選框,反之,則不是。

        2.2 K-MABtrA方法

        針對大壩裂縫圖像較少,訓(xùn)練樣本分布不均衡,以及TrAdaBoost算法在訓(xùn)練過程中易削弱輔助數(shù)據(jù)集作用的問題,本節(jié)提出一種基于Kmeans的多源自適應(yīng)平衡TrAdaBoost的遷移學(xué)習(xí)方法K-MABtrA,使用遷移學(xué)習(xí)充分利用多個領(lǐng)域的大量相關(guān)訓(xùn)練集,動態(tài)調(diào)整樣本權(quán)值,訓(xùn)練出網(wǎng)絡(luò)的強分類器,提高大壩裂縫檢測的準(zhǔn)確率。如圖3所示為基于K-means的多源自適應(yīng)平衡TrAdaBoost遷移學(xué)習(xí)方法的過程,主要分為兩個階段:K-means圖像聚類方法[14]和多源自適應(yīng)平衡TrAdaBoost遷移學(xué)習(xí)。

        1) K-means圖像聚類方法:通過K-means圖像聚類方法,利用歐式距離將圖像進行聚類排序。將聚類距離遠的圖片從裂縫圖像庫中刪除,有利于后續(xù)分類器的訓(xùn)練,提高訓(xùn)練效率。K代表聚類質(zhì)心數(shù)目,means表示簇內(nèi)數(shù)據(jù)的均值。K-means圖像聚類方法具體步驟如下:

        ①首先將圖像庫中圖像Xi(i=1,2,···,n) 進行灰度化,依次存儲到一維矩陣DX中;

        ②接著以10像素長度,3像素移動步長依次進行分塊存儲,記錄每小塊的首位置,得到n個像素塊數(shù)據(jù)集,從中任意選擇30個圖像小塊的灰度均值作為初始聚類中心;

        ③根據(jù)每個圖像矩陣小塊的灰度均值,利用歐幾里得距離,如式(1)所示,計算這些對象與30個圖像樣本聚類中心的距離;并根據(jù)最小距離重新對相應(yīng)圖像小塊灰度均值進行劃分,將每個圖像矩陣小塊賦給最相近的類;

        式中:dis(xi,yj) 為數(shù)據(jù)對象xi和yj之間的距離。該值越大,說明xi和?yj越相似;反之xi和yj差距越大。

        ④重新計算每個有變化的圖像小塊像素灰度均值的質(zhì)心;

        ⑤重復(fù)上述步驟3)、4)直至各個數(shù)據(jù)類的集合 中心不再發(fā)生變化為止。

        圖 3 K-MABtrA方法流程圖Fig. 3 Flow chart of K-MABtrA method

        2)多源自適應(yīng)平衡TrAdaBoost遷移學(xué)習(xí):利用不同領(lǐng)域裂縫圖像和真實大壩裂縫圖像一一組合進行訓(xùn)練,生成基分類器;在TrAdaBoost基礎(chǔ)上引入校正系數(shù)[12],避免由于迭代次數(shù)的增加,導(dǎo)致源領(lǐng)域權(quán)重下降過快,與目標(biāo)源領(lǐng)域權(quán)重之間差距過大的問題;在校正系數(shù)中引入自適應(yīng)回補參數(shù)[13],反映源領(lǐng)域訓(xùn)練數(shù)據(jù)集與目標(biāo)領(lǐng)域訓(xùn)練數(shù)據(jù)集之間是否具有相似性關(guān)系,提高方法檢測性能;最后,使用最終平衡權(quán)重法,使最終得到的目標(biāo)源數(shù)據(jù)集與各領(lǐng)域裂縫數(shù)據(jù)集重要度一致。

        ① 增加校正系數(shù)更新源領(lǐng)域樣本的權(quán)值

        遷移學(xué)習(xí)在訓(xùn)練過程在,各領(lǐng)域輔助訓(xùn)練集隨著迭代次數(shù)增加得到的權(quán)值不斷減小以至于與目標(biāo)數(shù)據(jù)集不相關(guān),無法起到輔助目標(biāo)數(shù)據(jù)集學(xué)習(xí)的作用。為了更好地利用各領(lǐng)域輔助訓(xùn)練集和目標(biāo)數(shù)據(jù)集訓(xùn)練,在TrAdaBoost基礎(chǔ)上增加校正系數(shù)更新源領(lǐng)域樣本的權(quán)值。當(dāng)?shù)螖?shù)m不斷增大,各個領(lǐng)域輔助訓(xùn)練集都能被正確回歸,當(dāng) m 次迭代結(jié)束后,各個輔助領(lǐng)域樣本權(quán)值之和為

        式中:na為輔助訓(xùn)練集 a 中樣本個數(shù);wma為 a 中各訓(xùn)練樣本權(quán)重。

        目標(biāo)數(shù)據(jù)集 b 中預(yù)測樣本正確的樣本權(quán)值不變,nb為目標(biāo)數(shù)據(jù)集 b 中樣本個數(shù), wmb為 b 中訓(xùn)練樣本權(quán)重,εmb為弱分類器在 b 上的錯誤率,正確樣本的權(quán)值之和為

        目標(biāo)數(shù)據(jù)集 b 中預(yù)測錯誤樣本需要更新 φm,則 b 中錯誤樣本的權(quán)值之和 Sb2為

        所有目標(biāo)域樣本權(quán)值之和,即正確樣本和錯誤樣本權(quán)值之和:

        當(dāng) m+1 次迭代的輔助數(shù)據(jù)集樣本權(quán)值分布為

        當(dāng)?shù)螖?shù)足夠大時,各領(lǐng)域輔助訓(xùn)練集都能被正確回歸,迭代結(jié)束后,wma+1=wma,聯(lián)系式(6)可得:

        設(shè)輔助數(shù)據(jù)集樣本增加校正系數(shù)為 Cm,其權(quán)值變?yōu)?/p>

        從式(9)可以看出,校正系數(shù) Cm與弱分類器在目標(biāo)數(shù)據(jù)集 b 上的錯誤率 εmb負相關(guān),輔助數(shù)據(jù)集樣本權(quán)值增加,對下一次迭代訓(xùn)練弱分類器的影響增加;反之對下一次迭代訓(xùn)練弱分類器的影響減小。因此,在TrAdaBoost算法基礎(chǔ)上加入校正系數(shù) Cm能夠同時保持目標(biāo)數(shù)據(jù)集和輔助數(shù)據(jù)集樣本權(quán)值得到收斂。

        ② 引入自適應(yīng)回補參數(shù)

        然而,即使 εb較低時,弱分類器對源領(lǐng)域訓(xùn)練集的分類效果也會存在差異,這種差異同樣可以反映出源領(lǐng)域訓(xùn)練集與目標(biāo)領(lǐng)域訓(xùn)練集之間的相關(guān)性。為了反映這種相似性關(guān)系,在校正系數(shù)中引入自適應(yīng)回補參數(shù),自適應(yīng)回補參數(shù)為基分類器在輔助數(shù)據(jù)集和目標(biāo)數(shù)據(jù)集上的分類正確率之和,即

        ③ 最終平衡權(quán)重法

        最后,循環(huán)達到設(shè)定迭代次數(shù) M ,得到強學(xué)習(xí)器。但在迭代后,目標(biāo)數(shù)據(jù)集與源數(shù)據(jù)集的權(quán)重已經(jīng)嚴(yán)重偏離,所以,造成最終分類器也過于偏向目標(biāo)小數(shù)據(jù)集的問題。針對上述問題,在最終分類器生成方式中引入最終平衡權(quán)重法。最終平衡權(quán)重法的基本概念是:在迭代過程中,源數(shù)據(jù)權(quán)重不斷下降,目標(biāo)數(shù)據(jù)權(quán)重不斷增加,迭代結(jié)束后,源數(shù)據(jù)權(quán)重與目標(biāo)數(shù)據(jù)權(quán)重之間差距較大,但在最終分類器生成形式上,將目標(biāo)數(shù)據(jù)集最終權(quán)重重置為最后一次迭代中各領(lǐng)域輔助訓(xùn)練集權(quán)重的平均值,使最終得到的目標(biāo)源數(shù)據(jù)集與各領(lǐng)域輔助訓(xùn)練集要度一致,提高算法的檢測準(zhǔn)確 率。

        3 實驗與結(jié)果

        3.1 數(shù)據(jù)集介紹

        目前公開的大壩裂縫圖像數(shù)據(jù)庫較少,為了實現(xiàn)對大壩裂縫圖像檢測與識別,從大壩日常監(jiān)測過程以及Google圖像搜索引擎中收集并整理已標(biāo)記好的裂縫圖像組建成數(shù)據(jù)庫。該數(shù)據(jù)庫包含大壩、公路、混凝土墻壁和橋梁4個領(lǐng)域裂縫圖像,其中大壩裂縫圖像635張,其他領(lǐng)域裂縫圖片 每個領(lǐng)域各2 500張,總計8 135張裂縫圖片。

        3.2 實驗結(jié)果與分析

        本次實驗根據(jù)選取數(shù)據(jù)集的特點,選取mAP[15](mean average precision)和檢測評價函數(shù)交并比[16](intersection over union,IoU)作為目標(biāo)檢測算法的評價指標(biāo)。mAP作為目標(biāo)檢測中用于衡量識別精度指標(biāo);IoU 表示感興趣區(qū)域和標(biāo)定區(qū)域的重疊率。

        本實驗主要從以下4個方面對基于Faster RCNN參數(shù)遷移的裂縫圖像檢測訓(xùn)練方法的優(yōu)劣進行對比分析:

        1)視覺對比分析

        在裂縫檢測過程中,對裂縫圖像提取感興趣區(qū)域,并對感興趣區(qū)域進行裂縫特征提取,通過訓(xùn)練好的分類器進行裂縫檢測識別后,每個感興趣區(qū)域邊框都會得到一個分?jǐn)?shù),即置信度。隨機選取3組實驗結(jié)果進行視覺對比分析如圖4所示。以圖4(a)為例,其中,原圖中央有一條長度和開合度明顯的裂縫痕跡,其下方有一條短且開合度不明顯的裂縫痕跡。Faster R-CNN能夠檢測出長度和開合度明顯的裂縫,在其下方的裂縫并未準(zhǔn)確檢測出來。而ME-Faster R-CNN模型不僅提高 I oU 重疊度,更為準(zhǔn)確地檢測出長裂縫,同時能夠準(zhǔn)確檢測出下方小裂縫痕跡,做到不誤檢也不漏檢。實驗結(jié)果表明,在相同的實驗條件下,ME-Faster R-CNN方法不僅能提高檢測精度,而且在應(yīng)對目標(biāo)小、多目標(biāo)情況時,能獲得很好的 檢測效果。

        圖 4 視覺對比分析Fig. 4 Visual contrast analysis

        2)與不同基準(zhǔn)網(wǎng)絡(luò)模型之間對比分析

        該部分采用ZF網(wǎng)絡(luò)[17]、VGG-16[18]網(wǎng)絡(luò)、Res-Net-50和ResNet-101網(wǎng)絡(luò)作為特征提取基準(zhǔn)網(wǎng)絡(luò),F(xiàn)aster R-CNN作為目標(biāo)檢測模型進行實驗。

        由表1可得,在同樣數(shù)據(jù)集的訓(xùn)練測試下,ZF-Net可以達到66.51%的mAP值,VGG-16網(wǎng)絡(luò)可以達到71.90%的mAP值,而ResNet網(wǎng)絡(luò)的mAP值可以超過78%,提高了6個百分點,網(wǎng)絡(luò)的檢測準(zhǔn)確度得到提高,由表1可以看出ResNet-50比ResNet-101的檢測精度略低,但是ResNet-50的參數(shù)量為ResNet-101參數(shù)量的 1 /2,能夠有效減少網(wǎng)絡(luò)權(quán)重數(shù)量,加速模型訓(xùn)練[14],綜合訓(xùn)練速度與檢測精度本文選取ResNet-50為基準(zhǔn)模型。

        表 1 不同基準(zhǔn)網(wǎng)絡(luò)模型的準(zhǔn)確度Table 1 Accuracy of different baseline network models

        3)與不同目標(biāo)檢測算法對比分析

        該部分以ResNet-50網(wǎng)絡(luò)為基準(zhǔn)網(wǎng)絡(luò),以SSD算法、YOLO V2算法、Faster R-CNN算法和ME-Faster R-CNN算法作目標(biāo)檢測模型進行實驗。

        表2給出不同目標(biāo)檢測算法獲得的平均IoU、召回率、準(zhǔn)確度以及平均精度。其中,MEFaster R-CNN算法的平均 IoU 是最高的,表明ME-Faster R-CNN算法在裂縫位置檢測的準(zhǔn)確性方面更優(yōu)異一些,且其mAP值也是最大的,達到80.02%,表明ME-Faster R-CNN檢測模型的綜合性能很好。

        表 2 不同目標(biāo)檢測算法對比分析Table 2 Comparison of different target detection algorithms

        此外,注意到裂縫尺寸大小對準(zhǔn)確度也會存在一定影響。因此,將采集到的真實大壩裂縫圖像根據(jù)其尺寸大小分為3組。第1組包含100個樣本,其尺寸大小在[0,50]范圍內(nèi),第2組包含100個樣本,其尺寸大小在[50,200]范圍內(nèi),第3組包含100個樣本,其尺寸大小超過200像素。各目標(biāo)檢測算法在不同尺寸裂縫圖像的準(zhǔn)確度如圖5所示。

        圖 5 不同尺寸裂縫圖像的準(zhǔn)確度Fig. 5 Accuracy of crack images with different sizes

        從圖5可以看出,F(xiàn)aster R-CNN系列模型檢測的準(zhǔn)確度要整體優(yōu)于SSD算法和YOLO V2算法,所有的檢測算法在較大裂縫圖像上都能表現(xiàn)得最好,而在小裂縫圖像的檢測上,準(zhǔn)確度卻不是很高。Faster R-CNN算法和ME-Faster RCNN算法在較大裂縫圖像檢測性能上實力相當(dāng),而在小裂縫圖像的檢測上,ME-Faster R-CNN算法要更優(yōu)于Faster R-CNN算法。綜上所述,MEFaster R-CNN算法在保持一定準(zhǔn)確度的基礎(chǔ)上,在面對小目標(biāo)檢測難度較大的情況,也能獲得很好的效果。

        4)遷移學(xué)習(xí)對比實驗

        該部分以ResNet-50作為基準(zhǔn)網(wǎng)絡(luò),ME-Faster R-CNN作為目標(biāo)檢測模型,目標(biāo)數(shù)據(jù)集樣本占源訓(xùn)練集樣本的比例為r,r取2%、5%和10%,分別用K-MABtrA方法、ATrA方法、DTrA方法、TrAdaBoost遷移學(xué)習(xí)方法進行分類器訓(xùn)練。

        由表3可得出,同一方法,不同比例r下訓(xùn)練得到的分類器,在一定的范圍內(nèi)隨著比例r不斷增加,分類器的各評價指標(biāo)都有所提升,說明在一定范圍內(nèi)目標(biāo)源數(shù)據(jù)占總數(shù)據(jù)比例越大,分類器的各評價指標(biāo)越高,檢測效果越好。在目標(biāo)源數(shù)據(jù)所占比例r相同情況下:ATrA和DTrA方法各評價指標(biāo)均高于TrAdaBoost,證明了引入校正系數(shù)和自適應(yīng)回補參數(shù)的有效性。本文提出的K-MABtrA方法各指標(biāo)均高于ATrA方法。說明K-MABtrA方法引入最終平衡權(quán)重法,使最終得到的目標(biāo)源數(shù)據(jù)集與各領(lǐng)域裂縫數(shù)據(jù)集重要度一致,提高算法的檢測準(zhǔn)確率。綜上所述,K-MAB-trA方法能夠更多地利用其他領(lǐng)域的共享信息,得到更好的遷移學(xué)習(xí)效果,訓(xùn)練出強分類器,高效 地完成大壩裂縫圖片的檢測任務(wù)。

        表 3 不同遷移學(xué)習(xí)方法對比分析 Table 3 Comparison of different transfer learning methods

        4 結(jié)束語

        經(jīng)實驗驗證,本文提出的ME-Faster RCNN方法在多目標(biāo)、小目標(biāo)檢測準(zhǔn)確性方面更優(yōu)異;且本文提出的遷移學(xué)習(xí)方法更有效地解決了樣本不足的問題。本文所提出方法的局限性在于ME-Faster R-CNN相比于Faster R-CNN只在特定檢測任務(wù)中準(zhǔn)確度較高,比如本文的應(yīng)用場景:大壩裂縫檢測,或類似的檢測任務(wù)。而對于目標(biāo)大小相似、亮度相同的目標(biāo)檢測其結(jié)果與FasterR-CNN所差無幾。

        猜你喜歡
        檢測方法
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        學(xué)習(xí)方法
        可能是方法不對
        小波變換在PCB缺陷檢測中的應(yīng)用
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        日本午夜理论一区二区在线观看| 免费人成视频在线观看视频| 91亚洲无码在线观看| 日本一级淫片免费啪啪| 手机在线播放av网址| av免费不卡国产观看| 亚洲中文无码永久免| 国产精品国产午夜免费福利看 | 成人欧美一区二区三区在线观看 | 亚洲av高清一区三区三区| 亚洲中文无码av永久| 亚洲欧美aⅴ在线资源| 国产又色又爽又刺激视频 | 老师露出两个奶球让我吃奶头| 成人免费视频在线观看| 精品系列无码一区二区三区| 日韩精品极品系列在线免费视频| 高清精品一区二区三区| 亚洲av第一成肉网| 中文字幕一区,二区,三区| 亚洲av综合色区一区二区| 亚洲色成人www永久在线观看 | 粗大挺进尤物人妻一区二区| 伊人久久亚洲综合av影院| 99久久无色码中文字幕人妻蜜柚| 人人玩人人添人人澡| 国产视频不卡在线| 免费国产一区二区视频| 网禁拗女稀缺资源在线观看| 免费网站国产| 自拍偷拍另类三级三色四色| 亚洲 欧美 偷自乱 图片| 毛片24种姿势无遮无拦| 亚洲中文久久久久无码| 国产亚洲一二三区精品| 国产特级毛片aaaaaa视频| 在线高清精品第一区二区三区| 中文字幕乱码琪琪一区| 日本强伦姧人妻一区二区| 无码少妇一区二区三区 | 中国一级毛片在线观看|