亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于可見(jiàn)光視覺(jué)圖像的路面裂縫識(shí)別深度學(xué)習(xí)方法述評(píng)*

        2022-04-21 05:07:02盧凱良
        關(guān)鍵詞:卷積裂縫樣本

        盧凱良

        (江蘇自動(dòng)化研究所,江蘇 連云港 222061)

        1 引言

        結(jié)構(gòu)裂縫(或稱裂紋)不可避免地廣泛存在于土木建筑、交通運(yùn)輸和工程機(jī)械等諸多行業(yè)的各類建造物、結(jié)構(gòu)、零部件或制品中。針對(duì)工程結(jié)構(gòu)中的裂縫檢測(cè)或監(jiān)測(cè)技術(shù)手段主要有:(1)無(wú)損探傷技術(shù)[1,2],包括射線探傷(如CT)、超聲波探傷(如聲發(fā)射[3])、電磁渦流探傷、磁粉探傷和滲透探傷等。無(wú)損探傷技術(shù)適用于表面、近表面和內(nèi)部裂縫等全場(chǎng)景,測(cè)量精度高;但其是一種主動(dòng)探測(cè)技術(shù),需要發(fā)射和接收檢測(cè)物理介質(zhì)并可能依賴于耦合介質(zhì),因此相應(yīng)的檢測(cè)設(shè)備通常較為復(fù)雜,且價(jià)格不菲。(2)結(jié)構(gòu)健康監(jiān)測(cè)技術(shù)[4],包括基于應(yīng)力應(yīng)變信號(hào)和基于振動(dòng)信號(hào)等。該技術(shù)借助于預(yù)先布置的傳感器采集并分析時(shí)間歷程信號(hào),對(duì)結(jié)構(gòu)有無(wú)裂縫進(jìn)行識(shí)別,因是間接測(cè)量方式,對(duì)內(nèi)部裂縫的識(shí)別和定位精度尚需提高。(3)非接觸式檢測(cè)技術(shù),包括紅外、激光和超聲檢測(cè)[1 - 3]以及基于可見(jiàn)光視覺(jué)圖像的檢測(cè)[5 - 18]等。非接觸式檢測(cè)技術(shù)與前2類技術(shù)相比,無(wú)需與被測(cè)對(duì)象直接接觸,具有不受被測(cè)對(duì)象的材質(zhì)限制,檢測(cè)速度快,易于實(shí)現(xiàn)全自動(dòng)檢測(cè)等優(yōu)點(diǎn),不足之處是目前僅用于檢測(cè)表面裂縫。

        基于視覺(jué)圖像的表面裂縫識(shí)別具有非接觸式檢測(cè)的全部?jī)?yōu)點(diǎn),物理介質(zhì)是可見(jiàn)光,無(wú)需發(fā)射或能見(jiàn)度差時(shí)只需補(bǔ)光光源,整個(gè)檢測(cè)系統(tǒng)成本優(yōu)勢(shì)明顯。借助于傳統(tǒng)手工設(shè)計(jì)特征工程(Hand- crafted Feature Engineering)、機(jī)器學(xué)習(xí)(Machine Learning)和深度學(xué)習(xí)(Deep Learning)方法,基于圖像的識(shí)別技術(shù)可以實(shí)現(xiàn)裂縫定性、定位、定量各個(gè)層次的目標(biāo):(1)判斷有無(wú)裂縫,可視為分類(Classification)問(wèn)題;(2)探測(cè)裂縫的位置,可視為檢測(cè)/定位(Detection/Location)問(wèn)題;(3)檢測(cè)裂縫的分布、拓?fù)浣Y(jié)構(gòu)和尺寸,可視為分割(Segmentation)問(wèn)題,按分割精度可分為區(qū)域級(jí)/補(bǔ)丁級(jí)(region/patch-level)和像素級(jí)(pixel-level)。

        2 裂縫公開(kāi)數(shù)據(jù)集

        2.1 概述

        本文搜集了土木建筑領(lǐng)域路面裂縫和混凝土裂縫的開(kāi)源數(shù)據(jù)集,常見(jiàn)的公開(kāi)數(shù)據(jù)集如表1所示。這些數(shù)據(jù)集中的圖像樣本均是通過(guò)個(gè)人相機(jī)、移動(dòng)終端攝像頭或車(chē)載攝像頭采集的,采集成本低。圖像數(shù)目視數(shù)據(jù)集的使用目的和需求從數(shù)十張到數(shù)千張不等,圖像分辨率因采集設(shè)備而不同,根據(jù)后續(xù)處理算法的需要可以裁剪為小樣本(region/patch),例如圖像識(shí)別深度學(xué)習(xí)算法中常用的256×256或227×227;還可以通過(guò)數(shù)據(jù)增強(qiáng)進(jìn)一步增加樣本數(shù)。總的來(lái)說(shuō),相對(duì)于ImageNet、Pascal VOC等通用大型數(shù)據(jù)集而言,本文所搜集的裂縫公開(kāi)數(shù)據(jù)集尚屬專門(mén)應(yīng)用領(lǐng)域的小型數(shù)據(jù)集。

        Table 1 Common public crack datasets

        2.2 典型裂縫公開(kāi)數(shù)據(jù)集

        2.2.1 JapanRoad

        JapanRoad數(shù)據(jù)集樣本是從汽車(chē)前擋風(fēng)玻璃處采集的真實(shí)道路街景透視圖像,可用于裂縫等8類道路缺陷定位檢測(cè)[6],包含163 664幅道路圖像,其中9 053幅圖像含有裂縫,采用與PASCAL VOC相同格式的邊框(bounding box)標(biāo)注。

        2.2.2 SDNET2018

        SDNET2018是一個(gè)帶補(bǔ)丁級(jí)/區(qū)域級(jí)標(biāo)注的圖像數(shù)據(jù)集,可用于混凝土裂縫人工智能檢測(cè)算法的訓(xùn)練、驗(yàn)證和測(cè)試。

        原始圖像是利用16 MP Nikon數(shù)碼相機(jī)拍攝的,包括230幅開(kāi)裂和未開(kāi)裂混凝土表面圖像(54座橋面、72面墻壁和104條人行道,均位于猶他州立大學(xué)校園內(nèi))。

        每幅圖像再被裁剪分割為256×256像素的子圖像樣本,共計(jì)包含超過(guò)56 000個(gè)樣本,樣本中包含的裂縫窄至0.06 mm,寬至25 mm。數(shù)據(jù)集還包括帶有各種障礙和干擾(陰影、表面粗糙度、縮放、邊緣、孔洞和背景碎片等)的圖像樣本,詳見(jiàn)表2和表3。

        Table 2 Environmental factors in crack datasets

        2.2.3 CFD

        CFD是反映北京城市路面總體狀況的像素級(jí)標(biāo)注的路面裂縫數(shù)據(jù)集,是常用基準(zhǔn)數(shù)據(jù)集之一。使用手機(jī)(iPhone 5)拍攝采集,共包括480×320分辨率的圖像樣本118個(gè),樣本中包含車(chē)道線、陰影和油漬等噪聲或干擾因素。

        2.3 數(shù)據(jù)集圖像樣本中的隨機(jī)可變影響因素

        數(shù)據(jù)集中涉及的隨機(jī)可變影響因素越多,包含的高級(jí)特征越豐富,則經(jīng)過(guò)該數(shù)據(jù)集訓(xùn)練和驗(yàn)證的學(xué)習(xí)模型在真實(shí)測(cè)試場(chǎng)景中的泛化能力越強(qiáng)。這些隨機(jī)可變影響因素主要包括圖像背景、環(huán)境影響以及其他干擾因素,并且在圖像樣本中這些因素通常組合疊加呈現(xiàn)。為了清晰展現(xiàn),表3中所展示的一組(一行)圖像樣本盡可能體現(xiàn)單一因素。

        Table 3 Noise interference factors in crack datasets

        2.3.1 背景

        JapanRoad數(shù)據(jù)集中的圖像背景包括汽車(chē)、房屋、天空、行人、綠化帶、車(chē)道線和電線桿等。CFD數(shù)據(jù)集中也有少量圖像樣本具有街道實(shí)景背景。還有一類干擾背景如油漬、輪胎制動(dòng)痕跡和斑點(diǎn)等。

        2.3.2 環(huán)境影響

        環(huán)境影響主要指由天氣、光照變化引起的亮度變化、陰影、亮點(diǎn)和低對(duì)比度等。作為對(duì)比,表2列出了不受環(huán)境影響的Aigle-RN數(shù)據(jù)集中的部分樣本(因其裂縫紋理特征較復(fù)雜,為減少不均勻照明專門(mén)進(jìn)行了預(yù)處理)。

        2.3.3 干擾因素

        除了背景和環(huán)境影響,可變影響因素還包括車(chē)道線、油漬/瀝青/濕漬/斑點(diǎn)、井蓋、輪胎制動(dòng)痕跡、紋理差異、表面粗糙度、邊界、孔洞以及其他雜物等噪聲干擾因素,如表3所示。

        3 裂縫識(shí)別算法比較

        裂縫識(shí)別方法可分為傳統(tǒng)手工設(shè)計(jì)特征工程、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)3種,各方法中的常見(jiàn)算法及其特點(diǎn)如表4所示。

        3.1 傳統(tǒng)手工設(shè)計(jì)特征工程

        傳統(tǒng)手工設(shè)計(jì)特征工程通常使用邊緣或形態(tài)特征檢測(cè)算法和特征變換(或?yàn)V波)算法。邊緣或形態(tài)特征檢測(cè)算法包括Canny[7,8]、Sobel[14]、方向梯度直方圖HOG(Histogram of Oriented Gradient)和局部二值模式LBP(Local Binary Pattern)等。特征變換(或?yàn)V波)算法包括快速傅里葉變換FFT(Fast Fourier Transform)、快速哈爾變換FHT(Fast Haar Transform)、Gabor濾波器和亮度閾值[8]等。

        這些算法借助數(shù)學(xué)計(jì)算方式逐步提取或解析出圖像中對(duì)象的邊緣和形態(tài)等特征,屬于非學(xué)習(xí)方法,不依賴于數(shù)據(jù)集;而且所用數(shù)學(xué)計(jì)算多為解析式,一般來(lái)說(shuō)算法的計(jì)算量小、速度快。缺點(diǎn)是對(duì)隨機(jī)可變因素的泛化能力弱,且易受這些因素的干擾,自適應(yīng)能力弱,應(yīng)用場(chǎng)景或環(huán)境一旦改變就需調(diào)參、重新設(shè)計(jì)算法甚至方法失效。

        3.2 機(jī)器學(xué)習(xí)方法

        機(jī)器學(xué)習(xí)和深度學(xué)習(xí)均為學(xué)習(xí)類算法,依賴于數(shù)據(jù)集。不同的是,機(jī)器學(xué)習(xí)方法的數(shù)學(xué)表達(dá)是顯式的、可解釋的,而深度學(xué)習(xí)是隱式的。一般認(rèn)為,深度學(xué)習(xí)(神經(jīng)網(wǎng)絡(luò)的深度或?qū)蛹?jí)更深)面向高維特征,機(jī)器學(xué)習(xí)面向低維特征;機(jī)器學(xué)習(xí)介于傳統(tǒng)手工設(shè)計(jì)特征工程和深度學(xué)習(xí)方法之間。

        基于常見(jiàn)的機(jī)器學(xué)習(xí)方法例如支持向量機(jī)SVM(Support Vector Machine)[7]、決策樹(shù)(Decision Tree)和隨機(jī)森林(Random Forrest),相應(yīng)的裂縫識(shí)別算法主要有CrackIT、CrackTree和CrackForest[8,10,14 - 17]等。

        3.3 深度學(xué)習(xí)方法

        深度學(xué)習(xí)方法的使用得益于并行計(jì)算硬件(GPU/、TPU/等)的飛躍、大規(guī)模數(shù)據(jù)集(ImageNet、Pascal VOC等)的基準(zhǔn)催化作用和算法的不斷改進(jìn)和完善。例如,批標(biāo)準(zhǔn)化(Batch Normalization)、殘差連接(Residual Connection)和深度可分離卷積(Depth Separable Convolution)是從2012年起開(kāi)始聲名卓著的。雖然深度學(xué)習(xí)方法尚存在“黑箱”和解釋性問(wèn)題,不可否認(rèn)其在計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理和強(qiáng)化學(xué)習(xí)等領(lǐng)域取得的最新進(jìn)展甚至超越人類水平的成績(jī)。目前科學(xué)家們正在理論攻關(guān)[18],工程師們也通過(guò)可視化技術(shù)不斷提升深度學(xué)習(xí)過(guò)程的可解釋性[19]。

        卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolutional Neural Network)因其能學(xué)到的模式具有平移不變性(translation invariant)并且可以學(xué)到模式的空間層次結(jié)構(gòu)(spatial hierarchies),自2012年始在計(jì)算機(jī)視覺(jué)識(shí)別等領(lǐng)域不斷取得突破性進(jìn)展?;贑NN的圖像識(shí)別深度學(xué)習(xí)方法具有特征自動(dòng)提取、泛化能力強(qiáng)和精度高等優(yōu)點(diǎn)。按深度學(xué)習(xí)方法的不同范式,各類算法又可分為自搭架構(gòu)、遷移學(xué)習(xí)、編碼-解碼器、生成對(duì)抗網(wǎng)絡(luò)及其他算法。

        Table 4 Typical crack identification algorithms and their characteristics

        自搭架構(gòu)是依據(jù)CNN的一般設(shè)計(jì)原則,針對(duì)應(yīng)用場(chǎng)景的特定數(shù)據(jù)集來(lái)設(shè)計(jì)和搭建的模型架構(gòu),如早期的ConvNet[7]、Structured-Prediction CNN[8]和近期的CrackNet/CrackNet-V[9,10]。這類算法具有對(duì)特定應(yīng)用場(chǎng)景適應(yīng)性好、模型小和參數(shù)少等優(yōu)點(diǎn),但泛化能力一般,且模型往往未經(jīng)優(yōu)化。

        Figure 1 Illustration of ConvNet architecture [7]

        遷移學(xué)習(xí)是利用在大規(guī)模通用數(shù)據(jù)集上預(yù)訓(xùn)練的模型架構(gòu)優(yōu)化過(guò)的CNN主干網(wǎng)絡(luò)(backbone)學(xué)習(xí)到可移植的底層特征,再在專門(mén)數(shù)據(jù)集上微調(diào)高層和/或輸出層的神經(jīng)網(wǎng)絡(luò)連接權(quán)重,以期學(xué)習(xí)到面向?qū)iT(mén)數(shù)據(jù)集的高維特征。遷移學(xué)習(xí)適用小型數(shù)據(jù)集問(wèn)題,訓(xùn)練快、易調(diào)整、泛化好。

        編碼-解碼器由編碼器和解碼器組成。在CNN中,編碼器用于產(chǎn)生具有語(yǔ)義信息的特征圖;解碼器將編碼器輸出的低分辨率特征圖像映射回原始輸入圖像尺寸,從而可以逐個(gè)像素分類。編碼-解碼器適用于弱監(jiān)督和小型數(shù)據(jù)集情形,其代表模型FPCNet(Fast Pavement Crack detection Network)[15]精度和速度俱佳。

        生成對(duì)抗網(wǎng)絡(luò)利用2個(gè)網(wǎng)絡(luò)(判別網(wǎng)絡(luò)和生成網(wǎng)絡(luò))對(duì)抗訓(xùn)練,使生成網(wǎng)絡(luò)產(chǎn)生的樣本服從真實(shí)數(shù)據(jù)分布。ConnCrack(combining cWGAN & connectivity maps)[14]和CrackGAN(pavement Crack detection using partially accurate ground truths based on GAN)[16]是裂縫識(shí)別的代表性模型。生成對(duì)抗網(wǎng)絡(luò)識(shí)別精度高,還可用于難例挖掘。早期版本訓(xùn)練和預(yù)測(cè)時(shí)間較長(zhǎng)[14],改進(jìn)的CrackGAN[16]在前期GAN算法基礎(chǔ)上,提出了僅基于裂縫補(bǔ)丁樣本CPO(Crack-Patch-Only)的監(jiān)督對(duì)抗學(xué)習(xí)和非對(duì)稱U-Net網(wǎng)絡(luò)架構(gòu),可在人工半精確標(biāo)注(1像素曲線標(biāo)注)樣本上進(jìn)行端到端訓(xùn)練,并在全尺寸圖像上進(jìn)行裂縫分割預(yù)測(cè);還引入了遷移學(xué)習(xí)算法訓(xùn)練編碼器原型網(wǎng)絡(luò),以及從預(yù)先訓(xùn)練的深度卷積生成對(duì)抗網(wǎng)絡(luò)中遷移知識(shí),以提供端到端訓(xùn)練中所產(chǎn)生的對(duì)抗性損失。CrackGAN[16]率先解決了裂縫和背景樣本數(shù)嚴(yán)重不平衡引發(fā)的“全黑”問(wèn)題,計(jì)算效率大幅提升,減輕了標(biāo)注工作量。

        其他算法還包括FPHBN(Feature Pyramid and Hierarchical Boosting Network)[17],該算法融合了特征金字塔和分層增強(qiáng)等技術(shù),模型架構(gòu)與FPCNet[15]的類似。

        4 裂縫識(shí)別深度學(xué)習(xí)方法進(jìn)展

        4.1 自搭架構(gòu)

        4.1.1 ConvNet

        (1)數(shù)據(jù)集。

        所用數(shù)據(jù)集包含500幅分辨率為3 264×2 448的原始圖像,裁剪生成包含640 000個(gè)樣本的訓(xùn)練集、包含160 000個(gè)樣本的驗(yàn)證集、包含200 000個(gè)樣本的測(cè)試集,樣本分辨率均為99×99,標(biāo)注精度為補(bǔ)丁級(jí)。數(shù)據(jù)集未公開(kāi)。

        (2)網(wǎng)絡(luò)架構(gòu)。

        網(wǎng)絡(luò)架構(gòu)比較簡(jiǎn)單,包括4個(gè)卷積conv(convolution)層(4×4,5×5,3×3,4×4)和2個(gè)全連接層fc(fully connection),每個(gè)卷積層后都有最大池化層mp(max pooling),如圖1所示。

        (3) 性能衡量指標(biāo)。

        樣本測(cè)試的準(zhǔn)確度度量指標(biāo)主要有:

        (1)

        (2)

        (3)

        (4)

        其中,TP(True Positive)表示真陽(yáng)例的數(shù)量,TN(True Negative)表示真陰例的數(shù)量,F(xiàn)P(False Positive)表示假陽(yáng)例的數(shù)量,F(xiàn)N(False Negative)表示假陰例的數(shù)量,Total=TP+FN+FP+TN為總樣本數(shù)。由式(4)可知,F(xiàn)1-score是Precision和Recall的加權(quán)調(diào)和平均數(shù)。

        Figure 3 Architecture of Structured-Prediction CNN[8]

        (4) 性能與效果。

        ConvNet[7]的測(cè)試精確率、召回率和F1-score分?jǐn)?shù)分別為0.869 6,0.925 1和0.896 5,均高于SVM和提升(Boosting)算法的,測(cè)試效果對(duì)比如圖2所示。無(wú)論在準(zhǔn)確度度量指標(biāo)還是在識(shí)別效果上,ConvNet[7]都明顯優(yōu)于傳統(tǒng)機(jī)器學(xué)習(xí)方法。由于屬早期探索性研究,ConvNet[7]只關(guān)注了測(cè)試準(zhǔn)確度,還未涉及測(cè)試速度。

        Figure 2 Test performance of two samples[7]

        4.1.2 Structured-Prediction CNN

        (1)數(shù)據(jù)集。

        Structured-Prediction CNN[8]同時(shí)關(guān)注了測(cè)試準(zhǔn)確度和速度,為了形成基準(zhǔn)比較,在數(shù)據(jù)集Aigle-RN上進(jìn)行了測(cè)試,還專門(mén)構(gòu)建了CFD數(shù)據(jù)集。

        (2) 網(wǎng)絡(luò)架構(gòu)。

        如圖3所示,輸入樣本為3通道的27×27的彩色圖像,其他立方體塊表示通過(guò)卷積或最大池化運(yùn)算得到的特征圖,最后連接2個(gè)全連接層和1個(gè)輸出層。

        (3) 性能表現(xiàn)。

        在準(zhǔn)確度上,表5和表6中的結(jié)果再次印證了深度學(xué)習(xí)CNN方法總體上比機(jī)器學(xué)習(xí)(如CrackForest)表現(xiàn)更優(yōu),且遠(yuǎn)好于傳統(tǒng)手工設(shè)計(jì)特征工程方法(如Canny,Local thresholding)。

        在預(yù)測(cè)速度上,原始圖片在NVIDIA GTX 1080Ti GPU上可達(dá)到2.6 fps。

        Table 5 Crack detection results of different methods on CFD

        Table 6 Crack detection results of different methods on Aigle-RN

        (4) 檢測(cè)效果。

        Structured-Prediction CNN[8]采用了27×27的小尺寸輸入,且CFD和Aigle-RN均對(duì)裂縫進(jìn)行了像素級(jí)標(biāo)注(2個(gè)像素誤差),裂縫檢測(cè)效果遠(yuǎn)好于ConvNet[7],已用于鱷魚(yú)皮狀裂紋的檢測(cè),檢測(cè)效果如圖4所示。

        Figure 4 Results comparison on CFD and Aigle-RN[8]

        4.1.3 CrackNet/CrackNet-V

        (1) 數(shù)據(jù)集。

        Figure 5 Architecture of CrackNet[9]

        Figure 6 Architecture of CrackNet-V[10]

        與之前算法不同的是,CrackNet / CrackNet-V[9,10]使用激光掃描獲得的3D瀝青路面圖像作為輸入。相比可見(jiàn)光攝像頭采集的圖像,激光掃描圖像分辨率更高,可過(guò)濾部分噪聲,相當(dāng)于做了一次圖像預(yù)處理,因而圖像更加清晰,可以實(shí)現(xiàn)像素級(jí)裂紋標(biāo)注和分割。因此,不僅僅是可見(jiàn)光攝像頭,激光掃描、紅外攝像頭甚至聲發(fā)射等無(wú)損穿透式檢測(cè)或監(jiān)測(cè)傳感器采集得到的圖像或信號(hào),均可作為深度學(xué)習(xí)網(wǎng)絡(luò)的輸入,從而不僅可以檢測(cè)表面裂縫,亦有望探測(cè)或監(jiān)測(cè)被測(cè)物內(nèi)部裂縫。

        3D瀝青路面圖像數(shù)據(jù)集包括訓(xùn)練集的2 568個(gè)圖像樣本、驗(yàn)證集的15個(gè)典型圖像樣本和測(cè)試集的500個(gè)圖像樣本。CrackNet[9]輸入樣本的分辨率為1 024×512,CrackNet-V[10]輸入樣本的分辨率為512×256。

        (2)網(wǎng)絡(luò)架構(gòu)。

        CrackNet[9]網(wǎng)絡(luò)架構(gòu)如圖5所示,包括輸入層、2個(gè)卷積層(卷積核(Filter Size)分別為50×50和1×1)、2個(gè)全連接層和輸出層;卷積層激活函數(shù)(Activation Function)為L(zhǎng)eaky ReLU,輸出層為Sigmoid,共計(jì)1 159 561個(gè)參數(shù)。

        CrackNet-V[10]網(wǎng)絡(luò)架構(gòu)如圖6所示,增加了預(yù)處理(Pre-Process)層,包括中值濾波(Med-Filter)和Z標(biāo)準(zhǔn)化(Z-Norm)。總體上借鑒了VGG模型架構(gòu),大量采用3×3卷積,增加了1個(gè)15×15卷積層和2個(gè)1×1卷積層,比CrackNet[9]的層數(shù)更深,由于沒(méi)有全連接層且卷積核更小,參數(shù)反而更少,模型更輕量化。

        CrackNet[9]和CrackNet-V[10]均無(wú)池化層,輸入和輸出圖像的分辨率不變,故可用于實(shí)現(xiàn)像素級(jí)分割。

        (3) 性能表現(xiàn)。

        對(duì)比表7和表8可知,在準(zhǔn)確度上,CrackNet-V[10]比CrackNet[9]略高;在運(yùn)算速度上,無(wú)論訓(xùn)練和測(cè)試(前饋和反饋運(yùn)算)時(shí)長(zhǎng),前者約為后者的1/4,證實(shí)了CrackNet-V[10]的架構(gòu)更優(yōu)化。

        Table 7 Test results comparison between CrackNet and CracNet-V

        Table 8 Speed comparison between CrackNet and CrackNet-V

        Figure 8 Framework and steps of deep(transfer) learning

        (4)檢測(cè)效果。

        CrackNet-V[10]對(duì)鱷魚(yú)皮狀細(xì)裂縫的檢測(cè)效果如圖7所示。因?yàn)槟P图軜?gòu)的特殊優(yōu)化設(shè)計(jì),CrackNet-V[10]可以實(shí)現(xiàn)完美像素級(jí)裂紋分割;另一方面,檢測(cè)速度也非常快,在NVIDIAGTX1080TiGPU上測(cè)試速度約為0.33s/img,與Structured-PredictionCNN[8]的速度相當(dāng)。

        Figure 7 Crack detection results of CrackNet-V[10]

        4.2 遷移學(xué)習(xí)

        4.2.1 遷移學(xué)習(xí)的框架和步驟

        學(xué)習(xí)方法的一般步驟包括訓(xùn)練(Train)、驗(yàn)證(Validation)、測(cè)試(Test)和預(yù)測(cè)(Predict)。圖8展示了深度(遷移)學(xué)習(xí)的框架和步驟。

        遷移學(xué)習(xí)主要包含以下步驟:

        (1)在預(yù)訓(xùn)練的基礎(chǔ)網(wǎng)絡(luò)上添加自定義的神經(jīng)網(wǎng)絡(luò)層?;A(chǔ)網(wǎng)絡(luò)由主干網(wǎng)絡(luò)(常見(jiàn)的如VGG-16[11]、VGG-19[14]、Inception-V3[12]、Xception[13]、Resnet152[14]等)及其在大規(guī)模數(shù)據(jù)集上預(yù)訓(xùn)練的權(quán)重參數(shù)值組成。

        (2)凍結(jié)基礎(chǔ)網(wǎng)絡(luò)。

        (3)在專門(mén)的數(shù)據(jù)集(如SDNET2018/CCIC)上訓(xùn)練所添加的自定義頂層。

        (4)解凍基礎(chǔ)網(wǎng)絡(luò)中的某些層。

        (5)聯(lián)合訓(xùn)練未凍結(jié)的層和所添加的自定義頂層。

        步驟(2)~步驟(5)又統(tǒng)稱為微調(diào)(Fine-tuning)。

        最后,如果滿足預(yù)設(shè)目標(biāo),就輸出新的網(wǎng)絡(luò)模型和微調(diào)后的權(quán)重參數(shù)值,用于部署并預(yù)測(cè)待預(yù)測(cè)的圖像樣本,輸出概率值和類別;如果不滿足,可通過(guò)增大數(shù)據(jù)集、重選主干網(wǎng)絡(luò)和解凍更多層等措施來(lái)重新執(zhí)行遷移學(xué)習(xí)過(guò)程,從而優(yōu)化神經(jīng)網(wǎng)絡(luò)模型和權(quán)重參數(shù),直至滿足預(yù)設(shè)目標(biāo)。

        4.2.2 基準(zhǔn)測(cè)試結(jié)果和性能比較

        考慮到精度和效率的折衷以及在低算力平臺(tái)上的測(cè)試部署,本文重點(diǎn)選擇了InceptionV3和MobileNetV1/V2在CCIC和SDNET2018數(shù)據(jù)集上進(jìn)行性能測(cè)試,并與相關(guān)文獻(xiàn)成果進(jìn)行比較,結(jié)果如表9所示。由于表9用于性能比較的參考文獻(xiàn)裂縫數(shù)據(jù)集有些未公開(kāi)(盡管類似),且計(jì)算平臺(tái)不盡相同,故本表中的性能比較并非完全嚴(yán)格,僅供參考。預(yù)測(cè)耗時(shí)含圖像載入、預(yù)處理等時(shí)間。從表9中可知:

        (1) 應(yīng)用遷移學(xué)習(xí)法對(duì)裂縫圖像分類,測(cè)試分類精度已超過(guò)ImageNet多分類基準(zhǔn)線(參見(jiàn)https://github.com/mikelu-shanghai/Typical-CNN-Model-Evolution);在相近的分類比數(shù)據(jù)集(如CCIC)上,其結(jié)果也優(yōu)于當(dāng)前已公開(kāi)發(fā)表的成果[11,12,20]。在人眼易辨識(shí)的CCIC數(shù)據(jù)集上,使用輕量級(jí)主干網(wǎng)絡(luò)MobileNetV1遷移學(xué)習(xí)的精度達(dá)到99.8%。

        (2)TL-InceptionV3在人眼難辨識(shí)的SDNET2018數(shù)據(jù)集上的測(cè)試精度為96.1%,已較為接近FPCNet[15]的最佳水平97.5%(可用更重量級(jí)的主干網(wǎng)絡(luò)進(jìn)一步提高遷移學(xué)習(xí)的精度),測(cè)試耗時(shí)16.1ms,遠(yuǎn)低于FPCNet的67.9ms(測(cè)試平臺(tái)均為NVIDIAGTX1080TiGPU)。

        4.3 編碼-解碼器(FPCNet)

        以上算法存在2點(diǎn)不足之處:

        (1)路面裂縫具有不同的寬度和拓?fù)?,但是CNN/FCN方法的過(guò)濾器感受野僅使用特定大小的卷積核(kernel)來(lái)提取裂縫特征(特別是VGG之后的模型大量采用3×3),限制了其對(duì)裂縫檢測(cè)的魯棒性。

        (2)未考慮裂紋的邊緣、模式或紋理特征對(duì)檢測(cè)結(jié)果的貢獻(xiàn)不同。

        編碼-解碼器模型FPCNet[15]即是針對(duì)這2點(diǎn)不足設(shè)計(jì)的。

        (1) 數(shù)據(jù)集。

        FPCNet使用的測(cè)試數(shù)據(jù)集為CFD(樣本裁剪為288×288)和G45(樣本裁剪為480×480)。

        (2) 網(wǎng)絡(luò)架構(gòu)。

        FPCNet[17]網(wǎng)絡(luò)架構(gòu)包括多重膨脹MD(Multi-Dilation)模塊和擠壓-激發(fā)上采樣SEU(SqueezingandExcitationUp-sampling)模塊。多重膨脹MD模塊如圖9所示,該模塊級(jí)聯(lián)4個(gè)膨脹率分別為1,2,3和4的膨脹卷積通道(每通道2次膨脹卷積核操作)、1個(gè)全局池化層+1×1卷積+上采樣通道和原始的裂縫多層卷積MC(Multiple-Convolution)特征。之后,執(zhí)行1×1卷積以獲得裂縫多層膨脹卷積特征。除了最后的1×1卷積,每個(gè)卷積都保留其特征通道的數(shù)量,并且使用填充來(lái)確保MC特征的分辨率恒定。

        SEU模塊如圖10所示,H、W和C分別表示特征的長(zhǎng)度、寬度和通道數(shù)。輸入的是MD特征和MC特征,輸出的是經(jīng)過(guò)加權(quán)融合優(yōu)化后的MD特征。

        SEU模塊首先通過(guò)轉(zhuǎn)置卷積來(lái)恢復(fù)裂紋MD特征的分辨率,之后將MC特征添加到MD特征中,以便融合邊緣、模式和紋理等的相關(guān)裂紋信息,接下來(lái)執(zhí)行全局池化以獲得C個(gè)信道的全局信息。

        隨后,在經(jīng)過(guò)對(duì)全局信息擠壓(Squeezing)和激發(fā)(Excitation)2個(gè)完全連接層后,通過(guò)學(xué)習(xí)獲得每個(gè)特征在其通道中的權(quán)重,從而使得SEU模塊可以為不同的裂縫特征(例如邊緣、模式和紋理)自適應(yīng)地分配不同的權(quán)重。

        Table 9 Test results and performance comparison of some typical backbone network

        Figure 9 MD module [15]

        Figure 10 SEU module[15]

        最后,將添加MC后的MD特征中的每個(gè)特征與其對(duì)應(yīng)的權(quán)重(Fscale)相乘,以獲得優(yōu)化的MD特征。

        Figure 11 Overall architecture of FPCNet [15]

        FPCNet[15]網(wǎng)絡(luò)的整體架構(gòu)如圖11所示,該網(wǎng)絡(luò)使用4個(gè)卷積層(2個(gè)3×3卷積+ReLU)和最大池化作為編碼器來(lái)提取特征。接下來(lái),使用MD模塊來(lái)獲取多個(gè)上下文大小的信息。隨后,將4個(gè)SEU模塊用作解碼器。圖11中,上排左數(shù)第2至第5個(gè)箭頭表示最大池化;下排右數(shù)第1至第4個(gè)箭頭表示轉(zhuǎn)置卷積,最后1個(gè)箭頭表示1×1卷積+Sigmoid;MCF表示在編碼器中提取的MC特征,MDF表示MD特征。

        (3)性能表現(xiàn)。

        在CFD數(shù)據(jù)集上的裂縫檢測(cè)結(jié)果如表10所示,F(xiàn)PCNet[15]的各項(xiàng)評(píng)估指標(biāo)均優(yōu)于機(jī)器學(xué)習(xí)、CNN等方法,是目前最新的網(wǎng)絡(luò)之一。FPCNet[15]的預(yù)測(cè)速度也較快,在NVIDIA GTX1080Ti GPU上單幅288×288的圖像樣本預(yù)測(cè)耗時(shí)67.9 ms即14.7 fps,能實(shí)現(xiàn)實(shí)時(shí)檢測(cè)。

        Table 10 Results for crack detection on CFD[15]

        (4) 檢測(cè)效果。

        FPCNet[15]與Structured-Prediction CNN[8]等在CFD數(shù)據(jù)集上的檢測(cè)效果比較如圖12所示,這2個(gè)網(wǎng)絡(luò)以及CrackNet/CrackNet-V[9,10]均能達(dá)到像素級(jí)精度的裂縫檢測(cè)(標(biāo)注精度2個(gè)像素誤差)要求。FPCNet[15]正如其架構(gòu)設(shè)計(jì)初衷,對(duì)諸如鱷魚(yú)皮狀等各類復(fù)雜形態(tài)裂縫的邊緣、紋理和細(xì)部的識(shí)別精確度較高。

        Figure 12 Results comparison of proposed approach with Structured-Prediction CNN on CFD[15]

        5 結(jié)束語(yǔ)

        目前,研究人員已經(jīng)能夠基于單一模型在低算力GPU平臺(tái)上實(shí)現(xiàn)裂縫補(bǔ)丁級(jí)實(shí)時(shí)檢測(cè)和像素級(jí)快速檢測(cè)?;贗nceptionV3的遷移學(xué)習(xí)和編碼-解碼器FPCNet對(duì)單一測(cè)試樣本檢測(cè)總耗時(shí)低于100 ms,基于MobileNet更可低于10 ms;在準(zhǔn)確度上,在人眼易辨識(shí)的CCIC數(shù)據(jù)集上測(cè)試精度可達(dá)到99.8%以上;在難辨識(shí)的SDNET2018數(shù)據(jù)集上,遷移學(xué)習(xí)算法最高接近96.1%。利用集成上述算法的集成方法還可進(jìn)一步提高測(cè)試準(zhǔn)確度。

        對(duì)于工程結(jié)構(gòu)中的裂縫檢測(cè)或識(shí)別問(wèn)題,相較于無(wú)損探傷技術(shù)和健康監(jiān)測(cè)技術(shù)等接觸式檢測(cè)方式,基于可見(jiàn)光視覺(jué)圖像的表面裂縫識(shí)別非接觸式檢測(cè)方法,可充分發(fā)揮其不受被測(cè)對(duì)象的材質(zhì)限制、成本低、精度高和易于實(shí)現(xiàn)全自動(dòng)在線檢測(cè)等優(yōu)勢(shì),因而適用于例行巡檢等預(yù)防性檢測(cè)或監(jiān)測(cè)、幾何拓?fù)湫问娇沙橄鬄?D平面形態(tài)的物體缺陷檢測(cè)等場(chǎng)景。

        猜你喜歡
        卷積裂縫樣本
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        碳酸鹽巖裂縫描述七大難點(diǎn)
        裂縫(組詩(shī))
        鴨綠江(2021年35期)2021-04-19 12:23:56
        用樣本估計(jì)總體復(fù)習(xí)點(diǎn)撥
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        推動(dòng)醫(yī)改的“直銷(xiāo)樣本”
        地球的裂縫
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        隨機(jī)微分方程的樣本Lyapunov二次型估計(jì)
        村企共贏的樣本
        手机免费在线观看av网址| 被欺辱的高贵人妻被中出| 一亚洲一区二区中文字幕| 亚洲精品在线免费视频| 99久久婷婷国产综合精品青草免费 | 国产人妻大战黑人20p| 精品含羞草免费视频观看| 岳好紧好湿夹太紧了好爽矜持| 馬与人黃色毛片一部| 中文字幕日本熟妇少妇| 日本高清一区二区三区不卡| 久久久精品国产免费看| 亚洲中文字幕无码天然素人在线| 免费夜色污私人影院在线观看 | 国产高清一区二区三区视频| 一本大道道久久综合av| 国产一区二区内射最近更新| 久久精品中文字幕极品| 亚洲精品国产二区在线观看| 91中文人妻熟女乱又乱| 亚洲国产精品日韩av专区| 高清国产美女一级a毛片在线| 国产一区二区三区免费主播| 日韩精品视频免费网站| 久激情内射婷内射蜜桃| 最新亚洲人AV日韩一区二区| 国产一区二区在线观看av| 精品国产精品三级精品av网址| 人人狠狠综合久久亚洲| 国产亚洲精品自在久久蜜tv| 日韩av中文字幕亚洲天| 亚洲av成人综合网成人| 欧美巨大巨粗黑人性aaaaaa | 日韩有码中文字幕av| 在线观看一级黄片天堂| 日产精品久久久一区二区| 无码人妻一区二区三区免费n鬼沢| 极品美女尤物嫩模啪啪| 久久精品国产亚洲av天美| 国产午夜福利久久精品| 国产国产人精品视频69|