亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Faster R-CNN的排水管道缺陷檢測研究

        2019-12-04 01:47:08王慶姚俊譚文祿潘惠惠
        軟件導(dǎo)刊 2019年10期
        關(guān)鍵詞:目標(biāo)檢測聚類分析深度學(xué)習(xí)

        王慶 姚俊 譚文祿 潘惠惠

        摘要:為了克服傳統(tǒng)深度學(xué)習(xí)在排水管道缺陷檢測方面識別正確率較低的缺點,在FasterR-CNN算法基礎(chǔ)上,利用聚類分析方法改進(jìn)候選區(qū)域設(shè)置,提出一種優(yōu)化的排水管道缺陷檢測模型,井采用VGG、AlexNet、GoogleNet、ResNet代替FasterR-CNN網(wǎng)絡(luò)中的特征提取層進(jìn)行模擬計算。計算結(jié)果表明,K-means方法的最優(yōu)類別數(shù)為5,雖然ResNet網(wǎng)絡(luò)訓(xùn)練時間成倍增加,但其識別正確率達(dá)到0.89,比VGG網(wǎng)絡(luò)提高了0.14。優(yōu)化后的FasterR-CNN網(wǎng)絡(luò)有效提高了排水管道缺陷檢測的識別正確率。

        關(guān)鍵詞:管道缺陷;目標(biāo)檢測;深度學(xué)習(xí);Faster R-CNN;聚類分析

        DOI:10.11907/rjdk.191817開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):

        中圖分類號:TP306文獻(xiàn)標(biāo)識碼:A 文章編號:1672-7800(2019)010-0040-05

        0引言

        目前許多城市的排水管網(wǎng)系統(tǒng)都存在不同程度的結(jié)構(gòu)性與功能性缺陷。這些管道缺陷不僅會造成污水滲漏、排水不暢等管道系統(tǒng)運行問題,還可能引起地面塌陷、環(huán)境污染等安全事故。因此,正確識別排水管道缺陷類型并進(jìn)行相應(yīng)工程修復(fù)具有重大意義。

        傳統(tǒng)排水管道缺陷識別通常是在進(jìn)行CCTV管道內(nèi)窺檢測后,依靠人工進(jìn)行缺陷分類與定位。受光線、視頻清晰度及工作疲勞等因素影響,人工缺陷識別的正確率和效率將大大降低,而采用計算機視覺技術(shù)能有效地克服這些缺點。目前用于缺陷識別的計算機視覺技術(shù)可分為圖像處理和深度學(xué)習(xí)兩類。圖像處理一般步驟分為前處理、特征提取與物體分類。圖像前處理需要假設(shè)圖像像素滿足一定先驗條件,然后利用方向梯度直方圖(Histogram of Ori-ented Gradient,HOG)等方法提取物體的幾何形態(tài)特征,最后采用K近鄰、支持向量機(Support Vector Machine,SVM)等方法對物體進(jìn)行分類。圖像處理技術(shù)早期應(yīng)用于排水管道缺陷識別中,但由于該方法存在效率低、受噪聲數(shù)據(jù)影響大、一次只能識別一種缺陷等缺點,逐漸被深度學(xué)習(xí)所取代。

        深度學(xué)習(xí)過程與圖形處理類似,主要區(qū)別是深度學(xué)習(xí)采用神經(jīng)網(wǎng)絡(luò)自動進(jìn)行特征提取以及物體識別與定位,具有很強的泛化能力,不需要過多人工干預(yù)。目前缺陷識別常用的深度學(xué)習(xí)方法主要有區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(R-CNN,F(xiàn)ast R-CNN,F(xiàn)aster R-CNN)系列、YOLO和SSD等,其中YOLO識別速度最快,可以實現(xiàn)實時檢測,F(xiàn)aster R-CNN的識別準(zhǔn)確率最高。由于管道CCTV檢測樣本數(shù)據(jù)有限,而在小樣本條件下識別準(zhǔn)確率比識別速度更重要,因此本文選擇Faster R-CNN進(jìn)行管道缺陷檢測。目前FasterR-CNN在排水管道缺陷檢測中的應(yīng)用較少,近年來部分學(xué)者針對該問題進(jìn)行了研究,如魯少輝將常規(guī)FasterR-CNN算法用于管道缺陷檢測設(shè)備中;Ming將改進(jìn)的ZF網(wǎng)絡(luò)作為Faster R-CNN中的特征提取網(wǎng)絡(luò),識別準(zhǔn)確率有一定程度提高;Zi采用K聚類方法對Faster R-CNN參數(shù)進(jìn)行改進(jìn),網(wǎng)絡(luò)訓(xùn)練速度與識別正確率都有一定程度提升。在上述K聚類基礎(chǔ)上,本文采用多種目前流行的神經(jīng)網(wǎng)絡(luò)對FasterR-CNN進(jìn)行改進(jìn),以進(jìn)一步提高識別準(zhǔn)確率。

        1Faster R-CNN缺陷檢測模型

        1.1卷積神經(jīng)網(wǎng)絡(luò)CNN

        深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)中通常包括一個卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN),R-CNN、FastR-CNN、Faster R-CNN系列算法都是在CNN基礎(chǔ)上逐步發(fā)展而來的。如圖1所示,CNN基本網(wǎng)絡(luò)結(jié)構(gòu)包括卷積層、激活函數(shù)、池化層、全連接層與目標(biāo)函數(shù)。

        卷積層(Convolutional Layer)是CNN的核心,其作用是利用卷積核與原始數(shù)據(jù)作點積,得到特征圖。卷積核大?。╢ilter size)及步長(stride)是卷積層的兩個重要參數(shù),其含義如圖2所示。卷積核相當(dāng)于一種濾波器,可以提取出原始圖片中的顏色、形狀、紋理等物體特征。通過將不同作用的卷集核組合到一個神經(jīng)網(wǎng)絡(luò)中,可以提取更加復(fù)雜的特征。

        激活函數(shù)層(activate function)模擬神經(jīng)元工作原理,當(dāng)神經(jīng)元接收信號超過閾值時,神經(jīng)元將被激活。目前應(yīng)用最廣泛的激活函數(shù)為修正線性單元(Rectified LinearUnit,ReLU),函數(shù)形式為rectifier(x)=max(O,x)。

        池化層(pooling layer)的作用是對特征圖進(jìn)行降維,從而減少參數(shù)數(shù)量和計算量。常用池化操作有最大值池化、平均值池化和隨機池化,其中最大值池化操作如圖3所示。

        全連接層(fully connected layer)是一種特殊的卷積層,作用是將特征圖映射到樣本空間作出物體類別預(yù)測,起到分類器的作用。目標(biāo)函數(shù)(loss layer)的作用是衡量全連接層預(yù)測的物體類別與真實物體類別之間的誤差。目前用于分類任務(wù)的目標(biāo)函數(shù)主要有交叉熵(Softmax)損失函數(shù),形式如下:

        CNN通常采用隨機梯度下降算法(Stochastic Gradient Descent,SGD)算法訓(xùn)練網(wǎng)絡(luò)中的參數(shù),從而使目標(biāo)函數(shù)最小。CNN只能用來分類與識別物體,不能自動檢測圖片中的物體位置,需要人工將目標(biāo)物體從圖片中截取出來后用CNN進(jìn)行識別。

        1.2R-CNN模型

        區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Region-based ConvolutionalNeural Network,R-CNN)是在CNN基礎(chǔ)上發(fā)展而來的一種用于目標(biāo)檢測的模型,其網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。R-CNN利用edgeBox或selective search算法生成2000~3000個候選區(qū)域(proposal regions),每個候選區(qū)域縮放成固定大小后輸入CNN網(wǎng)絡(luò)進(jìn)行特征提取與分類,最后利用SVM算法進(jìn)行候選區(qū)域邊界框(bounding box)的回歸,獲取候選區(qū)域位置參數(shù)。由于每個候選區(qū)域都要運行一遍CNN網(wǎng)絡(luò),因此需要大量存儲空間,計算速度較慢。

        1.3Fast R-CNN

        Fast R-CNN與R-CNN的網(wǎng)絡(luò)結(jié)構(gòu)及算法相似,不同的是Fast R-CNN將整張圖片輸入CNN網(wǎng)絡(luò)提取特征后,再在整張?zhí)卣鲌D上映射候選區(qū)域特征,最后對特征區(qū)域的特征圖進(jìn)行分類與bounding box回歸。Fast R-CNN網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。FastR-CNN與R-CNN還有兩個重要區(qū)別:一是增加了池化層(Region of Interest,ROI),目的是將不同大小候選區(qū)域的特征圖降維成統(tǒng)一大小,以便進(jìn)行下一步分類與bounding box回歸,其原理如圖6所示;二是bound-ing box回歸和分類同時進(jìn)行,使目標(biāo)函數(shù)變?yōu)槎嗄繕?biāo)損失函數(shù)。由于Faste R-CNN相比R-CNN只需進(jìn)行一次CNN特征提取網(wǎng)絡(luò)運行,從而大大提升了計算速度。

        1.4Faster R-CNN

        Faster R-CNN與Fast R-CNN之間的差別主要是將候選區(qū)域算法變化成一種神經(jīng)網(wǎng)絡(luò)(Region Proposal Network,RPN)融入主網(wǎng)絡(luò)結(jié)構(gòu)。RPN網(wǎng)絡(luò)結(jié)構(gòu)與主網(wǎng)絡(luò)結(jié)構(gòu)之間共享一段CNN特征提取網(wǎng)絡(luò),從而減少了網(wǎng)絡(luò)參數(shù)和訓(xùn)練時間。

        與selective search算法不同,RPN網(wǎng)絡(luò)工作原理是原始圖片經(jīng)過CNN特征提取網(wǎng)絡(luò)后,RPN網(wǎng)絡(luò)在特征圖上產(chǎn)生不同大小和長寬比的錨框(anchor box)。如圖8所示,用2×2的掃框(sliding window)遍掃特征圖,在掃框的中心點處設(shè)置k個不同大小和長寬比的錨框,錨框經(jīng)過分類層和回歸層后會產(chǎn)生2k個分類變量和4k個定位變量,其中2k是指候選區(qū)域包含物體與否,4k是指候選區(qū)域左上角坐標(biāo)x、y和長寬W、h。錨框大小和長寬比設(shè)置一般根據(jù)經(jīng)驗進(jìn)行調(diào)試,帶有一定主觀性,因此需要采用更加合理的方法設(shè)置錨框。

        2錨框設(shè)置

        原始圖片中可能包含各種不同缺陷類型,而候選框應(yīng)能包含所有缺陷,因此可能需要設(shè)置大量錨框,導(dǎo)致網(wǎng)絡(luò)參數(shù)和訓(xùn)練時間大大增加。K-means方法能將具有相似特征的不同類型事物聚集成一類,參照此原理,將具有相似大小和長寬比的錨框看作一類,只需設(shè)置少量錨框即能將所有缺陷包含在內(nèi)。K-means方法計算流程如圖9所示。

        本文的CCTV檢測數(shù)據(jù)有2316個候選框,其高度變化范圍為25-376pt(像素),寬度變化范圍為30-474pt。選取k=1,2…,10,分別計算對應(yīng)目標(biāo)函數(shù)E和識別正確率mAP,如圖10所示。從圖中可以看出,隨著k值變大,誤差逐漸減小,識別正確率逐漸提升。但k值越大,計算速度越慢,所需的存儲空間也越大,因此需要在優(yōu)勢和劣勢之間進(jìn)行權(quán)衡。k>5時,誤差和mAP的變化逐漸變緩,趨于穩(wěn)定,但k若繼續(xù)增大,將導(dǎo)致計算速度變慢。因此,選擇k=5作為最優(yōu)類別數(shù),最優(yōu)k時的聚類圖如圖11所示。

        3管道缺陷檢測算例

        3.1缺陷數(shù)據(jù)

        本文的管道缺陷數(shù)據(jù)來源于深圳市寶安區(qū)排水管道CCTV視頻。CCTV視頻中管道缺陷圖片共有3150張,涉及9種缺陷類型,分別為破裂、變形、腐蝕、錯口、脫節(jié)、接口材料脫落、滲漏、沉積、障礙物。各種類型的缺陷數(shù)量如圖12所示,部分圖片中同時存在多種缺陷類型,因此各種缺陷數(shù)量之和大于3150。由于深度學(xué)習(xí)需要一定數(shù)量樣本才能保證識別準(zhǔn)確率,而且樣本數(shù)量過少可能會導(dǎo)致過擬合(over fitting)問題,因此本次計算只選擇樣本數(shù)量相對較多的幾種缺陷類型,包括破裂(366個)、變形(241個)、錯口(693個)、脫節(jié)(809個)、沉積(305個),樣本圖片如圖13所示。

        為了降低過擬合的影響、提高識別準(zhǔn)確率,采用數(shù)據(jù)擴展(data augmentation)技術(shù)對樣本進(jìn)行擴充。本文采用的數(shù)據(jù)擴展技術(shù)有水平翻轉(zhuǎn)、豎直翻轉(zhuǎn)、縮放及顏色調(diào)整。數(shù)據(jù)擴展后樣本圖片數(shù)量達(dá)到11105張,其中訓(xùn)練樣

        3.2網(wǎng)絡(luò)訓(xùn)練

        特征提取網(wǎng)絡(luò)的結(jié)構(gòu)設(shè)計對目標(biāo)識別準(zhǔn)確率有很大影響,因此選取合適的特征提取網(wǎng)絡(luò)對保證管道缺陷檢測模型的有效性至關(guān)重要。Ming&Zi采用的ZF和VGG特征提取網(wǎng)絡(luò)是在ImageNet數(shù)據(jù)集上訓(xùn)練而來的,但識別準(zhǔn)確率不太理想。本文采用AlexNet、GoogleNet、ResNet101等目前流行的深度學(xué)習(xí)網(wǎng)絡(luò)與VGG網(wǎng)絡(luò)計算結(jié)果進(jìn)行對比,選取其中識別準(zhǔn)確率最高的作為排水管道缺陷檢測模型的特征提取網(wǎng)絡(luò)。

        Faster R-CNN網(wǎng)絡(luò)訓(xùn)練分為4個過程:①訓(xùn)練RPN網(wǎng)絡(luò)得到候選區(qū)域;②利用候選區(qū)域訓(xùn)練主網(wǎng)絡(luò);③固定RPN和主網(wǎng)絡(luò)共享的特征提取網(wǎng)絡(luò),只訓(xùn)練RPN獨有的部分網(wǎng)絡(luò);④固定RPN和主網(wǎng)絡(luò)共享的特征提取網(wǎng)絡(luò),只訓(xùn)練主網(wǎng)絡(luò)獨有的部分網(wǎng)絡(luò)。采用隨機梯度下降算法(SGD)訓(xùn)練網(wǎng)絡(luò),循環(huán)次數(shù)(maxEpochs)取5,學(xué)習(xí)率(learningrate)取0.001,批處理(MiniBatchSize)大小取1。網(wǎng)絡(luò)訓(xùn)練采用NVIDIA GeForce GTX 1060型號的GPU進(jìn)行加速。

        3.3結(jié)果分析

        本文采用VGGl6、AlexNet、GoogleNet、ResNet101分別進(jìn)行訓(xùn)練,得到的識別準(zhǔn)確率、訓(xùn)練時間如表1所示。不同模型的mPA和訓(xùn)練時間對比如圖14所示,從圖中可以看出,識別正確率隨著訓(xùn)練時間增加而逐漸提升,雖然ResNet訓(xùn)練時間是GoogleNet模型的3倍,但識別正確率提高了8%,其中對破裂與脫節(jié)缺陷的識別正確率分別提高了10%和14%,因此這種時間代價是值得的。

        ResNet模型的5種缺陷測試結(jié)果如圖15所示,圖中方框代表預(yù)測的缺陷位置,文字代表預(yù)測的缺陷類別,數(shù)字代表檢測精度。從圖中可以看出,對破裂、變形、錯口、脫節(jié)缺陷的檢測精度達(dá)到了100%,對沉積缺陷的檢測精度達(dá)到了99.99%,說明采用ResNet模型進(jìn)行特征提取是行之有效的。

        4結(jié)語

        本文采用K-means算法確定錨框大小,利用VGG、AlexNet、GoogleNet、ResNet 4種深度學(xué)習(xí)網(wǎng)絡(luò)代替?zhèn)鹘y(tǒng)Faster R-CNN網(wǎng)絡(luò)中的特征提取層,提出一種排水管道缺陷檢測模型,并得出以下結(jié)論:

        (1)K-means算法一定程度上減少了深度網(wǎng)絡(luò)參數(shù),提高了識別正確率。

        (2)雖然ResNet的訓(xùn)練時間大幅增加,但其識別正確率達(dá)到0.89,因此采用ResNet作為模型的特征提取層是可行的。

        (3)改進(jìn)FasterR-CNN模型的計算精度普遍在99%以上,部分達(dá)到100%。

        (4)本文提出的排水管道缺陷識別模型對類似市政工程建設(shè)具有一定借鑒意義,但需要針對如何減少網(wǎng)絡(luò)訓(xùn)練時間、提高識別速度作進(jìn)一步研究,以實現(xiàn)在CCTV檢測設(shè)備中的實時檢測。

        猜你喜歡
        目標(biāo)檢測聚類分析深度學(xué)習(xí)
        視頻中目標(biāo)檢測算法研究
        軟件(2016年4期)2017-01-20 09:38:03
        行為識別中的人體運動目標(biāo)檢測方法
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        農(nóng)村居民家庭人均生活消費支出分析
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于省會城市經(jīng)濟(jì)發(fā)展程度的實證分析
        中國市場(2016年33期)2016-10-18 12:16:58
        移動機器人圖像目標(biāo)識別
        基于聚類分析的互聯(lián)網(wǎng)廣告投放研究
        科技視界(2016年20期)2016-09-29 12:32:48
        亚洲av网站首页在线观看| 国产农村乱子伦精品视频| 少妇的丰满3中文字幕| 日本一本草久国产欧美日韩| 亚洲成人av大片在线观看| 草色噜噜噜av在线观看香蕉| 免费无码又爽又刺激网站| 熟女人妻丰满熟妇啪啪| 亚洲国产综合精品一区| 国产午夜福利片在线观看| 99re热视频这里只精品| 久久中国国产Av秘 入口| 日本老熟女一区二区三区| 中国杭州少妇xxxx做受| 欧美尺寸又黑又粗又长| 国产主播无套内射一区| 亚洲中文乱码在线观看| 无码国产精品一区二区av| 亚洲国产人在线播放首页| 国产日韩AV无码免费一区二区| 人妖在线一区二区三区| 亚洲国产精品一区二区www| 在线播放人成午夜免费视频| 青青草免费在线手机视频| 亚洲最大水蜜桃在线观看| 99精品一区二区三区无码吞精| 亚洲国产成人手机在线电影| 在线观看高清视频一区二区三区| 国产裸体美女永久免费无遮挡| 人妻被黑人粗大的猛烈进出 | 九九99久久精品在免费线97| 久久想要爱蜜臀av一区二区三区| 亚洲精品www久久久久久 | 巨胸喷奶水www视频网站| 国产欧美一区二区成人影院| 日本人妻三级在线观看| 亚洲av无码专区在线| 少妇邻居内射在线| 亚洲av综合色区久久精品天堂| 国产av综合网站不卡| 国产高颜值大学生情侣酒店|