亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的野外露頭區(qū)巖石裂縫識(shí)別

        2020-06-09 08:17:42梁世豪
        關(guān)鍵詞:深度

        羅 偉,梁世豪,姜 鑫,安 妮,杜 銳

        (東北石油大學(xué)電子科學(xué)學(xué)院,黑龍江 大慶 163318)

        0 引 言

        野外露頭區(qū)巖石裂縫是巖石受到地質(zhì)作用影響而產(chǎn)生的裂縫,地質(zhì)考察中對(duì)此類露頭區(qū)裂縫的研究是一項(xiàng)很重要的課題,通過對(duì)裂縫的深入研究可以為了解地質(zhì)結(jié)構(gòu)的演化過程和預(yù)測(cè)地下的礦產(chǎn)資源等地質(zhì)考察工作提供有效的數(shù)據(jù)支持。

        但目前傳統(tǒng)的露頭區(qū)裂縫的研究中,初始的裂縫獲取及處理仍采用人工描繪處理方法和傳統(tǒng)的圖像處理算法如主成分分析法(PCA)、局部保值映射法(LPP)、拉普拉斯特征圖法、稀疏表示法等。第一種人工描繪方法不僅浪費(fèi)龐大的人力而且會(huì)不可避免地產(chǎn)生較大的人工測(cè)量誤差,以至于對(duì)地質(zhì)考察深入研究工作帶來不可預(yù)估的偏差和風(fēng)險(xiǎn)。第二種傳統(tǒng)圖像處理方法在計(jì)算機(jī)的幫助下相對(duì)人工描繪法而言可以較好地處理簡(jiǎn)單的裂縫如隧道、路面、工業(yè)產(chǎn)品等表面裂縫,如國內(nèi)王耀東等人[1]提出的一種全局與局部相結(jié)合以及連通區(qū)域的多級(jí)濾波隧道裂縫檢測(cè)算法;徐志剛等人[2]提出的一種基于直方圖和形狀分析的瀝青路面裂縫識(shí)別算法。但由于原始野外露頭區(qū)巖石表面結(jié)構(gòu)和裂縫結(jié)構(gòu)較為復(fù)雜以及外部環(huán)境(光照、陰影等)的影響,導(dǎo)致這些傳統(tǒng)的圖像處理算法對(duì)野外露頭區(qū)裂縫的識(shí)別結(jié)果準(zhǔn)確度不高,并且不易對(duì)原圖裂縫外表結(jié)構(gòu)進(jìn)行有效表達(dá),無法滿足現(xiàn)代地質(zhì)考察的應(yīng)用。隨著深度學(xué)習(xí)在近些年不斷取得重大的突破,一些研究者開始研究用深度學(xué)習(xí)算法來識(shí)別隧道、橋梁、瀝青路面、容器等表面復(fù)雜度較低的裂縫。如國外Dung等人[3]研究的一種基于卷積神經(jīng)網(wǎng)絡(luò)的混凝土裂縫自動(dòng)檢測(cè)法;Protopapadakis等人[4]研究的使用深度學(xué)習(xí)和圖像后處期理的隧道自動(dòng)裂縫檢測(cè)技術(shù);Kim等人[5]研究的基于深度學(xué)習(xí)的混凝土表面裂縫檢測(cè)技術(shù)。以上3種基于深度學(xué)習(xí)的識(shí)別方法在識(shí)別復(fù)雜度較低的混凝土隧道表面取得了良好效果。相關(guān)研究還包括Zhang等人[6]研究的基于深度學(xué)習(xí)的對(duì)3D瀝青路面全自動(dòng)裂縫檢測(cè);Islam等人[7]研究的基于特征選擇和深度學(xué)習(xí)方法的壓力容器裂紋分類法;Dung等人[8]提出的一種基于視覺的鋼橋節(jié)點(diǎn)板焊接裂紋檢測(cè)方法;國內(nèi)李良福等人[9]提出的一種基于深度學(xué)習(xí)的橋梁裂縫檢測(cè)算法和Ni等人[10]提出的卷積特征融合圖像中的像素級(jí)裂紋描述等。

        根據(jù)上述傳統(tǒng)圖像處理算法的不足和深度學(xué)習(xí)算法在野外露頭區(qū)等高度復(fù)雜的表面的裂縫研究處于空白的情況,本文提出一種基于TensorFlow的神經(jīng)網(wǎng)絡(luò)模型算法來對(duì)野外露頭區(qū)裂縫進(jìn)行識(shí)別,該方法通過使用預(yù)處理的數(shù)據(jù)集對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,使用訓(xùn)練完成的模型和參數(shù)對(duì)野外露頭區(qū)裂縫圖片進(jìn)行識(shí)別得到了高于91%的識(shí)別準(zhǔn)確度,并且識(shí)別結(jié)果可以清晰地顯示裂縫結(jié)構(gòu)。該方法可為現(xiàn)代地質(zhì)考察提供可靠的數(shù)據(jù)支持。

        1 露頭區(qū)裂縫識(shí)別基本原理

        1.1 深度學(xué)習(xí)

        深度學(xué)習(xí)是人工智能中機(jī)器學(xué)習(xí)的一個(gè)分支,具體包含關(guān)系如圖1[11]所示。深度學(xué)習(xí)源自人工神經(jīng)網(wǎng)絡(luò)的研究,其目的是通過計(jì)算機(jī)在構(gòu)建的多層網(wǎng)絡(luò)上自動(dòng)學(xué)習(xí)并得到隱含在內(nèi)部的數(shù)據(jù)關(guān)系,將低層的特征提取組合并形成一個(gè)更抽象的特征,經(jīng)過若干層特征的處理使得特征更具有表達(dá)力[12]。

        圖1 深度學(xué)習(xí)與人工智能關(guān)系包含圖

        通過判斷數(shù)據(jù)集是否具有標(biāo)簽將深度學(xué)習(xí)分為監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)[13],其中監(jiān)督學(xué)習(xí)方法主要包括:卷積神經(jīng)網(wǎng)絡(luò)[14]、深層感知器、深層前饋網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)等。非監(jiān)督學(xué)習(xí)方法主要包括:受限玻爾茲曼機(jī)、深層玻爾茲曼機(jī)、深層信念網(wǎng)絡(luò)等。目前國外一些主流的互聯(lián)網(wǎng)公司對(duì)深度學(xué)習(xí)研發(fā)了一系列深度學(xué)習(xí)框架,其中主流的包括谷歌公司的TensorFlow、臉書公司的Torch、微軟公司的CNTK等。這些學(xué)習(xí)框架的提出極大地方便了研究人員對(duì)深度學(xué)習(xí)的應(yīng)用并且促進(jìn)了深度學(xué)習(xí)的發(fā)展,目前此類框架在圖像識(shí)別分類、語音識(shí)別[15]、手寫字識(shí)別、自然語言處理等方面得到了廣泛的應(yīng)用。

        1.2 露頭區(qū)裂縫識(shí)別系統(tǒng)訓(xùn)練流程

        運(yùn)行環(huán)境:Pycharm2018編程環(huán)境+Anconda包管理器+Python語言。

        本文采用一種基于谷歌TensorFlow框架的卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型[16-17],通過對(duì)原始圖片進(jìn)行手動(dòng)分類設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)集,將數(shù)據(jù)集輸入至神經(jīng)網(wǎng)絡(luò)進(jìn)行多個(gè)次數(shù)的訓(xùn)練,最后將訓(xùn)練得到的參數(shù)及網(wǎng)絡(luò)結(jié)構(gòu)保存。如圖2所示。第1步為原始圖像的采集:通過互聯(lián)網(wǎng)、相關(guān)地質(zhì)剖面圖集[18]資源和相機(jī)實(shí)際拍攝最終獲取了40張合適的野外露頭區(qū)裂縫圖片并剪裁成105張分辨率為512×512 px(px,像素)尺寸大小的未預(yù)處理的原始圖片。第2步為圖像預(yù)處理:將原始圖片中的98張進(jìn)行二值化預(yù)處理并切割成分辨率為32×32 px的小圖片共約計(jì)25000張(每張?jiān)紙D片可分為256張32×32 px的面元)人工分類為背景圖片和裂縫圖片,并分別將背景圖片放入background文件夾,將裂縫圖片放入crack文件夾。余下7張?jiān)紙D片用于識(shí)別測(cè)試。第3步為數(shù)據(jù)集讀取程序:此程序主要是將background和crack文件夾的圖片讀取并分別標(biāo)注上對(duì)應(yīng)的background和crack標(biāo)簽。第4步及后2步為將數(shù)據(jù)集讀取程序讀取的圖片加載至訓(xùn)練主程序,分批次地將所有讀取的圖片傳入神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練學(xué)習(xí),其中數(shù)據(jù)集的樣本總量為25000張,2000張作為訓(xùn)練集,5000張作為驗(yàn)證集。經(jīng)過n次完整的訓(xùn)練并將每一次訓(xùn)練的結(jié)果輸出,并將第n次訓(xùn)練的參數(shù)和網(wǎng)絡(luò)結(jié)構(gòu)保存至model-of-crack文件夾。

        圖2 露頭區(qū)裂縫神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程流程圖

        1.3 露頭區(qū)裂縫識(shí)別流程

        本階段為露頭區(qū)裂縫識(shí)別過程,主要步驟如圖3所示,所識(shí)別的圖片為訓(xùn)練時(shí)留下的7張圖片。將圖片分割后選取需要識(shí)別研究的露頭區(qū)裂縫圖片,本文最終識(shí)別的裂縫圖片分辨率為256×256 px大小,先將識(shí)別圖片設(shè)置合適的參數(shù)二值化,再通過步長(zhǎng)參數(shù)為16 px、尺寸大小為32×32 px的滑動(dòng)窗口算法[19]將已二值化后的圖片進(jìn)行自左至右、自上至下獲取不同區(qū)域塊圖片的標(biāo)準(zhǔn)差,通過對(duì)比每個(gè)區(qū)域的標(biāo)準(zhǔn)差預(yù)先篩選排除明顯的背景區(qū)域,然后對(duì)標(biāo)準(zhǔn)差篩選非明顯背景的區(qū)域的二值化的圖片傳入已訓(xùn)練完成的神經(jīng)網(wǎng)絡(luò)并加載參數(shù)進(jìn)行識(shí)別,綜合計(jì)算通過區(qū)域塊標(biāo)準(zhǔn)差預(yù)篩選的方法將識(shí)別任務(wù)量減少至原來的65%左右。然后將通過神經(jīng)網(wǎng)絡(luò)識(shí)別出的裂縫二值化圖像及通過裂縫位置信息還原出的原色裂縫圖像進(jìn)行保存,原色裂縫圖像可以幫助地質(zhì)考察人員對(duì)裂縫內(nèi)部紋路進(jìn)行分析。

        圖3 露頭區(qū)裂縫識(shí)別過程流程圖

        在本階段除了使用區(qū)域塊標(biāo)準(zhǔn)差預(yù)先篩選排查的方法減少識(shí)別任務(wù)量外,為了防止出現(xiàn)滑動(dòng)窗口獲取的每個(gè)圖片相互獨(dú)立、缺少全局信息的問題出現(xiàn),將滑動(dòng)窗口的步長(zhǎng)設(shè)為16 px,小于窗口大小,使得在相鄰的2個(gè)獨(dú)立區(qū)域塊之間獲取一個(gè)都有重疊部分的區(qū)域塊。使用滑動(dòng)窗口的算法加重了識(shí)別任務(wù)量,但同時(shí)也減少了裂縫的漏檢率,并且可以通過滑動(dòng)窗口的參數(shù)確定裂縫區(qū)域的具體坐標(biāo)位置,為進(jìn)一步研究裂縫的方向、大小與形貌等問題提供位置數(shù)據(jù)。

        2 數(shù)據(jù)集處理

        2.1 露頭區(qū)裂縫圖片的分割

        露頭區(qū)裂縫原始圖片二值化后再分割的目的是為了設(shè)計(jì)合適裂縫和背景面元的訓(xùn)練數(shù)據(jù)集,分割圖片所用到的工具為Adobe Photoshop(PS)中切片分割工具。圖4所示為一張露頭區(qū)裂縫原始圖片和經(jīng)過二值化的圖片,其表面除裂縫外還有復(fù)雜的小坑、表皮脫落和亮度不平衡部分如標(biāo)記框所示。在分割時(shí)需要嘗試找到最合適的分割尺寸,如圖5所示:因?yàn)楫?dāng)分割尺寸過大如64×64 px時(shí),裂縫圖片中將會(huì)包含外部干擾,使得識(shí)別結(jié)果中也包含干擾物,而分割尺寸過小如16×16 px、8×8 px時(shí),圖片中的裂縫特征得不到體現(xiàn),且容易判斷為背景或干擾物,從而降低識(shí)別準(zhǔn)確度。經(jīng)過比較發(fā)現(xiàn)將分割尺寸設(shè)置為32×32 px時(shí)對(duì)裂縫特征有較好的體現(xiàn)。

        圖5 不同分辨率的裂縫分割圖片

        2.2 分割后的圖片挑選、保存及打標(biāo)簽

        圖6 分割后的裂縫和背景圖

        圖4中的露頭區(qū)裂縫遍布了整張圖片并且分割出了大量的裂縫和背景面元,從而造成了裂縫圖片挑選工作的復(fù)雜且耗費(fèi)大量時(shí)間。圖6所示為通過人工挑選的分割后的裂縫面元(左)和背景面元(右),將挑選完成的裂縫面元存放至cut/crack文件夾、背景面元存放至cut/background文件夾。通過對(duì)訓(xùn)練主程序的讀取程序編程設(shè)計(jì)使得對(duì)crack和background這2個(gè)文件夾內(nèi)的圖片分別打上對(duì)應(yīng)的標(biāo)簽[1 0]和[0 1],進(jìn)行模型訓(xùn)練時(shí)一次性將打標(biāo)簽的分割后裂縫和背景圖片預(yù)加載至主程序。

        3 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        3.1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

        本實(shí)驗(yàn)采用基于谷歌TensorFlow框架的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),簡(jiǎn)稱CNN(Convolutional Neural Networks)。該網(wǎng)絡(luò)為一個(gè)10層的深度網(wǎng)絡(luò)結(jié)構(gòu),采用3×3、2×2尺寸大小的卷積核和2×2大小的池化采樣窗口尺寸,卷積和池化采樣過程均考慮邊界。

        神經(jīng)網(wǎng)絡(luò)各層參數(shù)如圖7所示。第1層為輸入層,第2、4、6層和第3、5、7層分別為卷積層和采樣層。本文在編程中將相鄰的一個(gè)卷積層和采樣層定義為一個(gè)函數(shù),第2、4層為32個(gè)3×3尺寸大小的卷積核,第6層為64個(gè)2×2尺寸大小卷積核,采樣層均為對(duì)不重疊的2×2 px大小區(qū)域進(jìn)行max-pooling池化采樣操作。第8層為flatten層,第9、10層為全連接層,第11層為結(jié)果輸出層。

        圖7 露頭區(qū)裂縫神經(jīng)網(wǎng)絡(luò)識(shí)別模型

        3.2 神經(jīng)網(wǎng)絡(luò)中的數(shù)據(jù)傳遞

        在第1層輸入層輸入一個(gè)32×32 px的預(yù)處理野外露頭區(qū)背景或裂縫圖片,輸入圖片經(jīng)過第2層卷積層卷積輸出為32個(gè)32×32 px的矩陣;第2層結(jié)果被第3層池化采樣層池化輸出為32個(gè)16×16 px的矩陣;第3層結(jié)果被第4層卷積和第5層的池化輸出為32個(gè)8×8 px的矩陣;第5層池化輸出結(jié)果被第6層卷積和第7層池化輸出為64個(gè)4×4 px的矩陣;然后第7層池化結(jié)果傳遞至第8層flatten層,其目的是將第7層采樣層輸出的多維向量轉(zhuǎn)化為一維向量;最后flatten層輸出的一維向量輸入至第9、10層全連接層,使用Softmax邏輯回歸函數(shù)[20]對(duì)第10層全連接層的數(shù)據(jù)進(jìn)行邏輯回歸并輸出最后的結(jié)果。

        3.3 神經(jīng)網(wǎng)絡(luò)中超參數(shù)設(shè)置

        1)損失函數(shù)設(shè)置。

        在訓(xùn)練中通過將第10層輸出結(jié)果輸入Softmax搭配交叉熵?fù)p失函數(shù)[21]并對(duì)該損失函數(shù)求均值來判斷實(shí)際輸出與期望輸出的概率偏差。該損失函數(shù)和求均值的代碼為:

        cross_entropy=tf.nn.softmax_cross_entropy_with_logits(logits=layer_fc2,labels=y_true)

        cost=tf.reduce_mean(cross_entropy)

        其中l(wèi)ogits為第10層輸出數(shù)據(jù),labels為數(shù)據(jù)真實(shí)標(biāo)簽。

        2)優(yōu)化器和學(xué)習(xí)率的設(shè)置。

        本文采用尋找全局最優(yōu)點(diǎn)的Adam優(yōu)化器,其引入了二次方梯度矯正。該算法代碼為:

        optimizer=tf.train.AdamOptimizer(learning_rate=1e-4).minimize(cost)

        其中l(wèi)earning_rate為學(xué)習(xí)率,該參數(shù)設(shè)置過大會(huì)導(dǎo)致優(yōu)化器在梯度下降時(shí)無法收斂,太小會(huì)導(dǎo)致梯度下降太慢,通過多次對(duì)損失函數(shù)的判斷選擇1e-4為較為合適的學(xué)習(xí)率。

        3)其他參數(shù)設(shè)置。

        激活函數(shù)采用Softmax,神經(jīng)網(wǎng)絡(luò)層數(shù)為10層,batch_size為200,學(xué)習(xí)回合數(shù)為5000次,全連接層采用dropout防止過擬合。

        4 訓(xùn)練及實(shí)測(cè)結(jié)果討論

        4.1 訓(xùn)練結(jié)果

        1)訓(xùn)練準(zhǔn)確度和代價(jià)函數(shù)迭代曲線。

        通過數(shù)據(jù)集讀取程序?qū)⒁杨A(yù)處理圖像讀取至訓(xùn)練主程序,并以每個(gè)批次200張圖片的速率向訓(xùn)練神經(jīng)網(wǎng)絡(luò)傳遞訓(xùn)練數(shù)據(jù),經(jīng)過一次完整的圖片訓(xùn)練稱為一個(gè)epoch,經(jīng)過100個(gè)epoch訓(xùn)練并記錄每次完整訓(xùn)練的準(zhǔn)確度ACC(accuracy)和驗(yàn)證集準(zhǔn)確度VAL-ACC(validation-accuracy)。

        圖8所示為前100個(gè)epoch得到的訓(xùn)練結(jié)果ACC、VAL-ACC折線圖,由折線圖可以得到初始ACC為0.75、VAL-ACC為0.76。經(jīng)過100次完整訓(xùn)練最高ACC為0.955、VAL-ACC為0.945,第100次訓(xùn)練結(jié)果ACC為0.935、VAL-ACC為0.88。

        圖8 露頭區(qū)裂縫識(shí)別率與訓(xùn)練次數(shù)之間的關(guān)系(訓(xùn)練100次)

        圖9所示為訓(xùn)練中代價(jià)函數(shù)的迭代收斂曲線,代價(jià)函數(shù)為整個(gè)訓(xùn)練集上所有樣本損失函數(shù)值的平均值,代價(jià)函數(shù)值的大小反映了預(yù)測(cè)結(jié)果和真實(shí)結(jié)果的逼近程度。由圖中數(shù)據(jù)可看出代價(jià)函數(shù)值由剛開始的0.5607經(jīng)過多次訓(xùn)練降低至0.08附近上下浮動(dòng)。

        圖9 代價(jià)函數(shù)迭代曲線(訓(xùn)練100次)

        為了提高數(shù)據(jù)可信度,將訓(xùn)練次數(shù)增加到5000次,如圖10所示可以看出訓(xùn)練起始時(shí)整體的準(zhǔn)確度較低,ACC為0.8931、VAL-ACC為0.8918。隨著訓(xùn)練迭代次數(shù)的增加訓(xùn)練整體準(zhǔn)確度緩慢上升,最后ACC在一個(gè)可接受的數(shù)值范圍0.91附近波動(dòng),VAL-ACC在0.88~0.89的可接受區(qū)間內(nèi)波動(dòng),其中ACC最高為0.9136、VAL-ACC最高為0.9017。

        圖10 露頭區(qū)裂縫識(shí)別率與訓(xùn)練次數(shù)之間關(guān)系(訓(xùn)練5000次)

        2)訓(xùn)練精確率、召回率和F1值。

        圖11所示為神經(jīng)網(wǎng)絡(luò)模型的3個(gè)常用的評(píng)估指標(biāo),分別是精確率(Precision, P):P=TP/(TP+FP),召回率(Recall, R):R=TP/(TP+FN), F1-Score:F1-Score=2PR/(P+R)。其中TP為預(yù)測(cè)為正并判斷正確,F(xiàn)P為預(yù)測(cè)為正但判斷錯(cuò)誤,F(xiàn)N為預(yù)測(cè)為負(fù)但判斷錯(cuò)誤。

        圖11 精確率、召回率、F1-Score曲線

        由圖11可知,起始時(shí)召回率為0.960、精確率為0.967、F1-Score為0.963,隨著訓(xùn)練次數(shù)的增加召回率緩慢下降至0.945附近上下波動(dòng)、精確率緩慢上升至0.989附近上下波動(dòng)、F1-Score緩慢上升至0.968附近上下波動(dòng)。

        由訓(xùn)練過程中的識(shí)別率曲線、代價(jià)函數(shù)曲線和精確率、召回率、F1-Score曲線可以看出在本次設(shè)計(jì)中該神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)表現(xiàn)相對(duì)出色,能夠較好地完成對(duì)野外露頭區(qū)裂縫識(shí)別訓(xùn)練。

        4.2 實(shí)測(cè)結(jié)果

        1)將所需要識(shí)別的野外露頭區(qū)裂縫圖片傳入識(shí)別模型進(jìn)行裂縫識(shí)別,得到識(shí)別結(jié)果如圖12和圖13(b)所示,在圖12中每張圖片的分辨率都為256×256,擁有64個(gè)32×32的面元。圖12中,第2列為第1列裂縫圖片的二值化圖片,第3列為第2列的裂縫識(shí)別結(jié)果圖片,第4列為第3列圖片通過裂縫位置信息復(fù)現(xiàn)的原始裂縫結(jié)果。圖13(a)為尺寸和復(fù)雜度較大的露頭區(qū)裂縫圖片,圖13(b)為圖13(a)的識(shí)別結(jié)果,為了方便地質(zhì)考察研究人員獲取裂縫信息識(shí)別結(jié)果,刪除了識(shí)別出的背景圖片,只留下裂縫圖片。

        圖12 露頭區(qū)裂縫系統(tǒng)識(shí)別結(jié)果1

        (a)裂縫圖片 (b)識(shí)別結(jié)果

        2)對(duì)識(shí)別結(jié)果圖12進(jìn)行統(tǒng)計(jì)分析:裂縫識(shí)別率用D表示,誤判率用E表示,正確識(shí)別裂縫面元個(gè)數(shù)用F表示,期望得到的裂縫面元數(shù)量用G表示,誤判面元數(shù)量用H表示,每張圖總面元數(shù)用I表示,其中對(duì)原始圖片和識(shí)別結(jié)果圖片進(jìn)行32×32尺寸網(wǎng)格分割統(tǒng)計(jì)得到正確識(shí)別裂縫面元、期望得到面元和誤判面元的數(shù)量,則:

        裂縫識(shí)別率:D=F/G

        誤判率:E=H/I

        通過人工對(duì)比第2列二值化圖片和第3列二值化裂縫識(shí)別結(jié)果圖片,得出第3列識(shí)別結(jié)果中的正確識(shí)別到的裂縫面元數(shù)量和誤判面元的數(shù)量。由識(shí)別結(jié)果圖A3數(shù)據(jù)分析可得:該圖中總面元個(gè)數(shù)為64,其中有22張為期望得到的裂縫圖片,正確識(shí)別到的21張,對(duì)裂縫的識(shí)別率約為0.955;誤判結(jié)果數(shù)量(裂縫識(shí)別為背景或背景識(shí)別為裂縫的圖片張數(shù))為3,誤判率約為0.047。同理可得:B3中20張期望得到的裂縫圖片,正確識(shí)別19張,對(duì)該裂縫的識(shí)別率為0.950;誤判結(jié)果數(shù)量為1,誤判率為0.016。C3中20張期望得到的圖片,正確識(shí)別20張,對(duì)該裂縫的識(shí)別率為1;誤判結(jié)果數(shù)量為1,誤判率為0.016。D3中14張期望得到的裂縫圖片,正確識(shí)別14張,對(duì)該裂縫的識(shí)別率為1;誤判結(jié)果數(shù)量為1,誤判率為0.016。E3中21張期望得到的圖片,正確識(shí)別20張,對(duì)該裂縫的識(shí)別率為0.952;誤判結(jié)果數(shù)量為2,誤判率為0.031。

        3)由識(shí)別結(jié)果圖12的A3、B3、E3以及較復(fù)雜的圖13(b)可以看出該系統(tǒng)在識(shí)別較寬裂縫主體時(shí)進(jìn)行了較好的識(shí)別,但對(duì)于較窄和顏色較淺的裂縫未能完全識(shí)別。由識(shí)別結(jié)果圖12的C3、D3可以得到該2個(gè)結(jié)果基本完成了對(duì)整體裂縫的完全識(shí)別。經(jīng)過多組實(shí)測(cè)數(shù)據(jù)及訓(xùn)練數(shù)據(jù)分析得到本露頭區(qū)裂縫識(shí)別系統(tǒng)的綜合裂縫識(shí)別率可達(dá)到91%以上,圖12第3列為二值化裂縫的識(shí)別結(jié)果,通過對(duì)二值化識(shí)別結(jié)果使得識(shí)別結(jié)果中的裂縫信息更加直觀并且使得圖片占用內(nèi)存空間減小約80%左右,缺點(diǎn)為不能像灰度圖和真彩圖那樣直觀地看出裂縫內(nèi)部構(gòu)造。由圖12第4列和圖13(b)中識(shí)別的巖石裂縫結(jié)果可以看出本識(shí)別系統(tǒng)和其它識(shí)別系統(tǒng)不同之處在于本系統(tǒng)可在高準(zhǔn)確度識(shí)別情況下對(duì)原裂縫的內(nèi)部構(gòu)造原色圖進(jìn)行還原,使地質(zhì)研究人員可更加直觀精確地分析裂縫形態(tài)及內(nèi)部結(jié)構(gòu)。

        4.3 不同裂縫識(shí)別方法識(shí)別率對(duì)比

        表1所示為橫向?qū)Ρ鹊牟煌N裂縫識(shí)別率對(duì)比情況,由于基于深度學(xué)習(xí)對(duì)野外露頭區(qū)巖石裂縫的研究處于空白,而其他研究者所研究的裂縫與野外露頭區(qū)巖石裂縫雖然背景復(fù)雜度不同但具有相似的結(jié)構(gòu),所以使用2組背景復(fù)雜度和露頭區(qū)巖石裂縫相似的隧道表面裂縫和2組背景復(fù)雜度一般的橋梁裂縫、路面裂縫識(shí)別方法作為對(duì)照組。

        表1 不同裂縫識(shí)別方法對(duì)比

        裂縫識(shí)別方法識(shí)別裂縫種類背景復(fù)雜度識(shí)別率/%TensorFlow神經(jīng)網(wǎng)絡(luò)識(shí)別(本文)露頭區(qū)巖石裂縫較高91SVM裂縫識(shí)別[22]隧道表面裂縫較高81全局與局部相結(jié)合的預(yù)處理算法[1]地鐵隧道裂縫較高80Caffe框架神經(jīng)網(wǎng)絡(luò)識(shí)別[9]橋梁裂縫一般70.6(無數(shù)據(jù)集擴(kuò)增)幾何特征識(shí)別法[23]瀝青路面裂縫一般90

        由表1可知,第1組本文設(shè)計(jì)的TensorFlow神經(jīng)網(wǎng)絡(luò)識(shí)別率為91%,而背景復(fù)雜度同樣較高的隧道裂縫使用SVM裂縫識(shí)別方法和全局與局部相結(jié)合的預(yù)處理算法得到的識(shí)別率分別為81%和80%,遠(yuǎn)低于本文識(shí)別方法。而第4、5組使用背景復(fù)雜度較低的橋梁和路面裂縫的識(shí)別率分別為70.6%、90%,識(shí)別率低于本文方法。綜合上述5組對(duì)比情況可知本文方法在裂縫識(shí)別中具有較大的優(yōu)勢(shì)。

        5 結(jié)束語

        本文采用基于TensorFlow框架的卷積神經(jīng)網(wǎng)絡(luò)算法識(shí)別野外露頭區(qū)裂縫,通過對(duì)裂縫原始圖片的預(yù)處理并將處理后的圖片經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練得到了表現(xiàn)出色的模型參數(shù),從而降低了在地質(zhì)考察中采用人工手繪方式和傳統(tǒng)圖像處理算法識(shí)別野外露頭區(qū)裂縫帶來的高誤差,經(jīng)過對(duì)本文原始數(shù)據(jù)多次實(shí)驗(yàn)結(jié)果表明該設(shè)計(jì)對(duì)野外露頭區(qū)裂縫的識(shí)別率平均達(dá)到了91%以上,為地質(zhì)考察研究提供了更加可靠的數(shù)據(jù)支持。

        但由于到目前為止沒有公開的全面的野外露頭區(qū)裂縫數(shù)據(jù)集的支持,野外露頭區(qū)裂縫一般處于較為復(fù)雜的野外環(huán)境中,包括數(shù)量龐大且不可預(yù)料的異物種類、不同的光照強(qiáng)度等,并且因本次設(shè)計(jì)的數(shù)據(jù)集數(shù)量及種類有限等原因,使得本設(shè)計(jì)在有限的范圍內(nèi)才能實(shí)現(xiàn)高準(zhǔn)確度的露頭區(qū)裂縫識(shí)別。在未來,通過對(duì)原始數(shù)據(jù)集的不斷完善以及神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的不斷改善,對(duì)野外露頭區(qū)裂縫的識(shí)別將會(huì)和汽車自動(dòng)駕駛功能一樣在不斷的數(shù)據(jù)積累中實(shí)現(xiàn)對(duì)大范圍廣種類情況下的高識(shí)別精度的識(shí)別。

        猜你喜歡
        深度
        深度理解不等關(guān)系
        四增四減 深度推進(jìn)
        深度理解一元一次方程
        深度觀察
        深度觀察
        深度觀察
        深度觀察
        芻議深度報(bào)道的深度與“文”度
        新聞傳播(2016年10期)2016-09-26 12:14:59
        提升深度報(bào)道量與質(zhì)
        新聞傳播(2015年10期)2015-07-18 11:05:40
        微小提議 深度思考
        粉色蜜桃视频完整版免费观看在线 | 亚洲一区二区三区av色婷婷| 亚洲乱亚洲乱妇50p| 免费国产裸体美女视频全黄| 九九精品无码专区免费| 中文字幕亚洲精品第一页| 熟女人妻在线中文字幕| 久久久久亚洲精品无码蜜桃| 国产欧美日韩a片免费软件| 91网红福利精品区一区二| 91精品国产高清久久福利| 国产午夜福利片在线观看| 欧美疯狂做受xxxx高潮小说| 国产在线视欧美亚综合| 国产成人亚洲综合二区| 免费a级毛片无码免费视频首页| 日本aⅴ大伊香蕉精品视频| 中文字幕人妻中文| 亚洲高清精品一区二区| 亚洲精品无码永久中文字幕| 老色鬼永久精品网站| 国产精品一区二区三级| 白白色免费视频一区二区在线 | 99久久精品人妻一区二区三区 | 夜夜综合网| 男女男生精精品视频网站| 午夜秒播久久精品麻豆| 国产尤物精品福利视频| 精品国产性色av网站| 永久免费观看的黄网站在线| 玖玖色玖玖草玖玖爱在线精品视频| 色拍自拍亚洲综合图区| 在线播放亚洲第一字幕| 亚洲一区二区情侣| 成人自拍一二在线观看| 午夜福利啪啪片| 成人午夜免费无码视频在线观看| 最全精品自拍视频在线| 国产播放隔着超薄丝袜进入| 久久久久久av无码免费看大片| 日韩最新av一区二区|