亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        管道環(huán)焊縫缺陷智能識(shí)別技術(shù)探究與實(shí)現(xiàn)

        2020-11-05 02:36:06周永濤程海龍
        石油管材與儀器 2020年5期
        關(guān)鍵詞:膠片焊縫深度

        費(fèi) 凡,周永濤,周 順 ,程海龍

        (1.中國石油北京天然氣管道有限公司 北京 100101;2.中國石油管道有限責(zé)任公司 北京 100000)

        0 引 言

        X射線檢測作為焊縫缺陷的無損檢測技術(shù)之一,是保證焊接結(jié)構(gòu)件質(zhì)量的重要手段。人工評(píng)定射線膠片存在很大的主觀性,易產(chǎn)生較多的誤判和漏判[1]。對(duì)數(shù)字化膠片的實(shí)時(shí)檢測和缺陷自動(dòng)識(shí)別一直是無損檢測方向的研究熱點(diǎn),實(shí)現(xiàn)方式多為特征工程及傳統(tǒng)機(jī)器學(xué)習(xí)[2-3],效率及穩(wěn)定性仍有不足。近年來,伴隨人工智能技術(shù)的發(fā)展,基于深度學(xué)習(xí)的圖像檢測技術(shù)趨于成熟,國外已經(jīng)利用深度學(xué)習(xí)的方法進(jìn)行數(shù)字化膠片的實(shí)時(shí)檢測和缺陷自動(dòng)識(shí)別[4],證明了技術(shù)的可行性。本文將利用基于深度學(xué)習(xí)的圖像識(shí)別技術(shù)構(gòu)建管道環(huán)焊縫缺陷智能檢測分析框架,從焊縫膠片底片數(shù)字化開始,經(jīng)過圖像預(yù)處理、訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型等步驟,最終通過算法智能識(shí)別存在缺陷的焊縫膠片并定位標(biāo)注出疑似缺陷的位置。

        1 基于深度學(xué)習(xí)的管道焊縫缺陷智能檢測分析框架

        本文基于深度學(xué)習(xí)構(gòu)建管道環(huán)焊縫缺陷智能檢測分析框架,主要包含數(shù)字化焊縫膠片、圖像預(yù)處理、訓(xùn)練智能檢測分析模型等步驟。數(shù)字化焊縫膠片由專用數(shù)字化系統(tǒng)掃描物理膠片獲得,用作智能檢測分析模型的訓(xùn)練和測試數(shù)據(jù)。圖像預(yù)處理通過濾波降噪、圖像分割、統(tǒng)一圖像灰度、定位焊縫區(qū)域等方法,提升圖像質(zhì)量,提取焊縫區(qū)域??蚣苤猩婕皟蓚€(gè)深度學(xué)習(xí)模型。第一個(gè)是利用ResNet網(wǎng)絡(luò)訓(xùn)練圖像分類模型,該算法通過卷積網(wǎng)絡(luò)對(duì)圖像進(jìn)行檢索,提取圖像特征,實(shí)現(xiàn)對(duì)特征的有監(jiān)督的學(xué)習(xí),把特征提取和分類器統(tǒng)一在一個(gè)模型里,實(shí)現(xiàn)識(shí)別分類功能[5];第二個(gè)是利用Mask RCNN網(wǎng)絡(luò)訓(xùn)練缺陷標(biāo)注模型,對(duì)存在缺陷的焊縫膠片圖像進(jìn)行定位標(biāo)注。這兩個(gè)模型可輔助工作人員快速檢出疑似存在缺陷的數(shù)字化膠片,并標(biāo)注疑似缺陷,提升焊縫缺陷篩查效率。管道環(huán)焊縫缺陷智能檢測分析框架如圖1所示。

        圖1 管道焊縫缺陷智能檢測分析框架

        2 數(shù)字化膠片

        數(shù)字化圖像是管道焊縫缺陷智能檢測分析的基礎(chǔ)。焊縫射線膠片數(shù)字化的方法是:使用專用數(shù)字化系統(tǒng)(中晶MII-1000)將物理膠片掃描為16 bit的BMP圖像格式文件,掃描時(shí)需要根據(jù)物理膠片的黑度值調(diào)整掃描黑度參數(shù)[6]。管道焊縫膠片數(shù)字化的效果如圖2所示。

        圖2 數(shù)字化后的焊縫膠片

        3 滑動(dòng)窗口處理

        卷積網(wǎng)絡(luò)(CNN)在處理圖像時(shí)采用滑動(dòng)窗口機(jī)制。焊縫缺陷檢測中,整個(gè)膠片圖像尺寸很大,缺陷特征只是圖像的一部分,將膠片圖像直接縮小到網(wǎng)絡(luò)中的尺寸,會(huì)導(dǎo)致一定尺度比例的損失,也會(huì)使整體的效率降低。滑動(dòng)的步長不應(yīng)設(shè)置太小,否則會(huì)出現(xiàn)較多的無效碎片圖像,時(shí)間效率和處理性能也會(huì)變差,因此采用固定短邊,長邊固定為690,以步長50的方式進(jìn)行滑動(dòng)窗口處理。

        4 圖像預(yù)處理

        4.1 降噪處理

        物理膠片黑度值過高和過低都會(huì)導(dǎo)致數(shù)字化膠片中存在大量噪聲,容易影響與混淆缺陷特征,需要繼續(xù)進(jìn)行降噪處理。降噪處理必須考慮到缺陷特征本身,防止缺陷細(xì)節(jié)的丟失。濾波器是常用的降噪方法,分為線性濾波器和非線性濾波器??紤]到缺陷細(xì)節(jié)的重要性與復(fù)雜性,選擇平滑且細(xì)節(jié)損失較少的中值濾波器進(jìn)行5×5的降噪處理,如圖3所示。

        圖3 降噪處理后圖像

        4.2 提取焊縫區(qū)域

        提取焊縫區(qū)域目的是將圖像的焊縫區(qū)域和其他元素進(jìn)行分割。這樣可以大幅減少訓(xùn)練量、清除干擾因素,提高識(shí)別效果。提取焊縫區(qū)域的第一步是用最佳閾值法將灰度圖像轉(zhuǎn)為二值化圖像,將感興趣區(qū)域與背景分離。最佳閾值的選擇,采用大津法(OTSU算法)[7],這是一種使用最大類間方差作為衡量前景和背景標(biāo)準(zhǔn)的方法,計(jì)算簡單,不受圖像亮度和對(duì)比度的影響。提取焊縫區(qū)域的第二步是根據(jù)二值化后的直方圖分布確定區(qū)域,裁剪出合適的焊縫區(qū)域。圖4、圖5為提取過程示例。

        圖4 二值化后的圖像

        圖5 焊縫區(qū)域圖像

        4.3 增強(qiáng)處理

        經(jīng)上述圖像預(yù)處理后,焊縫圖像存在對(duì)比度低、關(guān)鍵細(xì)節(jié)特征不明顯、灰度值分布集中等問題。這些問題的出現(xiàn)使得缺陷特征視覺效果較差,導(dǎo)致后面模型檢測識(shí)別產(chǎn)生較大的誤差。為此采用曝光融合算法框架[8]對(duì)圖像的對(duì)比度進(jìn)行增強(qiáng),圖6為增強(qiáng)處理后的圖像。

        圖6 增強(qiáng)處理后的焊縫區(qū)域圖像

        5 深度學(xué)習(xí)模型

        5.1 數(shù)據(jù)收集

        實(shí)驗(yàn)中原始射線膠片數(shù)據(jù)來源于陜京三線,經(jīng)過掃描數(shù)字化處理、整理和挑選,總共含有1 000張正常的膠片圖像和300張存在缺陷的膠片圖像(主要以氣孔、燒穿、條渣與未熔合4類缺陷為主),作為后期實(shí)驗(yàn)的訓(xùn)練集與測試集。收集的數(shù)據(jù)中缺陷類型具體分布見表1。

        表1 數(shù)據(jù)分布 個(gè)

        基于深度學(xué)習(xí)圖像特征分類方法選擇合適的數(shù)據(jù)用于模型訓(xùn)練。需要篩選特征突出、沒有其他干擾信息的數(shù)據(jù),降低可能出現(xiàn)過擬合問題的概率。焊縫缺陷識(shí)別不同于一般的圖像分類任務(wù),缺陷特征的復(fù)雜多樣性是難點(diǎn)。比如說,同一種缺陷可能存在著多個(gè)不同的特征,同一個(gè)缺陷可能被不同的評(píng)片人員分到不同的類別中,有些缺陷特征存在但細(xì)節(jié)不清晰等等。實(shí)驗(yàn)通過人工篩選出有效、高質(zhì)量的圖像。

        實(shí)驗(yàn)注重膠片圖像的質(zhì)量和缺陷的細(xì)節(jié)特征。對(duì)于數(shù)據(jù)集里的所有膠片圖像,進(jìn)行降噪、焊縫區(qū)域提取以及圖像增強(qiáng)等預(yù)處理工作,提升圖像本身的質(zhì)量,使缺陷細(xì)節(jié)可以更加突出,為模型的高準(zhǔn)確率提供保障。存在缺陷的焊縫圖像部分樣例如圖7所示。

        圖7 存在缺陷的焊縫圖像

        5.2 基于深度殘差網(wǎng)絡(luò)(ResNet)的圖像分類模型

        在圖像分類任務(wù)上有許多卷積網(wǎng)絡(luò)已被證明可以獲得很好的結(jié)果,比如AlexNet[9]、VGGNet[10]等。實(shí)驗(yàn)采用較新也較穩(wěn)定的深度殘差網(wǎng)絡(luò)。深度殘差網(wǎng)絡(luò)由微軟研究院的Kaiming He等4名華人提出。通過使用ResNet Unit成功訓(xùn)練出了152層的神經(jīng)網(wǎng)絡(luò),這一結(jié)果贏得了SVRC2015分類任務(wù)第一名,在top5上的錯(cuò)誤率為3.57%,同時(shí)參數(shù)量比VGGNet低,效果非常突出。深度殘差網(wǎng)絡(luò)結(jié)構(gòu)可以加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,模型的準(zhǔn)確率有比較大的提升。同時(shí)網(wǎng)絡(luò)的推廣性非常好,甚至可以直接用到谷歌的深度學(xué)習(xí)網(wǎng)絡(luò)中[11]。

        深度殘差網(wǎng)絡(luò)中增加了直連通道,解決因?yàn)榫W(wǎng)絡(luò)層數(shù)過深而導(dǎo)致誤差增大的問題,即Highway Network的思想,并允許原始輸入信息直接傳到后面的層中。

        采用構(gòu)建50層ResNet50網(wǎng)絡(luò)結(jié)構(gòu)模型,將每一層的參數(shù)減半,減少訓(xùn)練時(shí)間,并在分類準(zhǔn)確性和時(shí)間效率上做到相對(duì)折中。利用深度學(xué)習(xí)框架PyTorch構(gòu)建網(wǎng)絡(luò)模型,構(gòu)建的模型共有約450萬個(gè)參數(shù),網(wǎng)絡(luò)中的神經(jīng)元連接總數(shù)近10億個(gè)。對(duì)比AlexNet的約6 000萬個(gè)參數(shù),該模型在網(wǎng)絡(luò)層數(shù)、訓(xùn)練參數(shù)上都有著很大的優(yōu)勢[12]。由于我們的框架輸出分類為2類,所以將網(wǎng)絡(luò)最后的全連接層的神經(jīng)元個(gè)數(shù)設(shè)置為2個(gè),優(yōu)化算法使用Adam,考慮到模型的層數(shù),學(xué)習(xí)率設(shè)置為0.01。模型的輸入為224×224大小的兩通道圖像,第一個(gè)卷積層conv1的參數(shù)是64個(gè)7×7的卷積核,卷積核的步長為2,每一次卷積過后都會(huì)接一個(gè)批量標(biāo)準(zhǔn)化層,使得模型的容納能力增加。激活函數(shù)使用的是線性整流函數(shù)算法,并且通過最大池化層進(jìn)行下采樣。網(wǎng)絡(luò)的最后一層是歸一化指數(shù)函數(shù)(softmax)回歸層,用于輸出圖像分到哪一類別的概率[12]?;貧w表現(xiàn)形式為:它將多個(gè)神經(jīng)元的輸入映射到(0,1)區(qū)間內(nèi),形成一個(gè)概率的概念,從而進(jìn)行分類任務(wù)。

        5.2.1 模型訓(xùn)練

        實(shí)驗(yàn)的環(huán)境,使用一塊10 GB顯存的GTX1080TI顯卡,centos 7操作系統(tǒng),網(wǎng)絡(luò)模型基于深度學(xué)習(xí)框架PyTorch搭建,編程語言使用的是Python3.6。從收集到的數(shù)據(jù)中隨機(jī)挑選圖像分別作為訓(xùn)練集和測試集,分布數(shù)量見表2。

        表2 構(gòu)建的數(shù)據(jù)集 個(gè)

        實(shí)驗(yàn)過程中使用了數(shù)據(jù)增廣技術(shù),增大數(shù)據(jù)集的容量。沒有采用常用的隨機(jī)裁切的方法,因?yàn)殡S機(jī)裁切產(chǎn)生的圖像碎片,可能已經(jīng)改變其屬性特征,產(chǎn)生錯(cuò)誤的數(shù)據(jù)分類。而是采用了旋轉(zhuǎn)和翻轉(zhuǎn)的方式進(jìn)行圖像增廣,并對(duì)圖像進(jìn)行歸一化處理。

        實(shí)驗(yàn)基于ImageNet1000數(shù)據(jù)集的預(yù)訓(xùn)練模型進(jìn)行遷移訓(xùn)練。權(quán)值的基礎(chǔ)學(xué)習(xí)率設(shè)置為0.01,動(dòng)量為0.9,權(quán)值衰減為0.000 5,保留每一次epochs產(chǎn)生的權(quán)重,并對(duì)驗(yàn)證集實(shí)時(shí)驗(yàn)證,直至網(wǎng)絡(luò)收斂[12]。最終模型大小約為97 MB。

        為了比較ResNet50與VGG16、AlexNet等網(wǎng)絡(luò)的效果,我們使用相同的數(shù)據(jù)集,在沒有任何調(diào)整的VGG16與AlexNet上也進(jìn)行了訓(xùn)練。這3個(gè)網(wǎng)絡(luò)在模型大小、檢測時(shí)間和數(shù)據(jù)召回率等方面的比較見表3。ResNet50網(wǎng)絡(luò)參數(shù)比其他網(wǎng)絡(luò)都小了很多,訓(xùn)練用時(shí)也低很多,檢測時(shí)間和召回率都更加優(yōu)越。

        表3 模型性能比較

        5.2.2 模型評(píng)估

        在深度學(xué)習(xí)圖像分類領(lǐng)域,針對(duì)一個(gè)模型最終好壞的評(píng)估標(biāo)準(zhǔn)有很多,例如精確率(precision)、召回率(recall)、準(zhǔn)確率(accuracy)等性能度量概念。

        模型經(jīng)過對(duì)測試集的檢測識(shí)別,根據(jù)分類時(shí)預(yù)測與實(shí)際的情況,作出混淆矩陣,見表4、表5, P代表預(yù)測數(shù),A代表實(shí)際。

        表4 不含數(shù)據(jù)增廣算法模型的混淆矩陣

        表5 含數(shù)據(jù)增廣算法模型的混淆矩陣

        根據(jù)所得到的混淆矩陣,實(shí)驗(yàn)對(duì)焊縫缺陷識(shí)別的分類結(jié)果采用準(zhǔn)確率和召回率進(jìn)行評(píng)估。準(zhǔn)確率=正確預(yù)測的正反例數(shù)/總數(shù),召回率=正確預(yù)測到的正例數(shù)/實(shí)際正例總數(shù)。經(jīng)過數(shù)據(jù)增廣后模型在各項(xiàng)性能度量都有顯著提升,根據(jù)公式可以得出,分類準(zhǔn)確率為72.5%,對(duì)存在缺陷的膠片圖像的召回率為90%。

        由于焊縫特征多樣性、缺陷樣本數(shù)量過少、整體的數(shù)據(jù)量不足,得到的準(zhǔn)確率波動(dòng)幅度比較大,對(duì)于存在缺陷的膠片圖像的召回率表現(xiàn)不錯(cuò),數(shù)據(jù)量的增大可帶來更好的效果。

        5.2.3 模型時(shí)效分析

        在對(duì)焊縫缺陷的檢測識(shí)別過程中,算法的時(shí)效性也是一項(xiàng)關(guān)鍵的性能。本文方法對(duì)單張測試圖像的處理時(shí)間小于2 ms,由于網(wǎng)絡(luò)模型參數(shù)較少、模型小、加載快,對(duì)比其他方法在時(shí)效性上有著很大的提升,時(shí)效性對(duì)比如表3所示。基于深度學(xué)習(xí)方法的算法,通過GPU加速可以提升時(shí)效性。另外硬件性能的提升和模型網(wǎng)絡(luò)的優(yōu)化,可以獲得更高的時(shí)間效率。

        5.3 基于Mask R-CNN的缺陷標(biāo)注模型

        Mask R-CNN[13]是Kaiming He基于以往的faster rcnn架構(gòu)提出的新的卷積網(wǎng)絡(luò),一舉完成了對(duì)象實(shí)例分割。該方法有效地通過增加不同的分支,可以完成目標(biāo)分類、目標(biāo)檢測、語義分割、實(shí)例分割、人體姿勢識(shí)別等多種任務(wù),靈活而強(qiáng)大。Mask R-CNN中最重要的亮點(diǎn)在于ROIAlign。在之前的算法中存在著特征圖與原始圖像不對(duì)準(zhǔn)(mis-alignment)的問題,影響著檢測精度。而Mask R-CNN提出了RoIAlign的方法來取代ROI池化,RoIAlign可以保留大致的空間位置,其抽象架構(gòu)如圖8所示[13]。

        圖8 Mask R-CNN抽象框架圖

        5.3.1 模型訓(xùn)練

        本實(shí)驗(yàn)是利用Mask R-CNN網(wǎng)絡(luò)中語義分割功能對(duì)存在缺陷的膠片圖像進(jìn)行缺陷的定位標(biāo)注。實(shí)驗(yàn)使用一塊10 GB顯存的GTX1080TI顯卡,centos 7操作系統(tǒng),網(wǎng)絡(luò)模型基于深度學(xué)習(xí)框架PyTorch搭建,編程語言使用的是Python3.6。

        模型訓(xùn)練需要對(duì)已有數(shù)據(jù)集進(jìn)行標(biāo)注處理,生成標(biāo)注圖像文件和標(biāo)注位置信息文件,整理成Mask R-CNN需要的COCO數(shù)據(jù)集樣式。焊縫缺陷標(biāo)注圖像樣例如圖9所示。

        圖9 焊縫缺陷標(biāo)注圖像

        數(shù)據(jù)整理完成后,針對(duì)已有數(shù)據(jù)對(duì)網(wǎng)絡(luò)結(jié)構(gòu)與訓(xùn)練參數(shù)進(jìn)行調(diào)整:1)凍結(jié)網(wǎng)絡(luò)其他功能模塊,如分類、檢測,只保留分割模塊的訓(xùn)練;2)修改預(yù)訓(xùn)練模型參數(shù),凍結(jié)最后輸出層參數(shù);3)修改學(xué)習(xí)率、訓(xùn)練步長、訓(xùn)練批次等參數(shù);4)保留每一次epochs產(chǎn)生的權(quán)重,并對(duì)驗(yàn)證集實(shí)時(shí)驗(yàn)證,直至網(wǎng)絡(luò)收斂。

        5.3.2 實(shí)現(xiàn)效果

        經(jīng)過訓(xùn)練獲得的語義分割模型,對(duì)測試圖片進(jìn)行測試,可以完成缺陷特征的定位標(biāo)注,如圖10所示。目前模型訓(xùn)練數(shù)據(jù)集中圓形缺陷數(shù)據(jù)比例大,可以很好地實(shí)現(xiàn)對(duì)圓形缺陷的標(biāo)注。

        圖10 焊縫缺陷標(biāo)注

        6 結(jié) 論

        本文在人工智能技術(shù)高速發(fā)展的背景下,提出了基于深度學(xué)習(xí)的管道焊縫缺陷檢測識(shí)別框架,闡述了各步驟的具體算法和模型訓(xùn)練方法,通過實(shí)驗(yàn)證明了框架的可行性。利用深度學(xué)習(xí)模型和各種圖像處理算法可以完成缺陷智能檢測分析工作。實(shí)驗(yàn)結(jié)果表明,該方法以較短的訓(xùn)練時(shí)間可獲得較高的焊縫缺陷識(shí)別準(zhǔn)確率,并能實(shí)現(xiàn)圓形缺陷的定位標(biāo)注?,F(xiàn)有焊縫缺陷(尤其橫向裂紋、咬邊、條渣等缺陷)樣本數(shù)據(jù)量較少,當(dāng)前模型對(duì)橫向裂紋等條塊型缺陷的適用性較差。接下來將收集更多缺陷樣本數(shù)據(jù),完善訓(xùn)練和測試數(shù)據(jù)集,進(jìn)一步優(yōu)化深度學(xué)習(xí)模型算法,提高模型各項(xiàng)指標(biāo)和適用性。

        猜你喜歡
        膠片焊縫深度
        No.8 膠片復(fù)興使柯達(dá)公司產(chǎn)量翻兩番
        基于焊縫余高對(duì)超聲波探傷的影響分析
        90Sr-90Y敷貼治療的EBT3膠片劑量驗(yàn)證方法
        深度理解一元一次方程
        TP347制氫轉(zhuǎn)油線焊縫裂紋返修
        膠片相機(jī)的維修 當(dāng)膠片機(jī)出現(xiàn)問題了該怎么辦
        攝影之友(2019年8期)2019-03-31 03:06:19
        深度觀察
        深度觀察
        作品一
        深度觀察
        久久久久国产精品| 国产一区二区在线观看我不卡| 国产精品一区二区三区女同| 日本一区二区三区视频免费在线| 国产97在线 | 日韩| 波多野吉衣av无码| 国产欧美日本亚洲精品一4区| 日本午夜a级理论片在线播放| 精品熟人妻一区二区三区四区不卡 | 欧美黑人性暴力猛交喷水| 日日摸夜夜添夜夜添无码免费视频 | 特级做a爰片毛片免费看| 中文字幕人妻av一区二区| 国产精品原创av片国产日韩| 国产精品高清免费在线| 揄拍成人国产精品视频| 国产成人啪精品视频免费软件| 亚洲精品6久久久久中文字幕| 亚洲av色精品国产一区二区三区 | 一边摸一边抽搐一进一出口述| 国产精品久久毛片av大全日韩 | 爆操丝袜美女在线观看| 久久综合给合综合久久| 精品无码av不卡一区二区三区 | 国产精品性色av麻豆| 免费人妻无码不卡中文字幕系| 日韩精品成人一区二区三区| 资源在线观看视频一区二区| av男人的天堂亚洲综合网| 亚洲精品www久久久| 99精品成人片免费毛片无码| 国产亚洲精品视频在线| 欧美成人家庭影院| 在教室伦流澡到高潮hgl视频 | 日韩AV无码中文无码AV| 蕾丝女同一区二区三区| 人禽交 欧美 网站| 香蕉色香蕉在线视频| 一级黄片草逼免费视频| 真人抽搐一进一出视频| 永久免费观看的毛片手机视频|