亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)U-NET模型的煤巖圖像識(shí)別算法研究

        2023-09-28 02:30:06
        中國新技術(shù)新產(chǎn)品 2023年16期
        關(guān)鍵詞:注意力卷積特征

        趙 杰 趙 浩 徐 晗

        (黑龍江科技大學(xué),黑龍江 哈爾濱 150022)

        目前,中國的遠(yuǎn)景煤炭資源量已達(dá)6.02萬億t,其中1.71萬億噸屬于保有查明儲(chǔ)量,約占中國已探明化石燃料資源的97%。相比之下,煤炭資源的數(shù)量大大超過了其他化石資源的數(shù)量總和[1],采煤機(jī)如何快速、準(zhǔn)確地識(shí)別煤層和巖石層的分布情況成為煤炭開采領(lǐng)域內(nèi)的技術(shù)難題,在采煤機(jī)工作面中含有大量的煤巖特征信息,因此,大量研究者利用圖像處理方法來對煤巖識(shí)別進(jìn)行研究。另外,深度學(xué)習(xí)技術(shù)已經(jīng)運(yùn)用于智能采礦領(lǐng)域中[2],司壘等[3]通過優(yōu)化U-NET網(wǎng)絡(luò)模型并加入Res2Net來增強(qiáng)模型讀取特征值的功能,提高了識(shí)別煤巖交界區(qū)的精準(zhǔn)度[4]。史健婷等[5]改進(jìn)U-NET++算法,采用“剪枝”操作對數(shù)據(jù)集進(jìn)行預(yù)測,提高了運(yùn)算速度和分割精度。該文采用循環(huán)卷積模塊(RCL)代替原來U-NET中的常規(guī)卷積模塊,并在下采樣過程中添加卷積注意力機(jī)制(CBAM),在提高模型運(yùn)行效率的同時(shí)提高特征提取能力,與傳統(tǒng)U-NET模型相比,其具有更高的分割性能。

        1 傳統(tǒng)U-NET模型

        在U-NET網(wǎng)絡(luò)模型中,左側(cè)為編碼部分,右側(cè)為解碼部分,編碼部分采用典型的卷積網(wǎng)絡(luò)結(jié)構(gòu),分為2個(gè)3×3卷積核,每個(gè)卷積運(yùn)算操作后面有 1 個(gè)RELU單元和2×2的最大池化層,可以實(shí)現(xiàn)向下采樣,在每個(gè)向下采樣步驟中,特征通道的容量都會(huì)增加1倍。解碼部分中每一項(xiàng)都包括特征映像的向上采樣,然后用2×2卷積核通過卷積運(yùn)算使特征映像的個(gè)數(shù)減半,然后將編碼部分中裁剪的特征映像串聯(lián)并加上2個(gè)3×3卷積核,最后一層使用1×1卷積核進(jìn)行卷積運(yùn)算,將每個(gè)64維的特征向量映射到輸出層,網(wǎng)絡(luò)總共有23個(gè)卷積層。

        2 改進(jìn)后的模型

        由試驗(yàn)可知,U-NET網(wǎng)絡(luò)提取的特征信息不夠豐富,存在局部信息丟失的問題,其原因是下采樣階段和上采樣階段的特征圖在語義上并不具有相似性,當(dāng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練時(shí),直接向解碼階段傳遞高分辨率的特征圖將導(dǎo)致分割結(jié)果在語義上具有不一致性,使分割結(jié)果變差,因此對U-NET進(jìn)行改進(jìn),改進(jìn)后的網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1所示。在編碼部分使用循環(huán)卷積網(wǎng)絡(luò),利用循環(huán)卷積層進(jìn)行特征積累,有助于提取特征;同時(shí),引入卷積注意力機(jī)制(CBAM)為特征賦予權(quán)重值,使網(wǎng)絡(luò)可以提取更豐富、更有意義的特征并篩選更重要的特征。由圖1可知,輸入圖像在第一層編碼階段先通過循環(huán)卷積操作提取特征,然后經(jīng)過注意力模塊重新校準(zhǔn)特征圖,最后對特征圖進(jìn)行池化操作,使圖像尺寸變?。坏诙?、第三和第四層編碼與第一層操作相同,只是通道數(shù)擴(kuò)大,最后進(jìn)行1次循環(huán)卷積操作并經(jīng)注意力模塊將特征圖傳輸至解碼階段。在每層解碼階段依次進(jìn)行上采樣和反卷積操作,最后經(jīng)過1×1卷積輸出預(yù)測值。試驗(yàn)結(jié)果顯示,改進(jìn)后的模型比U-NET網(wǎng)絡(luò)具有更高的分割性能,解決了分割結(jié)果中圖像信息丟失的問題。

        圖1 改進(jìn)后模型

        2.1 循環(huán)卷積模塊

        在循環(huán)卷積模塊中,前饋連接和循環(huán)連接都具有本地連接和不同位置之間的共享權(quán)重。循環(huán)卷積模塊的狀態(tài)在離散步長上演化。某層網(wǎng)絡(luò)輸入計(jì)算方式如公式(1)所示。

        式中:i、j為2個(gè)像素定位;k為第k個(gè)特征圖;zijk(t)為某個(gè)單元內(nèi)時(shí)間t的輸出;u(i,j)為普通反饋網(wǎng)絡(luò)的輸入;x(i,j)(t-1)為某個(gè)單元內(nèi)循環(huán)輸入;wfk和wrk分別為第k個(gè)特征圖的標(biāo)準(zhǔn)前饋卷積層的權(quán)重和循環(huán)卷積層的權(quán)重;f為標(biāo)準(zhǔn)前饋卷積層;r為循環(huán)卷積層;bk為偏差。

        公式(1)第一項(xiàng)用于標(biāo)準(zhǔn)卷積層,第二項(xiàng)用于誘導(dǎo)循環(huán)連接,可以解決網(wǎng)絡(luò)模型中網(wǎng)絡(luò)退化的問題。

        2.2 卷積注意力機(jī)制

        卷積注意力機(jī)制(CBAM)將通道注意力機(jī)制與空間注意力機(jī)制串行連接,其結(jié)構(gòu)如圖2所示。首先,通道注意力機(jī)制對特征圖進(jìn)行最大池化和平均池化操作。其次,對池化的結(jié)果進(jìn)行全連接層計(jì)算,再經(jīng)過Sigmoid激活函數(shù)得到輸入特征圖每個(gè)通道的權(quán)值。最后,將權(quán)值與原輸入特征圖相乘,得到最終的通道注意力特征圖??臻g注意力機(jī)制用于壓縮空間,首先,通過2個(gè)池化操作聚合1個(gè)特征圖的通道信息。其次,將信息連接起來并進(jìn)行1×1卷積操作,得到通道為1的特征圖。最后,使用Sigmoid激活函數(shù)進(jìn)行標(biāo)準(zhǔn)化操作,以得到最終的空間注意力特征圖。

        圖2 注意力機(jī)制

        3 仿真測試

        3.1 數(shù)據(jù)集處理

        試驗(yàn)所用樣本全部拍攝于黑龍江科技大學(xué),共拍攝120張,精簡后剩余100張。

        拍攝的100張數(shù)據(jù)樣本通過MATLAB進(jìn)行亮度變換、添加噪聲以及圖像模糊操作,以擴(kuò)充數(shù)據(jù)集,共獲得600張圖片,500張用于訓(xùn)練,另外100張用于測試。

        常見的語義分割標(biāo)注工具(例如Labelme)通常都是采用勾畫多邊形的方法進(jìn)行標(biāo)注的,如果圖像不規(guī)則,就會(huì)延長標(biāo)注時(shí)間,并且需要進(jìn)行二值化轉(zhuǎn)換,相比之下,Photoshop中的套索工具可以高效、迅速地劃分物體邊界區(qū)域,簡單、易掌握且時(shí)間成本低,因此考慮使用該工具來完成數(shù)據(jù)標(biāo)注任務(wù)。

        3.2 模型訓(xùn)練

        將所準(zhǔn)備的數(shù)據(jù)集分別導(dǎo)入傳統(tǒng)U-NET網(wǎng)絡(luò)和改進(jìn)模型進(jìn)行訓(xùn)練,訓(xùn)練的準(zhǔn)確率如圖3所示(改進(jìn)后的模型訓(xùn)練準(zhǔn)確度變高)。

        圖3 訓(xùn)練準(zhǔn)確率

        3.3 結(jié)果對比

        采用訓(xùn)練好的模型對測試集進(jìn)行測試,為了便于觀察,對識(shí)別結(jié)果進(jìn)行二值化處理,從左至右依次為輸入圖像、U-NET識(shí)別結(jié)果和RU-NET識(shí)別結(jié)果,該文選取4張測試結(jié)果如圖4所示。結(jié)果顯示,2種模型一般都能夠大致地區(qū)分煤和巖石的范圍,但是RU-NET模型對煤和巖石的交界處分割得更精準(zhǔn)。

        圖4 測試結(jié)果

        通常采用像素準(zhǔn)確度(Pixel Accuracy)和交并比(Intersectionover Union)對語義分割結(jié)果進(jìn)行分析。

        識(shí)別正確的圖像像素?cái)?shù)量與原圖像像素總數(shù)之間的比率PA如公式(2)所示。

        式中:k為圖像像素類別的數(shù)量;Pij為i類同時(shí)預(yù)測i類的像素總數(shù);Pii為i類被預(yù)測j類的像素總數(shù)。

        分割結(jié)果與原始圖像真值的交并比為IOU,在目標(biāo)檢測中表示系統(tǒng)預(yù)測的檢測結(jié)果與原圖片中標(biāo)記檢測結(jié)果的重合度,其最理想的值為1,IOU如公式(3)所示。

        式中:A為預(yù)測區(qū)域;B為實(shí)際標(biāo)注區(qū)域。

        該文語義分割結(jié)果的4張測試圖的PA評估得分如下:U-NET得分分別為88.85、89.24、86.35和87.20,平均分為87.91;RU-NET得分分別為89.90、90.88、89.40和90.26,平均分為90.11。改進(jìn)后的模型比原有模型4張測試圖的PA得分分別提高了1.05、1.64、3.05和3.06,平均得分提高了2.2;該文語義分割結(jié)果的4張測試圖的IOU評估得分如下:U-NET得分分別為81.92、82.03、79.10和80.66,平均分為80.93;RU-NET得分分別為82.90、83.88、81.40和82.26,平均分為82.61。改進(jìn)后的模型比原有模型4張測試圖的IOU得分分別提高了0.98、1.85、2.3和1.6,平均得分提高了1.68。結(jié)果表明,改進(jìn)后模型對圖像的識(shí)別精度變高。

        4 結(jié)語

        該文將循環(huán)卷積模塊引入傳統(tǒng)U-NET網(wǎng)絡(luò)模型中,以替換原來的卷積單元,并且添加了卷積注意力機(jī)制,循環(huán)卷積模塊在提高了圖像上下文語義信息利用率的同時(shí),還擴(kuò)大了圖像特征提取范圍,卷積注意力機(jī)制模塊對提取到的多維度特征進(jìn)行權(quán)重校準(zhǔn),使重要特征得到更多關(guān)注,使網(wǎng)絡(luò)模型可以提取更多有意義的特征,從而更精準(zhǔn)地分割圖像。在試驗(yàn)測試中,改進(jìn)后的RU-NET網(wǎng)絡(luò)模型在視覺上取得了更好的效果。

        猜你喜歡
        注意力卷積特征
        讓注意力“飛”回來
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        如何表達(dá)“特征”
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠的四個(gè)特征
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        抓住特征巧觀察
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
        國产一二三内射在线看片| 亚洲最好看的中文字幕| 亚洲精品少妇30p| 亚洲日韩国产精品第一页一区| 亚洲av日韩av一卡二卡| 日韩女同一区二区三区久久| 国内久久婷婷六月综合欲色啪| 一本久久伊人热热精品中文字幕| a级毛片免费观看视频| 中文精品久久久久人妻不卡| 特级精品毛片免费观看| 亚洲久热无码av中文字幕| 无码一区二区丝袜| 久久精品亚洲94久久精品| 影音先锋色小姐| 中文幕无线码中文字蜜桃| 中国老太老肥熟女视频| 国产精品熟女一区二区三区 | 久久婷婷夜色精品国产| 熟女中文字幕一区二区三区| 末发育娇小性色xxxx| 日本亚洲欧美在线观看| 经典亚洲一区二区三区| 夜夜高潮夜夜爽夜夜爱爱一区| 免费a级毛片无码a∨免费软件| 亚洲免费一区二区三区视频| 青草草视频在线观看华人免费| 人人做人人爽人人爱| 国内露脸中年夫妇交换| 国产一区二区三区亚洲精品| 国产成年人毛片在线99| 97人人模人人爽人人喊电影 | 日韩av一区在线播放| 亚洲成人中文字幕在线视频 | 亚洲国产成人精品无码区99| 亚洲无码激情视频在线观看| 国产91成人精品高潮综合久久| 午夜精品久久久久久99热| 狠狠色综合播放一区二区| 97久久综合精品国产丝袜长腿| 国产夫妇肉麻对白|