亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于殘差神經(jīng)網(wǎng)絡(luò)的煙絲類型識別方法的建立

        2021-05-26 10:22:02周明珠劉德祥王宏強李曉輝
        煙草科技 2021年5期
        關(guān)鍵詞:煙絲集上權(quán)值

        鐘 宇,周明珠,徐 燕,劉德祥,王宏強,董 浩*,3,4,禹 艦,李曉輝,楊 進,邢 軍

        1.新疆維吾爾自治區(qū)煙草質(zhì)量監(jiān)督檢測站,烏魯木齊經(jīng)濟技術(shù)開發(fā)區(qū)天柱山街55號 830026 2.國家煙草質(zhì)量監(jiān)督檢驗中心,鄭州高新技術(shù)產(chǎn)業(yè)開發(fā)區(qū)翠竹街6號 450001 3.中國科學(xué)院合肥物質(zhì)科學(xué)研究院 安徽光學(xué)精密機械研究所 光電子技術(shù)研究中心,合肥市蜀山湖路350號 230031 4.中國科學(xué)技術(shù)大學(xué),合肥市金寨路96號 230026

        1 材料與方法

        1.1材料

        從一批未摻配煙絲中隨機取梗絲、葉絲、膨脹葉絲和再造煙葉絲各100根。

        1.2圖像采集與處理

        使用500萬像素工業(yè)相機和35 mm焦距工業(yè)鏡頭(德國Basler acA1920-40gm GigE相機和配套鏡頭),采集4種類型煙絲各100個樣本的圖像,單個圖像大小為2 592像素×1 944像素。

        圖像處理、模型建立、數(shù)值計算代碼均采用python語言;殘差卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建采用開源的tensorflow-gpu 1.13.2,keras2.1.5;圖 片 處 理 采 用opencv 4.3.0.36;數(shù)據(jù)集的組織、分割以及模型評價指標(biāo)計算采用numpy 1.17.4,pandas 1.0.5,sklearn 0.23.1;圖像處理單元(Graphic Processing Unit,GPU)采用NVIDIA GeForce RTX2060。

        1.3 模型構(gòu)建

        1.3.1 數(shù)據(jù)集構(gòu)建

        通過opencv將樣本縮放至256像素×256像素,以減小樣本內(nèi)存。將處理后樣本的80%作為訓(xùn)練集進行模型訓(xùn)練,20%作為測試集用以驗證模型表現(xiàn)。訓(xùn)練集和測試集的樣本分布見表1。

        表1 訓(xùn)練集和測試集樣本數(shù)量分布Tab.1 Sample quantity distribution of training set and test set (張)

        圖1 梗絲樣本圖像Fig.1 Image of cut stem sample

        為有效降低模型“過擬合”風(fēng)險,采用水平/豎直方向平移、水平/豎直方向翻轉(zhuǎn)、隨機旋轉(zhuǎn)、隨機縮放、錯切變換等方式對數(shù)據(jù)集進行增強[15]。圖1為原數(shù)據(jù)集中梗絲的一個樣本圖像,圖2為梗絲圖像經(jīng)不同方式變換后的增強圖像。經(jīng)算法處理后,原數(shù)據(jù)集從400張增強至7 832張,增強后的訓(xùn)練集和測試集樣本數(shù)量分布見表2。

        圖2 梗絲樣本經(jīng)數(shù)據(jù)增強后圖像Fig.2 Images of cut stem samples after image enhancement

        表2 數(shù)據(jù)增強后訓(xùn)練集和測試集樣本數(shù)量分布Tab.2 Sample quantity distribution of training set and test set after image enhancement (張)

        1.3.2 分類模型構(gòu)建

        基于殘差神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)建了煙絲類型分類模型,輸入層為224像素×224像素、3通道的張量。為防止模型“過擬合”,網(wǎng)絡(luò)中多處增加了批歸一化層[16],激活層均采用ReLU激活函數(shù)[17]。各模型層及輸入圖像張量在網(wǎng)絡(luò)前向傳播計算時,張量形狀變化情況見表3。其中,恒等映射模塊及卷積模塊結(jié)構(gòu)見圖3。

        1.1.1 患者入選標(biāo)準(zhǔn) ①首發(fā)或復(fù)發(fā)急性心力衰竭/慢性心力衰竭急性發(fā)作期心功能NYHA分級:Ⅲ~Ⅳ級;②休克診斷根據(jù)《實用內(nèi)科學(xué)》第十四版標(biāo)準(zhǔn)[1];同時符合以上2項。本研究經(jīng)本院倫理委員會論證同意開展,所有入組患者均簽署知情同意書。

        樣本經(jīng)輸出層被計算為長度為4的張量,利用公式(1)計算該樣本屬于某分類的概率值。

        式中:pi,j—樣本i預(yù)測為某分類(j)的概率;Zi,j—樣本i對應(yīng)的神經(jīng)網(wǎng)絡(luò)輸出張量。

        得到概率值后,再利用公式(2)計算該迭代次的損失值。

        式中:yi,j—樣本i的真實標(biāo)簽值,長度為4的張量,j處為1,其余處為0;pi,j—樣本i預(yù)測為某分類(j)的概率;m—樣本數(shù)。

        模型在優(yōu)化算法的作用下,逐次迭代更新神經(jīng)網(wǎng)絡(luò)權(quán)值以降低損失值,直至達到指定迭代次數(shù)后停止訓(xùn)練。

        2 結(jié)果與分析

        2.1 加載權(quán)值對模型的影響

        在樣本量或訓(xùn)練資源較少的情況下,訓(xùn)練出較優(yōu)的網(wǎng)絡(luò)權(quán)值需要較多的迭代次數(shù)?;诖耍w移學(xué)習(xí)領(lǐng)域的研究工作近年來取得較大進展[18-20],通過遷移已有的知識來解決目標(biāo)領(lǐng)域中僅有少量有標(biāo)簽樣本數(shù)據(jù)甚至無標(biāo)簽樣本數(shù)據(jù)的學(xué)習(xí)問題。其過程是將已完成訓(xùn)練的模型權(quán)值全部或部分載入到當(dāng)前模型中,再根據(jù)實際問題全部或部分訓(xùn)練模型的權(quán)值,可以有效提高模型的訓(xùn)練效率。何凱明等[14]在ImageNet數(shù)據(jù)集上使用殘差神經(jīng)網(wǎng)絡(luò)訓(xùn)練網(wǎng)絡(luò)權(quán)值,實現(xiàn)了top-1分類準(zhǔn)確率75.3%,top-5分類準(zhǔn)確率92.2%,并發(fā)布了Resnet50的神經(jīng)網(wǎng)絡(luò)權(quán)值?;诒疚姆椒ㄋ鶚?gòu)建的模型中,特征提取模塊遷移了Resnet50權(quán)值,全連接層模塊各層權(quán)值的初始值由隨機初始化的方式進行賦值,在模型訓(xùn)練時,只更新全連接層模塊的權(quán)值,特征提取模塊各層權(quán)值不更新。對于是否加載遷移的權(quán)值,模型在訓(xùn)練集和測試集上的表現(xiàn)見圖4。可見,加載權(quán)值的模型訓(xùn)練時損失值下降較快,下降曲線較為平滑。在相同迭代次數(shù)下,訓(xùn)練完成時損失值較低,在測試集上的表現(xiàn)相同。加載權(quán)值的模型訓(xùn)練集和測試集的準(zhǔn)確率差異不大,且均比不加載權(quán)值的模型高,說明模型的泛化能力和準(zhǔn)確率均較高。

        表3 殘差神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Tab.3 Structure of residual neural network

        圖3 殘差神經(jīng)網(wǎng)絡(luò)中恒等映射及卷積模塊結(jié)構(gòu)圖Fig.3 Structure of identity mapping module and convolution module in residual neural network

        圖4 加載權(quán)值對模型的影響Fig.4 Influence of weight loading on model

        2.2 優(yōu)化算法和學(xué)習(xí)率對模型的影響

        優(yōu)化算法是通過改善訓(xùn)練方式使損失值最小化。在訓(xùn)練神經(jīng)網(wǎng)絡(luò)權(quán)值時,梯度下降是一種最常用的算法,利用公式(3)對神經(jīng)網(wǎng)絡(luò)的權(quán)值進行更新。

        式中:J(θ)—損失函數(shù);θ′—待更新的權(quán)值;θ—當(dāng)前權(quán)值;lr—學(xué)習(xí)率(learning rate);decay—學(xué)習(xí)率衰減因子,隨著迭代次數(shù)增加,動態(tài)修改學(xué)習(xí)率。

        Ashia C.Wilson等[21]探討了不同優(yōu)化算法在CIFAR-10數(shù)據(jù)集訓(xùn)練集及測試集上的不同表現(xiàn)。通過對比自適應(yīng)估計(Adaptive Moment Estimation,Adam)算法及隨機梯度下降(Stochastic Gradient Descent,SGD)算法在不同學(xué)習(xí)率下的訓(xùn)練及測試過程可以發(fā)現(xiàn),隨著迭代次數(shù)增加,模型會逐步接近較優(yōu)值,此時較大的學(xué)習(xí)率不利于模型收斂。因此,在模型訓(xùn)練過程中,在學(xué)習(xí)率中加入一個衰減因子,能夠使學(xué)習(xí)率隨著迭代次數(shù)的增加而逐步減小。

        學(xué)習(xí)率對模型表現(xiàn)有顯著影響[22]。不同算法對學(xué)習(xí)率的適應(yīng)能力不同,但都表現(xiàn)出相同的規(guī)律。當(dāng)學(xué)習(xí)率較大時,模型訓(xùn)練速度快,損失值較快達到最低值且準(zhǔn)確率較快上升至最高值,但模型在測試集上表現(xiàn)出較強的波動性,這是因為模型權(quán)值在較優(yōu)值附近“振蕩”,無法收斂,隨迭代次數(shù)增加,在衰減因子的作用下學(xué)習(xí)率逐步降低并最終完成模型訓(xùn)練;當(dāng)學(xué)習(xí)率較小時,模型損失值下降和準(zhǔn)確率上升均較為緩慢,在有限次迭代后,模型能力較低,未被完全訓(xùn)練好。因此,較大和較小的學(xué)習(xí)率均存在不足,通過對學(xué)習(xí)率進行網(wǎng)格篩選,確定Adam算法較優(yōu)學(xué)習(xí)率為2×10-5(0.000 02),SGD算法較優(yōu)學(xué)習(xí)率為2×10-4(0.000 2)。

        利用公式(4)~公式(7)計算準(zhǔn)確率、召回率、f1分?jǐn)?shù)、加權(quán)平均值4項指標(biāo),并以此評估模型表現(xiàn)。模型經(jīng)過200次迭代后,在訓(xùn)練集上,Adam和SGD算法在較優(yōu)學(xué)習(xí)率下的表現(xiàn)見表4。可見,SGD算法的準(zhǔn)確率、召回率、f1分?jǐn)?shù)的加權(quán)平均值均為99.92%,略高于Adam算法(99.76%),但差異并不顯著。

        式中:Pi—某分類的準(zhǔn)確率,%;TPi—某分類預(yù)測正確的樣品數(shù)量,張;Ki—預(yù)測為某分類的樣品數(shù)量,張。

        表4 模型在訓(xùn)練集上的表現(xiàn)Tab.4 Performance of model on training set

        式中:Ri—某分類的召回率,%;TPi—某分類預(yù)測正確的樣品數(shù)量,張;Ni—某分類的總樣品數(shù)量,張。

        式中:f1i—某分類的f1分?jǐn)?shù),%;Pi—某分類的準(zhǔn)確率,%;Ri—某分類的召回率,%。

        式中:avg_weight—某指標(biāo)基于樣品數(shù)的加權(quán)平均值;f—某指標(biāo);Ni—某分類的總樣品數(shù)量,張。

        2.3 模型評估

        模型在測試集、原數(shù)據(jù)集測試集上的表現(xiàn)與卷積神經(jīng)網(wǎng)絡(luò)[9]的表現(xiàn)對比見表5和表6。測試集任一類型煙絲殘差神經(jīng)網(wǎng)絡(luò)分類準(zhǔn)確率最低為96.72%,高于卷積神經(jīng)網(wǎng)絡(luò)(58.02%)。其中,葉絲的準(zhǔn)確率略低,葉絲、膨脹葉絲的召回率較低,說明葉絲和膨脹葉絲相互誤認(rèn)的概率較大,加權(quán)平均準(zhǔn)確率為98.05%,高于卷積神經(jīng)網(wǎng)絡(luò)(60.20%);原數(shù)據(jù)集測試集任一類型煙絲的分類準(zhǔn)確率最低均達到94.74%,高于卷積神經(jīng)網(wǎng)絡(luò)(80.95%),加權(quán)平均準(zhǔn)確率為97.62%,高于卷積神經(jīng)網(wǎng)絡(luò)(84.95%)。此外,測試集模型f1分?jǐn)?shù)加權(quán)平均值為98.04%,訓(xùn)練集為99.76%,兩者差異不大,說明模型的泛化能力較強。

        表5 模型在測試集上的表現(xiàn)Tab.5 Performance of model on test set

        表6 模型在原數(shù)據(jù)集測試集上的表現(xiàn)Tab.6 Performance of model on test set of original data

        模型在測試集上的測試結(jié)果(表5)表明,識別錯誤和未被識別的樣本數(shù)約占2%,主要有兩種情況:一是模型未能區(qū)分出膨脹葉絲和葉絲,這是由于在宏觀尺度上,兩者的特征差異不明顯,尤其是少部分葉絲膨脹后沒有顯著變化,從而難以區(qū)分;二是部分樣本圖像來源于同一原始樣本數(shù)據(jù)或圖像增強,模型對其中一個原始圖像如果不能正確判斷,則其增強后的圖像也會出現(xiàn)誤判。因此,要提高模型識別準(zhǔn)確率,一方面是增加訓(xùn)練的樣本類型和數(shù)量,另一方面是提高圖像的質(zhì)量,在訓(xùn)練集中引入不同方式的增強圖像。

        3 結(jié)論

        為實現(xiàn)煙絲類型的準(zhǔn)確識別,利用各類煙絲圖像特征差異,以殘差神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)建立了識別模型,并對模型的識別準(zhǔn)確率、召回率、優(yōu)化算法等進行了研究,結(jié)果表明:①基于殘差神經(jīng)網(wǎng)絡(luò)的煙絲類型識別方法具有較高的準(zhǔn)確率和召回率,模型測試集準(zhǔn)確率和召回率均高于96%,可以有效識別煙絲類型。②模型的訓(xùn)練集與測試集表現(xiàn)差異較小,模型具有較強的泛化能力。③預(yù)訓(xùn)練權(quán)值、優(yōu)化算法及學(xué)習(xí)率等超參數(shù)對于模型具有較大影響,通過加載預(yù)訓(xùn)練權(quán)值可提升模型訓(xùn)練速度;優(yōu)化算法對模型表現(xiàn)影響較小,但不同算法的學(xué)習(xí)率不同,學(xué)習(xí)率應(yīng)處于相對適中水平,較高學(xué)習(xí)率會增加模型收斂難度,較低學(xué)習(xí)率會降低模型訓(xùn)練效率。④基于殘差神經(jīng)網(wǎng)絡(luò)的煙絲類型識別方法相比基于卷積神經(jīng)網(wǎng)絡(luò)的識別方法具有更高的識別率、泛化能力及魯棒性。未來將進一步研究煙絲在線收集以及在工業(yè)圖像采集條件下的數(shù)據(jù)集構(gòu)建和提高模型識別準(zhǔn)確率等問題,實現(xiàn)煙絲類型的實時分析。

        猜你喜歡
        煙絲集上權(quán)值
        含水率和溫度對煙絲破碎規(guī)律的影響
        一種融合時間權(quán)值和用戶行為序列的電影推薦模型
        CONTENTS
        Cookie-Cutter集上的Gibbs測度
        鏈完備偏序集上廣義向量均衡問題解映射的保序性
        結(jié)存煙絲返摻方式的選擇
        復(fù)扇形指標(biāo)集上的分布混沌
        基于權(quán)值動量的RBM加速學(xué)習(xí)算法研究
        基于PLC的煙絲配比控制系統(tǒng)的研制
        河南科技(2014年24期)2014-02-27 14:19:42
        基于圖像處理技術(shù)的煙絲檢測系統(tǒng)
        河南科技(2014年11期)2014-02-27 14:09:43
        久久国产免费观看精品| 国产精品99久久久久久98AV| 国产精品视频久久久久| 亚洲av高清在线观看三区| 日本视频精品一区二区| 久久久亚洲一区二区三区| 亚洲一区二区三区高清在线观看 | 亚洲人妻中文字幕在线视频| 97精品熟女少妇一区二区三区| 女女同恋一区二区在线观看| 精品久久久久久无码中文野结衣| 国产成人精品综合在线观看| 欧美婷婷六月丁香综合色| 日韩欧美在线播放视频| av毛片一区二区少妇颜射| 亚洲中文字幕一区二区三区多人| 青青草免费手机视频在线观看| 蜜臀亚洲av无码精品国产午夜.| 国产精品成人观看视频| 国产呦精品系列在线播放| 国产老妇伦国产熟女老妇高清| 日本一区二区三区在线观看免费| 国产一区资源在线播放| 亚洲av无码乱码国产麻豆| 亚洲精品乱码8久久久久久日本 | 国产中文字幕乱码在线| 色婷婷精品大在线视频| 国产视频自拍一区在线观看| 久久久www成人免费毛片| 日本高清www无色夜在线视频| 亚洲成年网站在线777| 手机在线免费av网址| 亚洲综合自拍偷拍一区| 精品人妻中文无码av在线| 先锋影音av资源我色资源| 欧美日本国产亚洲网站免费一区二区| 日本免费三片在线播放| 人妻中文字幕在线中文字幕| 羞羞视频在线观看| 亚洲国产一区二区三区在线视频| 免费人成在线观看播放视频|