亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學習的蠶繭智能分選方法*

        2023-11-20 07:14:10姜闊勝武松梅
        傳感器與微系統(tǒng) 2023年11期
        關(guān)鍵詞:蠶繭樣本特征

        姜闊勝,武松梅,任 杰

        (1.安徽理工大學機械工程學院,安徽 淮南 232001;2.安徽職業(yè)技術(shù)學院現(xiàn)代服裝學院,安徽 合肥 230011)

        0 引 言

        對蠶繭進行質(zhì)量檢測實現(xiàn)蠶繭種類識別具有重要意義。蠶繭按照其使用價值以及形成原因分為上車繭與下繭,下繭包括雙宮繭、柴印繭、黃斑繭、畸形繭、薄皮繭等[1,2]。傳統(tǒng)的檢測方式為人工檢測,通過人眼觀察依據(jù)蠶繭表面顏色、形狀、紋理等特征對蠶繭進行分選[3~5]。該方法存在檢測效率低、錯檢率高、人工勞動強度大的問題,選繭環(huán)境惡劣,會對長期身處其中的選繭工人帶來不可逆的健康危害。近年來,得益于圖像處理技術(shù)的廣泛應用與深度學習理論的不斷發(fā)展,人工智能技術(shù)與農(nóng)業(yè)相關(guān)領(lǐng)域深度結(jié)合,大大提高了生產(chǎn)效率,降低企業(yè)生產(chǎn)成本[6]。在蠶繭識別領(lǐng)域的研究中,李時杰等人[7]利用基于深度學習模型BL-YOLOv3的技術(shù),成功實現(xiàn)了黃斑繭、上車繭和爛繭的有效識別。黎雨等人[8]提出一種蠶繭疵點圖像配準算法,該算法基于融合特征和FAST-SURF,利用HSI 顏色空間獲取蠶繭疵點圖像,并提取Canny 邊緣特征和局部二值模式(LBP)紋理特征。這些特征經(jīng)過歸一化處理,然后進行融合,形成融合特征。將融合特征與FAST-SURF算法結(jié)合應用于蠶繭疵點圖像配準,平均配準正確率達到89.76%,配準總時間均值為0.46s。張印輝等人[9]利用K-means聚類分析,確定了適合于下繭分析的錨點框架,并將上述錨點框架的參數(shù)預置在YOLOv3 模型中。接著,根據(jù)預設的剪枝率對經(jīng)過稀疏化訓練的模型進行模型剪枝。通過使用批量正則化層縮放因子的方式來縮小模型的尺寸。最后,通過在剪枝后的模型中嵌入感受野模塊,來擴大模型的感受野,以增強模型的辨別能力和魯棒性。經(jīng)過這些步驟,該模型在測試集上的平均檢測精確度達到96.8%。

        本文采用深度學習方法[10~12]基于改進的YOLOv5 算法,使用K-means + +算法[13]對蠶繭表面特征數(shù)據(jù)集的目標候選框尺寸進行聚類分析,并將該分析結(jié)果應用于算法的訓練過程中。其次,對網(wǎng)絡結(jié)構(gòu)進行調(diào)整,在網(wǎng)絡預測部分分別添加SE(squeeze and excitation)模塊[14],以強化缺陷信息、抑制無用信息,提升模型的準確性。

        1 數(shù)據(jù)集制作

        數(shù)據(jù)集中包括正常類別和6 種缺陷類別分別是薄皮、柴印、穿頭、爛繭、棉繭和小車繭。為了避免訓練過程中出現(xiàn)過擬合的情況,本文采用了數(shù)據(jù)增強策略。通過使用缺陷素材對原始圖像進行了多種操作,包括隨機裁剪、水平或垂直翻轉(zhuǎn)、旋轉(zhuǎn)、縮放和調(diào)整亮度或?qū)Ρ榷鹊龋瑫r還添加了隨機噪聲。經(jīng)過數(shù)據(jù)增強后的圖像共計5 600 幅,手動劃分訓練集和測試集樣本,劃分比例為9∶1,分別為5 040 幅和560幅。

        2 蠶繭缺陷檢測方法

        2.1 YOLOv5 網(wǎng)絡

        本文設計的基于改進YOLOv5[15,16]的蠶繭缺陷檢測基礎(chǔ)模型網(wǎng)絡結(jié)構(gòu)如圖1所示。

        圖1 YOLOv5 網(wǎng)絡結(jié)構(gòu)

        2.2 改進的YOLOv5 檢測算法

        2.2.1 引進SE注意力模塊

        卷積神經(jīng)網(wǎng)絡(CNN)模型通過融合圖像的空間信息和通道信息來實現(xiàn)特征的提取,不同的卷積核在每個輸入通道中尋找空間。然而,CNN模型在提取特征時不能有效地突出重要特征,因為網(wǎng)絡模型對每一個通道的權(quán)重相等,為了解決這個問題在YOLOv5中引入SE注意力模型。

        SE模塊通過添加內(nèi)容感知機制對每個通道進行自適應加權(quán),該機制將特征圖壓縮為單個值,以便網(wǎng)絡模型可以自適應地調(diào)整每個特征圖的權(quán)重,從而獲得每個通道的全局理解。它具有以較小的額外計算成本改善通道相互依賴性的優(yōu)點。SE模塊的操作流程如圖2所示。

        圖2 SE模塊結(jié)構(gòu)

        SE模塊由3 個組件組成:擠壓(squeeze)、激勵(excitation)、標度(scale)。

        1)Squeeze:對特征圖U采用擠壓操作,輸出1 ×1 ×C向量,擠壓公式

        擠壓操作后,每個特征圖可以有效地與其他特征圖相關(guān)聯(lián),增加全局感受野提取更豐富的特征,從而提高網(wǎng)絡的識別效果。

        2)Excitation:為了利用擠壓操作中的全局信息,激勵操作捕獲每個通道之間的依賴關(guān)系。過程公式為

        式中W1∈,σ為ReLU的簡寫符號,δ為sigmoid的簡寫符號,W2∈。

        3)Scale:利用激勵學習到的權(quán)重來標度U,將每個通道的權(quán)重分別乘以U對應通道的矩陣,最后得到帶有權(quán)重信息的特征圖

        2.2.2 激活函數(shù)改進

        采用Swish 激活函數(shù)來替換YOLOv5 中的ReLU。Swish激活函數(shù)不同于ReLU 對小于0 的(值)直接輸出為0,Swish函數(shù)將Sigmoid 與ReLU 的特點結(jié)合起來,采用非零數(shù)值來初始化神經(jīng)元。具體的函數(shù)公式為

        圖3 為本文改進后的網(wǎng)絡結(jié)構(gòu),網(wǎng)絡中主要采用卷積(Conv)層、批歸一化(BN)層、激活函數(shù)層、SE注意力模塊,為了使網(wǎng)絡中每一層特征圖輸入與輸出的尺寸大小一致,采用0填充(padding)輸入圖像邊長補零。

        圖3 本文中改進的網(wǎng)絡結(jié)構(gòu)

        3 實 驗

        3.1 實驗設備

        實驗在Windows 10環(huán)境下完成,使用CCD面陣工業(yè)相機對蠶繭進行拍攝,采集設備如圖4 所示。共采集560 張原始圖像,像素為1 280 ×1 024的灰度圖像。

        圖4 采集設備

        3.2 神經(jīng)網(wǎng)絡模型訓練

        本文實驗模型均采用YOLO系列模型,在COCO128 數(shù)據(jù)集上的YOLOv5 預訓練權(quán)重文件,在訓練過程中凍結(jié)DarkNet-53 特征提取部分參數(shù),分別訓練YOLOv5 以及改進后YOLOv5的檢測(detection)部分網(wǎng)絡參數(shù)。在訓練之前,本文對原始輸入進行了統(tǒng)一調(diào)整,將原始輸入調(diào)節(jié)為3 ×640 ×640圖像大小,訓練采用Adam優(yōu)化器優(yōu)化訓練過程,訓練參數(shù):輸入Batchsize 為8,總訓練輪數(shù)為300,學習率(learning rate)設置為1 ×10-3,1 ×10-4,模型損失通過交叉熵(CE)函數(shù)計算,改進模型訓練過程中,對每輪訓練完后采用測試集進行評估,直到模型完全收斂獲得最優(yōu)模型權(quán)重。改進后的YOLOv5 訓練過程中損失收斂曲線如圖5所示。經(jīng)過3 000次迭代,損失值趨近于0.28 左右,從損失值的收斂情況可以得出,改進后的YOLOv5 網(wǎng)絡模型訓練結(jié)果理想,可以進行進一步測試。

        圖5 改進的YOLOv3 算法訓練loss值

        圖6 展示了YOLOv5 以及改進后YOLOv5 的檢測效果,二者性能對比如表1 所示。改進后的YOLOv5 算法在缺陷定位上比原始的YOLOv5 算法更加精準,且在缺陷類型上識別判斷也更加準確,能夠更加準確地實現(xiàn)對蠶繭的分類。

        表1 改進的YOLOv5 算法與YOLOv5 性能對比%

        圖6 YOLOv5 與改進的YOLOv5 檢測效果

        4 結(jié)果與分析

        4.1 評價指標

        平均精度均值(mean average precision,mAP)結(jié)合了目標檢測任務中的精確率P和召回率R指標,用于衡量模型在不同類別上的平均精度。計算公式如下

        式中P為精確率;R為召回率;TP為標簽正樣本中被預測為正樣本的數(shù)量;FP為標簽負樣本中被預測為正樣本的數(shù)量;FN為標簽正樣本中被預測為負樣本的數(shù)量;F1 為準確率和召回率的調(diào)和平均;Pn和Rn分別為在第n個閾值下的查準率和召回率。

        4.2 結(jié)果分析

        表2為不同網(wǎng)絡模型在測試集上的檢測性能??梢钥闯觯和ㄟ^實驗發(fā)現(xiàn)改進后的YOLOv5 檢測算法,平均檢測準確率達到96.6%,準確率相對于Faster RCNN高出4.9%,比使用傳統(tǒng)的網(wǎng)絡模型SSD的mAP提高了9%,相比于傳統(tǒng)YOLOv5提高了5.5%。說明SE模塊強化了重要特征信息,提升了網(wǎng)絡預測精度,在取得較高的檢測準確率的同時召回率也很高,魯棒性較強。但是,由于SE模塊的加入增大了網(wǎng)絡的計算量,導致其檢測速率下降了2 fps,但明顯快于SSD,由此可見改進后的YOLOv5 檢測算法實用性更佳。

        表2 多種算法對蠶繭缺陷檢測效果對比

        5 結(jié) 論

        本文提出一種基于卷積神經(jīng)網(wǎng)絡的YOLOv5 改進方法,并將其應用于蠶繭智能分選領(lǐng)域。通過重新聚類先驗框,調(diào)整先驗框參數(shù)、添加SE 模塊進入檢測模型中和修改激活函數(shù)等方法改進YOLOv5 算法,最終使用Faster RCNN、SSD、YOLOv5以及改進的YOLOv5算法進行實驗。實驗結(jié)果表明,改進的YOLOv5算法mAP有大幅的提高,預測框也更加準確,算法具有良好的泛化性能。

        猜你喜歡
        蠶繭樣本特征
        咬破死亡的蠶繭
        小主人報(2022年1期)2022-08-10 08:28:50
        蠶繭與飛蝶
        小讀者(2021年4期)2021-06-11 05:42:12
        用樣本估計總體復習點撥
        提高鳴龍鎮(zhèn)蠶繭質(zhì)量的措施探討
        重視蠶病綜合防治 提高蠶繭質(zhì)量
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        推動醫(yī)改的“直銷樣本”
        抓住特征巧觀察
        隨機微分方程的樣本Lyapunov二次型估計
        草逼动态图视频免费观看网站| 亚洲AV无码一区二区三区少妇av| 免费av在线视频播放| 国产偷国产偷亚洲综合av| 久久人妻少妇嫩草av无码专区| 精品久久综合亚洲伊人| 蜜桃av观看亚洲一区二区| 最新中文字幕亚洲一区| av永久天堂一区二区三区| 国内精品视频一区二区三区| 精品国产自拍在线视频| 在线观看国产激情视频| 伊人久久大香线蕉av不卡| 波多野结衣有码| 美女黄网站永久免费观看网站| 亚洲毛片在线免费视频| 2021国产精品国产精华| 精品免费人伦一区二区三区蜜桃| 午夜黄色一区二区不卡| 日本妇人成熟免费2020| 国产尤物精品福利视频| 精品一区二区三区四区少妇| 国产影院一区二区在线 | 国产乱码卡二卡三卡老狼| 巨熟乳波霸若妻在线播放| 成人自拍视频国产一区| 国产亚洲精品久久情侣| 日韩亚洲欧美中文在线| 国产哟交泬泬视频在线播放| 国产精品丝袜美女久久| 免费无遮挡无码永久视频| 粗了大了 整进去好爽视频| 粉嫩av一区二区在线观看| 女人av天堂国产在线| 亚洲一区二区三区无码国产| 亚洲AV无码久久精品成人| 青青草在线免费观看在线| 天天碰免费上传视频| 少妇三级欧美久久| 大红酸枝极品老料颜色| 老妇高潮潮喷到猛进猛出|