亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于輕型調(diào)控網(wǎng)絡的下繭機器視覺實時檢測

        2022-05-12 09:30:46張印輝楊宏寬朱守業(yè)何自芬
        農(nóng)業(yè)機械學報 2022年4期
        關鍵詞:深度檢測模型

        張印輝 楊宏寬 朱守業(yè) 何自芬

        (昆明理工大學機電工程學院,昆明 650500)

        0 引言

        蠶繭是蠶桑生產(chǎn)最主要的產(chǎn)物,其通過商品市場流通成為絲綢工業(yè)的原料[1]。蠶繭主要分為“上車繭”和“下繭”兩類,其中“上車繭”指能夠上繅絲機繅正品生絲的繭,“下繭”指有嚴重疵點、不能或很難繅正品生絲的繭[2]。將原料繭加工成絞裝生絲需經(jīng)過混繭、剝繭、選繭、煮繭、繅絲、復搖、整理等工藝流程[3-4]。在進行繅絲工藝前需要選繭,將下繭剔除,以保證繭絲的品質,提升絲制品的經(jīng)濟效益。選繭時以人工選繭為主,勞動強度大,容易產(chǎn)生誤判,漏選率高,選繭效率低下[5]。

        近年來,隨著科學技術的發(fā)展,圖像處理技術逐步被應用到蠶繭檢測研究中。國內(nèi)外利用數(shù)字圖像處理技術對蠶繭檢測開展了一定的研究工作[6-8],具有重要的參考價值。但是沒有針對選繭時多類下繭檢測的研究,且方法復雜,實施難度比較大,難以應用到工業(yè)生產(chǎn)上。

        隨著深度學習的目標檢測模型越來越成熟,通過深度學習解決目標分類檢測問題的效果越來越好,應用領域也越來越廣。目標檢測模型大致分為2類,即Two-stage和One-stage檢測模型。Two-stage模型有R-CNN[9]、Fast R-CNN[10]、Faster R-CNN[11]。One-stage模型有SSD[12]、YOLO系列[13-16]。Two-stage模型結構復雜,計算參數(shù)較多,實時檢測性能較差;One-stage模型具有較好的檢測速度,更適合應用在工業(yè)上進行實時檢測。

        基于以上分析,本文采用線陣掃描相機為圖像傳感器,以成像的景深計算為基礎來選擇合適的拍攝距離,通過成像時采樣頻率的計算進一步配置圖像采集系統(tǒng)的參數(shù),從而搭建圖像采集系統(tǒng)。以黃斑繭、癟繭、薄皮繭、特小繭為檢測對象,采集線陣圖像后合成面陣圖像構建下繭檢測數(shù)據(jù)集。并以YOLO v4目標檢測模型為基礎模型,通過候選框參數(shù)預置提升模型的精度;采用模型深度調(diào)控的方法來壓縮模型,降低模型權重所占儲存空間,提升模型速度;設計輕量級卷積模塊構建模型的特征提取網(wǎng)絡,進一步提升模型的檢測速度。

        1 圖像采集系統(tǒng)

        考慮到下繭檢測的工業(yè)應用背景,本文的圖像采集系統(tǒng)搭建在暗室中,選擇傳送帶背景下使用線陣掃描相機拍攝的方式獲取圖像,建立下繭檢測數(shù)據(jù)集。圖像采集系統(tǒng)主要分為線陣掃描相機、鏡頭、光源、傳送帶、計算機等部分,處理過程如圖1所示。

        圖1 圖像采集系統(tǒng)處理過程Fig.1 Construction process of image acquisition system

        圖像采集系統(tǒng)拍攝視野與拍攝距離密切相關,合理的物距設置是獲取清晰圖像的關鍵。如圖2所示,根據(jù)成像的三角形相似原理,CCD邊長s和視野寬度S以及焦距f和物距D之間呈三角形相似關系[17],則有關系式

        圖2 圖像采集系統(tǒng)成像原理圖Fig.2 Imaging schematic of image acquisition system

        (1)

        可得拍攝時的物距D計算式為

        (2)

        在理想狀態(tài)下,光線穿過圖像采集系統(tǒng)鏡頭后會聚集在焦點上,但實際應用上,由于光的波動性,成像時在焦點的前后光線會聚集和擴散,導致物體的影像變得模糊,形成擴大的彌散圓[18]。成像時只有光線聚集在2個彌散圓之間才能得到清晰的圖像。考慮到傳送帶會有輕微振動,故使傳送帶設置在成像的景深范圍內(nèi)尤為重要。如圖2所示,將成像端的2個彌散圓位置對應到實物端可得到景深遠界和景深近界,兩者之間的距離即為景深ΔL,其計算公式[17]為

        (3)

        式中F——鏡頭光圈值

        d——彌散圓直徑L——拍攝距離

        經(jīng)過綜合考慮成本及成像質量后,采用三線高速彩色線陣掃描相機,型號為PC-30-04K80-00-R,CCD邊長s(像素)為4 096像素,像元尺寸b×b為10 μm×10 μm,則CCD邊長s為40.96 mm;高精度檢測用鏡頭,型號為PENTAX-YF3528L,焦距f為35 mm,光圈值F為2.6 mm;傳送帶寬度為600 mm,即視野寬度S為600 mm。根據(jù)圖1所示步驟搭建圖像采集系統(tǒng),相應計算如下:

        (1)由式(2)計算圖像采集系統(tǒng)的拍攝物距D為

        (2)在機器視覺檢測系統(tǒng)中,彌散圓直徑d小于0.035 mm則認為所成圖像為清晰圖像[17],由式(3)計算圖像采集系統(tǒng)的拍攝景深ΔL為

        搭建圖像采集系統(tǒng)時,因拍攝景深ΔL為44.64 mm,比較大,對物距D進行圓整,取為500 mm,即可保證傳送帶表面處于清晰成像的景深范圍內(nèi)。

        (3)采集圖像時使用的相機為線陣掃描相機,取像時為符合YOLO v4目標檢測模型輸入圖像高寬比為1∶1的要求,需將相機取像的高度像素設置為4 096像素,即4 096幀。

        (4)

        化簡得

        (5)

        取像時采樣頻率q為

        經(jīng)過以上計算分析,圖像采集系統(tǒng)物距D設為500 mm,寬高像素均設為4 096幀,采樣頻率q設為1 024 Hz,即可保證得到清晰的圖像,圖像采集系統(tǒng)實物如圖3所示。

        圖3 圖像采集系統(tǒng)Fig.3 Image acquisition system1.線陣掃描相機 2.計算機 3.光源 4.傳送帶

        圖像采集時以黃斑繭、癟繭、薄皮繭、特小繭4類下繭為檢測對象,采用不同數(shù)量分布、不同數(shù)量類別的方式拍攝,以保證得到的圖像符合選繭時的實際情況。共采集圖像556幅,采用OpenCV計算機視覺庫將圖像處理成416像素×416像素后,使用LabelImg標注工具對訓練集和測試集中的圖像進行標注。標注好的數(shù)據(jù)集中包含黃斑繭320個、癟繭258個、薄皮繭276個、特小繭248個,并通過對角線鏡像的方式將數(shù)據(jù)集中的圖像和標簽擴充1倍,得到圖像1 112幅,黃斑繭640個、癟繭516個、薄皮繭552個、特小繭496個,按照比例3∶1隨機將數(shù)據(jù)集劃分為訓練集和測試集,即834幅用于訓練,278幅用于測試。

        2 輕型調(diào)控網(wǎng)絡設計

        2.1 YOLO v4目標檢測模型

        YOLO v4目標檢測模型是YOLO v3目標檢測模型的改進版,相較于YOLO v3目標檢測模型,其使用CSPDarknet53作為特征提取網(wǎng)絡,引入mosaic數(shù)據(jù)增強對數(shù)據(jù)進行處理,使用路徑聚合網(wǎng)絡(Path aggregation network,PANet)進行多尺度特征融合,并使用多種訓練技巧,對損失函數(shù)與激活函數(shù)進行優(yōu)化,這些方式使得YOLO v4的檢測速度更快,實現(xiàn)速度和精度的最佳平衡[19-21]。YOLO v4主要由CSP(Center and scale prediction)殘差模塊、CBM(Convolution,batch normalization and mish)模塊、CBL(Convolution,batch normalization and Leaky-ReLU)模塊、SPP(Spatial pyramid pooling)模塊組成。

        2.2 候選框參數(shù)預置

        YOLO v4模型經(jīng)過特征提取網(wǎng)絡提取特征,多尺度特征融合后輸出3個尺度的特征圖,且每個尺度都有相同數(shù)量的候選框對目標進行預測。原YOLO v4基礎模型的9個候選框是對VOC數(shù)據(jù)集聚類得到,具體尺寸(像素)為:(12,16)、(19,36)、(40,28)、(36,75)、(76,55)、(72,146)、(142,110)、(192,243)、(459,401)??梢钥闯鲆蛟摂?shù)據(jù)集中目標之間差距較大,導致得到的候選框尺寸差距比較大。本文的檢測對象為蠶繭,目標較小,使用原YOLO v4基礎模型的候選框會影響模型的性能,因此需采用K-means算法對下繭檢測數(shù)據(jù)集進行聚類分析,得到適用于下繭檢測的候選框參數(shù)。分別選擇候選框數(shù)量為3、6、9、12的聚類中心進行聚類分析,對靠近聚類中心的候選框參數(shù)進行歸類,與聚類中心距離越小則表明與聚類中心相似性越高,可歸為一類。通過迭代的方法逐次更新聚類中心的候選框參數(shù)值,直到得到最好的聚類結果。采用K-means算法聚類分析得到的候選框參數(shù)如表1所示。

        表1 不同候選框參數(shù)Tab.1 Different anchor parameters

        2.3 模型壓縮

        2.3.1模型稀疏化原理

        在神經(jīng)網(wǎng)絡訓練過程中,后面的神經(jīng)網(wǎng)絡層經(jīng)過反向傳播改變前層的網(wǎng)絡權值,過程中容易產(chǎn)生梯度爆炸或梯度消失問題。為解決這個問題,批量正則化(Batch normalization,BN)層[22]被用于卷積層和線性層之后對特征圖進行歸一化處理,YOLO v4模型中BN層處理流程為:

        (1)計算BN層前卷積層的卷積結果xconv。

        (6)

        式中xm——卷積層第m個通道輸出結果

        wm——卷積層第m個輸出通道的權值

        (2)計算BN層輸出結果xout。

        (7)

        式中γ——BN層的gamma系數(shù)

        β——BN層的beta項

        μ——xm均值σ2——xm方差

        γ和β均為需要神經(jīng)網(wǎng)絡模型訓練的參數(shù)。

        將式(6)代入式(7)即得到BN層的計算公式

        (8)

        BN層中γ和β是神經(jīng)網(wǎng)絡模型通道層面的參數(shù),每個通道上的特征圖是由該卷積層的卷積核計算得到,特征圖與卷積核一一對應,互不干擾,故可以用γ來衡量當前通道的重要程度,模型稀疏化就是對γ參數(shù)進行L1正則化的稀疏方法,引入L1正則化后得到模型的稀疏化訓練損失函數(shù)Lxishu[23]為

        (9)

        φ(x,W)——模型輸入x在經(jīng)過卷積神經(jīng)網(wǎng)絡權值W計算后的預測結果

        y——模型輸出的真實值

        λ——稀疏化(正則化)因子,λ決定進行稀疏化的強弱程度

        2.3.2模型深度調(diào)控

        卷積神經(jīng)網(wǎng)絡模型的部署要求模型有較好的推理性能,模型所需算力越小、準確度越高,在工程上的實際應用意義就越大。結合本文下繭檢測的工業(yè)應用背景,需對模型進行壓縮以提高模型的推理速度。模型壓縮是一個取其精華棄其糟粕的過程,伴隨著壓縮量的增加,模型的精度會下降,必要時需對壓縮后的模型進行微調(diào)使其恢復一定的精度,本文采用模型深度調(diào)控方法對模型進行壓縮。

        模型推理時,是由淺層到深層逐層進行計算的,深度方向上的計算嚴重影響模型的性能。原YOLO v4基礎模型的特征提取網(wǎng)絡CSPDarknet53主要由CSP殘差模塊組成,且分為5組特征圖尺寸相同的CSP殘差模塊,其中5組CSP殘差模塊的級聯(lián)次數(shù)分別為1、2、8、8、4,共23個CSP殘差模塊,根據(jù)其在模型中的位置從前往后序列號分別定為1、2、…、22、23。每組CSP殘差模塊在進行目標預測時,可能有一個或者多個CSP殘差模塊對最終特征圖的預測貢獻程度比較小。故將其中貢獻度較小的一個或多個CSP殘差模塊調(diào)控刪除并不影響模型在維度上的推理。

        綜上所述,以稀疏化訓練后CSP殘差模塊中第1個卷積層的γ參數(shù)的均值為該殘差模塊重要程度的判別指標,依據(jù)γ參數(shù)的均值將CSP殘差模塊進行排序。圖4為模型深度調(diào)控順序示意圖,圖中從上到下的CSP殘差模塊對最終特征圖的預測貢獻程度逐漸增大,即調(diào)控刪除CSP殘差模塊時按圖中序列號從上往下選擇。

        圖4 模型深度調(diào)控順序示意圖Fig.4 Schematic of model depth manipulation sequence

        模型深度調(diào)控時,通過設定調(diào)控刪除CSP殘差模塊的個數(shù)進行深度調(diào)控,調(diào)控刪除1個CSP殘差模塊對應調(diào)控刪除模型的3個層。模型深度調(diào)控時太多的CSP殘差模塊被調(diào)控刪除會導致模型精度的過多丟失,故實驗時設定調(diào)控刪除的CSP殘差模塊的個數(shù)分別為3、6、9、12、15,表2為調(diào)控刪除CSP殘差模塊數(shù)量與對應調(diào)控刪除層的層序列號的關系表。

        表2 調(diào)控刪除CSP殘差模塊數(shù)量與對應調(diào)控刪除層Tab.2 Controlled and deleted number of CSP residual modules and corresponding controlled and deleted layers

        2.4 輕量級特征提取網(wǎng)絡構建

        為使模型具有較少的推理計算量,加快模型的運行速度,近年來越來越多的輕量級網(wǎng)絡架構相繼被運用在目標檢測模型中,如:分組卷積[24]、深度可分離卷積[25]、通道混洗[26]和Ghost卷積模塊[27]等。其中,Ghost卷積模塊的思想是:卷積神經(jīng)網(wǎng)絡由大量的卷積層組成,而卷積計算的過程當中會存在大量的冗余特征圖,但生成大量冗余特征圖的計算開銷都是沒有必要的,于是從特征圖冗余的角度出發(fā),提出針對部分冗余特征圖可采用更為廉價的操作來生成,其主要的貢獻是采用計算量更少、更加簡單的Ghost卷積模塊代替部分標準卷積生成特征圖,從而減少卷積神經(jīng)網(wǎng)絡模型的計算量。

        結合下繭檢測的實時性與準確性要求,為進一步提高模型的推理速度,選擇Ghost卷積模塊構建的輕量級卷積模塊替換模型深度調(diào)控后的特征提取網(wǎng)絡中剩余的CSP殘差模塊,以減少特征提取時的計算量。標準卷積和Ghost卷積產(chǎn)生特征圖的過程如圖5所示。

        圖5 不同卷積產(chǎn)生特征圖的方式Fig.5 Ways of generating feature map by different convolutions

        參照GhostNet[25]中的G-bneck模塊,根據(jù)卷積核的移動步長(Stride)不同,本文設計2種輕量級卷積模塊,輕量級卷積模塊1(Stride為1)和輕量級卷積模塊2(Stride為2)。輕量級卷積模塊1用于增加特征圖的通道數(shù),結構上與ResNet[28]的基本殘差塊類似,由2個堆疊的Ghost卷積模塊組成,使用跳躍連接輸入和輸出。輕量級卷積模塊2用于減少通道數(shù),在2個堆疊的Ghost卷積模塊中間使用深度可分離卷積,同樣使用跳躍連接輸入和輸出,具體結構如圖6所示。

        圖6 輕量級卷積模塊結構Fig.6 Lightweight convolution module structure

        在2.3.2節(jié)對模型進行深度調(diào)控后,模型還剩8個CSP殘差模塊,故交替使用4次輕量級卷積模塊1和輕量級卷積模塊2重新構建模型的特征提取網(wǎng)絡,并以第2次、第3次和第4次使用輕量級卷積模塊2后的輸出為PANet多尺度特征融合網(wǎng)絡的輸入,使用輕量級卷積模塊重新構建的輕量級特征提取網(wǎng)絡與原YOLO v4基礎模型使用的CSPDarknet53特征提取網(wǎng)絡結構(×1、×2、×4和×8分別代表1個、2個、4個和8個相同的級聯(lián)結構)對比如圖7所示。

        圖7 CSPDarknet53和新構建的輕量級特征提取網(wǎng)絡結構Fig.7 CSPDarknet53 and new lightweight feature extraction network architecture

        使用輕量級特征提取網(wǎng)絡后的輕型調(diào)控網(wǎng)絡結構如圖8所示,改進后的模型采用新構建的輕量級特征提取網(wǎng)絡提取特征,使用PANet多尺度特征融合網(wǎng)絡將3個不同尺度特征層的特征圖融合,使輸出的特征圖具有充分的上下文特征,最后3個尺度輸出的特征圖用非極大值抑制的方法輸出檢測結果。因該模型的檢測對象是下繭,故記為ICNet(Inferior cocoons net)。

        圖8 ICNet模型結構Fig.8 ICNet model structure

        3 實驗

        3.1 實驗平臺

        本文實驗平臺為Ubuntu 16.04操作系統(tǒng),內(nèi)存8 GB,CPU為Intel(R)Core(TM)i5-10400F,GPU為NVIDIA GTX1660 SUPER的臺式計算機。深度學習框架為Pytorch 1.5,采用CUDA 9.2和cuDNN 7.4.5加速工具包加速模型訓練。

        實驗基于Pytorch深度學習框架,使用YOLO v4為基礎模型,訓練時共迭代500輪(epoch),即將訓練集中的所有樣本訓練500次。批尺寸選擇時越大越好,受限于實驗平臺的計算能力,本文實驗選擇為2。訓練時每隔100個epoch輸出一個模型權重,共得到5個權重,然后計算每個模型權重的平均檢測精度,以平均檢測精度最高的為最佳模型權重。為保證本文相應改進的有效性,超參數(shù)選擇時除改進調(diào)整的參數(shù)外其他超參數(shù)使用原YOLO v4基礎模型的超參數(shù)。

        3.2 評價指標

        本文目的在于實時并準確檢測出測試集中的目標,且避免誤檢。采用模型權重所占儲存空間、平均檢測速度和平均精度均值(Mean average precision,mAP)作為評價值指標,通過多指標綜合評價模型性能。其中,mAP可以通過準確率(P)、召回率(R)計算得出。

        3.3 候選框參數(shù)預置實驗效果

        為選擇適用于下繭檢測數(shù)據(jù)集的候選框參數(shù),提高模型的魯棒性,分別采取2.2節(jié)得到的候選框參數(shù)進行實驗,實驗結果如表3所示。從表3中可以看出,重新預置候選框參數(shù)后對于模型權重所占儲存空間沒有影響,所有的模型權重所占儲存空間都為245.00 MB。其中,當候選框數(shù)量為3時,相對于其他數(shù)量的候選框平均檢測速度最快,達到30.95幀/s,mAP最高,達到96.08%。結果表明,當候選框數(shù)量為3時,對于下繭檢測數(shù)據(jù)集來說檢測效果比較好。通過實驗選擇候選框數(shù)量為3,候選框尺寸分別為(20,22)、(31,25)、(24,32),每個尺度上分配1個候選框對目標進行預測,后續(xù)實驗在本節(jié)實驗的基礎上開展。

        表3 不同數(shù)量候選框實驗結果Tab.3 Experimental results of different numbers of anchor

        3.4 模型深度調(diào)控實驗效果

        對3.3節(jié)中經(jīng)過候選框參數(shù)預置后的模型進行稀疏化訓練后采用模型深度調(diào)控的方法對模型進行深度方向的壓縮,調(diào)控刪除CSP殘差模塊后模型精度下降較多,故需對模型進行微調(diào),且微調(diào)時采用100個epoch即可。實驗結果如表4所示,增加調(diào)控刪除CSP殘差模塊數(shù)量能保證對模型的推理速度有一個較好的提升,模型的權重所占儲存空間也不斷減小,雖然微調(diào)后模型的mAP較候選框參數(shù)預置后的模型有輕微損失,但不影響模型整體性能,其mAP均在95.00%左右,有較好的準確率。當調(diào)控刪除CSP殘差模塊數(shù)量為15時,模型權重所占儲存空間降至最小,為182.00 MB,平均檢測速度達到最高,為35.68幀/s,微調(diào)后模型的mAP達到94.53%,說明當調(diào)控刪除CSP殘差模塊數(shù)量為15時模型的檢測性能較好,故通過實驗選擇調(diào)控刪除CSP殘差模塊數(shù)量為15(模塊序列號為:4、6、9、12、13、14、15、16、17、18、19、20、21、22、23),剩余CSP殘差模塊數(shù)量為8(模塊序列號為:1、2、3、5、7、8、10、11),后續(xù)實驗在本節(jié)的基礎上開展。

        表4 模型深度調(diào)控實驗結果Tab.4 Experimental results of model depth manipulation

        3.5 構建輕量級特征提取網(wǎng)絡實驗效果

        在3.4節(jié)模型深度調(diào)控的基礎上采用計算量較小的Ghost卷積模塊設計的輕量級卷積模塊替換剩余的8個CSP殘差模塊,得到ICNet下繭實時檢測模型。經(jīng)過重新訓練后ICNet下繭實時檢測模型模型權重所占儲存空間為145.00 MB,平均檢測速度為49.37幀/s,mAP為95.55%。較3.4節(jié)進行模型深度調(diào)控后的模型來說,ICNet下繭實時檢測模型的mAP提升1.02個百分點,達到95.55%;模型權重所占儲存空間減小25.52%,降為145.00 MB;平均檢測速度提升38.37%,達到49.37幀/s。說明ICNet下繭實時檢測模型具有較好的整體性能,滿足下繭實時檢測的實際應用需求。

        3.6 不同檢測模型檢測性能對比

        為驗證本文設計的ICNet下繭實時檢測模型對下繭檢測的優(yōu)越性,將ICNet模型與YOLO v3、YOLO v4及SSD模型做性能對比實驗。為保證結果的有效性,實驗均在3.1節(jié)介紹的實驗平臺上開展,使用的訓練集和測試集均為本文采集的下繭檢測數(shù)據(jù)集,實驗結果如表5所示。從表5可以看出,與其他3種模型相比本文設計的ICNet下繭實時檢測模型的mAP最高,達到95.55%;平均檢測速度也為最高,達到49.37幀/s;模型權重所占儲存空間為145.00 MB,小于YOLO v3和YOLO v4,僅高于SSD模型。ICNet下繭實時檢測模型對不同類別下繭檢測的mAP如圖9所示,可以看出,ICNet下繭實時檢測模型對黃斑繭、癟繭、薄皮繭、特小繭檢測的mAP都為最高,分別為98.40%、93.00%、93.30%、97.50%,表明ICNet下繭實時檢測模型對于下繭檢測有較好的準確性。綜上所述,綜合考慮模型權重所占儲存空間、平均檢測速度和mAP,本文設計的ICNet下繭實時檢測模型對下繭檢測效果更好,具有最好的整體魯棒性。

        表5 不同模型性能對比實驗結果Tab.5 Experimental results of performance comparison of different models

        圖9 不同檢測模型對下繭檢測的mAPFig.9 mAP of different detection models for inferior cocoons detection

        3.7 ICNet模型檢測效果

        為充分說明ICNet下繭實時檢測模型對下繭檢測的效果,將YOLO v4基礎模型與ICNet下繭實時檢測模型在測試集中對下繭檢測情況進行統(tǒng)計,結果如表6所示,可以看出ICNet下繭實時檢測模型相對于YOLO v4基礎模型,對4類下繭整體的錯檢率減小5.30個百分點,漏檢率減小1.25個百分點。

        表6 ICNet下繭實時檢測模型檢測結果Tab.6 Detection results of ICNet inferior cocoons real time detection model

        為表明模型對不同蠶繭數(shù)量分布的檢測效果,將測試集中黃斑繭為檢測對象、不同蠶繭數(shù)量分布的檢測結果進行可視化,如圖10所示,圖中從左到右蠶繭數(shù)量分布依次遞增,符合選繭時蠶繭數(shù)量分布不均勻的實際情況,從結果中可以看出在不同蠶繭數(shù)量分布的情況下ICNet下繭實時檢測模型都能將黃斑繭檢測出來,說明模型對于不同蠶繭數(shù)量分布具有一定的抗干擾能力。

        圖10 不同蠶繭數(shù)量分布檢測效果Fig.10 Detection effects of different cocoons number distribution

        ICNet下繭實時檢測模型對單類別與多類別下繭檢測效果可視化如圖11所示,圖11a分別為模型對單類別的黃斑繭、癟繭、薄皮繭、特小繭的檢測效果,圖11b為模型對多類別下繭共同分布的檢測效果,從圖中可以看出,在不同的場景下ICNet下繭實時檢測模型都能將下繭檢測出來,表明模型有較好的泛化能力,能完成不同場景下下繭的檢測任務。

        圖11 ICNet下繭實時檢測模型檢測效果Fig.11 Detection effects of ICNet inferior cocoons detection model

        4 結論

        (1)以線陣掃描相機為圖像傳感器,根據(jù)成像的景深選擇合適的拍攝距離和通過采樣頻率的計算合理配置圖像采集系統(tǒng)參數(shù),從而搭建出適用于下繭檢測的圖像采集系統(tǒng)。采集圖像時用計算機將線陣掃描相機獲取的線陣圖像合成面陣圖像構建下繭檢測數(shù)據(jù)集。

        (2)以YOLO v4目標檢測模型為基礎模型,采集得到下繭檢測數(shù)據(jù)集為實驗數(shù)據(jù),設計出基于輕型調(diào)控網(wǎng)絡的ICNet下繭實時檢測模型。該模型對下繭檢測數(shù)據(jù)集進行K-means算法聚類分析預置候選框參數(shù)提升模型精度;采用模型深度調(diào)控的方法對模型進行壓縮,減小模型權重所占儲存空間,提升模型速度;使用設計的輕量級卷積模塊替換模型深度調(diào)控后剩余的CSP殘差模塊,進一步提升模型速度。

        (3)對比YOLO v3、YOLO v4及SSD模型,ICNet下繭實時檢測模型具有較好的整體魯棒性。較YOLO v4基礎模型,mAP提升1.87個百分點,達到95.55%,模型權重所占儲存空間壓縮40.82%,降為145.00 MB,平均檢測速度提升91.65%,達到49.37幀/s。

        (4)ICNet下繭實時檢測模型能在保證模型權重較小的前提下,對不同場景中下繭的檢測都有較高的檢測速度和精度,適合在嵌入式開發(fā)設備中部署,滿足選繭時下繭檢測的實時性和準確性的實際生產(chǎn)需求。

        猜你喜歡
        深度檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        深度觀察
        深度觀察
        深度觀察
        人妻 丝袜美腿 中文字幕| 无码人妻精品一区二区三区不卡| 女人夜夜春高潮爽a∨片| 日本高清一区二区不卡视频| 久久精品国产亚洲av无码娇色| 精品国产精品久久一区免费| 国产三级黄色在线观看| 天天燥日日燥| 亚洲视频免费一区二区| 欧美成人网视频| 亚洲精品无码久久久久av麻豆| 亚洲悠悠色综合中文字幕| 91自国产精品中文字幕| 99久久精品国产成人综合| 日本xxxx色视频在线观看| 久久这里只有精品黄色| 亚洲国产成人久久综合一区77| 亚洲国产精品一区二区第一| 亚洲av一区二区三区蜜桃| 三年片大全在线观看免费观看大全 | 五月婷婷开心五月播五月| 无码人妻一区二区三区免费看| 国产剧情麻豆女教师在线观看 | 免费一区二区三区视频狠狠| 久久久亚洲一区二区三区| 亚洲中文字幕午夜精品| 西西人体444www大胆无码视频| 最新亚洲人AV日韩一区二区| 久久久人妻一区精品久久久| 蜜桃成熟时在线观看免费视频| 青楼妓女禁脔道具调教sm| 久久青草伊人精品| 国产av区亚洲av毛片| 亚洲视频一区二区三区视频| 久激情内射婷内射蜜桃人妖| 在线a亚洲视频播放在线观看| 人妻少妇粉嫩av专区一| 国产性自爱拍偷在在线播放| 国产伦精品一区二区三区免费| 国产成人午夜福利在线小电影| 日本一区中文字幕在线播放|