亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的油茶籽完整性識別方法

        2020-07-24 05:07:40謝為俊丁冶春王鳳賀楊德勇
        農(nóng)業(yè)機械學(xué)報 2020年7期
        關(guān)鍵詞:對模型油茶籽準確率

        謝為俊 丁冶春 王鳳賀 魏 碩 楊德勇

        (1.中國農(nóng)業(yè)大學(xué)工學(xué)院, 北京 100083; 2.贛南醫(yī)學(xué)院藥學(xué)院, 贛州 341000;3.贛南醫(yī)學(xué)院贛南油茶產(chǎn)業(yè)開發(fā)協(xié)同創(chuàng)新中心, 贛州 341000)

        0 引言

        油茶(CamelliaoleiferaAbel.)是山茶科、山茶屬植物,與油棕、油橄欖、椰子并稱為世界四大木本食用油料作物,廣泛種植于我國南方丘陵地區(qū)和一些東南亞國家[1]。茶油是油茶籽的主要產(chǎn)物,富含多種不飽和脂肪酸,被譽為“東方橄欖油”[2]。中國是油茶種植大國,據(jù)統(tǒng)計,2017年油茶籽產(chǎn)量達到243萬t,在我國脫貧政策扶持下,油茶產(chǎn)量將進一步增加[3]。

        油茶蒲不含油脂,對制取茶油不利,因此需要對其進行脫蒲處理[4]。機械脫蒲后的產(chǎn)物為完整油茶籽、破碎油茶籽和果蒲等組成的混合物,需要將茶籽從中分選出來,以進行后續(xù)的茶油制取,同時還需要將完整茶籽與破碎茶籽分離,以保證茶籽的儲藏質(zhì)量。目前油茶籽分選方式主要分為篩孔分選、氣流分選、膠帶摩擦分選和油茶籽色選機分選等。篩孔分選主要根據(jù)油茶籽和油茶蒲的尺寸差異進行分級篩分。如熊平原等[5]設(shè)計了一種三級篩分網(wǎng)振動分選裝置,以獲得大、中、小蒲和碎末分層篩選的效果。氣流分選是根據(jù)物質(zhì)之間的質(zhì)量差異進行分離。如郭傳真[6]研究了氣流對油茶果蒲籽混合物清選的影響規(guī)律,并確定了油茶果清選氣流的最佳參數(shù)。膠帶分選主要利用油茶籽、果蒲與膠帶的摩擦因數(shù)不同實現(xiàn)分選。如WANG等[7]利用傾斜的膠帶外加氣流方式進行油茶籽、果蒲分選試驗,結(jié)果表明,油茶籽分選精度達到98%,果蒲分選精度為93%。油茶籽色選機主要利用油茶籽與果蒲的顏色差異進行籽與蒲的識別,實現(xiàn)油茶籽分選。如周敬東等[8]設(shè)計的油茶籽色選系統(tǒng),可對CCD相機獲取的油茶籽和果蒲圖像進行識別,進而利用氣流對油茶籽、果蒲進行分離。目前,油茶籽分選機械可以實現(xiàn)將果蒲從混合物中分離,但不能分離碎籽。

        機器視覺技術(shù)在農(nóng)產(chǎn)品加工領(lǐng)域已有廣泛應(yīng)用。李霽陽[9]設(shè)計了一套適用于谷物外觀品質(zhì)分析的算法,該算法利用谷物的長度、寬度和像素面積等谷物特征參數(shù)實現(xiàn)谷物完整性識別。李偉等[10]基于圖像處理技術(shù)提出基于形態(tài)學(xué)的棉籽破損識別方法,根據(jù)棉籽輪廓的對稱性特征判斷棉籽完整性。上述兩種算法都是基于圖像處理技術(shù),算法復(fù)雜度較高,識別速度和識別率偏低。近年來隨著深度學(xué)習(xí)技術(shù)的發(fā)展,機器視覺技術(shù)在圖像分類檢測和目標識別上的準確率不斷提高。深度學(xué)習(xí)技術(shù)已被應(yīng)用于不同領(lǐng)域[11],越來越多的學(xué)者將其運用在谷物[12-13]、水果[14-15]、蔬菜[16-17]等農(nóng)產(chǎn)品目標識別和品質(zhì)檢測上。目前,卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,如AlexNet[18]、VGGNet[19]和GoogLeNet[20]等,主要針對種類繁多的目標識別,且對識別速度要求不高,因此,研究人員通常根據(jù)實際問題,設(shè)計出獨特、適用的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[21-23]。上述研究結(jié)果表明,將CNN運用于農(nóng)產(chǎn)品目標識別和品質(zhì)檢測是可行的。

        本文根據(jù)油茶籽完整性識別任務(wù)要求,構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)模型,實現(xiàn)油茶籽的完整性識別。通過對比實驗確定模型的總體結(jié)構(gòu);為提高網(wǎng)絡(luò)的收斂速度、泛化性能與準確率,通過對比不同歸一化方法的模型性能確定最佳歸一化方法,同時比較不同激活函數(shù)對模型性能的影響,并對網(wǎng)絡(luò)的超參數(shù)(批量尺寸和學(xué)習(xí)率)進行優(yōu)化;為減小模型規(guī)模,使其更適用于茶籽分選設(shè)備,對模型卷積層感受野和全連接層節(jié)點進行壓縮,以提高網(wǎng)絡(luò)的準確率和實時性。

        1 材料與方法

        1.1 數(shù)據(jù)集構(gòu)建

        油茶果購自江西省贛州市,品種為“贛州油”。油茶果經(jīng)過機械脫蒲后,選取1 761個完整籽和1 039個破碎籽,隨機選取每個種類的70%作為訓(xùn)練集,30%為驗證集。其部分數(shù)據(jù)集如圖1所示。

        油茶籽圖像是由彩色CCD相機(DFK-33UX265型)和8 mm鏡頭(The Imaging Source,德國)采集,圖像尺寸為1 920像素×1 080像素。圖像處理算法和卷積神經(jīng)網(wǎng)絡(luò)搭建是基于Python 3.7、圖像處理庫OpenCV 4.0和深度學(xué)習(xí)庫Tensorflow 2.0.0。程序運行環(huán)境為Intel i5-7200U 2.70 GHz CPU、4 GB運行內(nèi)存、Windows 10操作系統(tǒng)。

        1.2 圖像預(yù)處理

        單粒油茶籽圖像由整幅圖像(1 920像素×1 080像素)裁剪得到,主要步驟為:①利用OpenCV中的cv2.inRang函數(shù)對原圖像進行二值化處理,得到含有大量噪聲點的二值圖像(圖2b)。②對二值圖進行中值濾波、形態(tài)學(xué)操作和面積去噪后,得到不含噪聲的二值圖像(圖2c)。③將二值圖作為掩膜,與原圖像進行“與”操作得到去除背景的RGB三通道圖像(圖2d)。④檢測出油茶籽輪廓,并得到油茶籽最小外接矩形(圖2e)。⑤為了保持油茶籽形狀輪廓不受裁剪影響,將油茶籽外接矩形每條邊向外擴展5個像素作為裁剪矩形,得到單粒油茶籽圖像(圖2f)。⑥為了滿足卷積神經(jīng)網(wǎng)絡(luò)對輸入圖像的要求,油茶籽圖像在輸入前統(tǒng)一調(diào)整為224像素×224像素的正方形圖像。

        圖2 油茶籽圖像預(yù)處理Fig.2 Image preprocessing of Camellia oleifera seeds

        1.3 網(wǎng)絡(luò)構(gòu)建步驟

        1.3.1歸一化層

        在AlexNet[18]經(jīng)典網(wǎng)絡(luò)中,為了提高模型泛化性能,提出了局部響應(yīng)歸一化(LRN),其能對局部神經(jīng)元的活動創(chuàng)建競爭機制,使得其中響應(yīng)比較大的值變得相對更大,并抑制其他反饋較小的神經(jīng)元。批量歸一化(BN)是一種防止網(wǎng)絡(luò)過擬合的方法,在每一層的激活函數(shù)之前采用批量歸一化處理,使非激活的輸出服從均值為0方差為1的正態(tài)分布,然后通過縮放和平移,將批量歸一化計算結(jié)果還原為原始輸入特性。該過程可以保證網(wǎng)絡(luò)容量、加快網(wǎng)絡(luò)訓(xùn)練速度、提高網(wǎng)絡(luò)泛化能力[24],其數(shù)學(xué)表達式為

        (1)

        X=(x(1),x(2),…,x(d))

        (2)

        (3)

        (4)

        (5)

        (6)

        i——通道序號

        N——通道總數(shù)

        x(d)——第d維輸入值

        x、y——特征圖的寬、高

        k——超參數(shù),防止除0的情況發(fā)生

        α、β——常數(shù)n——鄰域長度

        X——BN層輸入值,共有d維

        x(k)——第k維輸入值

        y(k)——第k維輸出值

        E——均值Var——方差

        1.3.2激活函數(shù)

        激活函數(shù)將非線性因素引入神經(jīng)元,使得深度神經(jīng)網(wǎng)絡(luò)可以逼近任何非線性函數(shù),增強了深度神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力。因此,深度神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的選擇對訓(xùn)練過程和模型性能有著重要影響。目前應(yīng)用最多的激活函數(shù)是ReLU函數(shù)。圖3為不同激活函數(shù)在定義域上的函數(shù)圖像,當x≥0時,ReLU函數(shù)無邊界,梯度可以持續(xù)傳遞,不會出現(xiàn)飽和現(xiàn)象,然而x<0時,函數(shù)梯度消失,出現(xiàn)神經(jīng)元死亡的問題。為了解決此問題,ReLU函數(shù)的改進函數(shù)如PReLU和ELU相繼提出。此外,谷歌大腦于2017年提出了Swish函數(shù)[25]來解決ReLU函數(shù)梯度消失的問題。

        圖3 不同激活函數(shù)圖像Fig.3 Different activation functions diagram

        1.3.3網(wǎng)絡(luò)結(jié)構(gòu)

        本文構(gòu)建的模型(CO-Net)可以視作一種局部特征自學(xué)習(xí)方法,包括一系列在卷積神經(jīng)網(wǎng)絡(luò)中發(fā)揮不同作用的連續(xù)層,包括卷積層、歸一化層、池化層和全連接層。油茶籽圖像特征主要由卷積層自主學(xué)習(xí)得到;歸一化層可以提高模型訓(xùn)練收斂速度;池化層可以減小網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)并保持圖像特征不變,提高模型泛化能力;全連接層將前面卷積層所學(xué)到的局部特征綜合為油茶籽圖像的全局特征。所構(gòu)建的網(wǎng)絡(luò)可以自動學(xué)習(xí)獲得油茶籽主要特征。

        油茶籽在線分選具有實時性和檢測準確率要求高的特點,為了提高模型的訓(xùn)練速度和準確率,本文對AlexNet[18]網(wǎng)絡(luò)進行了結(jié)構(gòu)簡化。首先,研究模型各層對模型性能的影響,確定網(wǎng)絡(luò)總體結(jié)構(gòu);然后調(diào)整網(wǎng)絡(luò)全連接層節(jié)點數(shù)量,以達到壓縮模型的目的;最后調(diào)整網(wǎng)絡(luò)卷積層各層感受野數(shù)量,達到加快模型訓(xùn)練速度的目的。在網(wǎng)絡(luò)結(jié)構(gòu)調(diào)整過程中,比較表征模型性能的4個參數(shù)(模型尺寸、訓(xùn)練時間、準確率和損失值),尋找出適合油茶籽完整性識別任務(wù)的最優(yōu)網(wǎng)絡(luò)結(jié)構(gòu)。通過調(diào)整后,得到更適合油茶籽完整性識別的CO-Net網(wǎng)絡(luò),其擁有4層卷積層、2層BN層、3層池化層和1層全連接層(圖4),其初始參數(shù)分布如表1所示。

        圖4 CO-Net網(wǎng)絡(luò)整體結(jié)構(gòu)圖Fig.4 Overall structure diagram of CO-Net

        表1 CO-Net初始參數(shù)分布Tab.1 Initial parameters distribution of CO-Net

        1.3.4卷積層結(jié)構(gòu)的優(yōu)化

        深度可分離卷積認為卷積層通道間的相關(guān)性和空間相關(guān)性是可以退耦合的,將它們分開映射,能達到更好的效果[26]。深度可分離卷積將傳統(tǒng)的卷積操作(圖5a)分為一個深度卷積操作和一個卷積核為1×1的傳統(tǒng)卷積操作(圖5b),通過此操作后可以減少卷積操作的參數(shù)量和計算量。假設(shè)輸入特征圖為DF×DF×M、輸出特征圖為DF×DF×N、卷積核為DK×DK,則傳統(tǒng)卷積的參數(shù)量、計算量和深度可分離卷積的參數(shù)量、計算量為

        圖5 傳統(tǒng)卷積與深度可分離卷積示意圖Fig.5 Traditional convolution and depthwise convolution diagram

        Cpara=DK×DK×M×N

        (7)

        Ccal=DK×DK×M×N×DF×DF

        (8)

        Dpara=DK×DK×M+M×1×1×N

        (9)

        Dcal=DK×DK×M×DF×DF+
        M×N×DF×DF

        (10)

        式中Cpara——傳統(tǒng)卷積層參數(shù)量

        Dpara——深度可分離卷積層參數(shù)量

        Ccal——傳統(tǒng)卷積層計算量

        Dcal——深度可分離卷積層計算量

        深度可分離卷積與傳統(tǒng)卷積參數(shù)量、計算量之比為

        (11)

        由式(11)可知,當卷積核尺寸大于1時,深度可分離卷積可有效減少模型參數(shù)量和計算量。因此,為了進一步壓縮模型尺寸和提高模型訓(xùn)練速度,本文依次將第2~4層卷積層(Conv2~Conv4)替換為深度可分離卷積層(Depthwise Conv)。

        2 結(jié)果與分析

        2.1 批量尺寸對模型性能的影響

        批量尺寸(Batch size)表示卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中每批訓(xùn)練使用圖像的數(shù)量。合適的批量尺寸可以加快模型訓(xùn)練速度、減少訓(xùn)練時間。批量尺寸與模型訓(xùn)練梯度下降速度關(guān)系密切。本文進行了不同批量尺寸對模型性能影響的對比實驗,結(jié)果如圖6所示。由圖可知,模型訓(xùn)練準確率和損失值分別隨訓(xùn)練次數(shù)的增加而升高和減小。此外,隨著批量尺寸的增大,訓(xùn)練收斂速度不斷加快,但過大的批量尺寸會導(dǎo)致過多內(nèi)存消耗,可能會導(dǎo)致程序崩潰,且當批量尺寸為64和128時,模型收斂速度相近,最終CO-Net網(wǎng)絡(luò)選擇批量尺寸為64進行訓(xùn)練。

        圖6 批量尺寸對模型訓(xùn)練效果的影響Fig.6 Effects of batch size on training accuracy and training loss

        2.2 學(xué)習(xí)率對模型性能的影響

        學(xué)習(xí)率(Learning rate)是卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中很重要的一個超參數(shù),學(xué)習(xí)率表示每次更新參數(shù)的幅度,合適的學(xué)習(xí)率可以加快模型訓(xùn)練收斂速度。本文比較了5個不同學(xué)習(xí)率對模型訓(xùn)練效果的影響,結(jié)果如圖7所示。由圖可知,模型訓(xùn)練收斂速度隨學(xué)習(xí)率增加而加快。但學(xué)習(xí)率不能無限增大,當學(xué)習(xí)率過大時,需要優(yōu)化的參數(shù)會出現(xiàn)波動而不收斂;而學(xué)習(xí)率過小,會導(dǎo)致待優(yōu)化的參數(shù)收斂緩慢。本文網(wǎng)絡(luò)模型在學(xué)習(xí)率為10-2時收斂速度最快,因此選擇學(xué)習(xí)率為10-2進行訓(xùn)練。

        2.3 歸一化方法對模型性能的影響

        對數(shù)據(jù)進行歸一化操作可以提高模型泛化性能和加快模型訓(xùn)練收斂速度,因此選擇合適的歸一化方法對模型性能有重要意義。本文比較了無歸一化層、局部響應(yīng)歸一化(LRN)和批量歸一化(BN)對網(wǎng)絡(luò)模型性能的影響,結(jié)果如圖8所示??梢钥闯觯刺砑託w一化層與添加LRN層的模型準確率基本一致,但模型訓(xùn)練時間由1.01 h增加到1.12 h,說明LRN層對模型識別準確率沒有大幅度提升作用,還會增加網(wǎng)絡(luò)復(fù)雜性,這與SIMONYAN等[19]的研究結(jié)果類似。然而,添加BN層網(wǎng)絡(luò)的收斂速度比添加LRN層的快,模型訓(xùn)練時間由1.12 h減少為0.71 h,且訓(xùn)練準確率有所提高,可能是因為LRN層作用于特征圖通道層面,而BN層作用于特征圖整體數(shù)據(jù)且BN層中含有可學(xué)習(xí)的重構(gòu)參數(shù)。另一方面,BN層解決了深層網(wǎng)絡(luò)訓(xùn)練過程中由于網(wǎng)絡(luò)參數(shù)變化而引起內(nèi)部節(jié)點數(shù)據(jù)分布發(fā)生變化的現(xiàn)象。所以在CO-Net中使用BN層作為網(wǎng)絡(luò)歸一化層。

        圖8 歸一化層對模型訓(xùn)練效果的影響Fig.8 Effects of normalization layer on training accuracy and training loss

        2.4 激活函數(shù)對模型性能的影響

        激活函數(shù)對CNN成功的訓(xùn)練起著重要作用。Swish激活函數(shù)具有非飽和、光滑、非單調(diào)等特點,其應(yīng)用于圖像分類、機器翻譯等多個具有挑戰(zhàn)性領(lǐng)域時,在深度網(wǎng)絡(luò)上的表現(xiàn)優(yōu)于或等同于ReLU激活函數(shù)[25],本文也得到了同樣結(jié)果。圖9為PReLU、ELU、ReLU和Swish激活函數(shù)對模型訓(xùn)練效果的影響。結(jié)果表明,Swish函數(shù)對模型收斂速度的影響比其他3個函數(shù)大,這可能是由于Swish函數(shù)在定義域上處處可導(dǎo)且在x為負值時,模型梯度仍然可以傳遞,從而避免了神經(jīng)元死亡的問題。因此,在CO-Net中使用Swish函數(shù)作為模型激活函數(shù)。

        圖9 激活函數(shù)對模型訓(xùn)練效果的影響Fig.9 Effects of activation function on training accuracy and training loss

        2.5 全連接層對模型性能的影響

        全連接層是將卷積層學(xué)習(xí)到的局部特征整合為去除空間位置信息的全局特征,所以全連接層含有參數(shù)最多,是影響模型尺寸的重要因素。為了確定模型全連接層數(shù)量,本文將全連接層數(shù)量由零依次增加到2層,結(jié)果如圖10所示。由圖可知,當只有1層全連接層時,模型性能與擁有2層全連接層時沒有明顯變化甚至有所提高,但是當無全連接層時,模型性能明顯下降,這可能是因為模型所有參數(shù)均包含在全連接層內(nèi),所以只有1層全連接層對模型性能影響不大,但全連接層包含的是去除空間位置信息的全局特征,全部刪除將導(dǎo)致模型性能下降。為了進一步壓縮模型,通過調(diào)整全連接層節(jié)點數(shù)量來尋找模型規(guī)模最優(yōu)值。表2是全連接層不同節(jié)點數(shù)對模型的影響。由表2可知,減少模型節(jié)點數(shù)可以壓縮模型規(guī)模,但是對模型訓(xùn)練時間影響有限,因為全連接層參數(shù)最多,而模型訓(xùn)練耗時主要來自卷積操作。綜合模型測試準確率、模型尺寸和訓(xùn)練時間,最終CO-Net采用1層全連接層,節(jié)點數(shù)為256。

        圖10 全連接層對模型訓(xùn)練效果的影響Fig.10 Effects of fully connected layers on training accuracy and training loss

        表2 全連接層節(jié)點數(shù)對模型性能的影響Tab.2 Effects of fully connected layers on performance of model

        2.6 卷積層對模型性能的影響

        卷積層通過不同尺寸感受野對圖像進行卷積操作,提取圖像局部特征,是卷積神經(jīng)網(wǎng)絡(luò)中最重要的組成部分,因此卷積層的設(shè)置對模型性能起著至關(guān)重要的作用。CO-Net是從零開始獨立訓(xùn)練,在只有1層卷積層時,模型訓(xùn)練準確率和收斂速度均最低,模型性能隨著卷積層層數(shù)增加而提升,但提升速度越來越慢,當卷積層數(shù)量為4時,模型性能甚至優(yōu)于5層卷積層(圖11),由此可見保證模型具有一定深度是必要的,但模型深度也不是越深越好,最終確定CO-Net卷積層層數(shù)為4層。為加快模型訓(xùn)練速度、降低模型訓(xùn)練時間,本文對卷積層感受野數(shù)量進行調(diào)整,結(jié)果如表3所示。結(jié)果表明減少模型感受野數(shù)量不僅可以減小模型規(guī)模,更重要的是可以大幅降低模型訓(xùn)練時間。子模型1與子模型3相比,模型規(guī)模由40.60 MB減少為8.47 MB,訓(xùn)練時間由4.30 h減少為1.16 h,而測試準確率基本保持不變,原因是卷積層擁有大量卷積操作,需要消耗大量時間,減少感受野數(shù)量可以減少卷積操作,降低模型訓(xùn)練時間。此外,本文還將傳統(tǒng)卷積層替換為深度可分離卷積層,結(jié)果如表4所示,深度可分離卷積層可以有效減少模型參數(shù)量以達到壓縮模型的效果和減少模型計算量以達到加快模型訓(xùn)練的效果。當模型第2、3層卷積層替換為深度可分離卷積層后,模型規(guī)模由原來的8.47 MB進一步減小為1.65 MB,模型訓(xùn)練時間減少一半而模型精度僅輕微下降,使其更適合在嵌入式系統(tǒng)上使用,可以用于硬件配置較低的分選設(shè)備。實際使用時,應(yīng)當根據(jù)軟硬件條件,挑選適合實際生產(chǎn)的模型。

        圖11 卷積層對模型訓(xùn)練效果的影響Fig.11 Effects of convolution layers on training accuracy and training loss

        表3 卷積層感受野數(shù)量對模型性能的影響Tab.3 Effects of number of LRFs on performance of model

        表4 深度可分離卷積層對模型性能的影響Tab.4 Effect of depthwise convolutions on performance of model

        2.7 模型性能比較

        本文將模型性能表征參數(shù)(訓(xùn)練準確率、模型規(guī)模、訓(xùn)練時間和測試準確率)作為目標參數(shù),將CO-Net與其他經(jīng)典模型(AlexNet、MobileNet V1、MobileNet V2、MobileNet V3[26]和SqueezeNet[27])進行比較,結(jié)果如表5所示。由表可知,采用不同模型結(jié)構(gòu)時,模型性能不同,其中AlexNet模型訓(xùn)練時間最長,為9.43 h,測試準確率為98.33%,但其模型規(guī)模最大(356 MB),不適用于油茶籽在線分選設(shè)備。MobileNet V3_Large在輕量級網(wǎng)絡(luò)中模型規(guī)模最大,訓(xùn)練時間為5.52 h,其測試準確率達到了97.26%。本文提出的CO-Net測試準確率達到了98.05%,而模型規(guī)模和訓(xùn)練時間分別是MobileNet V3_Large的1/38和1/10,且單幅圖像檢測平均耗時僅13.91 ms。通過比較可知,CO-Net更適合用于油茶籽在線分選。

        表5 CO-Net與不同經(jīng)典模型性能比較Tab.5 Performance comparison between CO-Net and different classical models

        3 結(jié)論

        (1)以批量歸一化(BN)作為模型歸一化方法,提高了模型的訓(xùn)練收斂速度和模型的泛化性能。Swish函數(shù)可有效解決ReLU激活函數(shù)出現(xiàn)神經(jīng)元死亡的問題,提高了模型的準確率和訓(xùn)練收斂速度。

        (2)CO-Net網(wǎng)絡(luò)具有4層卷積層、2層歸一化層、3層池化層和1層全連接層,4層卷積層和1層全連接層的節(jié)點數(shù)分別為32、64、128、128和256,第2、3卷積層采用深度可分離卷積層,使模型規(guī)模減小為原來的1/5,且訓(xùn)練時間縮短一半。模型選擇訓(xùn)練批量尺寸為64,學(xué)習(xí)率為10-2。

        (3)CO-Net網(wǎng)絡(luò)對油茶籽完整性的識別準確率達98.05%,與MobileNet V3_Large模型相當;但訓(xùn)練時間大幅縮短,為0.58 h;模型規(guī)模大幅減小,為1.65 MB;單幅圖像檢測平均耗時13.91 ms,可滿足油茶籽在線實時分選的要求。

        猜你喜歡
        對模型油茶籽準確率
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
        2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
        光源對模型貼圖的影響——3種人造光源在三維數(shù)字化采集中的應(yīng)用
        廣州文博(2020年0期)2020-06-09 05:15:44
        高速公路車牌識別標識站準確率驗證法
        油茶籽粕中茶皂素的優(yōu)化提取及抑菌活性的研究
        世界首條水酶法油茶籽油規(guī)模生產(chǎn)線建成
        蒙藥特潤舒都樂對模型小鼠脾臟NK細胞活性的影響
        蒙醫(yī)開竅補腎針刺法對模型大鼠胸腺、脾臟指數(shù)的影響
        蒙醫(yī)催熟療法對模型大鼠炎癥因子影響的實驗研究
        亚洲综合另类小说色区| 亚洲精品国产不卡在线观看| 国产丝袜高跟美腿一区在线| 一区二区高清视频免费在线观看| 亚洲午夜久久久精品影院| 九九久久精品无码专区| 久久精品国产91久久性色tv| 国产性感丝袜美女av| 日本高清一区二区三区在线观看| 人妻无码一区二区三区免费| 久久久久99精品国产片| 亚洲欧美变态另类综合| 免费看av网站在线亚洲| 国产午夜精品av一区二区麻豆| 日韩精品无码av中文无码版| 日本久久精品免费播放| 亚洲不卡av二区三区四区| 国产免费激情小视频在线观看| 免费在线视频亚洲色图| 大地资源网高清在线播放| 免费少妇a级毛片人成网| 久久尤物AV天堂日日综合| 国产毛片一区二区三区| 不卡一区二区视频日本| 免费中文熟妇在线影片| 调教在线播放黄| 亚洲二区精品婷婷久久精品| 中文字幕无码成人片| 国产又色又爽无遮挡免费| 亚洲欧美日韩中文综合在线不卡| 国产激情一区二区三区成人| 国产乱人伦av在线a麻豆| 欧美一片二片午夜福利在线快 | 久久日本视频在线观看| 久久综合亚洲色hezyo国产| 久久亚洲精品成人| 精品国产三级国产av| 日韩大片高清播放器大全| 无码精品a∨在线观看十八禁| 国产亚洲av综合人人澡精品| 国产精品一区二区日本|