亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多組卷積神經(jīng)網(wǎng)絡(luò)的梭子蟹性別識別研究

        2024-03-06 01:45:46魏天琪鄭雄勝李天兵王日成
        南方水產(chǎn)科學(xué) 2024年1期
        關(guān)鍵詞:分類特征模型

        魏天琪 ,鄭雄勝,李天兵,王日成

        1. 浙江海洋大學(xué) 海洋工程裝備學(xué)院,浙江 舟山 316002

        2. 合肥城市學(xué)院,安徽 合肥 231131

        三疣梭子蟹 (Portunustrituberculatus),俗稱梭子蟹,屬于甲殼綱、十足目、梭子蟹科、梭子蟹屬,其肉質(zhì)鮮美、營養(yǎng)豐富,廣受消費者青睞,是中國沿海重要的經(jīng)濟(jì)蟹類[1]。梭子蟹生長速度快、養(yǎng)殖成本低、經(jīng)濟(jì)效益高,已成為中國沿海地區(qū)的重要養(yǎng)殖品種。由于雌、雄梭子蟹的營養(yǎng)成分不同,在市場銷售前需要對其性別進(jìn)行分類。目前,梭子蟹的性別分類主要靠人眼識別和手工挑選,效率低下。因此,開發(fā)一種計算機(jī)輔助自動分類系統(tǒng)來區(qū)分梭子蟹的性別非常必要。

        早期的分類任務(wù)主要是手工設(shè)計提取特征,包括傳統(tǒng)機(jī)器學(xué)習(xí)[2-4]和利用上下文信息[5-6],但是該類方法的表達(dá)能力較弱,所以分類模型的泛化能力不強(qiáng)。例如,Lecun 等[7]提出的一種多層人工神經(jīng)網(wǎng)絡(luò)LeNet 是為手寫數(shù)字分類而設(shè)計的卷積神經(jīng)網(wǎng)絡(luò) (Convolutional neural network, CNN)。2006 年,深度學(xué)習(xí) (Deep learning)[8]的概念被提出,在深度學(xué)習(xí)技術(shù)的推動下,圖像分類及識別的相關(guān)研究迅速發(fā)展[9-13]。

        基于深度學(xué)習(xí)的圖像分類中,Krizhevsky 等[9]構(gòu)建了一種較深層數(shù)的網(wǎng)絡(luò)AlexNet,并首次引入了Relu 激活函數(shù),同時在全連接層中使用Dropout,解決了模型的過擬合問題。牛津大學(xué)的幾何視覺組 (Visual geometry group[10])設(shè)計的VGG 模型在網(wǎng)絡(luò)結(jié)構(gòu)上并沒有太大的創(chuàng)新,但是通過實驗對比發(fā)現(xiàn),增加網(wǎng)絡(luò)的層數(shù)確實能夠在一定程度上提高網(wǎng)絡(luò)的訓(xùn)練效果。此外,VGG 模型始終使用的是非常小的卷積核,通過串聯(lián)很多小的卷積核后,其感受野和一個大卷積核相同,因此能很大程度地減少模型訓(xùn)練所需的參數(shù)。He等[12]開發(fā)出一種具有深度殘差結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)ResNet,很好地解決了網(wǎng)絡(luò)深度達(dá)到一定層數(shù)時,模型的性能逐漸會趨向于飽和的問題,以及在網(wǎng)絡(luò)達(dá)到某一深層時會使模型的性能急劇下降的問題。

        在過去的幾年里,圖像的成熟分類技術(shù)主要得益于兩個關(guān)鍵因素:一個是卷積神經(jīng)網(wǎng)絡(luò),另一個是大量的可用圖像數(shù)據(jù)集,如CIFAR 數(shù)據(jù)集[14]和ImageNet 數(shù)據(jù)集[15]。當(dāng)前,一些研究者已經(jīng)將圖像分類方法應(yīng)用到實際場景中。例如,在醫(yī)學(xué)圖像分類領(lǐng)域中,杜麗君等[16]提出了一種基于注意力機(jī)制和多任務(wù)學(xué)習(xí)的阿爾茲海默癥分類方法。該方法是一種不需要人工提取特征的網(wǎng)絡(luò),通過引入注意力機(jī)制,能夠在不丟失重要特征信息的前提下,將分類任務(wù)所需要的關(guān)注重點放在目標(biāo)區(qū)域中;隨后通過不同的全連接層來實現(xiàn)多任務(wù)學(xué)習(xí),從而提高了網(wǎng)絡(luò)的泛化能力。實驗結(jié)果表明,該方法能夠?qū)Π柶澓DY進(jìn)行準(zhǔn)確分類。在遙感圖像分類領(lǐng)域中,王寧等[17]在隨機(jī)森林、支持向量機(jī)和BP 神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上設(shè)計出一種集成分類模型,并將其應(yīng)用于水產(chǎn)養(yǎng)殖的水體資源遙感動態(tài)監(jiān)測任務(wù)中。該模型很好地彌補(bǔ)了單個分類模型分類精度較低以及魯棒性較差等缺點,在很大程度上避免了山體與建筑陰影等外在因素對水體特征提取的干擾。最終實驗結(jié)果顯示該分類模型擁有較高的分類精度,表明該模型能夠成為水體資源遙感動態(tài)監(jiān)測的分析工具之一。此外,朱明等[18]基于輕量級神經(jīng)網(wǎng)絡(luò)構(gòu)建出一種鱸魚捕食狀態(tài)分類網(wǎng)絡(luò),滿足了現(xiàn)代智能水產(chǎn)養(yǎng)殖的自動投喂需求。

        然而,尚未見圖像分類的相關(guān)技術(shù)應(yīng)用于梭子蟹性別識別的研究報道。為此,本文提出一種應(yīng)用于梭子蟹性別識別任務(wù)的分類方法:首先構(gòu)建一個用于梭子蟹性別分類的數(shù)據(jù)集PGCD;然后搭建一種多組卷積神經(jīng)網(wǎng)絡(luò) (Multi-group convolutional neural network, MGCNN),并使用注意力機(jī)制更專注地找出輸入數(shù)據(jù)的有用信息;最后通過一系列的調(diào)整參數(shù)工作提高M(jìn)GCNN 的分類精度。

        1 材料與方法

        圖1 展示了本文所提方法的整體框架,包括數(shù)據(jù)預(yù)處理、數(shù)據(jù)增強(qiáng)以及MGCNN。 其中,MGCNN包含了深度提取特征模塊和融合特征分類模塊。數(shù)據(jù)預(yù)處理主要是將采集到的梭子蟹圖像進(jìn)行降低像素處理,從而解決后續(xù)處理速度過慢的問題;數(shù)據(jù)增強(qiáng)主要是對經(jīng)過預(yù)處理后的梭子蟹圖像進(jìn)行數(shù)據(jù)擴(kuò)充,解決了少量樣本可能給網(wǎng)絡(luò)帶來的過度擬合問題,或者樣本不均衡導(dǎo)致模型預(yù)測時對多數(shù)類的側(cè)重問題;深度提取特征模塊使用幾組成熟的CNN 來提取圖像的視覺特征,通過實驗對比,最終的CNN 本文選取ResNet50;融合特征分類模塊主要是先將CNN 提取到的特征進(jìn)行信息融合,然后利用注意力機(jī)制代替?zhèn)鹘y(tǒng)池化層,在降低融合特征圖維度的同時,去除了特征圖的冗余信息,保留特征圖的重要信息,最后經(jīng)過輸出分類層獲取分類結(jié)果。

        圖1 所提方法的總體架構(gòu)Fig. 1 Overall architecture of our approach

        1.1 數(shù)據(jù)預(yù)處理

        在公開數(shù)據(jù)庫中,并沒有梭子蟹性別分類的數(shù)據(jù)集,因此首先需要構(gòu)建相關(guān)的數(shù)據(jù)集。本文的原始梭子蟹數(shù)據(jù)集主要由課題組在舟山水產(chǎn)品加工公司采集,采集所用設(shè)備的配置為10 800 萬像素的主攝+1 300 萬像素的超廣角鏡頭+500 萬像素的長焦微距鏡頭。采集到的原始數(shù)據(jù)集共有1 174 張圖像,其中雌、雄性圖像各494 和680 張,圖像像素約為3 024×4 032。圖2 為部分采集的梭子蟹樣品。

        圖2 部分梭子蟹樣本 (左:雌性;右:雄性)Fig. 2 Samples of Portunid (Left: female; Right: male)

        由于所采集的圖像像素較大,導(dǎo)致后續(xù)操作中處理速度較慢,因此需要對圖像進(jìn)行像素降低處理,調(diào)整后的圖像大小統(tǒng)一為224×224 像素。傳統(tǒng)的降低像素操作通常是利用opencv 庫的resize( ),然而這種操作對于尺寸非N×N大小轉(zhuǎn)化為N×N大小的圖像來說,會改變圖像原有的特征,影響網(wǎng)絡(luò)的最終分類精度[19-21]。因此,本文采用一種等比例調(diào)整圖像大小的方法,即在不改變寬高比的情況下進(jìn)行圖片調(diào)整,并填充至實驗所需要的224×224 像素的圖像。resize ( ) 和等比例調(diào)整大小并填充的圖像對比如圖3 所示。

        圖3 兩種降低像素的效果對比Fig. 3 Comparison of two pixel reduction effects

        1.2 數(shù)據(jù)增強(qiáng)

        經(jīng)過預(yù)處理后,將數(shù)據(jù)集隨機(jī)分成原始訓(xùn)練集和原始測試集,均包含587 張梭子蟹圖像 (雌性247 張,雄性 340 張)。為了解決少量樣本可能給網(wǎng)絡(luò)帶來的過度擬合問題,或者樣本不均衡導(dǎo)致模型預(yù)測時對多數(shù)類的側(cè)重問題,需要對原始數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng),以擴(kuò)充出更多數(shù)據(jù)來提高數(shù)據(jù)集的數(shù)量和質(zhì)量,提高網(wǎng)絡(luò)模型的學(xué)習(xí)效果[22-24]。數(shù)據(jù)增強(qiáng)的過程如下所述:

        (I) 隨機(jī)翻轉(zhuǎn):為了解決樣本不均衡問題,本文隨機(jī)從原始訓(xùn)練集和原始測試集中各選取93 張雌性圖像,進(jìn)行隨機(jī)翻轉(zhuǎn),從而使得原始訓(xùn)練集和原始測試集中雌性和雄性圖像均有340 張。隨機(jī)翻轉(zhuǎn)是指從3 種翻轉(zhuǎn)方式中 (水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)和水平-垂直翻轉(zhuǎn)) 隨機(jī)選取一種進(jìn)行翻轉(zhuǎn)。

        (II) 隨機(jī)旋轉(zhuǎn):對 (I) 中的原始訓(xùn)練集圖像進(jìn)行隨機(jī)角度旋轉(zhuǎn),旋轉(zhuǎn)角度在0°~90°、90°~180°、180°~270°和270°~360° 4 個范圍內(nèi)進(jìn)行隨機(jī)選取。

        (III) 隨機(jī)平移:對 (I) 中的原始訓(xùn)練集圖像進(jìn)行隨機(jī)像素平移,像素平移在?20 至20 之間進(jìn)行隨機(jī)選取,包括8 個方向。

        (IV) 隨機(jī)明亮度:對 (I) 中的原始訓(xùn)練集圖像進(jìn)行隨機(jī)明亮度調(diào)整,調(diào)整系數(shù)在0.8~1.0 和1.0~1.2 兩個范圍內(nèi)隨機(jī)選取。

        (V) 隨機(jī)噪聲:對 (I) 中的原始訓(xùn)練集圖像隨機(jī)添加高斯噪聲和椒鹽噪聲,添加噪聲的系數(shù)均介于0.009~0.011 隨機(jī)選取。

        值得注意的是,除了(I) 對訓(xùn)練集和測試集進(jìn)行數(shù)據(jù)增強(qiáng),(II)—(V) 均僅對訓(xùn)練集進(jìn)行數(shù)據(jù)增強(qiáng)。其中,(IV) 和 (V) 主要是針對模型識別過程中圖像出現(xiàn)的明亮度變化和噪聲影響。通過 (IV) 和(V) 兩種數(shù)據(jù)增強(qiáng)技術(shù)可以讓模型在現(xiàn)實環(huán)境中具有更好的應(yīng)對能力。

        5 種不同類型的數(shù)據(jù)增強(qiáng)技術(shù)示例如圖4 所示。因此,經(jīng)過數(shù)據(jù)增強(qiáng)后最終的數(shù)據(jù)集共有12 312 張梭子蟹圖像,將其命名為PGCD。其中,訓(xùn)練集和測試集分別各有11 560 張 (雌性 5 780張,雄性 5 780 張) 和680 張 (雌性 340 張,雄性340 張) 圖像。

        圖4 5 種不同類型的數(shù)據(jù)增強(qiáng)技術(shù)的示例Fig. 4 Examples of five different types of data enhancement technologies

        1.3 深度提取特征模塊

        雖然Transformer[25]已經(jīng)成為自然語言處理任務(wù)上的重要體系結(jié)構(gòu)之一,但它在計算機(jī)視覺(Computer Vision, CV) 領(lǐng)域的應(yīng)用卻非常有限。為了解決該問題,Dosovitskiy 等[26]開發(fā)出一種Vision Transformer (ViT) 模型,可以直接應(yīng)用于圖像塊序列 (Sequences of image patches),并且能夠很好地執(zhí)行圖像分類任務(wù)。受這項工作的啟發(fā),本研究在提取特征之前設(shè)置了圖像塊來渲染每張圖 (圖5)。

        圖5 深度提取特征模塊Fig. 5 Depth extraction feature module

        具體操作是將輸入圖像切分成多個大小一致的圖像塊。在此假設(shè)輸入圖像的尺寸大小為N×N,需要切分的圖像塊數(shù)為n2,那么圖像塊的尺寸大小NP×NP用公式可表示為:

        式中:n為正整數(shù)。本文所提的MGCNN 的輸入圖像尺寸為224×224 像素,圖像塊的個數(shù)n2=4,所以圖像塊的尺寸為112×112 像素。

        在4 組圖像塊渲染圖像之后,需要通過CNN來對每個圖像塊進(jìn)行特征學(xué)習(xí)。為了減少特征提取過程的信息丟失,使得特征提取更有力,本文使用具有殘差塊的ResNet50 作為深度提取特征模塊中的主干CNN。ResNet50 的殘差塊示意圖見圖6。

        圖6 ResNet50[12]殘差模塊示意圖Fig. 6 Residuals block diagram of ResNet50[12]

        可以看出,殘差塊具有兩條路徑,一條是進(jìn)行跳躍連接的輸入特征X,另一條是經(jīng)過3 次卷積操作后得到的映射函數(shù)F(X),然后將這兩條路徑連接后就能得到殘差模塊的輸出H(X),其過程可用公式(2) 來表示:

        1.4 融合特征分類模塊

        融合特征分類模塊如圖7 所示。通過CNN 學(xué)習(xí)不同圖像塊的視覺特征后,需要一個獨特的全局描述符來表示圖像。本文將不同圖像塊的視覺特征拼接 (Concatenate) 成一個全局特征圖。最近一些研究表明,適當(dāng)增加一些注意力機(jī)制可以更專注地找出輸入數(shù)據(jù)的有用信息[27-29]。 為此,在分類之前本研究引入了一個注意力機(jī)制,來強(qiáng)調(diào)全局特征圖中的細(xì)節(jié)重要性。首先,通過3 個1×1 的卷積層從全局特征圖中獲得Q、K、V3 個特征層;其次,將Q轉(zhuǎn)置后與K做乘積運算形成一個新的特征圖,再經(jīng)過softmax 函數(shù)后形成注意力權(quán)重;然后,將V與注意力權(quán)重做積運算,并使用最大池化對其結(jié)果進(jìn)行降低維度處理;最后,通過全連接層獲取待分類類別的概率分布。

        圖7 融合特征分類模塊Fig. 7 Fusion feature classification module

        2 實驗

        2.1 實驗設(shè)置

        本實驗均在同一環(huán)境配置的計算機(jī)上完成,訓(xùn)練集和測試集均來自于構(gòu)建的PGCD 數(shù)據(jù)集。用于實驗的計算機(jī)配置為Windows10、NVidia Ge-Force GTX 1080 Ti GPU、16 GB 內(nèi)存,實驗基于Pytorch 的方法[30]來實現(xiàn),損失函數(shù)使用交叉熵?fù)p失 (Cross entropy loss) ,最大epoch 值設(shè)置為100。通過實驗對比,本研究提出方法的backbone model 為ResNet50,學(xué)習(xí)率值設(shè)置為 0.000 1,batch size 設(shè)置為32。此外,為了優(yōu)化整體模型架構(gòu),本文使用 Adam[31]作為訓(xùn)練階段優(yōu)化器。

        2.2 評估指標(biāo)

        衡量模型分類性能的評估指標(biāo)主要包括分類準(zhǔn)確率 (又稱分類精度)、召回率與查準(zhǔn)率等[32-35]。本文主要采用這3 個指標(biāo)對所提方法進(jìn)行評價。圖8為混淆矩陣圖。

        圖8 混淆矩陣Fig. 8 Confusion matrix

        為此,分類準(zhǔn)確率可用公式 (3) 進(jìn)行表征:

        召回率可用公式 (4) 進(jìn)行表征:

        查準(zhǔn)率可用公式 (5) 進(jìn)行表征:

        式中:Acc代表分類準(zhǔn)確率 (Accuracy);R代表召回率 (Recall);P代表查準(zhǔn)率 (Precision)。

        2.3 實驗分析

        2.3.1 不同骨干模型對MGCNN 性能的影響

        成熟的卷積神經(jīng)網(wǎng)絡(luò)能夠很好地進(jìn)行特征學(xué)習(xí)和特征提取[36-37]。為此,本文主要選取VGG 模型[10]和ResNet 模型[12]作為MGCNN 的深度提取特征模塊的主干模型。不考慮DenseNet 模型[23]最主要的原因是該模型屬于較大的網(wǎng)絡(luò),需要訓(xùn)練更多的參數(shù),并且可能由于過擬合導(dǎo)致分類精度提高不明顯。而VGG 和ResNet 系列屬于較小的網(wǎng)絡(luò),可以節(jié)省額外的計算開銷以及訓(xùn)練時間。為了公平比較,在這里統(tǒng)一將學(xué)習(xí)率值設(shè)置為 0.001,批大小設(shè)置為32;此外,本文選取了 SGD[38]作為不同骨干模型的對比實驗訓(xùn)練階段的優(yōu)化器。結(jié)果如表1 所示,可以看出,在相同的學(xué)習(xí)率、批大小以及相同優(yōu)化器的情況下,ResNet 系列普遍優(yōu)于VGG 系列。值得注意的是,ResNet152 的精度未超過90%,再次驗證了較大網(wǎng)絡(luò)的過擬合現(xiàn)象會影響分類精度。由于ResNet50 以92.79%的分類精度位居第一,因此本研究選取ResNet50 作為MGCNN 的骨干模型。

        表1 不同骨干模型對 MGCNN 性能的影響Table 1 Effects of different backbone models on MGCNN performance

        2.3.2 不同優(yōu)化器對MGCNN 性能的影響

        深度學(xué)習(xí)的過程中會產(chǎn)生一定的損失[39],所以應(yīng)盡可能地減少損失來優(yōu)化所提出的MGCNN模型,使其擁有更好的分類性能。事實上,深度神經(jīng)網(wǎng)絡(luò)的每一層都有各自的權(quán)重參數(shù),這些權(quán)重參數(shù)決定著神經(jīng)網(wǎng)絡(luò)的輸出。因此需要利用優(yōu)化器(Optimizer) 來降低損失,從而更新模型的可學(xué)習(xí)權(quán)重參數(shù)來優(yōu)化網(wǎng)絡(luò)模型。本研究以SGD[38]、Ada-Grad[40]、RMSprop[41]、Adam[31]、Adamax[42]、ASGD[43]6 種優(yōu)化器作為探討優(yōu)化器選取的對比實驗。在這里學(xué)習(xí)率仍為 0.001,批大小為32,結(jié)果如表2 所示??梢钥闯?,在相同骨干模型的情況下,上述6 種優(yōu)化器中Adam 最為突出,分類精度達(dá)到95.29%,均領(lǐng)先于其他優(yōu)化器。因此,本文選取Adam 作為MGCNN 的優(yōu)化器。

        表2 不同優(yōu)化器對MGCNN 性能的影響Table 2 Effects of different optimizers on MGCNN performance

        2.3.3 不同參數(shù)對MGCNN 性能的影響

        通過調(diào)整學(xué)習(xí)率以及批大小可以提高模型的分類性能[28,44-45],在MGCNN 的骨干模型和優(yōu)化器均確定的情況下 (ResNet50+Adam),本研究進(jìn)一步探討了不同參數(shù)對其分類性能的影響,以實現(xiàn)最佳精度。對于模型訓(xùn)練而言,學(xué)習(xí)率是控制權(quán)重更新的重要參數(shù)[46]。一方面,使用過大的學(xué)習(xí)率可能會忽略最優(yōu)值的位置,導(dǎo)致模型不收斂;另一方面,使用過小的學(xué)習(xí)率容易出現(xiàn)過擬合,導(dǎo)致模型收斂緩慢。因此,首先應(yīng)確定最優(yōu)學(xué)習(xí)率。在本實驗中,將最開始的學(xué)習(xí)率設(shè)置為0.000 1,批大小設(shè)置為32。本次實驗遵循從較小的速率開始,并依次增加直到發(fā)現(xiàn)最佳學(xué)習(xí)率。當(dāng)最佳學(xué)習(xí)率確定后,需要進(jìn)行實驗來確定最佳批大小,以優(yōu)化網(wǎng)絡(luò)訓(xùn)練的收斂速度和穩(wěn)定性[45]。本研究依次將批大小設(shè)置為64、32 和16 來訓(xùn)練網(wǎng)絡(luò),最終的實驗結(jié)果如表3 所示。結(jié)果表明,當(dāng)學(xué)習(xí)率和批大小分別為0.001 5 和32 時,MGCNN 的分類效果最高,分類精度達(dá)到95.59%。因此,本文將最佳學(xué)習(xí)率設(shè)置為0.001 5,最佳批大小設(shè)置為32。

        表3 不同參數(shù)對 MGCNN 性能的影響Table 3 Effects of different parameters on MGCNN performance

        2.4 實驗結(jié)果及可視化

        為了評估所提方法MGCNN 的分類性能,本文在已構(gòu)建的PGCD 數(shù)據(jù)集上進(jìn)行了相關(guān)的分類任務(wù)實驗,并將所提方法與其他先進(jìn)的模型[9-10,12-13,46]進(jìn)行比較,包括AlexNet、VGG16、ResNet152、InceptionV3 和DenseNet121。這些模型之前均在用于圖像分類的ImageNet 數(shù)據(jù)集[9]上訓(xùn)練過,但并沒有訓(xùn)練過PGCD。為了適應(yīng)PGCD數(shù)據(jù)集,實驗過程中將上述網(wǎng)絡(luò)模型的輸出分類層替換為具有兩個類別 (雌性和雄性) 的輸出分類層。

        表4 給出了MGCNN 與一些先進(jìn)方法的實驗對比結(jié)果??梢钥闯觯珹lexNet 顯示了最差的性能;ResNet152 和DenseNet121 網(wǎng)絡(luò)較深,召回率和查準(zhǔn)率相對平衡,但分類精度未超過95%;InceptionV3 分類精度達(dá)到95%,卻因其查準(zhǔn)率高導(dǎo)致召回率低;而本文所提的網(wǎng)絡(luò)相比InceptionV3而言,分類精度有所提升,并且在查準(zhǔn)率僅降低0.54%的情況下,將召回率提升1.76%。網(wǎng)絡(luò)分類錯誤率最低,僅占4.41%,分類性能均領(lǐng)先于其他方法。

        表4 MGCNN 與先進(jìn)方法的比較Table 4 Comparison between MGCNN and state-of-theart methods

        為了更直觀地顯示所提方法的優(yōu)越性,本文給出了PGCD 測試集上梭子蟹性別分類的混淆矩陣(Confusion matrix) ,如圖9 所示。圖中主對角線顯示的是識別正確的數(shù)目,副對角線顯示的是識別錯誤的數(shù)目??梢钥闯觯笞有饭灿?80 只,僅30 只被錯誤歸類。其中,雌、雄蟹各有321、329只被正確歸類,僅11 只雄蟹錯歸為雌性,19 只雌蟹錯歸為雄性。表明所提方法具有很好的分類效果。

        圖9 梭子蟹性別分類的混淆矩陣Fig. 9 Confusion matrix of gender classification of P. tritubereulatus

        此外,受試者工作特征 (Receiver operating characteristic, ROC) 曲線和ROC 曲線下的面積 (Area under the ROC curve, AUC) 也可以用于度量分類模型的好壞。MGCNN 的ROC 曲線和AUC 如圖10所示??梢钥闯?,所提方法的AUC 達(dá)到98.88%,在梭子蟹性別分類任務(wù)中取得優(yōu)異的性能。

        圖10 比較不同網(wǎng)絡(luò)性能的受試者工作特征曲線 (ROC) 和ROC 曲線下的面積Fig. 10 Comparison of Receiver Operating Characteristic(ROC) curve and area under ROC curve for subjects with different network performance

        2.5 單幅圖像預(yù)測結(jié)果

        為了驗證模型的實際應(yīng)用效果,采購雌、雄梭子蟹各20 只,在實驗室對其性別進(jìn)行自動識別驗證。驗證圖像采用等比例調(diào)整大小并填充的預(yù)處理方式。圖11 展示了單幅圖像預(yù)測的示例,可以看出預(yù)測均正確,且預(yù)測概率均超過95%。此外,經(jīng)統(tǒng)計分析,識別一張圖像的時間不超過1 s。因此,本研究所提的算法可以很好地應(yīng)用在梭子蟹性別自動分類及識別系統(tǒng)。

        圖11 單幅圖像預(yù)測概率Fig. 11 Prediction probability of single image

        3 小結(jié)

        為了實現(xiàn)梭子蟹性別的智能化識別,促進(jìn)現(xiàn)代漁業(yè)分揀裝備由半機(jī)械化、機(jī)械化走向智能化,本文構(gòu)建了梭子蟹性別分類數(shù)據(jù)集 (PGCD),提出了一種用于梭子蟹性別分類的多組卷積神經(jīng)網(wǎng)絡(luò)框架。該網(wǎng)絡(luò)首先通過引入ResNet 對圖像塊提取特征,減少特征提取過程的信息丟失,使得特征提取更有力;然后提出一種注意力機(jī)制代替?zhèn)鹘y(tǒng)的池化層,從而更專注地找出輸入數(shù)據(jù)的有用信息;最后進(jìn)行了一系列的參數(shù)調(diào)整,使得所提的MGCNN擁有最優(yōu)分類性能。實驗結(jié)果表明,所提方法在PGCD 數(shù)據(jù)集上具有分類優(yōu)越性,分類準(zhǔn)確率高達(dá)95.59%。未來,將圍繞梭子蟹的尺寸、肥瘦、蟹鉗完整程度等特征進(jìn)行分類,進(jìn)一步完善梭子蟹智能識別系統(tǒng)。

        猜你喜歡
        分類特征模型
        一半模型
        分類算一算
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個特征
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        抓住特征巧觀察
        yw尤物av无码国产在线观看| 亚洲国产线茬精品成av| 亚洲高清一区二区精品| 国产精品无码素人福利| 男人扒开女人下面狂躁小视频| 国产 中文 制服丝袜 另类| 国产一区二区三区涩涩涩| 亚洲蜜臀av一区二区三区| 免费a级毛片无码av| 欧美午夜刺激影院| 国产人妖一区二区在线| 水蜜桃在线精品视频网| 成人免费a级毛片| 奇米影视久久777中文字幕| 中文字幕一区,二区,三区| 中文字幕日韩有码国产| 免费看av在线网站网址| 在线精品国产一区二区| 大香蕉久久精品一区二区字幕| 日本一区二区三区视频免费观看| 边喂奶边中出的人妻| 中文字幕人妻互换av| 一边摸一边抽搐一进一出口述| 久久99精品国产麻豆不卡| 国产精品密播放国产免费看| 婷婷开心五月综合基地| av网站在线观看亚洲国产| 色哟哟最新在线观看入口| 国产无遮挡a片又黄又爽| 欧洲国产成人精品91铁牛tv | 黄色潮片三级三级三级免费| 亚洲精品成人无限看| 男人边吃奶边做好爽免费视频| 亚洲高清视频在线播放| 成熟的女人毛茸茸色视频| 成人网站在线进入爽爽爽| 香蕉视频www.5.在线观看| 亚洲AV色欲色欲WWW| 久久精品国产熟女亚洲av麻豆| 午夜理论片yy6080私人影院| 在线看片无码永久免费aⅴ|