亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深層卷積神經(jīng)網(wǎng)絡(luò)的肉兔圖像分割與體質(zhì)量估測(cè)

        2021-06-29 10:09:16段恩澤王紅英
        關(guān)鍵詞:質(zhì)量模型

        段恩澤 方 鵬 王紅英 金 楠

        (中國(guó)農(nóng)業(yè)大學(xué)工學(xué)院, 北京 100083)

        0 引言

        在養(yǎng)殖福利化和精細(xì)農(nóng)業(yè)的背景下,規(guī)范化養(yǎng)殖成為提高養(yǎng)殖效率的重要保證[1]。減少人力勞動(dòng)對(duì)養(yǎng)殖過程的直接干涉、使用智能機(jī)械進(jìn)行標(biāo)準(zhǔn)化生產(chǎn)管理是目前養(yǎng)殖業(yè)的主要發(fā)展趨勢(shì)。在肉兔養(yǎng)殖過程中,掌握種兔生長(zhǎng)過程中的體質(zhì)量變化趨勢(shì)有利于在生產(chǎn)中及時(shí)淘汰產(chǎn)肉低的肉兔,從而提高育種過程中的選種效率[2]。肉兔養(yǎng)殖規(guī)模較大,傳統(tǒng)稱量方式主要依靠電子秤進(jìn)行人工稱量,不僅費(fèi)時(shí)、費(fèi)力,還容易使肉兔應(yīng)激,造成流產(chǎn)、發(fā)病等不良影響[3]。

        國(guó)內(nèi)外研究表明,動(dòng)物體質(zhì)量不僅與表面積有關(guān),還與體積和投影面積有較大的相關(guān)性,利用圖像信息估算動(dòng)物體質(zhì)量具有可行性[4-6]。目前,利用圖像技術(shù)對(duì)養(yǎng)殖動(dòng)物進(jìn)行無(wú)損檢測(cè)的研究主要集中于豬、雞等養(yǎng)殖動(dòng)物,有關(guān)肉兔的圖像識(shí)別檢測(cè)技術(shù)未見報(bào)道。

        勞鳳丹等[7]利用傳統(tǒng)的圖像分割與濾波處理得到蛋雞特征圖像輪廓,計(jì)算相關(guān)系數(shù),并探究蛋雞行為對(duì)相關(guān)系數(shù)的影響,從而對(duì)蛋雞的6種形態(tài)狀況進(jìn)行分析。畢敏娜等[8]以雞舍散養(yǎng)黃羽肉雞為分割目標(biāo),利用色差信息實(shí)現(xiàn)了快速分割,其正確率達(dá)到了86.3%,優(yōu)于傳統(tǒng)的色彩聚類模型。張弛等[9]采集了豬分娩的視頻信息,在提取豬分娩連續(xù)的圖像信息后,利用團(tuán)序列檢測(cè)算法識(shí)別大豬和仔豬,實(shí)現(xiàn)了仔豬的識(shí)別。上述研究基于圖像顏色、圖像特征對(duì)目標(biāo)進(jìn)行識(shí)別,具有較高的分割精確度,但對(duì)所采集的圖像質(zhì)量要求較高,并依賴人工對(duì)圖像進(jìn)行后處理,在實(shí)際應(yīng)用中,分割粘連目標(biāo)和多數(shù)量目標(biāo)時(shí)的適用性較差。

        隨著人工神經(jīng)網(wǎng)絡(luò)研究的不斷深入,基于卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別技術(shù)的精確性和檢測(cè)速度也不斷提高。沈明霞等[10]采用YOLO v3網(wǎng)絡(luò)模型,通過卷積算法以整幅圖像為興趣域,利用特征金字塔網(wǎng)絡(luò)算法定位識(shí)別仔豬目標(biāo)。高云等[11]建立了PigNet網(wǎng)絡(luò)模型,通過神經(jīng)網(wǎng)絡(luò)訓(xùn)練,實(shí)現(xiàn)了粘連群豬的圖像分割。卷積神經(jīng)網(wǎng)絡(luò)快速、準(zhǔn)確地進(jìn)行目標(biāo)識(shí)別的優(yōu)勢(shì)為大規(guī)模識(shí)別和讀取個(gè)體養(yǎng)殖動(dòng)物信息提供了可能性。

        目前,關(guān)于肉兔圖像識(shí)別和圖像信息處理的研究鮮見報(bào)道。為了快速準(zhǔn)確估算肉兔體質(zhì)量信息,并降低肉兔的應(yīng)激反應(yīng),本文以兔舍內(nèi)不同年齡段的肉兔為研究對(duì)象,提出一種基于深層卷積神經(jīng)網(wǎng)絡(luò)算法的肉兔體質(zhì)量估測(cè)方法。該方法不用約束肉兔的姿態(tài),僅依賴于2D圖像特征和養(yǎng)殖參數(shù)即可對(duì)肉兔體質(zhì)量進(jìn)行估測(cè)?;贛ask R-CNN圖像識(shí)別技術(shù)構(gòu)建肉兔體尺特征提取模型,得到3種基于圖像的特征參數(shù),隨后構(gòu)建4輸入、1輸出的BP神經(jīng)網(wǎng)絡(luò),并進(jìn)行訓(xùn)練,從而實(shí)現(xiàn)對(duì)目標(biāo)體質(zhì)量的估測(cè)。

        1 材料與方法

        1.1 圖像數(shù)據(jù)采集

        于2019年12月20—25日對(duì)河南省濟(jì)源市陽(yáng)光兔業(yè)科技有限公司的祖代母兔進(jìn)行體質(zhì)量和圖像采集。肉兔品種為伊普呂兔,按日齡和批次分別飼養(yǎng)在不同階梯式兔舍中。將不同日齡組的肉兔利用電子秤依次進(jìn)行稱量,并記錄體質(zhì)量數(shù)據(jù),隨后將肉兔放置在寬40 cm、長(zhǎng)80 cm的標(biāo)準(zhǔn)周轉(zhuǎn)箱中,使用三腳架和攝像頭采集肉兔的俯視圖,每拍攝一次后等待10~30 s,在肉兔自然變換姿勢(shì)后再次采集圖像,每只肉兔共采集3幅不同姿勢(shì)的圖像。其中,15日齡的肉兔共30只,30日齡的肉兔共35只,60日齡的肉兔共35只,90日齡的肉兔共35只,180日齡的肉兔共35只,300日齡的肉兔共33只,360日齡的肉兔共30只。采樣攝像頭為??低昅V-CA020-10GC型,分辨率為1 624像素×1 240像素,俯測(cè)高度為150 cm,圖像尺寸為1 920像素×1 200像素,存儲(chǔ)為JPG格式。

        1.2 基于Mask R-CNN的兔體分割網(wǎng)絡(luò)設(shè)計(jì)

        相比于利用顏色空間差異[7]和傳統(tǒng)機(jī)器學(xué)習(xí)算法進(jìn)行圖像識(shí)別和目標(biāo)分割,卷積神經(jīng)網(wǎng)絡(luò)由數(shù)據(jù)本身特征驅(qū)動(dòng),能夠簡(jiǎn)化訓(xùn)練流程、提高識(shí)別速度與精度。在已有的卷積神經(jīng)網(wǎng)絡(luò)研究的基礎(chǔ)上[12-13],Mask R-CNN在BBOX識(shí)別分支上增加了并行全卷積網(wǎng)絡(luò)(Fully convolutional network, FCN)層,在FCN層內(nèi)引入了用于預(yù)測(cè)目標(biāo)掩膜(Object mask)的分支,實(shí)現(xiàn)高質(zhì)量的語(yǔ)義分割和實(shí)例分割[14]。本研究基于Mask R-CNN,設(shè)計(jì)了依據(jù)面積與體質(zhì)量之間關(guān)系估測(cè)肉兔體質(zhì)量的預(yù)測(cè)模型。

        基于Mask R-CNN的肉兔圖像分割模型包括特征提取網(wǎng)絡(luò)、特征組合網(wǎng)絡(luò)、區(qū)域提取網(wǎng)絡(luò)、RoIAlign和功能性網(wǎng)絡(luò)5部分,如圖1所示。

        特征金字塔網(wǎng)絡(luò)(Feature pyramid network, FPN)將不同深度的特征圖重新組合[15],使新的特征圖包含不同深度的特征信息。本文使用ResNet101[16]作為骨架網(wǎng)絡(luò),根據(jù)特征圖的尺寸分為5個(gè)階段。取后4個(gè)階段的最后一層輸出4個(gè)特征圖,分別記為C2、C3、C4、C5。FPN的橫向連接將這4個(gè)特征圖組合成新特征圖P2、P3、P4、P5、P6,其中P6由P5通過池化得到。特征組合處理過程為

        (1)

        式中 conv——卷積函數(shù)

        sum——逐元素對(duì)位求和函數(shù)

        upsample——特征圖長(zhǎng)寬乘2的上采樣函數(shù)

        pooling——步長(zhǎng)為2的池化函數(shù)

        Ci——每個(gè)階段輸出的第i幅特征圖

        Pi——第i幅新特征圖

        P′i——橫向連接組合特征圖

        Ui——上采樣結(jié)果特征圖

        P5——第5幅新特征圖

        P6——第6幅新特征圖

        區(qū)域提取網(wǎng)絡(luò)(Region proposal network, RPN)利用FPN得到的特征圖表達(dá)分割物體位置的候選框。通過回歸計(jì)算,將特征圖P2、P3、P4、P5、P6中的每個(gè)特征向量計(jì)算得出一個(gè)5n維的向量,以描述n個(gè)錨的修正值。每個(gè)錨的修正值為Δx、Δy、Δh、Δw、p。p為前后景置信度。對(duì)于特征圖P2、P3、P4、P5、P6中的每個(gè)點(diǎn),均預(yù)設(shè)了不同寬、高的錨,然后利用RPN網(wǎng)絡(luò)回歸得到的修正值修正每個(gè)錨的中心坐標(biāo)值、寬和高。RPN的作用是幫助更快地選出感興趣區(qū)域(RoI)。

        Mask R-CNN使用RoIAlign算法對(duì)RoI進(jìn)行分割。相比于RoIPooling算法[17],RoIAlign算法取消了整數(shù)化操作,利用雙線性插值法獲得坐標(biāo)為浮點(diǎn)數(shù)的像素點(diǎn)上的像素值,然后對(duì)每個(gè)單元格內(nèi)的采樣點(diǎn)進(jìn)行maxpooling操作,從而得到最終的RoIAlign結(jié)果,解決了RoIPooling兩次量化造成的區(qū)域不匹配問題,提高了檢測(cè)模型的準(zhǔn)確性。

        該兔體分割網(wǎng)絡(luò)的多任務(wù)損失值主要包括3部分,計(jì)算公式為

        L=Lcls+Lbox+Lmask

        (2)

        (3)

        (4)

        (5)

        式中L——損失值

        Lcls——分類損失值

        Lbox——回歸損失值

        Lmask——分割損失值

        Ncls——訓(xùn)練RPN中選擇錨的數(shù)量

        pi——錨預(yù)測(cè)為目標(biāo)的概率

        λ——權(quán)重平衡參數(shù)

        Nreg——參與回歸的正負(fù)樣本總數(shù)

        ti——錨在RPN訓(xùn)練階段的預(yù)測(cè)偏移量

        Sm——掩膜尺寸

        Mask R-CNN中的class分支、box分支和mask分支共同參與卷積計(jì)算得到RoI,其中,分類損失值Lcls預(yù)測(cè)目標(biāo)的類別,如檢測(cè)出RoI為定義的肉兔類,則在分割RoI類時(shí)只使用肉兔類的交叉熵?fù)p失值作為誤差進(jìn)行計(jì)算,其他類別的交叉熵?fù)p失值不參與該RoI的損失計(jì)算,從而避免了類別間的競(jìng)爭(zhēng)。

        回歸損失值Lbox控制目標(biāo)的回歸框的位置信息,用于返回預(yù)測(cè)錨的偏移量與實(shí)際錨的偏移量之間的關(guān)系。

        分割損失值Lmask對(duì)每個(gè)RoI的目標(biāo)進(jìn)行分割,并生成對(duì)應(yīng)的掩膜。

        對(duì)于每個(gè)RoI,mask分支對(duì)K個(gè)類別中每個(gè)類別都生成一個(gè)m×m尺寸的掩膜。在得到預(yù)測(cè)掩膜后,對(duì)掩膜上的每個(gè)像素點(diǎn)求Sigmoid函數(shù)值,得到的結(jié)果作為L(zhǎng)mask的輸入之一。

        本文建立的肉兔圖像分割模型通過卷積計(jì)算得到包含兔體的感興趣區(qū)域,Lcls通過對(duì)圖像的卷積計(jì)算將RoI的類別定義為肉兔,Lbox計(jì)算得肉兔區(qū)域的回歸框的位置坐標(biāo),Lmask計(jì)算得平均二值交叉熵?fù)p失值,通過對(duì)掩膜中每個(gè)像素點(diǎn)求Sigmoid函數(shù)值來(lái)對(duì)回歸框進(jìn)行掩膜預(yù)測(cè),將預(yù)測(cè)出的掩膜輪廓信息存儲(chǔ)在不同層深度,組合后使用顏色填充來(lái)表示預(yù)測(cè)出的肉兔類目標(biāo)。

        2 肉兔體質(zhì)量估算模型構(gòu)建

        2.1 肉兔圖像分割網(wǎng)絡(luò)訓(xùn)練與分析

        2.1.1圖像預(yù)處理

        預(yù)處理主要包括圖像的剪裁、數(shù)據(jù)增廣和降噪。將原圖剪裁至512像素×512 像素以簡(jiǎn)化運(yùn)算量,采用旋轉(zhuǎn)90°、180°和鏡像等方式,將采集到的700幅肉兔圖像擴(kuò)增至1 400幅,作為肉兔圖像分割網(wǎng)絡(luò)的數(shù)據(jù)集,并利用高斯模糊對(duì)全部圖像進(jìn)行降噪處理。將肉兔圖像分割網(wǎng)絡(luò)數(shù)據(jù)集的70%作為訓(xùn)練集,30%作為驗(yàn)證集,驗(yàn)證集用于檢驗(yàn)訓(xùn)練出的網(wǎng)絡(luò)精度。

        2.1.2兔體分割網(wǎng)絡(luò)權(quán)重文件訓(xùn)練

        將預(yù)處理后的肉兔圖像導(dǎo)入開源標(biāo)注軟件Labelme中制作訓(xùn)練集。標(biāo)注肉兔的輪廓為獨(dú)立連通域,標(biāo)簽命名為rabbit。解析標(biāo)注好的.json文件,獲得深度為8的圖像文件,由此得到肉兔圖像分割網(wǎng)絡(luò)的訓(xùn)練集。

        使用COCO數(shù)據(jù)集(Common objects in context)上已經(jīng)訓(xùn)練好的Mask R-CNN模型權(quán)重對(duì)肉兔圖像分割網(wǎng)絡(luò)進(jìn)行遷移學(xué)習(xí)。COCO數(shù)據(jù)集是微軟提供的開源、大型、豐富的物體檢測(cè)、分割和字幕數(shù)據(jù)集,其中包含了大象、貓、狗、馬等動(dòng)物的大量常見特征,在此基礎(chǔ)上對(duì)肉兔的特征進(jìn)行遷移訓(xùn)練,能夠減少訓(xùn)練時(shí)間,并提高訓(xùn)練效果,使訓(xùn)練效率大大提升。最后得到包含肉兔圖像特征參數(shù)的兔體預(yù)測(cè)權(quán)重文件。

        2.1.3兔體輪廓提取

        使用2.1.2節(jié)得到的權(quán)重文件對(duì)驗(yàn)證集進(jìn)行實(shí)例分割。采用準(zhǔn)確率和精確率指標(biāo)評(píng)價(jià)該模型的分割結(jié)果,并根據(jù)結(jié)果調(diào)整RPN的錨尺寸和學(xué)習(xí)率等參數(shù)重新訓(xùn)練,直到分割網(wǎng)絡(luò)性能達(dá)理想程度。

        得到理想準(zhǔn)確率和精確率模型后,對(duì)1 400幅肉兔圖像分割網(wǎng)絡(luò)數(shù)據(jù)集進(jìn)行旋轉(zhuǎn)和鏡像,得到與該數(shù)據(jù)集不同的新數(shù)據(jù)集共1 400幅圖像。新數(shù)據(jù)集用于獲取基于肉兔圖像分割網(wǎng)絡(luò)的圖像特征,為下一步體質(zhì)量估測(cè)提供數(shù)據(jù)支撐。對(duì)新數(shù)據(jù)集進(jìn)行實(shí)例分割,分割出的文件包含了背景、兔體信息、識(shí)別框體和準(zhǔn)確率等信息,去除上述信息后,將背景和掩膜輪廓填充為不同顏色,提取到單只肉兔的掩膜圖像,并以此處得到的掩膜圖像作為后續(xù)處理對(duì)象。兔體掩膜提取過程如圖2所示。

        2.2 肉兔體尺特征提取

        2.2.1投影面積提取

        圖像中的肉兔在耳朵、腿和尾巴等部位具有不同的姿態(tài),在2維層面上產(chǎn)生的形狀對(duì)投影面積的影響很大,例如收起耳朵和展開耳朵得到的投影面積完全不同。而尾巴、耳朵和兔腿的體質(zhì)量遠(yuǎn)小于身體和頭部的體質(zhì)量,因此在提取肉兔投影面積時(shí)必須去除耳朵、腿和尾巴的干擾。

        開運(yùn)算能夠去除圖像的突起部分,使用尺寸為s×s的圓形核(Kernel)對(duì)肉兔掩膜圖像中凸出的腿、耳朵、尾巴等部位進(jìn)行去除,s值越大,去除掉的突出區(qū)域的像素就越多。圓形核如圖3所示。

        需要分割的兔體具有不同的形狀和尺寸,難以選擇出適用于所有情況的s值。因此針對(duì)不同尺寸的肉兔,應(yīng)當(dāng)選擇不同大小的核。由于腿、耳朵和尾巴的大小與肉兔整體的大小有關(guān),可以將s與兔體原輪廓的像素值相關(guān)聯(lián)。首先設(shè)定s的初始值以去除干擾,再根據(jù)產(chǎn)生的結(jié)果調(diào)整初始值。結(jié)果表明,當(dāng)s為兔體面積的1/350時(shí),使用核對(duì)不同形狀、不同尺寸的肉兔輪廓進(jìn)行開運(yùn)算均能產(chǎn)生良好的去除干擾。圖4b、4c為利用核去除肉兔輪廓中耳朵、腿和尾巴的過程。

        去除干擾后的特征圖中,非零像素表示肉兔的相對(duì)面積[18-19]。圖像采集條件相同時(shí),由于周轉(zhuǎn)箱的尺寸和像素點(diǎn)數(shù)已知,通過參考周轉(zhuǎn)箱可以計(jì)算肉兔特征圖的實(shí)際面積為

        (6)

        式中SR——肉兔特征圖實(shí)際面積

        NR——肉兔特征圖像素點(diǎn)數(shù)量

        SB——周轉(zhuǎn)箱實(shí)際面積

        NB——周轉(zhuǎn)箱像素點(diǎn)數(shù)量

        2.2.2彎曲度計(jì)算

        在去除干擾的肉兔掩膜基礎(chǔ)上,提取兔體彎曲度C,作為反映肉兔頭部與身體彎曲或扭曲程度的指標(biāo)。本文采集的肉兔姿勢(shì)為趴臥或四肢著地行走,頭部幾乎不會(huì)上下擺動(dòng)。彎曲度計(jì)算過程如下:

        (1)通過連續(xù)多次開運(yùn)算不斷縮小輪廓突起部分,根據(jù)返回結(jié)果調(diào)整開運(yùn)算的核,最終在不明顯改變面積的同時(shí)平滑兔體輪廓曲線,減少后續(xù)提取骨架的分支干擾。

        (2)提取所得輪廓的生態(tài)骨架(Morphological skeleton),骨架能夠表示這個(gè)形狀的結(jié)構(gòu),刪除多余的像素點(diǎn)[20],兔體骨架能直接反映兔體的彎曲程度。

        (3)計(jì)算骨架的凸包,凸包是包含骨架圖散點(diǎn)的最小凸邊形[20],凸包的面積記為Sc。凸包求取過程如圖4c~4f所示,其中骨架圖是寬度為1像素的曲線,為便于展示進(jìn)行了膨脹處理。

        求取凸包的過程表明,骨架的彎曲程度能夠表示兔體的彎曲程度,由骨架得到的凸包面積能夠反映骨架的彎曲程度。不同姿態(tài)下的肉兔,身體扭曲程度越大,骨架越彎,形成的凸包面積越大。

        同等彎曲程度的肉兔,體型越大,得到的凸包面積越大。為平衡體型差異,將肉兔投影面積記為S,則Sc與S的比值C可以認(rèn)為與兔體彎曲程度線性相關(guān)。C越小,則肉兔彎曲度越小。

        2.2.3體長(zhǎng)計(jì)算

        在去除干擾的兔體基礎(chǔ)上,提取肉兔體長(zhǎng)Lr表示肉兔的長(zhǎng)度。由于同一只肉兔的不同姿勢(shì)會(huì)造成投影面積的像素值有差異,因此計(jì)算體長(zhǎng)Lr和彎曲度C能夠幫助后續(xù)體質(zhì)量預(yù)測(cè)時(shí)修正投影面積,提高體質(zhì)量估測(cè)的精度。

        兔體可以近似看成一個(gè)矩形,矩形長(zhǎng)邊的長(zhǎng)度可以用來(lái)表示體長(zhǎng)。在去除耳朵、兔腿和尾巴等干擾因素后,將特征圖進(jìn)行二值化并繪制最小外接矩形,則最小外接矩形的長(zhǎng)邊邊長(zhǎng)即兔體體長(zhǎng),如圖5所示。

        2.3 體質(zhì)量預(yù)測(cè)神經(jīng)網(wǎng)絡(luò)構(gòu)建

        2.3.1BPNN學(xué)習(xí)方法和網(wǎng)絡(luò)結(jié)構(gòu)

        反向傳播神經(jīng)網(wǎng)絡(luò)(Back-propagation neural network, BPNN)的傳播過程主要分為輸入信號(hào)的正向傳播和誤差信號(hào)的反向傳播[21]。BPNN的運(yùn)行核心為將期望輸出與網(wǎng)絡(luò)輸出進(jìn)行對(duì)比,以對(duì)比結(jié)果即誤差為依據(jù),按梯度下降算法迭代更新網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)主要包括輸入層、隱含層和輸出層[22]。本文為探究肉兔投影面積與體質(zhì)量之間的關(guān)系,構(gòu)建了以直接投影面積S、彎曲度C、體長(zhǎng)Lr、日齡M為輸入,對(duì)應(yīng)體質(zhì)量W為輸出的BP神經(jīng)網(wǎng)絡(luò)。

        模型訓(xùn)練前對(duì)輸入輸出指標(biāo)的數(shù)量級(jí)進(jìn)行調(diào)整。由于本模型主要利用投影面積S與體質(zhì)量W的相關(guān)性進(jìn)行體質(zhì)量預(yù)測(cè),而彎曲度C和體長(zhǎng)Lr用于調(diào)整同一只肉兔姿態(tài)不同所造成的像素差異,日齡M用于消除日齡組內(nèi)的體質(zhì)量特異性差異,因此投影面積與體質(zhì)量的直接關(guān)聯(lián)性強(qiáng),彎曲度、體長(zhǎng)和日齡與體質(zhì)量的直接關(guān)聯(lián)性較弱。因此通過單位換算將面積S、體質(zhì)量W的數(shù)量級(jí)維持在1~10,彎曲度C、體長(zhǎng)Lr和日齡M的數(shù)量級(jí)維持在0~1,由此建立了輸入輸出指標(biāo)。

        該模型的輸入層節(jié)點(diǎn)數(shù)為4,輸出層節(jié)點(diǎn)數(shù)為1。根據(jù)Kolmogorov定理[23],隱含層神經(jīng)元數(shù)量l應(yīng)為

        (7)

        式中x——輸入層神經(jīng)元數(shù)量

        y——輸出層神經(jīng)元數(shù)量

        a——1~10之間的常數(shù)

        因此BPNN的隱含層神經(jīng)元數(shù)量為3~12。本文構(gòu)建的BPNN拓?fù)浣Y(jié)構(gòu)示意圖如圖6所示。圖中,φ(·)、τ(·)表示隱含層、輸出層的激活函數(shù),ωij、ωjk及θj、θk分別表示各層權(quán)值、閾值。

        2.3.2BPNN模型建立

        基于Matlab R2016a中的Neural Network Toolbox工具箱構(gòu)建BPNN。將全部樣本集進(jìn)行分組,設(shè)置訓(xùn)練集、驗(yàn)證集和測(cè)試集的數(shù)據(jù)比例分別為8∶1∶1、7∶1.5∶1.5、6∶2∶2。隱含層神經(jīng)元的數(shù)量會(huì)直接影響神經(jīng)網(wǎng)絡(luò)對(duì)復(fù)雜系統(tǒng)的映射能力,目前對(duì)于神經(jīng)網(wǎng)絡(luò)隱含層神經(jīng)元的確定主要根據(jù)經(jīng)驗(yàn)公式通過試湊法[24]確定,本文選定隱含層神經(jīng)元參數(shù)為4、5、6。訓(xùn)練算法分別選擇了列文伯格-馬夸爾特法、貝葉斯正則化法和量化共軛梯度法。其余參數(shù)設(shè)置根據(jù)文獻(xiàn)經(jīng)驗(yàn)值參考,設(shè)置最大迭代次數(shù)為200次,學(xué)習(xí)率為0.1,目標(biāo)誤差為0.001[25]。

        2.3.3模型評(píng)價(jià)

        采用均方誤差(Mean squared error, MSE)和相關(guān)系數(shù)(R)評(píng)價(jià)建立的模型性能。

        2.4 算法編寫軟件與運(yùn)行平臺(tái)

        本文處理平臺(tái)為便攜式計(jì)算機(jī),處理器為Intel Core i5-8300H,主頻為2.3 GHz,8 GB內(nèi)存,1 TB硬盤,顯卡型號(hào)為NVIDA GeForce GTX1060,6 GB顯存。編寫環(huán)境為Windows 10 家庭版64位系統(tǒng),編程語(yǔ)言為Python,采用 TensorFlow 深度學(xué)習(xí)開源框架。BP神經(jīng)網(wǎng)絡(luò)的編程平臺(tái)為Matlab R2016a。

        3 結(jié)果與分析

        3.1 肉兔圖像分割網(wǎng)絡(luò)性能分析

        3.1.1肉兔圖像分割網(wǎng)絡(luò)性能評(píng)價(jià)方法

        評(píng)價(jià)肉兔圖像分割網(wǎng)絡(luò)性能,主要考察圖像分割準(zhǔn)確率、圖像分割完整性和算法運(yùn)行速度。分割準(zhǔn)確率考察模型分類的準(zhǔn)確度,分割完整性考察模型分割的實(shí)例與實(shí)際目標(biāo)的匹配程度,算法運(yùn)行速度考察預(yù)測(cè)速度。

        采用平均查準(zhǔn)率(Average precision, AP)評(píng)價(jià)圖像分類準(zhǔn)確度。P為查準(zhǔn)率,表示分類為正樣本的數(shù)量中分類正確的比例。

        采用平均像素精度(Mean pixel accuracy, MPA) 評(píng)價(jià)圖像分割完整性。MPA是圖像分割評(píng)估中常用的測(cè)量指標(biāo),反映正確分割的像素?cái)?shù)量在圖像像素?cái)?shù)量中的占比。

        3.1.2對(duì)驗(yàn)證集的分割性能

        計(jì)算驗(yàn)證集的平均查準(zhǔn)率和平均像素精度,結(jié)果表明,當(dāng)交并比(IoU)為0.5∶0.95時(shí),平均查準(zhǔn)率為94.5%,這表明,兔體分割網(wǎng)絡(luò)對(duì)圖像目標(biāo)檢測(cè)分類的準(zhǔn)確度較高。計(jì)算得到的平均像素精度為95.1%,這表明對(duì)于分割出的目標(biāo),掩膜與實(shí)際目標(biāo)的像素點(diǎn)對(duì)應(yīng)程度較高,即分割出的肉兔目標(biāo)能夠代表實(shí)際肉兔。

        3.1.3對(duì)不同日齡肉兔的分割性能

        日齡影響肉兔的體型和生理性狀,為探究分割模型對(duì)不同日齡肉兔的分割性能,將驗(yàn)證集按日齡分為7組。分別計(jì)算不同日齡肉兔的平均查準(zhǔn)率和平均像素精度,結(jié)果如表1所示。

        表1 肉兔圖像分割網(wǎng)絡(luò)對(duì)不同日齡肉兔分割性能

        由表1可知,肉兔分割網(wǎng)絡(luò)對(duì)于兔體實(shí)例分割的平均速度為1.53 s/f,原因主要是硬件配置低,以及采用的ResNet101網(wǎng)絡(luò)結(jié)構(gòu)較為復(fù)雜。由表1可知,7個(gè)日齡組的平均查準(zhǔn)率均不小于96%,表明肉兔圖像分割網(wǎng)絡(luò)能準(zhǔn)確識(shí)別不同體型的肉兔。

        平均像素精度隨日齡增長(zhǎng)而增長(zhǎng),在15日齡時(shí)最低,為91.4%,而60日齡之后肉兔的平均像素精度穩(wěn)定在94.9%~96.1%之間。原因是15日齡的肉兔體型過小,相同相機(jī)視距下,15日齡肉兔圖像更為模糊難以分割。但總體來(lái)看,肉兔圖像分割網(wǎng)絡(luò)對(duì)不同日齡肉兔均有較好的分割效果。

        3.1.4不同姿態(tài)肉兔的分割性能

        本文提出的肉兔圖像分割算法對(duì)肉兔的姿態(tài)不限制,在采樣圖像中表現(xiàn)為肉兔的彎曲度和身體姿態(tài)各不相同。圖7為肉兔不同姿態(tài)分類。圖7a~7d分別為姿態(tài)組A~D。

        分別計(jì)算4個(gè)姿態(tài)組的肉兔圖像平均查準(zhǔn)率和平均像素精度,結(jié)果如表2所示。

        表2 肉兔圖像分割網(wǎng)絡(luò)對(duì)不同姿態(tài)肉兔的分割性能

        由表2可知,隨著彎曲程度變大,干擾部分越多,AP和MPA有所降低,D組姿態(tài)的MPA最低,為93.5%,這是因?yàn)樾螤钸^于不規(guī)則,輪廓難以精確描述目標(biāo)。但從整體來(lái)看,4個(gè)姿態(tài)組的分割性能相差較小,均能保持良好的分割效果,因此,兔體分割網(wǎng)絡(luò)在分割實(shí)例時(shí)受姿態(tài)的影響較小,對(duì)不同姿態(tài)的肉兔均有良好的適應(yīng)性。

        3.2 肉兔體質(zhì)量估測(cè)結(jié)果與分析

        3.2.1BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)結(jié)果

        分析BP神經(jīng)網(wǎng)絡(luò)對(duì)圖像提取的特征參數(shù)和體質(zhì)量之間的擬合性能,主要參考神經(jīng)網(wǎng)絡(luò)的均方誤差。將訓(xùn)練集、驗(yàn)證集和測(cè)試集的數(shù)據(jù)比例設(shè)為8∶1∶1、7∶1.5∶1.5、6∶2∶2,隱含層神經(jīng)元的數(shù)量設(shè)定為4、5、6,訓(xùn)練算法設(shè)為列文伯格-馬夸爾特法、貝葉斯正則化法和量化共軛梯度法,使用肉兔圖像分割網(wǎng)絡(luò)的980個(gè)訓(xùn)練集的樣本數(shù)據(jù)對(duì)BP神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,結(jié)果表明,當(dāng)數(shù)據(jù)集比例為7∶1.5∶1.5時(shí)效果最佳。在7∶1.5∶1.5的數(shù)據(jù)集比例下,使用不同隱含層神經(jīng)元數(shù)量和不同算法的最終預(yù)測(cè)結(jié)果如表3所示。

        表3 不同神經(jīng)元數(shù)量和算法配置的BPNN預(yù)測(cè)性能

        由表3可知,在測(cè)試集中,當(dāng)隱含層神經(jīng)元數(shù)量為6個(gè),訓(xùn)練算法為列文伯格-馬夸爾特法時(shí),BPNN對(duì)數(shù)據(jù)的擬合程度最高,相關(guān)系數(shù)R為0.993 91,這表明預(yù)測(cè)數(shù)據(jù)與實(shí)際數(shù)據(jù)接近。因此該BPNN能夠正確反映圖像所提取的特征參數(shù)與體質(zhì)量之間的關(guān)系。在該BPNN下,驗(yàn)證集的均方誤差為0.033 6。

        保存BPNN模型,使用驗(yàn)證集數(shù)據(jù)預(yù)測(cè)體質(zhì)量,圖8為本文模型預(yù)測(cè)值與真實(shí)值之間的關(guān)系。

        由圖8可知,本文模型可以較為準(zhǔn)確地預(yù)測(cè)肉兔體質(zhì)量,實(shí)際體質(zhì)量與預(yù)測(cè)體質(zhì)量的擬合直線的R2為0.985 3,直線斜率為1.004 9,表明本文模型預(yù)測(cè)的肉兔體質(zhì)量接近實(shí)際值。驗(yàn)證集中預(yù)測(cè)體質(zhì)量與實(shí)際體質(zhì)量平均相差123 g。

        3.2.2不同日齡肉兔體質(zhì)量估測(cè)結(jié)果

        由3.2.1節(jié)可知,網(wǎng)絡(luò)預(yù)測(cè)肉兔體質(zhì)量時(shí),肉兔實(shí)際體質(zhì)量越小,數(shù)據(jù)點(diǎn)越密集,這表明該網(wǎng)絡(luò)的估測(cè)精度受肉兔體質(zhì)量的影響較大。因此,將肉兔按日齡分組,本文模型對(duì)不同日齡肉兔的體質(zhì)量預(yù)測(cè)結(jié)果如表4所示。

        表4 不同日齡肉兔的體質(zhì)量預(yù)測(cè)結(jié)果

        其中,平均相對(duì)誤差為每個(gè)樣本預(yù)測(cè)體質(zhì)量和實(shí)際體質(zhì)量之差的絕對(duì)值與實(shí)際體質(zhì)量比值的均值,平均相對(duì)誤差反映了該日齡組內(nèi),體質(zhì)量預(yù)測(cè)的誤差。

        由表4可知,在不同日齡組內(nèi),平均實(shí)際體質(zhì)量和平均預(yù)測(cè)體質(zhì)量較為接近,表明本文模型預(yù)測(cè)體質(zhì)量的整體效果良好。而日齡越大,平均相對(duì)誤差越小,表明本文模型預(yù)測(cè)成年兔體質(zhì)量的效果優(yōu)于幼兔。分析原因,一方面是幼兔體質(zhì)量增長(zhǎng)速度快導(dǎo)致個(gè)體之間的差異明顯,而成年兔個(gè)體之間的體質(zhì)量差異小,造成預(yù)測(cè)不準(zhǔn)確。另一方面是由于相同視距下,幼兔圖像的分割效果低于成年兔圖像的分割效果。此外,增加訓(xùn)練集的樣本數(shù)量能夠減小估測(cè)誤差。

        3.2.3不同姿態(tài)肉兔體質(zhì)量估測(cè)結(jié)果

        為探究不同姿態(tài)對(duì)體質(zhì)量預(yù)測(cè)效果的影響,將肉兔按3.1.4節(jié)所述方法分為4個(gè)姿態(tài)組。本文模型對(duì)不同姿態(tài)肉兔的體質(zhì)量預(yù)測(cè)結(jié)果如表5所示。

        表5 不同姿態(tài)肉兔的體質(zhì)量預(yù)測(cè)結(jié)果

        由表5可知,肉兔的姿態(tài)越規(guī)則、干擾因素越少,體質(zhì)量預(yù)測(cè)的精度越高,而姿態(tài)組D的平均誤差最大,一方面原因是姿態(tài)組D的肉兔圖像分割性能最差,另一方面,由于姿態(tài)組D干擾因素多,所獲得的BP神經(jīng)網(wǎng)絡(luò)輸入值與真實(shí)值之間有所差異,降低了預(yù)測(cè)準(zhǔn)確度。但從最終結(jié)果看,各姿態(tài)組的預(yù)測(cè)體質(zhì)量和真實(shí)體質(zhì)量相差較小,能夠在實(shí)際養(yǎng)殖中為體質(zhì)量估測(cè)提供幫助。

        4 結(jié)論

        (1)通過構(gòu)建面向?qū)嶋H的輸入輸出指標(biāo),建立了一種基于Mask R-CNN的肉兔圖像分割方法,并以BPNN算法為預(yù)測(cè)手段構(gòu)建了肉兔體質(zhì)量估測(cè)模型。

        (2)構(gòu)建了基于Mask R-CNN的肉兔圖像分割網(wǎng)絡(luò),并對(duì)網(wǎng)絡(luò)進(jìn)行了訓(xùn)練和測(cè)試。測(cè)試結(jié)果表明,當(dāng)交并比為0.5∶0.95時(shí),肉兔圖像分割網(wǎng)絡(luò)對(duì)肉兔目標(biāo)分類準(zhǔn)確率為94.5%,對(duì)像素分割的精確率為95.1%。對(duì)不同日齡肉兔,網(wǎng)絡(luò)的分類準(zhǔn)確率不小于96%,對(duì)像素的分割精確度不小于91.4%。對(duì)不同姿態(tài)的肉兔,網(wǎng)絡(luò)的分類準(zhǔn)確率不小于96%,對(duì)像素分割的精確率不小于93.5%。網(wǎng)絡(luò)對(duì)不同日齡和不同姿態(tài)的肉兔均具有良好的分割性能。

        (3)以肉兔圖像分割網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果和采集的對(duì)應(yīng)體質(zhì)量為數(shù)據(jù)集,構(gòu)建了基于BP神經(jīng)網(wǎng)絡(luò)的肉兔體質(zhì)量估測(cè)模型,并對(duì)模型進(jìn)行訓(xùn)練和測(cè)試。結(jié)果表明,肉兔體質(zhì)量估測(cè)模型的預(yù)測(cè)值與真實(shí)值具有顯著相關(guān)性,擬合相關(guān)系數(shù)R為0.993 91,均方誤差為0.033 6,預(yù)測(cè)體質(zhì)量與實(shí)際體質(zhì)量平均相差123 g。對(duì)于不同日齡的肉兔,網(wǎng)絡(luò)預(yù)測(cè)成年兔體質(zhì)量的效果優(yōu)于幼兔,平均相對(duì)誤差最小為4.29%。對(duì)于不同姿態(tài)的肉兔,網(wǎng)絡(luò)對(duì)姿態(tài)規(guī)則、干擾因素少的肉兔體質(zhì)量估測(cè)效果最佳,平均相對(duì)誤差最小為3.37%。本文構(gòu)建的體質(zhì)量估測(cè)模型對(duì)實(shí)際生產(chǎn)具有指導(dǎo)意義。

        猜你喜歡
        質(zhì)量模型
        一半模型
        “質(zhì)量”知識(shí)鞏固
        質(zhì)量守恒定律考什么
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        做夢(mèng)導(dǎo)致睡眠質(zhì)量差嗎
        關(guān)于質(zhì)量的快速Q(mào)&A
        3D打印中的模型分割與打包
        質(zhì)量投訴超六成
        汽車觀察(2016年3期)2016-02-28 13:16:26
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        久久久久av综合网成人 | 亚洲精品无码乱码成人| 波多野结衣在线播放一区| 精品国产又大又黄又粗av| 久久精品熟女亚洲av麻豆永永| 久久精品女人天堂av免费观看| 欧美黑人疯狂性受xxxxx喷水| 国产思思久99久精品| 免费人成在线观看播放视频| 天天躁日日躁aaaaxxxx| 精品无码一区二区三区亚洲桃色 | 亚洲美女av一区二区在线| 一本无码av中文出轨人妻| 欧美自拍丝袜亚洲| 97中文字幕一区二区| 国产日本精品一二三四区| 亚洲欧洲精品无码av| 亚洲AⅤ永久无码精品AA| 琪琪av一区二区三区| 国产乱码人妻一区二区三区| 午夜精品久久久久久久久久久久| 日韩精品成人无码AV片| 亚洲国产精品av麻豆一区| 玩弄少妇人妻中文字幕| 日韩精品一区二区亚洲av| 无码成年性午夜免费网站蜜蜂| 久久麻传媒亚洲av国产| 国产麻豆精品一区二区三区v视界| 国产亚洲日韩欧美久久一区二区| 青青草国内视频在线观看| 国产精品久久免费中文字幕| 伊人久久大香线蕉av一区| 精品一区二区三区久久久| 毛片在线视频成人亚洲| 中文字幕人妻第一区| 国产欧美日韩综合在线一区二区| 国产精品亚洲一区二区三区妖精| 欧美亅性猛交内射| 久久午夜伦鲁片免费无码| 无码啪啪熟妇人妻区| 青青草在线这里只有精品|