亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于實(shí)例分割和光流計(jì)算的死兔識別模型研究

        2022-03-14 07:57:54段恩澤王糧局雷逸群郝宏運(yùn)王紅英
        關(guān)鍵詞:模型

        段恩澤 王糧局 雷逸群 郝宏運(yùn) 王紅英

        (中國農(nóng)業(yè)大學(xué)工學(xué)院, 北京 100083)

        0 引言

        隨著我國肉兔養(yǎng)殖業(yè)向機(jī)械化和智能化發(fā)展,智能管理裝備取代人力勞動(dòng)進(jìn)行兔舍的標(biāo)準(zhǔn)化飼養(yǎng)管理是行業(yè)的發(fā)展趨勢。死兔的篩選是兔舍管理的重要工作之一,及時(shí)篩選和隔離死兔能夠降低疫病風(fēng)險(xiǎn)。

        國內(nèi)規(guī)?;馔灭B(yǎng)殖主要依靠飼養(yǎng)員巡檢兔舍完成死兔的識別工作,不僅增加了人力和經(jīng)濟(jì)成本,且容易造成漏檢或檢測不及時(shí)。在養(yǎng)殖智能化和精準(zhǔn)化的趨勢下,死兔的自動(dòng)化識別亟待解決。

        目前國內(nèi)外有關(guān)肉兔健康檢測的研究大多集中于兔群體跟蹤和病理學(xué)分析,而對兔養(yǎng)殖過程中的疾病管理、死兔檢測鮮有報(bào)道[1-3]。在養(yǎng)殖動(dòng)物健康檢測領(lǐng)域,現(xiàn)有研究方向集中于通過傳感器采集動(dòng)物圖像、聲音、溫度和光譜等特征,再進(jìn)行數(shù)據(jù)分析[4-6]。相比于上述方法,將機(jī)器視覺運(yùn)用到養(yǎng)殖環(huán)節(jié)中能降低對動(dòng)物的干擾,更適合規(guī)模化養(yǎng)殖。通過對目標(biāo)語義分割、實(shí)例分割以及熱成像等方式,判斷動(dòng)物健康狀況、生理活動(dòng)和福利水平是智能化養(yǎng)殖的熱門方向[7-9]。

        目前有關(guān)死兔的圖像識別和圖像信息處理的研究少見報(bào)道。文獻(xiàn)[10]表明,肉兔死亡后身體迅速僵硬,保持死亡前姿態(tài),因此從靜態(tài)圖像看,死兔與活兔的圖像特征差異很小,采用語義分割算法根據(jù)圖像直接判斷死兔準(zhǔn)確率和可行性很低。另一方面,由于兔毛隔熱性能良好,利用紅外相機(jī)采集肉兔圖像,發(fā)現(xiàn)除耳朵、眼球和皮膚裸露部分以外,肉兔紅外圖像與環(huán)境差異很小,采用紅外成像技術(shù)判斷死兔難度較高。

        基于上述研究現(xiàn)狀,本文采用視頻識別方法,將長期保持靜止作為死兔判定依據(jù),以肉兔繁育舍中籠養(yǎng)生長兔為研究對象,提出一種基于深度學(xué)習(xí)的死兔識別方法。該方法結(jié)合圖像分割網(wǎng)絡(luò)和光流計(jì)算網(wǎng)絡(luò),通過處理肉兔視頻關(guān)鍵幀,實(shí)現(xiàn)準(zhǔn)確快速地從多目標(biāo)環(huán)境中判斷籠內(nèi)死兔,從而提高養(yǎng)殖管理效率。構(gòu)建基于Mask RCNN+PointRend網(wǎng)絡(luò)的肉兔圖像分割網(wǎng)絡(luò),獲取肉兔掩膜圖像及邊界框中心點(diǎn),構(gòu)建基于LiteFlowNet的關(guān)鍵幀光流計(jì)算網(wǎng)絡(luò),獲取肉兔掩膜的光流值。利用光流閾值去除肉兔掩膜圖中的活躍肉兔。利用核密度估計(jì)法,確定邊界框中心點(diǎn)的密度分布,進(jìn)一步確定區(qū)分死兔和活兔掩膜的密度分布閾值,實(shí)現(xiàn)對死兔的識別。

        1 模型與算法

        1.1 數(shù)據(jù)采集

        于2021年2月21—28日在河南省濟(jì)源市陽光兔業(yè)科技有限公司肉兔繁育舍采集了66日齡的伊普呂肉兔視頻。實(shí)驗(yàn)兔舍為全封閉的階梯式籠養(yǎng)兔舍,每個(gè)兔籠中包含5只肉兔。

        采集視頻所用工業(yè)相機(jī)型號為海康威視MV-CA020-10GC型,分辨率為1 624像素×1 240像素。由于兔籠體積為40 cm×90 cm×35 cm,為使圖像包含單籠信息,去除相鄰?fù)没\干擾,視頻尺寸設(shè)置為1 280像素×720像素,幀率30 f/s。相機(jī)安裝于立式三腳架上,距離地面1 m,傾斜45°俯拍,如圖1所示。

        圖1 視頻采集方法Fig.1 Method of video acquisition

        采集時(shí)選取29個(gè)存在死亡肉兔的籠位和31個(gè)肉兔全部存活的籠位,每個(gè)籠位各采集1 min視頻,格式為mp4。隨機(jī)選取20個(gè)活兔視頻和20個(gè)死兔視頻作為模型的訓(xùn)練集,剩余20個(gè)視頻作為模型的驗(yàn)證集。

        1.2 死兔識別模型架構(gòu)

        模型通過獲取到的籠內(nèi)肉兔的視頻,判別目標(biāo)是否為死兔,具體流程如圖2所示。

        圖2 死兔識別模型流程圖Fig.2 Flow chart of dead rabbit identification model

        本文提出的死兔識別模型首先提取肉兔視頻的關(guān)鍵幀,經(jīng)圖像預(yù)處理后,將圖像數(shù)據(jù)集送入Mask RCNN+PointRend架構(gòu)的肉兔圖像分割網(wǎng)絡(luò)進(jìn)行分割,提取肉兔的掩膜和對應(yīng)邊界框中心點(diǎn)坐標(biāo)。數(shù)據(jù)集同時(shí)送入LiteFlowNet光流計(jì)算網(wǎng)絡(luò),計(jì)算連續(xù)的關(guān)鍵幀的光流信息。通過處理所得掩膜圖和光流圖,獲取每個(gè)掩膜的光流,光流高于閾值的掩膜判斷為活躍肉兔,去除對應(yīng)掩膜。得到的剩余掩膜中心點(diǎn)坐標(biāo)分布進(jìn)行核密度估計(jì),如高于閾值,該掩膜判定為死兔。

        1.3 基于幀間差分的肉兔視頻關(guān)鍵幀提取

        圖3 關(guān)鍵幀選取示例(僅展示部分關(guān)鍵幀)Fig.3 Examples of selected key frames

        受活動(dòng)空間的限制,籠養(yǎng)兔在沒有外界干擾的情況下活躍性較低,導(dǎo)致采集到的視頻文件中包含大量重復(fù)或差別不大的幀,另一方面,本模型更關(guān)注短時(shí)間內(nèi)肉兔的姿態(tài)變化情況,預(yù)測視頻中的所有幀會(huì)降低模型的識別效率。因此為了提高模型效率,首先將視頻中的全部幀分為關(guān)鍵幀和普通幀。關(guān)鍵幀包含了更多活兔的姿勢或行為產(chǎn)生變化的信息,利用視頻關(guān)鍵幀代替視頻進(jìn)行死兔和活兔的識別分類,可以大大減少運(yùn)算時(shí)間。

        視頻采集過程中,攝像頭靜止,環(huán)境光穩(wěn)定,死兔和背景不發(fā)生位移,因此視頻中的活動(dòng)目標(biāo)均為活兔。本模型判別關(guān)鍵幀的依據(jù)是連續(xù)幀中肉兔的位移程度,采用幀間差分法[11]得到圖像平均像素強(qiáng)度,衡量肉兔產(chǎn)生的位移,計(jì)算公式為

        (1)

        式中D——平均像素強(qiáng)度

        N——圖像列號k——幀序號

        f(x,y)——點(diǎn)(x,y)處的像素值

        若肉兔在部分時(shí)段具有較高活躍度,按平均像素強(qiáng)度選取關(guān)鍵幀會(huì)使結(jié)果集中在該時(shí)段,導(dǎo)致關(guān)鍵幀對視頻整體的代表性不足。因此,本模型將視頻平均像素強(qiáng)度按時(shí)間排序后,選取具有局部最大值的幀作為視頻的關(guān)鍵幀,使關(guān)鍵幀均勻分散在視頻中,平滑肉兔在圖像中的移動(dòng)。圖3展示了依據(jù)平均像素強(qiáng)度的局部最大值選取部分關(guān)鍵幀的過程。在視頻不同時(shí)段,具有局部像素強(qiáng)度峰值的幀被選為關(guān)鍵幀。

        1.4 肉兔實(shí)例分割網(wǎng)絡(luò)構(gòu)建

        肉兔實(shí)例分割網(wǎng)絡(luò)主要分為兩部分,采用Mask RCNN的基本架構(gòu)用于識別圖像中的肉兔實(shí)例,并引入PointRend算法取代Mask RCNN中原有的網(wǎng)絡(luò)頭以提升網(wǎng)絡(luò)的分割準(zhǔn)確性,尤其是對掩膜邊界的分割準(zhǔn)確性。

        1.4.1Mask RCNN的網(wǎng)絡(luò)結(jié)構(gòu)

        Mask RCNN[12]是在Faster RCNN[13]基礎(chǔ)上提出的用于圖像實(shí)例分割的深層卷積神經(jīng)網(wǎng)絡(luò)。Mask RCNN通過額外增加掩膜生成分支,并使用RoIAlign算法替換RoIpooling算法,保證了目標(biāo)分割的準(zhǔn)確性?;贛ask RCNN的肉兔圖像分割網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        本文的研究對象為肉兔,圖像特征較為單一,因此采用基于ResNet 50的特征金字塔網(wǎng)絡(luò)(Feature pyramid network, FPN)作為主干網(wǎng)絡(luò)[14],通過降低殘差網(wǎng)絡(luò)的層數(shù)以緩解梯度消失和訓(xùn)練退化的問題。ResNet 50通過卷積將原圖處理成不同深度的特征圖,F(xiàn)PN將不同深度的特征圖融合。特征圖輸入?yún)^(qū)域生成網(wǎng)絡(luò)(Region proposal networks,RPN)中生成大量表達(dá)分割物體位置的候選框并進(jìn)行回歸計(jì)算,修正候選框,得到感興趣區(qū)域(RoI)。最后特征圖被送入頭部網(wǎng)絡(luò),實(shí)現(xiàn)目標(biāo)分類、邊框回歸和掩膜生成,得到最終的分割圖像。

        1.4.2PointRend算法結(jié)構(gòu)

        圖4 基于Mask RCNN的肉兔圖像分割網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Structure of rabbit segmentation network based on Mask RCNN

        Mask RCNN進(jìn)行掩膜生成任務(wù)時(shí),預(yù)測對象為肉兔圖像上的規(guī)則網(wǎng)格,預(yù)測的重點(diǎn)目標(biāo)是網(wǎng)格上的所有點(diǎn),降低了對目標(biāo)邊界處分割平滑度的關(guān)注,增加了邊界預(yù)測的損失,使掩膜邊界的分割結(jié)果不清晰。為了解決這一問題,本文引入PointRend算法[15],通過自適應(yīng)的點(diǎn)細(xì)分策略,針對掩膜邊緣的一組非均勻點(diǎn)來計(jì)算目標(biāo)標(biāo)簽。

        PointRend的本質(zhì)是通過迭代的上采樣,判斷目標(biāo)邊緣位置,將計(jì)算力集中在目標(biāo)邊緣實(shí)現(xiàn)邊緣細(xì)分。共包含3個(gè)模塊:點(diǎn)選取模塊、點(diǎn)特征提取模塊和Point Head模塊。

        點(diǎn)選擇模塊的任務(wù)是自適應(yīng)地篩選預(yù)測目標(biāo)的點(diǎn),并重點(diǎn)關(guān)注處于高頻端口附近的點(diǎn),例如預(yù)測對象的邊界。在推斷過程中,點(diǎn)選擇模塊的策略是以由粗至細(xì)的方式迭代地渲染輸出圖像。在每次迭代過程中,首先預(yù)測低空間分辨率的特征圖。空間分辨率的網(wǎng)格尺寸最大,預(yù)測最粗糙,通過雙線性插值法,將特征圖上采樣擴(kuò)大2倍,從而獲得較為精細(xì)的高空間分辨率的特征圖,使規(guī)則網(wǎng)格更密集。在所得的高分辨率的特征圖中篩選分割置信度(置信度區(qū)間為[0,1])低于0.5的最不確定的點(diǎn),這些點(diǎn)的選擇策略為

        (2)

        p(ni)——點(diǎn)ni屬于掩膜邊緣的概率

        通過逐步上采樣,對點(diǎn)邊緣的預(yù)測不斷細(xì)化,直至特征圖被上采樣至期望的空間分辨率,點(diǎn)細(xì)分預(yù)測過程如圖5所示。

        圖5 肉兔圖像邊緣的點(diǎn)細(xì)分預(yù)測過程Fig.5 Process of one adaptive subdivision step in rabbit image edge points

        對于訓(xùn)練過程,點(diǎn)選取模塊通過基于隨機(jī)抽樣的非迭代策略找到預(yù)測目標(biāo)的邊界。首先從特征圖中隨機(jī)抽取kN(k>1)個(gè)點(diǎn),再根據(jù)這些點(diǎn)的不確定性估計(jì)值對點(diǎn)進(jìn)行排序,不確定性估計(jì)值指所選的點(diǎn)落在前景和背景的概率。從中選擇最不確定的βN(β∈[0,1])個(gè)點(diǎn),則這些點(diǎn)集中在邊界處,分布相對均勻。

        點(diǎn)特征提取模塊負(fù)責(zé)提取βN個(gè)點(diǎn)的特征,作為下一階段的輸入。每個(gè)點(diǎn)特征由低層特征和高層特征構(gòu)成,低層特征通過對特征圖進(jìn)行雙線性插值方法計(jì)算,包含了細(xì)節(jié)分割結(jié)果。高層特征是包含了語義信息的2維向量,通過對每層特征圖進(jìn)行2倍雙線性插值上采樣計(jì)算。每個(gè)點(diǎn)的低層特征和高層特征被送入Point Head模塊。

        Point Head模塊是一個(gè)具有3個(gè)隱含層和256個(gè)通道的多層感知器(Multi-layer perceptron, MLP)[16]。通過迭代對每個(gè)點(diǎn)在不同尺寸特征圖的特征進(jìn)行卷積,逐層連接低層特征和高層特征,將目標(biāo)分辨率最終上采樣至期望分辨率,實(shí)現(xiàn)對肉兔掩膜邊緣部分的精細(xì)提取。MLP的隱含層激活函數(shù)為ReLU[17],輸出層的激活函數(shù)為Sigmoid函數(shù)。

        1.5 肉兔圖像光流計(jì)算網(wǎng)絡(luò)構(gòu)建

        光流是圖像中目標(biāo)像素點(diǎn)運(yùn)動(dòng)的亮度變化,光流計(jì)算是從視頻圖像數(shù)據(jù)中估計(jì)物體的運(yùn)動(dòng)。傳統(tǒng)的LK光流法[18]和HS光流法[19]利用光流約束方程計(jì)算光流場,但存在噪聲敏感、運(yùn)行速度慢等缺點(diǎn)。采用深度神經(jīng)網(wǎng)絡(luò)估算圖像光流具有更好的魯棒性和運(yùn)算速度。

        LiteFlowNet[20]是基于FlowNet[21]的用于光流計(jì)算的輕量級卷積神經(jīng)網(wǎng)絡(luò),在降低了參數(shù)量的同時(shí)提高了對速度場的估算精度。LiteFlowNet的網(wǎng)絡(luò)結(jié)構(gòu)分為用于特征提取的編碼器NetC和實(shí)現(xiàn)由粗到精的光流估計(jì)的解碼器NetE。LiteFlowNet的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。其中,M:S模塊表示亞像素細(xì)化,R模塊表示速度場正則化。

        圖6 基于LiteFlowNet的肉兔圖像光流計(jì)算網(wǎng)絡(luò)結(jié)構(gòu)Fig.6 Key frame optical flow estimation network of meat rabbit based on LiteFlowNet

        NetC將2幅輸入的關(guān)鍵幀壓縮,形成多尺度的高維特征金字塔Fk。輸入圖像f1、f2被相同網(wǎng)絡(luò)結(jié)構(gòu)的卷積層逐層壓縮,獲得不同空間分辨率的圖像特征Fk(fi),i為圖像編號,k為金字塔層級,每層金字塔將圖像的分辨率壓縮為上層的一半。本文將特征金字塔層數(shù)設(shè)為6層,為便于描述,圖6只展示了3層網(wǎng)絡(luò)。

        通過特征圖在NetE中迭代反卷積,最終獲取原圖尺寸的像素點(diǎn)速度場估計(jì)。

        2 死兔識別模型實(shí)驗(yàn)

        2.1 實(shí)驗(yàn)平臺(tái)

        目標(biāo)檢測網(wǎng)絡(luò)和光流計(jì)算網(wǎng)絡(luò)的搭建、訓(xùn)練及調(diào)試均基于Pytorch深度學(xué)習(xí)框架,采用Python編程語言編寫,使用GPU加速計(jì)算。實(shí)驗(yàn)在Ubuntu 20.04系統(tǒng)下運(yùn)行,計(jì)算機(jī)配置:處理器為Intel(R) Core(TM) i7-9700K,主頻3.6 GHz,內(nèi)存16 GB,顯卡為 NVIDIA GeForce RTX 2080(16 GB)。

        2.2 數(shù)據(jù)集制作

        通過基于幀間差分的肉兔視頻關(guān)鍵幀提取方法處理40個(gè)訓(xùn)練集視頻,每段視頻提取50幅關(guān)鍵幀,共計(jì)2 000幅。由于光流法對圖像亮度敏感,因此40組關(guān)鍵幀圖像不作預(yù)處理,直接作為肉兔圖像光流計(jì)算網(wǎng)絡(luò)的數(shù)據(jù)集。

        從2 000幅關(guān)鍵幀中隨機(jī)選取1 000幅圖像進(jìn)行預(yù)處理。為使數(shù)據(jù)集符合肉兔實(shí)例分割網(wǎng)絡(luò)的訓(xùn)練要求,并最大程度保留圖像信息,利用OpenCV擴(kuò)充圖像邊界并將圖像分辨率降低至1 024像素×1 024像素。使用Labelme圖像標(biāo)注工具標(biāo)注肉兔輪廓,死兔和活兔均定義為“rabbit”類,共標(biāo)注目標(biāo)4 873個(gè),制作為COCO(Common objects in context)格式的數(shù)據(jù)集。隨機(jī)選用圖像70%(700幅)作為肉兔圖像分割網(wǎng)絡(luò)的訓(xùn)練集,30%(300幅圖像)作為肉兔圖像分割網(wǎng)絡(luò)的驗(yàn)證集,用于驗(yàn)證和優(yōu)化網(wǎng)絡(luò)。

        2.3 肉兔圖像分割網(wǎng)絡(luò)訓(xùn)練和推斷

        使用COCO數(shù)據(jù)集上的ResNet預(yù)訓(xùn)練權(quán)重作為初始輸入權(quán)重對肉兔實(shí)例分割網(wǎng)絡(luò)進(jìn)行遷移訓(xùn)練。引入ResNet 50和PointRend分別取代原有的殘差網(wǎng)絡(luò)和網(wǎng)絡(luò)頭,實(shí)現(xiàn)每幅圖像的前景精細(xì)分割。采用隨機(jī)梯度下降法進(jìn)行訓(xùn)練,初始學(xué)習(xí)率為0.001,采用線性增加策略,權(quán)重衰減系數(shù)為0.000 1,優(yōu)化器動(dòng)能0.9,共訓(xùn)練800個(gè)epoch。選取精度最高的權(quán)重作為預(yù)測權(quán)重。

        使用訓(xùn)練好的權(quán)重推斷目標(biāo)時(shí),輸出每幅圖像的推斷圖像和圖像中每個(gè)掩膜的邊界框角點(diǎn)坐標(biāo),為后續(xù)死兔識別提供基礎(chǔ)。

        2.4 基于目標(biāo)實(shí)例分割的光流提取

        肉兔圖像光流計(jì)算網(wǎng)絡(luò)的訓(xùn)練集中包含2 000幅圖像,可以按視頻分為40組。使用肉兔實(shí)例分割網(wǎng)絡(luò)和肉兔圖像光流計(jì)算網(wǎng)絡(luò)推斷各組圖像,最終輸出每個(gè)肉兔掩膜的光流。圖7展示了光流提取的過程。

        圖7 掩膜光流提取Fig.7 Extraction of mask optical flow

        在肉兔實(shí)例分割網(wǎng)絡(luò)的推斷中,使用相同顏色填充掩膜,即每幅圖像推斷出的第1個(gè)掩膜均為紅色,第2個(gè)掩膜均為藍(lán)色,以此類推。輸出每幅圖像的檢測結(jié)果,輸出過程如圖7a~7c所示。每個(gè)視頻輸出50幅掩膜提取圖。

        在肉兔圖像光流計(jì)算網(wǎng)絡(luò)的計(jì)算過程中,對于每個(gè)視頻,以每幅關(guān)鍵幀與后一幅關(guān)鍵幀作為輸入,可以得到兩幀之間的光流輸出,如圖7d所示。由于最后一幀沒有下一幅圖像與之對應(yīng),因此每組圖像輸出49幅光流估計(jì)圖。

        圖8 關(guān)鍵幀中掩膜的光流結(jié)果Fig.8 Mask optical flow result in key frames

        去除每組圖像的最后一幅掩膜提取圖,使掩膜提取圖均和光流估計(jì)圖一一對應(yīng)。按掩膜的顏色分割光流估計(jì)圖,可以輸出圖像中每個(gè)實(shí)例的光流,如圖7e所示。

        光流圖中,RGB顏色空間下,每個(gè)像素點(diǎn)的RGB通道值代表其運(yùn)動(dòng)方向和運(yùn)動(dòng)速度,則每個(gè)像素點(diǎn)的灰度可以表示像素點(diǎn)的運(yùn)動(dòng),以此作為判斷死兔的依據(jù)。

        2.5 基于掩膜中心點(diǎn)核密度估計(jì)的死兔識別方法

        本文提出的Mask RCNN+PointRend只針對圖像進(jìn)行實(shí)例分割,無法對肉兔進(jìn)行多目標(biāo)跟蹤(MOT),導(dǎo)致前后幀中所識別的肉兔掩膜不能代表同一只肉兔,單純采用光流不能判斷肉兔死活。目前在MOT領(lǐng)域中,SOTA模型的目標(biāo)跟蹤精度大多低于70%[22-24],且對目標(biāo)類別和視頻幀率均有要求,實(shí)用性差。因此本文提出了一種以掩膜中心點(diǎn)坐標(biāo)為判斷依據(jù)的死兔識別方法,并利用光流去除活兔干擾,原理為在49幅關(guān)鍵幀中,由于死兔一直保持靜止,因此其每個(gè)掩膜的邊界框中心點(diǎn)會(huì)集中在一處,而活兔在部分時(shí)間段保持靜止,在部分時(shí)間段活躍,將活躍時(shí)刻的掩膜去除后,剩余時(shí)刻的掩膜邊界框中心點(diǎn)會(huì)分布松散,點(diǎn)的數(shù)量少于死兔。

        肉兔實(shí)例分割模型輸出如圖7c所示的掩膜提取圖、每個(gè)掩膜邊界框的角點(diǎn)坐標(biāo)和對應(yīng)的掩膜序號。根據(jù)角點(diǎn)坐標(biāo)計(jì)算邊界框的中心點(diǎn)坐標(biāo),與掩膜序號相對應(yīng)。計(jì)算圖7e中每個(gè)掩膜處的光流和掩膜序號,若掩膜的光流高于閾值,將對應(yīng)的掩膜判斷為活兔,去除對應(yīng)序號的掩膜邊界框中心點(diǎn);若低于閾值,表明對應(yīng)掩膜為非活躍的活兔或死兔。圖8截取了某段視頻中20幅關(guān)鍵幀中掩膜的光流結(jié)果,為便于展示,圖像有剪裁。

        圖8中每幅圖像底部的掩膜為死兔,其余均為活兔。第1幅圖像和最后1幅圖像分別為關(guān)鍵幀的首尾圖像,其余圖像從47幅關(guān)鍵幀中隨機(jī)抽取。由圖8可知,代表死兔的掩膜幾乎全為白色,表明死兔掩膜的光流很小。而對于活兔,大部分掩膜具有鮮明的色彩,僅有少數(shù)幀中的少數(shù)掩膜為白色,這表明活兔掩膜的光流較大,而不活躍的肉兔在一段視頻中僅占少數(shù)時(shí)間段。采用光流法去除活兔的干擾有可行性。

        對每段視頻統(tǒng)計(jì)49幅關(guān)鍵幀中,光流低于閾值的掩膜所對應(yīng)的邊界框中心點(diǎn)坐標(biāo),隨后采用無參核密度估計(jì)[25](Kernel density estimation, KDE)的方法分析中心點(diǎn)坐標(biāo)密度。

        KDE是一種從數(shù)據(jù)樣本出發(fā)研究數(shù)據(jù)分布特征、估計(jì)密度函數(shù)的方法,利用平滑峰值函數(shù)(核)擬合數(shù)據(jù)點(diǎn)模擬真實(shí)的概率分布曲線,核密度函數(shù)為

        (3)

        式中n——樣本數(shù)量

        h——平滑參數(shù),帶寬

        K——核函數(shù)

        p——所求點(diǎn)的坐標(biāo)

        pi——第i個(gè)點(diǎn)的坐標(biāo)

        本文選用高斯函數(shù)作為核函數(shù),反映隨機(jī)變量的概率分布。核函數(shù)能夠反映每個(gè)樣本對采樣點(diǎn)概率密度分布的貢獻(xiàn)度,在本文中,死兔掩膜的邊界框中心點(diǎn)密集,每個(gè)中心點(diǎn)對采樣點(diǎn)的概率密度分布貢獻(xiàn)度會(huì)顯著高于活兔掩膜。通過統(tǒng)計(jì)點(diǎn)的概率密度,可以判斷視頻中是否存在死兔。

        3 結(jié)果與分析

        3.1 肉兔實(shí)例分割網(wǎng)絡(luò)性能分析

        采用準(zhǔn)確率(Accuracy, A)、平均精確率(Average precision, AP)和平均像素精度(Mean pixel accuracy, MPA)評價(jià)肉兔實(shí)例分割網(wǎng)絡(luò)性能。

        為表明PointRend網(wǎng)絡(luò)結(jié)構(gòu)對分割性能的影響,以相同數(shù)據(jù)集和超參數(shù)訓(xùn)練了Mask RCNN,圖9為在訓(xùn)練過程網(wǎng)絡(luò)損失值和驗(yàn)證集準(zhǔn)確率與迭代次數(shù)之間的關(guān)系曲線。

        圖9 網(wǎng)絡(luò)損失值與準(zhǔn)確率對比Fig.9 Total loss and accuracy comparison of two networks

        由圖9可知,兩種網(wǎng)絡(luò)的損失值隨著訓(xùn)練迭代次數(shù)增加而降低,PointRend +Mask RCNN的損失值收斂于0.077,Mask RCNN的損失值收斂于0.090;兩種模型的準(zhǔn)確率隨著訓(xùn)練迭代次數(shù)增加而增加,Mask RCNN+PointRend的準(zhǔn)確率收斂于98.5%,Mask RCNN的準(zhǔn)確率收斂于97.3%,這表明采用PointRend取代原網(wǎng)絡(luò)頭后,肉兔圖像分割網(wǎng)絡(luò)的準(zhǔn)確率更高,降低了Mask部分的損失。

        圖10展示了2個(gè)網(wǎng)絡(luò)對同一幅圖像的部分掩膜邊緣分割結(jié)果。PointRend +Mask RCNN網(wǎng)絡(luò)對掩膜邊緣的分割更為平滑,相比于Mask RCNN,分割出的掩膜更能代表目標(biāo)。

        圖10 兩種網(wǎng)絡(luò)對掩膜邊緣的分割結(jié)果Fig.10 Mask boundary segmentation results of two networks

        利用COCOAPI對驗(yàn)證集的推斷結(jié)果進(jìn)行性能評估,結(jié)果如表1所示。

        表1 兩種網(wǎng)絡(luò)對肉兔的分割性能對比Tab.1 Comparison of rabbit segmentation performance between two networks

        平均精確率反映網(wǎng)絡(luò)在目標(biāo)識別中的分類準(zhǔn)確度,表示分類為正樣本中分類正確的數(shù)量占比。平均像素精度反映網(wǎng)絡(luò)在實(shí)例分割中像素分類的準(zhǔn)確度,表示正確分割的像素?cái)?shù)量在圖像像素?cái)?shù)量中的占比。根據(jù)表1可知,PointRend+Mask RCNN對驗(yàn)證集的分類性能比Mask RCNN提高了3.0個(gè)百分點(diǎn),實(shí)例分割性能提高了4.1個(gè)百分點(diǎn),算法推斷1幅圖像的速度提高了16.0%。

        3.2 死兔識別模型的識別結(jié)果與分析

        基于肉兔圖像分割網(wǎng)絡(luò)和光流計(jì)算網(wǎng)絡(luò),識別并去除大部分活兔的干擾。首先提取每組關(guān)鍵幀中肉兔掩膜的光流,輸出每個(gè)掩膜的總灰度。由于灰度越高,亮度越接近白色,對應(yīng)像素點(diǎn)的運(yùn)動(dòng)速度越低,因此對灰度進(jìn)行反運(yùn)算,以反運(yùn)算灰度均值表示光流值。掩膜的反運(yùn)算灰度均值計(jì)算公式為

        (4)

        式中Gm——掩膜的平均灰度

        Gp——掩膜的總灰度

        Np——掩膜的像素點(diǎn)數(shù)量

        圖11 掩膜反運(yùn)算灰度均值分布Fig.11 Distribution diagrams of mean inverse operation gray value

        掩膜的反運(yùn)算灰度均值表示掩膜像素點(diǎn)的運(yùn)動(dòng)程度,均值越高,對應(yīng)的掩膜越可能是活兔。利用閾值篩除活兔,以包含1只死兔、3只活兔的某段視頻為例,圖11展示了該段視頻中50幅關(guān)鍵幀所提取的掩膜反運(yùn)算灰度均值。

        如圖11所示,黃色三角點(diǎn)表示死兔掩膜的反運(yùn)算灰度均值。在48個(gè)黃色三角點(diǎn)中,僅有3個(gè)點(diǎn)的反運(yùn)算灰度均值高于10。而活兔掩膜的反運(yùn)算灰度均值在0~55之間均有分布。若將閾值選為15,會(huì)多出大量活兔掩膜形成干擾。對訓(xùn)練集中40個(gè)視頻進(jìn)行處理和統(tǒng)計(jì),最終將閾值確定為10。

        統(tǒng)計(jì)全部的掩膜邊界框中心點(diǎn)坐標(biāo),將掩膜的反運(yùn)算灰度均值高于10所對應(yīng)的中心點(diǎn)坐標(biāo)去除,圖12以兩段視頻為例,描述掩膜邊界框中心點(diǎn)的分布規(guī)律,圖中橫縱坐標(biāo)表示像素點(diǎn)的列序號、行序號。其中,video_01為包含1只死兔、3只活兔的視頻,video_03為包含0只死兔、4只活兔的視頻。

        圖12 掩膜邊界框中心點(diǎn)分布圖Fig.12 Center point distributions of mask bounding box

        如圖12a、12b所示,閾值將原本202個(gè)坐標(biāo)點(diǎn)減少至113個(gè),死兔的坐標(biāo)點(diǎn)基本重疊在同一位置,剩余的活兔坐標(biāo)點(diǎn)較為松散。如圖12c、12d所示,光流信息將原本287個(gè)坐標(biāo)點(diǎn)減少至130個(gè),效果較為顯著。

        通過KDE對去除干擾后的中心點(diǎn)做密度分析,其可視化結(jié)果如圖13所示,圖中橫、縱坐標(biāo)表示像素點(diǎn)的列序號、行序號。

        圖13 中心點(diǎn)核密度估計(jì)可視化結(jié)果Fig.13 Visualization results of center point kernel density estimation

        圖13a中,代表死兔掩膜的中心點(diǎn)概率密度高于1.4×10-5,代表活兔掩膜的中心點(diǎn)概率密度低于1.1×10-5。圖13b中,所有活兔的中心點(diǎn)概率密度低于8×10-6。

        通過對訓(xùn)練集的40個(gè)視頻進(jìn)行中心點(diǎn)核密度估計(jì),最終確定了死兔的概率密度閾值為1.25×10-5,當(dāng)存在中心點(diǎn)概率密度高于1.25×10-5時(shí),視頻中包含死兔。

        使用死兔識別模型對驗(yàn)證集的20個(gè)視頻進(jìn)行死兔識別,其中有9個(gè)視頻存在死兔,11個(gè)視頻全為活兔。結(jié)果表明,存在死兔且模型檢測到死兔的視頻數(shù)為9個(gè),全為活兔且模型未檢測到死兔的視頻數(shù)為9個(gè),存在死兔但模型未檢測到死兔的視頻數(shù)為0個(gè),全為活兔但模型誤檢測到死兔的視頻數(shù)為2個(gè),因此模型判斷死兔的準(zhǔn)確率為90%。

        檢測結(jié)果表明,對于存在死兔的視頻,死兔識別模型能夠全部檢出。對于全為活兔的視頻,死兔識別模型檢測存在錯(cuò)誤。人工檢驗(yàn)后發(fā)現(xiàn),這是由于視頻中的肉兔活躍性較低,在1 min內(nèi)的移動(dòng)過少。在實(shí)際養(yǎng)殖過程中,可以適當(dāng)延長采集視頻的時(shí)長,或選擇肉兔采食期間采集視頻,以提高模型的識別準(zhǔn)確度。

        4 結(jié)論

        (1)以籠養(yǎng)肉兔為研究對象,通過幀間差分方法提取肉兔視頻的關(guān)鍵幀,并建立了一種基于圖像分割和光流計(jì)算的死兔識別模型,實(shí)現(xiàn)多目標(biāo)背景下的肉兔圖像分割和死兔檢測。

        (2)構(gòu)建了基于PointRend+Mask RCNN的肉兔圖像分割網(wǎng)絡(luò),以ResNet50和特征金字塔作為特征提取網(wǎng)絡(luò),采用PointRend算法替換原有全卷積網(wǎng)絡(luò)頭,通過自適應(yīng)的點(diǎn)細(xì)分策略實(shí)現(xiàn)對肉兔掩膜邊緣的精細(xì)提取。構(gòu)建的肉兔圖像分割網(wǎng)絡(luò)在驗(yàn)證集上的平均精確率和平均像素精度分別為96.1%和95.7%,相比于Mask RCNN網(wǎng)絡(luò)分別提升了3.0個(gè)百分點(diǎn)和4.1個(gè)百分點(diǎn),單幅圖像檢測速度提升了16.0%。

        (3)構(gòu)建了基于LiteFlowNet的肉兔光流計(jì)算網(wǎng)絡(luò),以連續(xù)關(guān)鍵幀為輸入,通過特征金字塔網(wǎng)絡(luò)和多級反卷積網(wǎng)絡(luò)獲取基于關(guān)鍵幀的肉兔掩膜光流信息。

        (4)以圖像分割結(jié)果和光流計(jì)算結(jié)果為基礎(chǔ),提出了一種基于掩膜中心點(diǎn)核密度估計(jì)的死兔識別方法,確定了活躍肉兔的掩膜反運(yùn)算灰度均值的閾值為10,確定了死兔的掩膜邊界框中心點(diǎn)的概率密度閾值為1.25×10-5。

        (5)死兔識別模型對驗(yàn)證集視頻的準(zhǔn)確率為90%,誤差原因是肉兔活躍度過低,通過延長視頻時(shí)長和選擇肉兔活躍時(shí)刻拍攝視頻能提高模型準(zhǔn)確性。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點(diǎn)
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        无码国产精品一区二区av | 久久久亚洲欧洲日产国码是AV | 国产精品无码久久久久久蜜臀AV| 国产成人亚洲综合二区| 人人妻人人澡人人爽精品日本 | 人妖一区二区三区视频| 国产精品女人呻吟在线观看| 青青草国产成人99久久| 国产一区二区内射最近人| 国产三级精品三级在线专区2| 欧美乱大交xxxxx潮喷| 色妞ww精品视频7777| 亚洲日韩专区在线视频| 亚洲av成人一区二区三区不卡| 精品一区二区在线观看免费视频| 曰韩无码av一区二区免费| 日韩精品一区二区午夜成人版| 暖暖免费 高清 日本社区在线观看| 日本丰满少妇高潮呻吟| 国产精品亚洲一区二区三区16| 国产精品美女久久久网av| 中文人妻无码一区二区三区在线 | 国产一区二区亚洲av| 国产精品美女主播在线| 91精品国产92久久久| 亚洲欧洲国产成人综合在线| 中文字幕无码不卡免费视频| 国产精品国产三级国产av主| 国产自拍视频在线观看免费| 国产av无码专区亚洲版综合| 大肉大捧一进一出视频| 亚洲毛片αv无线播放一区| 97久久久久国产精品嫩草影院| 在线亚洲精品中文字幕美乳色| 国产精品无码dvd在线观看| 国产精品igao视频| 99成人无码精品视频| 亚洲综合av一区在线| 久久久久久人妻无码| 亚洲国产精品久久久久秋霞影院| 久久亚洲道色宗和久久|