亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLO v7的籠養(yǎng)雞/蛋自動識別與計數(shù)方法

        2023-07-31 08:07:04趙春江梁雪文于合龍王海峰樊世杰
        農(nóng)業(yè)機械學報 2023年7期
        關(guān)鍵詞:檢測模型

        趙春江 梁雪文 于合龍 王海峰 樊世杰 李 斌

        (1.吉林農(nóng)業(yè)大學信息技術(shù)學院, 長春 130118; 2.北京市農(nóng)林科學院智能裝備技術(shù)研究中心, 北京 100097;3.北京市華都峪口禽業(yè)有限責任公司, 北京 101206)

        0 引言

        作為重要的家禽種類之一,蛋雞為人們提供了豐富的動物蛋白營養(yǎng)食源[1]。近年來,隨著消費需求日益增加,規(guī)?;B(yǎng)殖趨勢加速,立體籠養(yǎng)成為主要飼養(yǎng)模式[2-4]。死亡/低產(chǎn)蛋雞的高效巡檢與動態(tài)清零成為當前蛋雞養(yǎng)殖產(chǎn)業(yè)的重要需求。一般來講,籠內(nèi)蛋雞存活和產(chǎn)能狀況通過籠內(nèi)雞/蛋數(shù)量精確盤點實現(xiàn),而立體籠養(yǎng)模式下,養(yǎng)殖密度大、雞只間遮擋和光線分布不均等因素使雞只和雞蛋準確識別與計數(shù)工作難度增加。

        當前,人工觀測方法清點雞只與雞蛋數(shù)目效率低下且易使蛋雞產(chǎn)生應激反應[5]。傳統(tǒng)機器視覺方法主要應用特征信息提取和閾值分割技術(shù)開展雞/蛋目標檢測。畢敏娜等[6]采用SVM算法檢測散養(yǎng)病雞,應用數(shù)碼相機采集RGB圖像,將雞頭雞冠紋理特征和雞眼瞳孔幾何特征作為病雞與健康雞分類的特征向量,結(jié)果表明病雞識別正確率為92.5%。INDRA等[7]基于大津閾值法設計雞蛋檢測模型,以獲取受精卵和不育卵的信息。MUVVA等[8]提出一種基于熱度圖和可見光圖像的死雞檢測方法,使用閾值分割技術(shù)提取熱度圖中活雞像素和可見光圖像中所有肉雞(活雞和死雞)的像素,根據(jù)兩幅圖像像素差值,輸出死雞坐標信息,該方法在常規(guī)飼養(yǎng)密度和稀疏飼養(yǎng)密度下肉雞(≤5周齡)的死雞識別正確率分別為90.7%與95.0%。LI等[9]開發(fā)了基于圖像分析和體質(zhì)量計數(shù)的母雞傳感器計數(shù)系統(tǒng),圖像分析計數(shù)是將原始彩色圖像轉(zhuǎn)換為灰度圖,然后根據(jù)最終生成的二值圖像中白色像素數(shù)確定母雞數(shù)量,計數(shù)準確率為71.23%;體質(zhì)量計數(shù)是指首先求得母雞平均體質(zhì)量,再根據(jù)傳感器獲得的籠內(nèi)母雞體質(zhì)量計算母雞數(shù)量,準確率達到99.70%,但是這種方法每次僅能檢測8只母雞,效率低。上述基于各自研究場景下的檢測研究雖然準確率較高,但無法解決籠養(yǎng)雞舍內(nèi)光線不均、雞與籠之間遮擋及雞蛋粘連等復雜場景下的雞只與雞蛋自動化識別與計數(shù)問題。

        近年來,深度學習技術(shù)發(fā)展迅速,目標檢測網(wǎng)絡已在畜禽個體識別研究領域表現(xiàn)出優(yōu)越性能[10-12]。GEFFEN等[13]利用Faster R-CNN網(wǎng)絡實現(xiàn)籠養(yǎng)模式下母雞的檢測和計數(shù)工作,準確率為89.6%,平均絕對誤差為每籠2.5只母雞。LI等[14]應用改進后網(wǎng)絡QueryPNet檢測和分割大鵝,大鵝檢測與分割的準確率均為96.3%。JIANG等[15]通過改進的YOLO v7網(wǎng)絡實現(xiàn)實時監(jiān)控麻鴨數(shù)量,平均精度均值(Mean average precision,mAP)為97.57%。上述模型檢測性能良好,但模型參數(shù)量較大,難以部署到GPU資源匱乏的邊緣計算設備進行實時檢測。面對輕簡化設備的應用需求,模型小、檢測速度快的輕量級目標檢測網(wǎng)絡優(yōu)勢較為突出[16-18]。其中應用較為廣泛的輕量級網(wǎng)絡有SSD與YOLO微型系列網(wǎng)絡。劉慧等[19]應用改進的SSD網(wǎng)絡實時檢測田間行人,當交并比閾值為0.4時,模型mAP與檢測速度分別為97.46%和62.5 f/s。易詩等[20]提出一種基于YOLO v3-tiny的適宜于嵌入式系統(tǒng)部署的野雞識別方法,模型mAP和檢測速度分別為86.5%與62 f/s。ZHENG等[21]使用改進的YOLO v5模型快速檢測麻鴨,并對比了基于不同標注范圍(鴨頭和鴨身)的模型檢測性能,結(jié)果表明,基于鴨頭標注的模型檢測性能更好,準確率與檢測速度分別為99.29%和269.68 f/s。綜上,輕量化網(wǎng)絡的高實時性、少參數(shù)量和易部署等特點為實際場景下的應用研發(fā)提供了可能。

        基于此,針對立體籠養(yǎng)模式下巡檢過程中存在的光線不均、雞只易被遮擋和雞蛋粘連等問題,本研究提出基于YOLO v7-tiny-DO網(wǎng)絡的籠養(yǎng)雞/蛋自動化識別與分籠計數(shù)方法(Counting in different cages,CDC)。首先,在高效聚合層網(wǎng)絡內(nèi)構(gòu)建深度過參數(shù)化深度卷積層提取目標深層特征,在特征融合模塊引入坐標注意力機制提高模型捕獲雞只和雞蛋空間位置信息的能力;然后,設計和發(fā)展自動化分籠計數(shù)方法;最后,將其部署到邊緣計算設備進行實地測試驗證,以期為規(guī)模化蛋雞養(yǎng)殖智能化管理提供思路。

        1 材料與方法

        1.1 試驗平臺搭建

        為實現(xiàn)自動化數(shù)據(jù)采集和減少人工參與以保證數(shù)據(jù)的客觀性,設計并搭建了雞只視頻數(shù)據(jù)采集平臺,示意圖如圖1所示。該平臺由視頻采集單元、邊緣計算單元、數(shù)據(jù)展示單元與電力供應單元組成。其中視頻采集單元選用低成本JRWT1412型無畸變攝像頭,內(nèi)置RGB傳感器(分辨率為640像素×480像素,幀率為30 f/s);邊緣計算單元采用NVIDIA Jetson AGX Xavier開發(fā)者套件,內(nèi)置512個NVIDIA CUDA Cores、64個Tensor Cores、8塊Carmel ARM CPU、2個DL Accelerator和1個Vision Accelerator深度學習加速器引擎,以支持視頻數(shù)據(jù)采集、模型部署與算法推理等功能的實現(xiàn);數(shù)據(jù)展示單元采用11.6寸IPS高清觸摸屏,用以展示攝像頭捕獲的視頻圖像;電力供應單元采用便攜式移動電源支撐巡檢機器人運轉(zhuǎn),輸出電壓為48 V。

        圖1 視頻數(shù)據(jù)采集平臺

        1.2 數(shù)據(jù)獲取與預處理

        本研究所有數(shù)據(jù)均采集于北京市華都峪口禽業(yè)有限責任公司第3場階梯式雞舍。采集對象為中層30籠雞,品種為京粉1號蛋雞。采集時間為2021年10月9—13日與2022年3月28日—4月14日06:00—18:00,期間每隔2 h采集1批次視頻,單個視頻時長約2.5 min,從中選取雞頭未被食槽完全遮擋的視頻進行試驗。

        數(shù)據(jù)采集流程如下:首先,在食槽特定位置張貼二維碼作為雞籠編號;其次,在相機鏡頭距雞籠水平距離0.62 m處運行巡檢機器人,以速度 0.1 m/s沿直線前進,行走過程中鏡頭距二維碼與雞籠的水平距離基本保持不變(誤差小于0.005 m);最后,獲取的雞只視頻數(shù)據(jù)(分辨率為640像素×480像素)通過USB接口傳輸至邊緣計算單元,在數(shù)據(jù)展示單元顯示并保存到本地磁盤。共拍攝視頻378 min,格式為MP4,幀率為30 f/s。采用OpenCV圖像處理庫每隔10幀截取一幅圖像,從中篩選出2 146幅圖像(分辨率為640像素×480像素)作為數(shù)據(jù)源,格式為JPG。由于籠養(yǎng)雞舍內(nèi)采用暖光燈照明,且雞只靈活性較高,因此本文采集圖像大多具有以下1種或多種特點:①雞只被鐵絲或食槽遮擋(圖2a紅色框)。②雞只快速移動產(chǎn)生運動模糊(圖2b藍色框)。③多枚雞蛋粘連在一起(圖2c黃色框)。④兩個暖光燈中間位置光線昏暗(圖2d綠色框)。

        圖2 不同場景下圖像示例

        由于籠養(yǎng)模式下養(yǎng)殖密度大,雞籠邊界不易區(qū)分,本研究通過檢測雞頭識別雞只個體,檢測二維碼區(qū)分不同雞籠。在人工可識別情況下,采用LabelImg標注雞只頭部(head)、雞蛋(egg)與二維碼(qrcode),并生成包含目標類別、坐標及圖像像素信息的.xml文件,最終得到2 146幅圖像和對應標注文件用于訓練與測試網(wǎng)絡模型性能。為增強模型泛化性和魯棒性,在訓練過程中應用在線數(shù)據(jù)增強,主要方法包括色調(diào)變換、仿射變換、Mosaic增強與Mixup增強,如圖3所示。數(shù)據(jù)集按照比例7∶2∶1隨機劃分為訓練集、驗證集和測試集,對應圖像分別為1 501、430、215幅。

        圖3 在線數(shù)據(jù)增強

        1.3 籠養(yǎng)雞/蛋識別模型

        1.3.1YOLO v7-tiny網(wǎng)絡模型結(jié)構(gòu)

        YOLO v7-tiny[22]是YOLO系列的輕量化模型之一,該網(wǎng)絡在公開數(shù)據(jù)集Microsoft COCO Dataset上取得較高的精度與較快的速度。YOLO v7-tiny整個網(wǎng)絡結(jié)構(gòu)可分為Input、Backbone與Head共3部分,網(wǎng)絡結(jié)構(gòu)如圖4所示。Input主要對輸入數(shù)據(jù)進行預處理,對于輸入的任意尺寸圖像被自適應放縮為模型適用分辨率(640像素×480像素),采用動態(tài)標簽分配策略確定正負樣本,并對數(shù)據(jù)進行Mosaic與Mixup增強。

        圖4 YOLO v7-tiny網(wǎng)絡結(jié)構(gòu)

        Backbone由卷積模塊、高效層聚合網(wǎng)絡(Efficient layer aggregation network,ELAN)與MP模塊構(gòu)成。卷積模塊包含卷積層、數(shù)據(jù)歸一化層與激活函數(shù)3部分,激活函數(shù)采用Sigmoid加權(quán)線性單元(Sigmoid-weighted linear unit,SiLU)[23],其具有無上界、有下界、平滑與非單調(diào)等特點。ELAN通過控制最短與最長的梯度路徑,使網(wǎng)絡在不破壞原有梯度路徑的情況下不斷增強網(wǎng)絡的特征學習能力,提高模型的魯棒性。MP模塊采用兩個不同分支分別進行下采樣操作,二者采用殘差連接,以增強模型的特征提取能力。

        Head主要包含SPPCSPC、ELAN與Detect 3個模塊。SPPCSPC由金字塔池化結(jié)構(gòu)(Spatial pyramid pooling,SPP)[24]與跨階段區(qū)域網(wǎng)絡(Cross stage partial,CSP)[25]組成,CSP將特征拆分為兩部分,特征1經(jīng)過SPP池化操作后與特征2融合,獲取4個不同尺寸(1、5、9、13)的感受野,以便Detect層檢測不同大小的目標。Detect層輸出目標邊界框坐標、置信度和類別信息。

        原始YOLO v7-tiny對粘連的雞蛋和光線較暗處目標檢測性能較差,為提高模型整體檢測精度,滿足籠養(yǎng)雞舍復雜環(huán)境的應用需求,本研究在YOLO v7-tiny網(wǎng)絡的基礎上,首先將SiLU激活函數(shù)替換為指數(shù)線性單元(Exponential linear unit,ELU),減少模型訓練時間和提高目標檢測網(wǎng)絡的整體性能。其次在ELAN結(jié)構(gòu)中采用深度過參數(shù)化深度卷積層(Depthwise over-parameterized depthwise convolutional layer,DO-DConv)[26]提取目標深層特征,以提升光線較暗條件下目標的識別能力。最后在Head的第2、4層引入坐標注意力機制(Coordate attention mechanism,CoordAtt)[27],提取特征圖像中目標空間位置信息。

        1.3.2激活函數(shù)

        深度學習中激活函數(shù)是將神經(jīng)網(wǎng)絡非線性化,激發(fā)隱藏結(jié)點,此類函數(shù)通常具有連續(xù)且可微等特點。SiLU激活函數(shù)雖然滿足以上要求,但僅在深度神經(jīng)網(wǎng)絡的隱藏層中可用[28]。因此,本研究引入ELU激活函數(shù)。圖5為ELU與SiLU激活函數(shù)對比曲線圖,可以看出,ELU函數(shù)在定義域內(nèi)均連續(xù)且可微,滿足激活函數(shù)的基本要求。當輸入特征向量x大于0時,輸出為x本身,減輕了梯度彌散問題(導數(shù)為1);當x小于0時,采用指數(shù)函數(shù)連接,避免陷入局部最優(yōu)。ELU函數(shù)輸出均值為0,與SiLU函數(shù)相比,降低了模型計算復雜度,且單側(cè)飽和,使模型收斂效果更好。

        圖5 激活函數(shù)ELU與SiLU的對比圖

        1.3.3改進的高效層聚合網(wǎng)絡

        目標檢測模型中特征提取是后續(xù)特征融合的基礎數(shù)據(jù)來源。YOLO v7-tiny網(wǎng)絡中ELAN采用常規(guī)卷積提取目標特征,但實際雞舍環(huán)境較為復雜,常規(guī)卷積操作難以挖掘目標深層次特征。因此,本研究將ELAN模塊內(nèi)的常規(guī)卷積層替換為深度卷積層(Depthwise convolutional layer,DConv)以減少模型參數(shù)量,并在其基礎上添加過參數(shù)化組件(深度卷積)構(gòu)建深度過參數(shù)化深度卷積層,改進后的ELAN結(jié)構(gòu)如圖6所示。與常規(guī)卷積不同,DO-DConv模塊不僅能夠通過增加網(wǎng)絡深度提高網(wǎng)絡的表達能力,而且采用多層復合線性操作,使其在推理階段折疊為單層形式,從而減少計算量。

        圖6 改進后的ELAN結(jié)構(gòu)

        圖7 深度過參數(shù)化深度卷積層結(jié)構(gòu)

        1.3.4坐標注意力機制

        為了進一步提升模型對雞只和雞蛋空間位置信息的捕獲能力,本研究在網(wǎng)絡Head端引入坐標注意力機制。CoordAtt通過精確的位置信息對通道關(guān)系和長期依賴性進行編碼,形成一個對方向和位置敏感的特征圖用于增強目標的特征表示。圖8為CoordAtt編碼過程,總體可分為坐標信息嵌入與坐標注意力生成兩部分。

        圖8 坐標注意力機制

        (1)

        (2)

        式中Xc(h,i)——高度h在第c個通道的分量

        Xc(j,w)——寬度w在第c個通道的分量

        這種轉(zhuǎn)換使注意力機制模塊可以捕捉空間方向的長期依賴關(guān)系,并保存沿著另一空間方向特征的精確位置信息。經(jīng)過信息嵌入模塊的變換后,將兩個方向的坐標信息進行拼接,然后輸入1×1卷積函數(shù)F1中進行變換操作,計算公式為

        f=δ(F1([zh,zw]))

        (3)

        式中 [,]——沿空間維度的串聯(lián)操作

        δ——非線性激活函數(shù)

        f——對空間信息在水平與垂直方向進行編碼的中間特征

        gh=σ(Fh(fh))

        (4)

        gw=σ(Fw(fw))

        (5)

        式中σ——Sigmoid激活函數(shù)

        gh——沿水平方向特征張量

        gw——沿垂直方向特征張量

        由于σ計算耗時較大,為了加快運算速度,采用下采樣比r減少f通道數(shù)。綜上,對于輸入X的第c個通道上高度i和寬度j的特征Xc(i,j),經(jīng)過坐標注意力模塊的輸出可表示為

        (6)

        式中yc(i,j)——嵌入坐標注意力模塊后的輸出結(jié)果

        1.4 分籠計數(shù)法

        ALPATOV等[29]提出車輛檢測與道路標線檢測算法,并根據(jù)道路標線算法劃分車道從而實現(xiàn)多通道車輛計數(shù),結(jié)果表明,5個通道平均計數(shù)準確率為98.9%。基于此,本研究通過檢測二維碼獲取檢測框坐標和存儲信息區(qū)分不同雞籠,并設計分籠計數(shù)法(Counting in different cages,CDC)實現(xiàn)雞只與雞蛋自動化計數(shù)。該算法可分為計數(shù)感興趣區(qū)域(Counting in region of interest,CRoI)設置與自動化分籠計數(shù)兩個階段。CRoI設置流程如下:機器運動過程中,采用YOLO v7-tiny-DO檢測圖像中目標,當識別到2個二維碼時,根據(jù)其檢測框坐標分別計算待測圖像中雞只與雞蛋計數(shù)區(qū)域的橫、縱坐標,并以此為邊界劃分目標CRoI,如圖9a(紅色框表示雞只CRoI,綠色框為雞蛋CRoI),計算過程為

        圖9 計數(shù)感興趣區(qū)域

        (q=0,1,…,29)

        (7)

        式中q——二維碼存儲的雞籠編號

        xq——二維碼檢測框左側(cè)上頂點橫坐標

        yq——二維碼檢測框左側(cè)下頂點縱坐標

        [xmin,xmax]——計數(shù)區(qū)域橫坐標取值范圍

        值得注意的是,若未識別到2個二維碼,則不進行CRoI設置操作,跳至下一幀。

        選定CRoI后進行自動化分籠計數(shù)。過程如下:首先采用pyzbar函數(shù)識別二維碼信息,選擇較小數(shù)值作為待測雞籠編號q;然后獲取當前幀F(xiàn)(k,q)所有雞只與雞蛋檢測框的中心點坐標(xi,yi),計算其在CRoI范圍內(nèi)的目標個數(shù)觀測值F(k,q)num,計算過程為

        (8)

        其中

        式中k——幀序號

        最后,當二維碼信息發(fā)生變化時,統(tǒng)計雞籠編號q所有視頻幀的觀測值,計算其均值作為目標數(shù)量預測值P(k,q),計算過程為

        (9)

        式中 「?——小數(shù)向上取整計算符號

        mean——所有幀預測值的均值

        實際計數(shù)過程中,巡檢機器人移動時獲取的計數(shù)感興趣區(qū)域與實際雞籠區(qū)域相比誤差較大,導致分籠計數(shù)錯誤(圖9a綠色虛線框)。為減小運動過程中計數(shù)區(qū)域的誤差,本研究采用單目相機標定模型[30]對CRoI進行校正,實現(xiàn)CRoI在像素坐標與世界坐標之間的相互轉(zhuǎn)換,坐標變換過程為

        (10)

        (11)

        式中 (cx,cy)——圖像中心點坐標

        (ix,iy)——雞籠邊界坐標

        z1——鏡頭到二維碼的水平距離

        z2——鏡頭到雞籠的水平距離

        (Wx,Wy,Wz)——(ix,iy)轉(zhuǎn)換后的世界坐標

        (Ix,Iy)——(ix,iy)糾正后坐標

        fx、fy——橫、縱像素焦距

        1.5 模型訓練

        1.5.1訓練環(huán)境

        模型訓練硬件環(huán)境主要包括Intel(R)Core(TM)i9-10900X處理器,主頻3.70 GHz,運行內(nèi)存24 GB,GPU型號為Titan RTX,操作系統(tǒng)為Ubantu 18.04。軟件環(huán)境為Python 3.7語言版本、PyTorch 1.7框架、OpenCV 4.3.5圖像處理庫與pyzbar 0.1.8二維碼識別庫。

        1.5.2參數(shù)設置

        網(wǎng)絡訓練參數(shù)設置如下:輸入圖像尺寸為 640像素×480像素,批量大小為32,初始學習率設置為0.001。采用隨機梯度下降(Stochastic gradient descent,SGD)方法優(yōu)化模型,動量因子為0.937,權(quán)重衰減因子為0.000 5。模型共訓練300輪,迭代1個輪次保存一次模型權(quán)重,最終選擇識別精度最高的模型。

        1.5.3評價指標

        采用精確率(Precision,P)、召回率(Recall,R)、平均精確率(Average precision,AP)、F1值、模型內(nèi)存占用量(Model size)和幀率(Frames per seconds,FPS)來評價模型性能,采用平均絕對誤差(Mean absolute error,MAE)和平均準確率(Mean accuracy rate,MAR)評估分籠計數(shù)算法。

        2 結(jié)果與分析

        2.1 不同檢測模型性能對比

        為驗證YOLO v7-tiny-DO模型對雞只與雞蛋的識別能力,本研究選擇主流目標檢測網(wǎng)絡Faster R-CNN、SSD、YOLO v4-tiny、YOLO v5n、YOLO v7-tiny與YOLO v7-tiny-DO進行對比試驗。訓練過程中,所有網(wǎng)絡使用相同訓練集,并應用215幅測試集圖像對模型性能進行綜合評估。經(jīng)完整測試后,不同模型檢測結(jié)果如表1所示,表中AP0.5表示交并比為0.5時的平均精確率。從表1可以看出,與Faster R-CNN、SSD、YOLO v4-tiny、YOLO v5n和YOLO v7-tiny相比,YOLO v7-tiny-DO的F1值優(yōu)勢較為突出,雞只的F1值為97.0%,分別高于以上模型21.0、4.0、8.0、1.5、1.7個百分點;雞蛋的F1值為98.4%,比其他模型分別高31.4、25.4、6.4、4.4、0.7個百分點。

        表1 不同檢測網(wǎng)絡對比

        對比YOLO v7-tiny-DO與YOLO v7-tiny,二者幀率均高于100 f/s,能夠滿足實時檢測任務的需要;YOLO v7-tiny-DO模型檢測雞只和雞蛋的AP分別為96.9%與99.3%,相比YOLO v7-tiny分別提高3.2、1.4個百分點;YOLO v7-tiny-DO模型內(nèi)存占用量為5.6 MB,比原模型減小6.1 MB,適用于算力匱乏的巡檢機器人。綜上,YOLO v7-tiny-DO網(wǎng)絡在提升模型精度的情況下降低了模型參數(shù)量,證明了改進后模型的有效性。

        2.2 不同場景下檢測結(jié)果分析

        由于實際雞舍環(huán)境較為復雜,采集圖像中通常存在局部遮擋、運動模糊、雞蛋粘連與光線昏暗等問題,導致雞只與雞蛋自動化識別與計數(shù)困難。因此,針對以上4種場景分別進行討論。

        2.2.1局部遮擋情況下識別結(jié)果對比

        籠養(yǎng)雞舍環(huán)境中鐵絲或食槽遮擋易造成目標部分特征丟失,為驗證改進后模型在局部遮擋情況下檢測能力,將圖2a的2幅圖像輸入6個模型進行測試,檢測結(jié)果如圖10所示,圖中綠色、橙色、藍色和紫色橢圓分別表示雞只漏檢、雞只錯檢、雞蛋漏檢與雞蛋錯檢。表2為對應檢測結(jié)果,可以看出,YOLO v7-tiny-DO、YOLO v7-tiny和YOLO v5n能夠識別圖像中所有目標;Faster R-CNN雖然能夠識別被遮擋目標,但誤將紅色飲水器識別為雞只或雞蛋(圖10a),與其模型精確率低、召回率高相對應,發(fā)生錯檢次數(shù)較多;與Faster R-CNN不同,SSD和YOLO v4-tiny召回率低、精確率高,在遮擋較嚴重情況下,雞只或雞蛋特征缺失,易發(fā)生漏檢現(xiàn)象(圖10b、10c)。經(jīng)過對比分析,YOLO v7-tiny-DO、YOLO v7-tiny和YOLO v5n模型對于遮擋目標檢測結(jié)果較好,未發(fā)生漏檢或錯檢情況。

        表2 局部遮擋情況下檢測結(jié)果對比

        圖10 局部遮擋情況圖像檢測結(jié)果對比

        2.2.2運動模糊情況下識別結(jié)果對比

        實際巡檢過程中,雞只快速移動易導致圖像中雞只頭部發(fā)生模糊現(xiàn)象,圖11為6個模型檢測圖2b中模糊雞頭情況的結(jié)果,對應試驗結(jié)果如表3所示。由表3可以看出,YOLO v7-tiny-DO能夠識別圖像中所有模糊雞頭,Faster R-CNN漏檢1只雞(圖11a),SSD漏檢2只雞(圖11b),YOLO v4-tiny漏檢2只雞(圖11c),YOLO v5n漏檢1只雞(圖11d),YOLO v7-tiny漏檢2只雞(圖11e)。當圖像中雞頭發(fā)生運動模糊時,目標特征較為發(fā)散,不易識別。經(jīng)過對比,在運動模糊情況下本研究提出的YOLO v7-tiny-DO檢測性能優(yōu)于其他模型。

        表3 運動模糊情況下檢測結(jié)果對比

        圖11 運動模糊情況圖像檢測結(jié)果對比

        2.2.3雞蛋粘連情況下識別結(jié)果對比

        籠養(yǎng)模式下蛋雞飼養(yǎng)密度較大,蛋網(wǎng)上雞蛋粘連現(xiàn)象較為嚴重,圖12為6個模型在圖2c中粘連雞蛋情況下的識別結(jié)果,對應試驗結(jié)果如表4所示。由表4可知,YOLO v7-tiny-DO準確識別圖像中所有粘連雞蛋,其他模型均存在不同程度的雞蛋漏檢情況(圖12a~12e),其中SSD識別結(jié)果最差(圖12b),僅能檢測到多個粘連雞蛋中的一枚雞蛋。經(jīng)過對比,YOLO v7-tiny-DO在雞蛋粘連情況下的雞蛋計數(shù)性能最優(yōu)。

        表4 雞蛋粘連情況下檢測結(jié)果對比

        圖12 雞蛋粘連情況圖像檢測結(jié)果對比

        2.2.4光線昏暗情況下識別結(jié)果對比

        籠養(yǎng)雞舍內(nèi)昏暗的環(huán)境為蛋雞和雞蛋識別與計數(shù)工作帶來巨大挑戰(zhàn)。圖13為6個模型在圖2d光線昏暗環(huán)境下的檢測結(jié)果,對應試驗結(jié)果如表5所示。由表5可以看出,YOLO v7-tiny-DO漏檢了 1只雞(圖13f);Faster R-CNN錯檢3只雞和2個雞蛋(圖13a);SSD漏檢2只雞和12枚雞蛋(圖13b);YOLO v4-tiny漏檢2只雞和2個雞蛋,錯檢2只雞(圖13c);YOLO v5n漏檢2只雞和2枚雞蛋(圖13d);YOLO v7-tiny漏檢2只雞和2枚雞蛋(圖13e)。綜上,圖中雞只與雞蛋的形態(tài)特征較為模糊,所有模型均存在漏檢或錯檢情況,但相比其他模型,YOLO v7-tiny-DO漏檢與錯檢數(shù)目最少,說明本研究提出的模型性能更好。

        表5 光線昏暗環(huán)境下檢測結(jié)果對比

        圖13 光線昏暗環(huán)境圖像檢測結(jié)果對比

        2.3 計數(shù)試驗結(jié)果與分析

        將YOLO v7-tiny-DO部署到NVIDIA Jetson AGX Xavier邊緣計算平臺,經(jīng)深度學習引擎(DL accelerator與Vision accelerator)加速后,快速檢測視頻幀中目標,實現(xiàn)籠養(yǎng)模式下雞只與雞蛋自動化分籠計數(shù)。為驗證算法有效性,本研究在北京市華都峪口禽業(yè)有限公司第3場8舍選取30個雞籠開展計數(shù)試驗,巡檢機器人運動過程中,基于內(nèi)置取幀算法每天采集15 min視頻數(shù)據(jù)用于測試,持續(xù) 3 d,期間第21號雞籠有1只死雞被淘汰。圖14為測試現(xiàn)場及計數(shù)結(jié)果。

        圖14 測試現(xiàn)場與計數(shù)結(jié)果

        表6為不同測試批次雞只與雞蛋的自動化分籠計數(shù)結(jié)果。由表6可知,測試批次1中雞只和雞蛋分籠計數(shù)MAR分別為96.7%和97.2%,MAE分別為0.13只和0.07枚;測試批次2中雞/蛋分籠計數(shù)MAR分別為97.5%和94.5%,MAE分別為0.10只和0.13枚;測試批次3中雞只和雞蛋分籠計數(shù)MAR分別為96%和97.2%,MAE分別為0.17只和0.07枚。經(jīng)過分析可知,3次測試雞只與雞蛋分籠計數(shù)平均準確率均值分別為96.7%和96.3%,每籠平均絕對誤差均值分別為0.13只和0.09枚,說明通過本文算法獲取籠內(nèi)雞只與雞蛋個數(shù)是可行的。

        表6 雞/蛋自動化分籠計數(shù)結(jié)果

        圖15為不同測試批次雞只與雞蛋自動化分籠計數(shù)結(jié)果統(tǒng)計圖。從圖中可以看出,測試批次1中0、9、26、29號雞籠均漏檢1只雞,21、25號雞籠均漏檢1枚雞蛋;測試批次2中7、10、12號雞籠存在雞只計數(shù)錯誤,7、22、26、27號雞籠存在雞蛋計數(shù)錯誤,平均絕對誤差均為1枚;測試批次3中7、8、11、17、20號雞籠均漏檢1只雞,3、27號雞籠均漏檢1枚雞蛋。對于漏檢目標,可能是因為雞舍內(nèi)光線較為昏暗導致。

        圖15 雞/蛋自動化分籠計數(shù)可視化結(jié)果

        3 結(jié)論

        (1)選擇YOLO v7-tiny為基礎網(wǎng)絡,首先將模型激活函數(shù)替換為ELU,然后在ELAN內(nèi)構(gòu)建深度過參數(shù)化深度卷積層,最后在Head端引入坐標注意力機制。試驗結(jié)果表明,YOLO v7-tiny-DO識別雞只與雞蛋的AP分別為96.9%與99.3%,幀率為106.4 f/s,模型內(nèi)存占用量為5.6 MB,與原模型相比,識別雞只與雞蛋的AP分別提高了3.2、1.4個百分點,模型內(nèi)存占用量減少了6.1 MB,適用于部署到算力匱乏的巡檢機器人上。

        (2)與主流目標檢測網(wǎng)絡Faster R-CNN、SSD、YOLO v4-tiny和YOLO v5n相比,YOLO v7-tiny-DO的F1值更優(yōu),分別高21.0、4.0、8.0、1.5個百分點,雞蛋的F1值分別高31.4、25.4、6.4、4.4個百分點。對比以上模型在復雜場景下的檢測性能,結(jié)果表明,YOLO v7-tiny-DO在局部遮擋、動態(tài)模糊和雞蛋粘連情況下均能實現(xiàn)高精度識別與定位,在光線昏暗情況下識別結(jié)果優(yōu)于其他模型。

        (3)將YOLO v7-tiny-DO模型部署到搭載NVIDIA Jetson AGX Xavier的巡檢機器人上,開展為期3 d的計數(shù)測試。結(jié)果表明,3個測試批次雞只與雞蛋的分籠計數(shù)平均準確率均值分別為96.7%和96.3%,每籠平均絕對誤差均值分別為0.13只雞和0.09枚雞蛋。

        猜你喜歡
        檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測中的應用
        综合亚洲二区三区四区在线| 91av在线播放| 久久久久国产精品片区无码| 一区二区三区日韩毛片| 亚洲国产精品久久精品| 少妇高清精品毛片在线视频| 波霸影院一区二区| 国产成人美涵人妖视频在线观看| 国产成人无码一区二区三区| 一本一道久久a久久精品综合| 久久水蜜桃亚洲av无码精品麻豆 | 亚洲精品综合久久中文字幕| 妺妺窝人体色www在线| 欧美日韩国产成人高清视频| 性做久久久久久久| 伊人影院成人在线观看| 波多野结衣在线播放| 亚洲va中文字幕无码久久不卡| 综合久久久久6亚洲综合| 久久伊人精品中文字幕有| 国产精品9999久久久久仙踪林| 国语对白做受xxxxx在线中国| 资源在线观看视频一区二区| 久久人妻一区二区三区免费| 狠狠色婷婷久久综合频道日韩| 久久青草伊人精品| 97自拍视频国产在线观看| 日本饥渴人妻欲求不满| 国外亚洲成av人片在线观看| 在线观看一区二区女同| av毛片亚洲高清一区二区| 无码人妻精品一区二区三区9厂| 无码夜色一区二区三区| 日本一级淫片免费啪啪| 国产亚洲自拍日本亚洲| 男女一边摸一边做爽爽的免费阅读| 精品人妻少妇一区二区中文字幕| 日本二区三区在线免费| 蜜臀av无码人妻精品| 香蕉视频一级| 久久久国产精品首页免费|