亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度圖像的蛋雞行為識別方法

        2017-02-08 01:15:07勞鳳丹杜曉冬滕光輝
        農(nóng)業(yè)機械學報 2017年1期
        關鍵詞:雞頭自動識別數(shù)字圖像

        勞鳳丹 杜曉冬 滕光輝

        (1.中國農(nóng)業(yè)大學網(wǎng)絡中心, 北京 100083; 2.中國農(nóng)業(yè)大學水利與土木工程學院, 北京 100083)

        基于深度圖像的蛋雞行為識別方法

        勞鳳丹1杜曉冬2滕光輝2

        (1.中國農(nóng)業(yè)大學網(wǎng)絡中心, 北京 100083; 2.中國農(nóng)業(yè)大學水利與土木工程學院, 北京 100083)

        基于深度圖像分析技術研究了一種針對蛋雞群體行為(分布指數(shù)、水平活躍度和垂直活躍度)和群體中個體行為(采食、躺、站和坐)經(jīng)濟簡單的自動識別方法。系統(tǒng)由1臺3D照相機同步采集數(shù)字和深度圖像數(shù)據(jù),并開發(fā)軟件進行蛋雞行為的自動識別,系統(tǒng)5 s采集1次圖像數(shù)據(jù),共進行10 d的數(shù)據(jù)采集。描述了行為識別算法并進行了行為識別結果分析。算法對蛋雞的采食、躺、站和坐的識別準確率分別為90.3%、91.5%、87.5%和56.2%。坐行為識別率較低的原因主要是有時蛋雞站著探索地面會被誤判為坐,這可能與兩者之間的分割閾值不夠精確有關。

        深度圖像; 蛋雞; 行為; 自動識別

        引言

        動物行為包含的重要信息是直觀的動物福利評價指標,可使生產(chǎn)者更好地對畜禽生產(chǎn)進行管理[1]。蛋雞或肉雞群體飼養(yǎng)、個體外表相同(使得追蹤個體非常困難)、飼養(yǎng)密度高(個體經(jīng)常粘連聚集在一起)、非剛性軀體(體態(tài)變化大)的現(xiàn)實情況使得研究蛋雞或肉雞的行為較大體型動物困難[2]。盡管如此,近年一些學者也在嘗試通過圖像處理技術自動識別蛋雞或肉雞的個體或群體行為[3-10]。

        目前利用圖像分析技術研究雞的行為主要集中于3個方向:

        (1)在特定場景下研究單只雞的行為。因為研究對象僅有一只雞,不存在多只雞的相互粘連和遮擋情況,因而算法簡單但應用范圍有限。

        (2)不考慮蛋雞個體行為,僅針對群體行為的研究。通過識別雞群的分布、活躍度(活動水平)來判斷飼養(yǎng)過程是否正常及監(jiān)控雞群的福利狀態(tài)。此研究在大雞舍的飼養(yǎng)管理中應用較多。

        (3)圖像技術結合RFID個體識別,實現(xiàn)小群體中蛋雞個體行為的識別。此種方式可得到好的識別效果,但每只雞均需佩帶RFID電子標識,這會在一定程度上影響蛋雞的正常行為表達,且也是較為昂貴的一種解決方案。

        以上研究存在2個問題:

        (1)鮮有機器視覺能直接實現(xiàn)對雞的群體行為和個體行為的同步識別。目前機器視覺自動識別雞行為的研究集中于:針對單只雞的個體行為的識別或針對整群雞的群體行為(分布、活躍度)的識別。既能識別雞的群體行為,又能識別群體中的個體行為(站、躺、采食、飲水等)的研究需通過機器視覺加RFID的手段方可實現(xiàn)。

        (2)數(shù)字圖像分析技術具有局限性。目前,自動識別雞行為的文獻主要基于數(shù)字圖像分析技術,其局限性為:①僅可分析雞的水平(2維)分布屬性。無法實現(xiàn)對雞的交配行為、雞的垂直方向的活躍度等與3維分布相關的行為識別。②圖像分割和特征提取受現(xiàn)場條件限制。數(shù)字圖像處理過程中基礎和重要的步驟是圖像分割和特征提取,但要取得好的分割效果,數(shù)字圖像需要滿足特定條件:畜禽與其所處背景對比明顯、背景不變或現(xiàn)場光照均勻[11]。而在實際的農(nóng)場飼養(yǎng)條件下,光線昏暗、光照不均或地板動態(tài)變化均會影響到分割算法的魯棒性,從而影響最終行為識別的準確率。③圖像質(zhì)量受光照條件影響。數(shù)字圖像一般適合在開燈階段進行監(jiān)控,關燈則無法看到圖像(即使目前的紅外圖像改善了夜間的成像質(zhì)量,但僅限于2維平面)。

        相較數(shù)字圖像分析技術,深度圖像識別畜禽行為是近3年新興的一種研究方法。深度圖像可提供空間數(shù)據(jù)信息。深度圖像上每個像素的值表示的是其與深度傳感器的直線距離,可用于同時分析畜禽在水平與垂直方向上的分布情況,且不受光照條件的限制,可不間斷監(jiān)測動物行為。目前深度圖像分析技術在畜禽養(yǎng)殖中已有少量應用案例:應用于豬攻擊行為的自動檢測[12]、豬體重預估[13]以及對母豬行為自動識別算法的研究[14]。

        本文利用深度圖像克服數(shù)字圖像對光照敏感的缺點,并擴展至3維空間,提供更多的畜禽行為屬性信息,基于深度圖像設計算法,實現(xiàn)對群養(yǎng)蛋雞及其個體的水平活躍度、垂直活躍度、分布指數(shù)、采食、站、躺和坐的識別。

        1 材料和方法

        1.1 實驗與數(shù)據(jù)收集

        利用美國微軟公司生產(chǎn)的Kinect for Windows V1型相機進行圖像數(shù)據(jù)的采集。Kinect相機固定于距離地面一定高度的位置,從頂部往下垂直拍攝,使用開發(fā)的采集程序獲取JPEG格式的數(shù)字圖像和文本格式的深度圖像。深度圖像用于機器識別,數(shù)字圖像用于人工識別,并將2個識別結果相互比較。數(shù)據(jù)采集方式為5 s時間周期內(nèi)同時采集1幅深度圖像和1幅數(shù)字圖像,兩種類型圖像的分辨率均設為640像素×480像素。Kinect相機通過USB端口連接一臺迷你工控計算機,工控機上使用存儲容量為2 TB、接口類型為USB 3.0的移動硬盤(WD My Passport Ultra)保存圖像數(shù)據(jù),用于后續(xù)行為分析。

        蛋雞行為自動識別研究于2016年5月在中國農(nóng)業(yè)大學上莊試驗站的動物飼養(yǎng)模擬室進行。研究對象為5只體重和體型正常的健康海蘭褐蛋雞(14周齡左右),蛋雞從北京德清源農(nóng)業(yè)科技股份有限公司引進,采用公司的自配飼料進行飼養(yǎng),飼養(yǎng)溫度為23~27℃,使用機械通風方式,光照時間段為08:00—19:00。Kinect相機距離地面的高度為188 cm。試驗現(xiàn)場是棲架內(nèi)平地隔出的1.5 m×1.35 m的小區(qū)域。小區(qū)域一面靠墻,三面為棲架的網(wǎng)狀圍欄,靠外一面內(nèi)側(cè)配有乳頭飲水器,外側(cè)配有料槽,蛋雞可自由采食和飲水(圖1)。

        圖1 蛋雞飼養(yǎng)設施Fig.1 Facilities of laying hens1.水線 2.料槽 3.靠墻

        1.2 圖像處理方法

        圖像處理識別蛋雞行為的算法是基于深度圖像進行的,使用Matlab R2013b軟件開發(fā)程序。為便于統(tǒng)計分析,每幅圖像的處理結果自動存儲到Mysql數(shù)據(jù)庫中。

        蛋雞行為識別算法由蛋雞身體像素點到地面的高度、以及蛋雞體態(tài)的重要參數(shù)進行建模。本研究中蛋雞行為識別算法流程如圖2所示,主要包括5個子功能模塊。

        圖2 蛋雞行為識別方法流程圖 Fig.2 Flow diagram of laying hen behaviors recognition

        1.2.1 深度圖像預處理獲取蛋雞連通區(qū)域

        深度圖像預處理獲取蛋雞連通區(qū)域包含4個步驟,處理前后的結果如圖3所示。

        圖3 深度圖像預處理Fig.3 Preprocessing of depth image

        (1)將采集的裸深度圖像(圖3a)數(shù)據(jù)進行轉(zhuǎn)換

        h=hkinect-draw/80

        (1)

        式中draw——Kinect傳感器采集到的16位裸深度幀數(shù)據(jù),mm

        hkinect——Kinect相機到地面高度,cm

        h——像素點到地板的高度,cm

        轉(zhuǎn)換后深度圖像中每一個像素的值代表此像素點到地板的高度。

        (2)去除垂直方向上的噪聲。蛋雞躺臥時其高度范圍在12~20 cm之間、站立或行走時其高度在27~35 cm之間,即使蛋雞站立時抬頭探索或扇動翅膀,其高度也很難超過50 cm。鑒于此,深度圖像中高度過低(小于10 cm)或過高(大于65 cm)的點應該不是蛋雞像素點,將其設置為0即可直接去除大部分地板、圍欄和墻壁,從而實現(xiàn)減少垂直噪聲干擾的目的。

        (3)去除水平方向上的噪聲,僅保留蛋雞連通區(qū)域和水線(因水線緊挨料槽,為便于人工校驗采食行為而保留)。使用兩種方法進行水平去噪。第1種是直接去除法,編寫程序前在Matlab中通過使用figure函數(shù)顯示深度圖像,并利用data cursor工具直接獲取墻和圍欄等與蛋雞不相干的矩形區(qū)域的水平坐標范圍,在程序中將矩形區(qū)域水平坐標范圍內(nèi)的所有像素點全部設置為0,即可完全去除此類區(qū)域。第2種是精細去除法,利用圖像相乘技術實現(xiàn)不規(guī)則形狀區(qū)域或經(jīng)常有蛋雞粘連區(qū)域的精確去除,以避免使用直接去除法可能會誤刪有用蛋雞區(qū)域的問題。

        精細去除法的計算公式為

        M=D(y1∶y2,x1∶x2)>v1&D(y1∶y2,x1∶x2)

        (2)

        R=1-M

        (3)

        Dnew=immultiply(D(y1∶y2,x1∶x2),R)

        (4)

        式中,D(y1∶y2,x1∶x2)為深度圖像中所要處理區(qū)域的高度矩陣,其水平坐標范圍是y1至y2行,x1至x2列。M為D(y1∶y2,x1∶x2)內(nèi)像素點的去除標識矩陣,D(y1∶y2,x1∶x2)中高度介于v1和v2的點是需要去除的像素點,M值為1,反之為0。y1、y2、x1、x2、v1、v2均為常數(shù),可在程序處理前期應用Matlab的data cursor工具直接獲取。R為M的相反矩陣。Dnew為用精細去除法對D(y1∶y2,x1∶x2)去噪后的結果集。將D(y1∶y2,x1∶x2)與R相乘,如果D(y1∶y2,x1∶x2)的像素點為非去除點,其在R中對應點的值為1,相乘后Dnew的值為D(y1∶y2,x1∶x2)的原值不變;如果像素點為去除點,其在R中對應點的值為0,相乘后Dnew的值也為0,從而實現(xiàn)去除D(y1∶y2,x1∶x2)中M所標識的像素點集合的目的。

        (4)將深度圖像轉(zhuǎn)換為二值圖像,在二值圖像中進行開運算、孔洞填充、濾波的形態(tài)學操作。求取形態(tài)學操作后二值圖像中為0的點,并將深度圖像中對應位置像素點的深度也設置為0,得到預處理后的深度圖像(圖3b)。

        1.2.2 蛋雞采食行為識別方法

        蛋雞采食行為識別方法如圖4所示。

        圖4 蛋雞采食行為識別過程Fig.4 Image processing for recognition of laying hen feeding behaviors

        (1)獲取采食區(qū)域內(nèi)的雞頭信息。將深度圖像預處理后的結果賦予變量A(圖4a),并設置A中食槽區(qū)域外的像素點為0,得到僅保留采食區(qū)域雞頭信息的深度圖像B(圖4b)。因食槽位置固定且可視為矩形區(qū)域,對食槽區(qū)域的定位方法與1.2.1節(jié)中對墻或圍欄的定位方法相似,即通過figure函數(shù)及data cursor工具結合即可直接獲取食槽區(qū)域的水平坐標范圍。

        (2)設置B中值大于hstanding-0.2 cm的像素點為0。此步驟可將雖在食槽上方,但并未低頭啄食的雞頭(圖4c左起第2只雞的雞頭給出此種情形的1個例子)以及水線干擾去掉。圖4d為圖4b經(jīng)過此步驟處理后的結果。hstanding、hlying、hsitting是本研究所設定的3個參數(shù),分別表示蛋雞站立、躺臥和坐的平均高度。參數(shù)取值與雞的品種有關,雛雞階段可能還跟周齡相關,可通過實驗獲取,本研究中取值分別為29 cm、21 cm和24.5 cm。

        (3)將圖4d進一步進行圖像形態(tài)學處理,以去除小面積并去噪,得到圖4e。此時獲得的雞頭連通區(qū)域經(jīng)常有多只雞頭粘連的情況,如使用數(shù)字圖像進行粘連分割,易錯且不容易操作。鑒于雞頭粘連的區(qū)域經(jīng)常比雞頭主體區(qū)域低(圖4e),因此本文提出了步驟(4)的分割方法。

        (4)求取屬于雞頭的所有像素點的平均高度havg。將高度小于havg-0.5的雞頭區(qū)域像素點賦值為0,即可將雞頭粘連區(qū)域進行分割,得到完全分離或大部分分離的雞頭連通區(qū)域C(圖4f)。

        (5)將雞頭連通區(qū)域C轉(zhuǎn)換為二值圖像D(圖4g)。

        (6)將D進行形態(tài)學平滑處理(形態(tài)因子為disk類型,大小為4),以進一步進行分離操作,并去除面積很小(小于25像素)的雞頭連通區(qū)域塊,計算剩下的連通區(qū)域數(shù)量即為正在采食的雞的數(shù)量(圖4h)。

        1.2.3 蛋雞分布指數(shù)計算方法

        因監(jiān)控區(qū)域較小,本文按照田字格將其等分為4個子區(qū)域(分別表示左上、右上、左下和右下子區(qū)域),每幅圖像中4個子區(qū)域的蛋雞分布指數(shù)計算式為

        (5)

        式中Di——第i個子區(qū)域的蛋雞分布指數(shù)Si、Sj——第i和第j個子區(qū)域中蛋雞像素數(shù)

        1.2.4 蛋雞活躍度計算方法

        將屬于當前圖像的蛋雞區(qū)域但不屬于上一幅圖像的蛋雞區(qū)域的像素點集合設為C。蛋雞水平活躍度DAct_h和垂直活躍度DAct_v定義為

        DAct_h=A∩(1-B)/A

        (6)

        (7)式中A、B——當前和上一幅深度圖像進行1.2.1節(jié)所述的預處理,并轉(zhuǎn)換為二值圖像后求出的蛋雞連通區(qū)域點集

        hAi、hBi——當前和上一幅深度圖像中像素點i到地面的高度

        1.2.5 蛋雞站、躺和坐的識別

        站、躺和坐的蛋雞數(shù)量識別關鍵點描述如下(圖5):

        (1)分別依次求出深度圖像(圖5a)中雞只有可能是站、躺、坐的連通區(qū)域分量。因為雞的高度一般呈現(xiàn)出軀體中間高,而輪廓邊緣低的特點,為將處于某種行為的雞只較為完整提取出來,避免干擾到其它行為雞只的提取,本文的提取方法為:①按照式(8)提取出可能是站的蛋雞點集合(圖5b),此公式可能將一些坐的雞只也提取出來(圖5b左邊的雞)。②按照式(9)提取出可能是躺的蛋雞點集合(圖5c)。③剩余的則為坐的蛋雞點集合(圖5d)。

        h>hstanding-3

        (8)

        h≤hlying

        (9)

        (2)將站、躺、坐的深度連通區(qū)域分量分別轉(zhuǎn)換為二進制圖像,并進行形態(tài)學濾波處理(開操作、去除小面積、去噪),隨后將處理后的3個分量相加,獲得處理后新的二值蛋雞圖像Bnew(圖5e)。

        (3)求取Bnew中值為0的像素點,并將深度圖像中對應的像素點的高度值也設置為0,從而去除噪聲干擾,得到關鍵的可說明蛋雞行為的連通區(qū)域塊(即對應Bnew的深度圖像)。

        (4)計算Bnew中蛋雞連通區(qū)域塊的面積和數(shù)量,并按面積排序。如果蛋雞連通區(qū)域塊小于實際蛋雞數(shù)量,則意味著有些面積大的連通區(qū)域發(fā)生了蛋雞粘連。通過形態(tài)學處理方法,判斷需要進行分割的連通區(qū)域以及應將其分割為幾個子連通區(qū)域。圖5e的例子說明僅需將最大面積的蛋雞連通區(qū)域(圖5f)再進行分割,應分割為3個子區(qū)域。分割方法與雞頭粘連分割方法類似:雞的軀干部分的高度會比雞和雞之間粘連區(qū)域的高度高,因此計算出需分割的粘連蛋雞連通區(qū)域的平均高度havg,將其中高度小于havg-0.1的像素點賦值為0,并融合了形態(tài)學腐蝕、空洞填充、移除小面積的處理方法,即可完成粘連分割(圖5g)。

        (5)合并獨立的蛋雞連通區(qū)域(圖5h),計算每一個獨立蛋雞連通區(qū)域(每一個連通區(qū)域默認為獨立的一只雞)的平均高度havg,如果havg>hstanding則表示此雞為站;如果havg

        2 結果和討論

        2.1 蛋雞行為識別結果

        隨機選取5月7日3個典型時間段:00:00—03:40、08:00—08:40、10:00—10:50約5 h的數(shù)字圖像和處理后的深度圖像(各3 200幅)進行圖像中每只雞的人工行為識別,并將人工識別結果與算法識別結果進行比較,算出識別準確率P(表1),計算公式為

        P=(1-PFPR-PFNR)×100%

        (10)

        (11)

        (12)

        式中P——蛋雞行為識別準確率PFPR——誤診率,即將其它行為識別為指定行為的概率

        PFNR——漏診率,即將指定行為識別為其它行為的概率

        SFP——將其它行為誤判為指定行為的數(shù)量

        SALL——指定行為的識別總數(shù)

        SFN——將指定行為誤判為其它行為的數(shù)量

        由表1可知,采食和躺臥的識別率較高,分別為90.3%和91.5%,坐的識別率最低,約為56.2%,站的識別率為87.5%。

        引起采食被誤判的原因有2個:一是夜間雞舍短時間內(nèi)有1只老鼠在采食區(qū)域偷食引起程序誤判為雞頭在采食;另一個原因是因為水線恰好將某些正在采食的雞頭嚴重遮擋導致程序識別不到這些雞的采食行為。如果通過調(diào)整料槽位置或攝像頭的位置,本文提出的采食行為識別方法的識別率應能有提高的空間。

        表1 基于圖像分析技術自動識別蛋雞的站、躺、坐、采食行為識別準確率
        Tab.1 Classification rate of laying hen’s standing, lying, sitting and feeding behaviors by image analysis algorithm

        行為人工識別/只算法識別正確/只錯誤/只準確率/%站4276387112987.5坐45437912456.2躺112571046015791.5采食9388611490.3

        引起躺臥行為被誤判的原因主要為:在夜間,雞群經(jīng)常是全部集聚在一起躺臥。有時候粘連區(qū)域與蛋雞軀干的高度差并不明顯,此時本文的粘連分割方法有可能分割失敗,導致判斷為躺臥的雞只的數(shù)量會比實際躺臥的雞只數(shù)量少;另一種情況是,雞聚集一起,但有的雞站著時將另一只躺臥的雞嚴重遮擋,造成被遮擋的蛋雞無法被正確識別。

        坐的識別難點在于:低頭在地下探索的蛋雞的深度圖像與坐著的蛋雞深度圖像很接近,有時會導致程序?qū)⒄菊`判為坐;夜間蛋雞聚集躺臥時在上層的雞因位置較高,有時會被誤判為坐;此外,因蛋雞個頭小,即使是對圖像中蛋雞的站或坐行為進行人工判斷也有困難。改進方法為多進行實驗數(shù)據(jù)的分析,以選取出更為精準的hstanding、hlying和hsitting參數(shù)。

        2.2 蛋雞行為分布

        將2016年5月1日—10日共10 d的圖像數(shù)據(jù)進行蛋雞行為分析。

        2.2.1 蛋雞分布

        程序?qū)Σ杉降拿糠鶊D像分別計算蛋雞在每個小區(qū)域的分布指數(shù),并按小時求取平均值,即可得到蛋雞隨時間的分布情況,如圖6所示。

        圖6 蛋雞分布 Fig.6 Examples of laying hens’ daily distribution

        圖6表明蛋雞分布最多的子區(qū)域是左上靠近水槽和料槽的采食區(qū)域,尤其在20:00關燈后直至00:00期間,蛋雞絕大部分聚集于此。在隨后的夜間關燈期間,蛋雞在左上區(qū)域的分布逐漸減少,同時在左下區(qū)域的分布逐漸增加,甚至有的時間段左下會反超左上,如第4天至第8天04:00前后。在白天開燈期間,蛋雞分布變化相較夜間頻繁,子區(qū)域分布指數(shù)按大小排序的結果為:左上、左下、右上、右下,可見蛋雞以采食和飲水區(qū)域作為活動的中心,距離中心點越遠,則蛋雞分布就越少。

        2.2.2 蛋雞活躍度

        按小時計算蛋雞水平與垂直活躍度均值,即可得到1 d中蛋雞活躍度的變化趨勢,如圖7所示。圖7表明水平活躍度與垂直活躍度的變化趨勢基本保持一致。在關燈期間,最大水平與最大垂直活躍度之間存在較大差距,主要原因是夜間雞在水平方向的位移較小,但會有雞只在垂直方向上有忽躺和忽站之間的行為轉(zhuǎn)變。此外,蛋雞在開燈期間有幾個活躍時間段:09:00、11:00—12:00、14:00—15:00、18:00—19:00。通過持續(xù)監(jiān)控活躍度,可及時發(fā)現(xiàn)蛋雞的活動是否正常,是否有炸群等情況發(fā)生。

        圖8為蛋雞垂直活躍度與水平活躍度差值的分布區(qū)間百分比按小時的統(tǒng)計情況。統(tǒng)計方法為:計算出每1 min的垂直活躍度與水平活躍度的差值的絕對值,并按差值所屬的分布區(qū)間和這1 min所在的小時進行計數(shù)統(tǒng)計,最后按每小時中5個分布區(qū)間的計數(shù)分別計算其百分比。共定義5個差值的分布區(qū)間:[0,5%)、[5%, 10%)、[10%, 15%)、[15%, 20%)、[20%, 100%]。

        圖7 蛋雞活躍度 Fig.7 Examples of laying hens’ daily activity

        圖8表明蛋雞在開燈期間的垂直活躍度與水平活躍度的差值較大,而在20:00至次日05:00時間段內(nèi)差值分布區(qū)間百分比基本保持穩(wěn)定。

        圖8 蛋雞垂直與水平活躍度差值的分布區(qū)間百分比 Fig.8 Distribution of difference between horizontal and vertical activity indexes

        2.2.3 蛋雞個體行為

        圖9為按小時計算蛋雞躺臥行為在躺、坐和站中的比例情況(10 d)。

        圖9 蛋雞躺行為分布Fig.9 Laying hens’ average lying behavior ratio per hour

        圖9數(shù)據(jù)顯示,蛋雞在20:00—05:00期間約90%處于躺臥狀態(tài)。07:00蛋雞開始活躍,躺臥行為由06:00的81.9%降至44.8%,08:00—09:00為采食和活動高峰期,此時蛋雞躺臥行為最少,僅約為10.4%。隨后逐漸有所增加,至13:00處于開燈期間躺臥行為的一個小高峰,下午時間蛋雞重新開始活躍,在17:00—18:00期間蛋雞處于進食和活動的高峰期,19:00關燈后蛋雞躺臥行為由18:00的17.0%迅速增長到19:00的78.6%。

        本文蛋雞個體行為識別方法可實現(xiàn)對每一幅圖像中每只蛋雞的行為識別,但還未實現(xiàn)連續(xù)時間段內(nèi)對特定蛋雞的行為追蹤。自動識別蛋雞個體行為的意義在于:可識別養(yǎng)殖過程中蛋雞個體行為的分布,例如:1 d內(nèi)蛋雞采食行為的時間、頻次、蛋雞躺臥、站立等個體行為的比例關系等,這些參數(shù)是生產(chǎn)過程中的重要監(jiān)控內(nèi)容。

        3 結論

        (1)基于深度圖像處理技術,進行了針對蛋雞群體行為(分布指數(shù)、活躍度)和部分個體行為(采食、躺、站和坐)的一種自動識別算法研究。采食、躺、站和坐的識別準確率分別為90.3%、91.5%、87.5%和56.2%。坐的識別率較低的原因主要是蛋雞在地上探索時有時會被誤判為坐,這與行為分割閾值的取值可能不夠精確有關,可通過后續(xù)實驗進一步驗證。

        (2)識別結果表明,蛋雞喜歡分布于容易采食和飲水的區(qū)域,而在遠離采食和飲水的區(qū)域分布最少。關燈期間蛋雞總體活躍度較低,水平活躍度與垂直活躍度的差值的分布區(qū)間基本保持穩(wěn)定,但是最大水平活躍度與最大垂直活躍度差距拉大;開燈期間蛋雞垂直活躍度與水平活躍度的差值較大。蛋雞在夜間躺臥行為在躺、站和坐行為中的百分比約為90%,而在2個喂食階段,其躺臥行為最少,在13:00躺臥行為達到了開燈期間的極大值。

        1 BROWN-BRANDL T M, ROHRER G A, EIGENBERG R A. Analysis of feeding behavior of group housed growing-finishing pigs [J]. Computers and Electronics in Agriculture, 2013, 96:246-252.

        2 MARIAN S D, RUSSELL C, STEPHEN J R. Optical flow, flock behaviour and chicken welfare [J]. Animal Behaviour, 2012, 84(1):219-223.

        3 LEROY T,VRANKEN E,VAN B A, et al. A computer vision method for on-line behavioral quantification of individually caged poultry[J]. Transactions of the ASABE, 2006, 49(3):795-802.

        4 AHMAD P, ANETTE W, CLAUDIA B A. Automatic monitoring of turkeys: a vision-based approach to detect and analyse the behaviour of turkeys in transport cages based on ellipse fitting [C]∥7th World Congress on Computers in Agriculture Conference Proceedings, 2009: 38-44.

        5 EFSA. Scientific opinion on the use of animal-based measures to assess welfare of broilers [J]. EFSA Journal, 2012, 10(7):2774.

        6 KIAN F, TRACEY A J, CHRISTL A D, et al. Forced to crowd or choosing to cluster? Spatial distribution indicates social attraction in broiler chickens [J]. Animal Behaviour, 2006, 72(6):1291-1300.

        7 MOHAMMADAMIN K, ARNO P, CLAUDIA B, et al. Development of an early warning system for a broiler house using computer vision [J]. Biosystems Engineering, 2013, 116(1):36-45.

        8 AYDIN A, CANGAR O, EREN OZCAN S, et al. Application of a fully automatic analysis tool to assess the activity of broiler chickens with different gait scores [J]. Computers and Electronics in Agriculture, 2010, 73(2):194-199.

        9 HELLE H K, CéCILE C. Automatic detection of deviations in activity levels in groups of broiler chickens—A pilot study [J]. Biosystems Engineering, 2011, 109(4):369-376.

        10 NAKARMI A D, TANG L, XIN H. Automated tracking and behavior quantification of laying hens using 3D computer vision and radio frequency identification technologies [J]. Transactions of the ASABE, 2014,57(5):1455-1472.

        11 SIMONA M C P, CLAUDIA A, UMBERTO A, et al. A computer vision-based system for the automatic detection of lying behaviour of dairy cows in free-stall barns [J]. Biosystems Engineering, 2013, 115(2):184-194.

        12 VIAZZI S, ISMAYILOVA G, OCZAK M, et al. Image feature extraction for classification of aggressive interactions among pigs [J]. Computers and Electronics in Agriculture, 2014, 104:57-62.

        13 李卓,杜曉東,毛濤濤,等. 基于深度圖像的豬體尺檢測系統(tǒng)[J/OL]. 農(nóng)業(yè)機械學報, 2016, 47(3):311-317. http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?file_no=20160344&flag=1. DOI:10.6041/j.issn.1000-1298.2016.03.044. LI Zhuo, DU Xiaodong, MAO Taotao, et al. Pig dimension detection system based on depth image [J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(3): 311-317. (in Chinese)

        14 LAO F, BROWN-BRANDL T, STINN J P, et al. Automatic recognition of lactating sow behaviors through depth image processing [J]. Computers and Electronics in Agriculture, 2016, 125:56-62.

        Automatic Recognition Method of Laying Hen Behaviors Based on Depth Image Processing

        LAO Fengdan1DU Xiaodong2TENG Guanghui2

        (1.NetworkCenter,ChinaAgriculturalUniversity,Beijing100083,China2.CollegeofWaterResourcesandCivilEngineering,ChinaAgriculturalUniversity,Beijing100083,China)

        Animal behaviors are reflective of its welfare state. They contain important information that can enable producers to better manage livestock. Yet it is more difficult in recognizing the behaviors of group laying hens than other big size animals. Large numbers of hens, homogeneous in appearance, high stocking density and variable body size all contribute to this situation. A computer vision-based system was developed which can automatically recognize group behaviors (distribution index, horizontal activity index and vertical activity index) and individual behaviors (feeding, lying, standing and sitting) of group hens. The system consisted of a 3D camera that simultaneously acquired digital and depth images and a software program that detected and identified the behaviors. The computational algorithm for the analysis of depth images was presented and its performance in recognizing the behaviors as compared with manual recognition was analyzed. The images were acquired at 5 s intervals in 10 d period. The algorithm had the following accuracy of individual behavioral classification: 90.3% in feeding, 91.5% in lying, 87.5% in standing and 56.2% in sitting. The lower classification accuracy for the sitting presumably stemmed to imprecise segmentation valve value between sitting and standing and sometimes mistook hen’s standing behavior (exploring in ground) for sitting which could be improved in later test. Hence the reported system provided an effective way to automatically process and classify hen’s group and individual behaviors. This tool was conducive to investigate behavioral responses and time budget of laying hens and facility design and management practice.

        depth image; laying hens; behaviors; automatic recognition

        10.6041/j.issn.1000-1298.2017.01.020

        2016-08-15

        2016-11-08

        “十二五”國家科技支撐計劃項目(2014BAD08B00-01)

        勞鳳丹(1975—),女,高級工程師,博士,主要從事計算機網(wǎng)絡、農(nóng)業(yè)信息化和畜禽行為自動識別研究,E-mail: laofd@cau.edu.cn

        滕光輝(1963—),男,教授,博士生導師,主要從事設施農(nóng)業(yè)工程及農(nóng)業(yè)信息化研究,E-mail: futong@cau.edu.cn

        TP391; S831.4+9

        A

        1000-1298(2017)01-0155-08

        猜你喜歡
        雞頭自動識別數(shù)字圖像
        雞頭穩(wěn)定器
        雞頭穩(wěn)定器
        ARGUS-100 藝術品鑒證數(shù)字圖像比對系統(tǒng)
        自動識別系統(tǒng)
        特別健康(2018年3期)2018-07-04 00:40:18
        唐宋時期安化峽、安化縣及安化鎮(zhèn)位置考辨——兼談秦漢時期的雞頭道
        西夏研究(2017年4期)2017-08-17 08:53:12
        金屬垃圾自動識別回收箱
        基于IEC61850的配網(wǎng)終端自動識別技術
        電測與儀表(2016年6期)2016-04-11 12:06:38
        基于塊效應測度的JPEG數(shù)字圖像盲取證
        蘭姆凹陷穩(wěn)頻工作點自動識別技術
        計測技術(2014年6期)2014-03-11 16:22:12
        數(shù)字圖像修復在圖像壓縮上的應用
        機械與電子(2014年1期)2014-02-28 02:07:31
        午夜亚洲精品视频网站| 中文字幕美人妻亅u乚一596| 男人j进女人p免费视频| 精品亚亚洲成av人片在线观看| 国语淫秽一区二区三区四区| 三级全黄的视频在线观看| 粗大的内捧猛烈进出在线视频| 成人国产精品高清在线观看| 国产人妖在线视频网站| 人妻少妇久久久久久97人妻| 欧美xxxx黑人又粗又长精品| 99免费视频精品| 国语对白精品在线观看| av无码av天天av天天爽| 亚洲综合欧美日本另类激情| 美女扒开内裤露黑毛无遮挡 | 91久久精品国产综合另类专区| 亚洲精品一区二区在线免费观看| 朝鲜女人大白屁股ass孕交| 成在人线av无码免费| 亚洲av美女在线播放啊| 骚货人妻视频中文字幕| 18禁免费无码无遮挡不卡网站 | 亚州少妇无套内射激情视频| 欧美手机在线视频| 国产91精品在线观看| 国产精品视频免费播放| 激情五月婷婷综合| 中文字幕被公侵犯的丰满人妻| 性欧美丰满熟妇xxxx性久久久| 日本又黄又爽gif动态图| 亚洲精品国产二区三区在线| 日本高级黄色一区二区三区| 真实国产老熟女无套中出| 欧美精品久久久久久久久| 久久精品日韩免费视频| 亚洲成av人片天堂网无码| 麻豆乱码国产一区二区三区| 亚洲综合原千岁中文字幕| 免费国产自拍在线观看| 国产亚洲精品久久久久久|