亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視頻分析的規(guī)?;膛V悄鼙O(jiān)測技術(shù)研究進(jìn)展

        2024-01-01 00:00:00宋懷波王云飛鄧洪興許興時(shí)溫毓晨張姝瑾
        關(guān)鍵詞:機(jī)器視覺深度學(xué)習(xí)

        摘要: 奶牛智能監(jiān)測是規(guī)?;膛pB(yǎng)殖的重要環(huán)節(jié),視頻分析技術(shù)具備無接觸、低成本及智能分析優(yōu)勢(shì),已成為當(dāng)前規(guī)?;膛V悄鼙O(jiān)測技術(shù)研究的熱點(diǎn)。奶牛目標(biāo)檢測、目標(biāo)跟蹤以及個(gè)體和行為識(shí)別技術(shù)對(duì)規(guī)模化奶牛監(jiān)管具有重要意義,復(fù)雜養(yǎng)殖環(huán)境中的光照、晝夜交替變化、圍欄遮擋以及牛群數(shù)量繁多導(dǎo)致的相互遮擋是影響規(guī)?;膛V悄鼙O(jiān)測的重要因素。本文對(duì)基于視頻分析的奶牛智能監(jiān)測技術(shù)研究中常用的深度模型及應(yīng)用情況進(jìn)行綜述,提出了當(dāng)前研究中面臨的問題與挑戰(zhàn)。分析發(fā)現(xiàn),注意力機(jī)制、混合卷積等技術(shù)是提高模型識(shí)別準(zhǔn)確率的有效方法,輕量化模塊有利于減少模型的復(fù)雜度與計(jì)算量;計(jì)算復(fù)雜度、普適性、準(zhǔn)確性等是影響該技術(shù)推廣應(yīng)用的因素;具體應(yīng)用時(shí),需要針對(duì)奶牛養(yǎng)殖環(huán)境、奶牛狀況等進(jìn)行具體分析以不斷滿足規(guī)?;B(yǎng)殖的需求。

        關(guān)鍵詞: 奶牛;智能監(jiān)測技術(shù);目標(biāo)檢測;深度學(xué)習(xí);機(jī)器視覺;畜牧養(yǎng)殖

        中圖分類號(hào): S823;TP27 文獻(xiàn)標(biāo)志碼: A 文章編號(hào): 1001-411X(2024)05-0649-12

        規(guī)模化奶牛養(yǎng)殖是利用現(xiàn)代化技術(shù)大批量奶牛聚集養(yǎng)殖的方式,采用現(xiàn)代化手段輔助養(yǎng)殖人員管理牛場以提高養(yǎng)殖效率與效益,是未來奶牛養(yǎng)殖業(yè)發(fā)展的重要方向[1-2]。規(guī)模化養(yǎng)殖憑借其規(guī)模優(yōu)勢(shì)可以有效降低飼料浪費(fèi)、減少環(huán)境污染等,目前牛場的監(jiān)管方式大多是由人工監(jiān)管,信息化、數(shù)字化程度較低,隨著奶牛養(yǎng)殖規(guī)模的不斷擴(kuò)展,對(duì)監(jiān)管人員的工作要求也不斷增加。研發(fā)基于視頻分析的奶牛智能監(jiān)測技術(shù),可以有效提高奶牛養(yǎng)殖信息化、數(shù)字化、智能化水平,進(jìn)而促進(jìn)當(dāng)前奶牛養(yǎng)殖業(yè)轉(zhuǎn)型升級(jí)和提質(zhì)增效,對(duì)規(guī)模化奶牛養(yǎng)殖有重要價(jià)值[3-4]。本文分析了2014—2024 年奶牛目標(biāo)檢測、目標(biāo)跟蹤、個(gè)體識(shí)別和行為識(shí)別4 個(gè)研究方向的文獻(xiàn),以此為基礎(chǔ)總結(jié)了當(dāng)下研究的優(yōu)勢(shì)與不足,最后對(duì)未來技術(shù)的發(fā)展進(jìn)行了展望,以期為規(guī)模化奶牛智能監(jiān)測技術(shù)提供思路與借鑒。

        1 奶牛智能監(jiān)測技術(shù)

        如圖1 所示,基于視頻分析的奶牛智能監(jiān)測是規(guī)?;膛pB(yǎng)殖中的重要環(huán)節(jié)[5-8]。奶牛目標(biāo)檢測可用于牛只計(jì)數(shù),輔助了解牛場運(yùn)營狀況。奶牛目標(biāo)跟蹤可以了解牛只行動(dòng)軌跡,判斷其運(yùn)動(dòng)情況與健康信息[9-10]。奶牛個(gè)體識(shí)別可以獲取奶牛身份信息,進(jìn)行奶牛精細(xì)化管理。奶牛行為識(shí)別可以有效發(fā)現(xiàn)奶牛早期疾病并及時(shí)醫(yī)治[11-12];奶牛進(jìn)食、飲水、反芻等行為可以反映奶牛的健康狀況[13-14]。

        奶牛目標(biāo)檢測是指在場景中檢測奶牛目標(biāo)的技術(shù),它可以幫助進(jìn)行牛群計(jì)數(shù)、牛群動(dòng)向分析等。依靠人工肉眼觀察大規(guī)模牛群的準(zhǔn)確率較低,智能項(xiàng)圈或耳標(biāo)可以進(jìn)行奶牛的目標(biāo)檢測,但應(yīng)用成本較高[15]。早期部分研究者使用分割算法,通過將奶牛目標(biāo)從牛場背景中分割實(shí)現(xiàn)奶牛的識(shí)別,但這些方法受到光照、參數(shù)設(shè)定的影響較大,對(duì)于不同的應(yīng)用場景效果尚需提高[16-17]。使用深度學(xué)習(xí)模型可以有效地解決目標(biāo)檢測的普適性問題[18-19]。在奶牛目標(biāo)檢測方法研究中,遮擋奶牛目標(biāo)、晝夜奶牛目標(biāo)檢測等都是重要的研究方向;同時(shí),針對(duì)深度學(xué)習(xí)模型需要較大計(jì)算資源的問題,為應(yīng)對(duì)實(shí)際使用過程中牛場計(jì)算資源有限的問題,奶牛目標(biāo)檢測模型剪枝、輕量化也是重要的研究方向。

        奶牛目標(biāo)跟蹤是指跟蹤特定奶牛目標(biāo),它可以應(yīng)用于發(fā)情奶牛、患病奶牛的跟蹤以觀察其健康狀況,也可以用于觀察奶牛特定身體部位以匯聚奶牛行為規(guī)律。早期研究使用光流算法或相關(guān)濾波、粒子濾波算法等對(duì)視頻進(jìn)行處理,在每一幀中分割出奶牛目標(biāo),最后合成出奶牛運(yùn)動(dòng)視頻,實(shí)現(xiàn)跟蹤。傳統(tǒng)奶牛目標(biāo)跟蹤方法存在普適性問題,大多數(shù)適用于單一目標(biāo),對(duì)奶牛多目標(biāo)跟蹤是其重大難題[14]。針對(duì)該問題,深度學(xué)習(xí)模型被用于訓(xùn)練以有效提取目標(biāo)特征,避免了人工設(shè)計(jì)特征提取方式的局限[20-21];此外,卡爾曼濾波、相關(guān)濾波、度量學(xué)習(xí)等技術(shù)的融合增強(qiáng)了跟蹤的準(zhǔn)確性。在奶牛目標(biāo)跟蹤中,跟蹤的實(shí)時(shí)性、準(zhǔn)確性都是研究需要重點(diǎn)關(guān)注的指標(biāo),關(guān)系著跟蹤算法的實(shí)用性。

        奶牛個(gè)體識(shí)別是識(shí)別與跟蹤目標(biāo)身份的辨識(shí)技術(shù),它可以有效幫助牛場管理人員獲取目標(biāo)奶牛信息。傳統(tǒng)方式依靠給奶牛佩戴耳標(biāo)或一些特殊顏色項(xiàng)圈進(jìn)行身份識(shí)別,這種方式工作量大經(jīng)濟(jì)成本高,容易引起奶牛的應(yīng)激反應(yīng),耳標(biāo)、項(xiàng)圈的丟失或損壞也會(huì)導(dǎo)致身份信息的丟失。劉淵等[15] 使用圖像對(duì)比的人工特征提取方式判別2 幅奶牛圖像以獲取其身份信息,該方式效率較低。何東健等[ 2 2 ]基于深度學(xué)習(xí)目標(biāo)檢測算法用于奶牛個(gè)體身份識(shí)別,但僅能識(shí)別經(jīng)過模型訓(xùn)練的奶牛圖像,即僅適用于閉集,對(duì)于新加入的奶牛無法實(shí)現(xiàn)個(gè)體識(shí)別。針對(duì)該問題,度量學(xué)習(xí)、重識(shí)別技術(shù)等在奶牛個(gè)體識(shí)別研究中獲得了重視,拓展了奶牛個(gè)體識(shí)別技術(shù)的實(shí)用性[23]。目前奶牛個(gè)體識(shí)別技術(shù)受限于奶牛圖像的拍攝視角等,需要重點(diǎn)提高準(zhǔn)確率以滿足實(shí)際生產(chǎn)使用。

        奶牛行為識(shí)別是指監(jiān)測分析奶牛行為的技術(shù),它可以幫助發(fā)現(xiàn)奶牛的早期疾?。ㄈ珲诵校?、奶牛發(fā)情產(chǎn)犢等。奶牛的部分行為是隱晦且難以觀察到的,依靠人工僅能對(duì)規(guī)律性行為進(jìn)行監(jiān)測。早期研究者通過給奶牛佩戴智能頸圈、耳標(biāo)、腳環(huán)等測定奶牛運(yùn)動(dòng)量及生物量來記錄奶牛行為,但這種方式誤差較大且成本高。也有研究通過傳統(tǒng)跟蹤算法觀測奶牛行為,但普適性較差?;谝曨l的行為識(shí)別,難點(diǎn)在于其需要對(duì)一個(gè)時(shí)間序列進(jìn)行分析才能得出正確行為。針對(duì)上述問題,有研究者利用長短期記憶網(wǎng)絡(luò)(Long short-term memory, LSTM) 的記憶性以及循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent neural network,RNN) 的循環(huán)性來提高模型準(zhǔn)確率[24-25]。Wang 等[26]采用3D 卷積進(jìn)行奶牛的行為識(shí)別并取得了不俗的效果。目前的研究大多是基于完整行為視頻序列的全天候奶牛視頻,模型對(duì)多行為不斷變化的適應(yīng)性較弱。

        1.1 奶牛目標(biāo)檢測

        奶牛目標(biāo)檢測技術(shù)大致可以分為傳統(tǒng)奶牛目標(biāo)檢測方法和基于深度學(xué)習(xí)的奶牛目標(biāo)檢測方法(表1)。傳統(tǒng)奶牛目標(biāo)檢測方法采用人工設(shè)計(jì)的特征提取方式,通過對(duì)奶牛進(jìn)行細(xì)致的觀察,利用臉部、背部、側(cè)面、鼻部等特征將奶牛與背景進(jìn)行區(qū)分,實(shí)現(xiàn)奶牛目標(biāo)的識(shí)別;基于深度學(xué)習(xí)的方法將人工設(shè)計(jì)的特征提取方式替換為深度卷積神經(jīng)網(wǎng)絡(luò),利用大量的奶牛圖像訓(xùn)練網(wǎng)絡(luò),進(jìn)而有效地提取奶牛特征,最后根據(jù)網(wǎng)絡(luò)提供的候選框結(jié)合非極大值抑制(Non-maximum suppression,NMS)、交并比(Intersection over union,IOU) 等閾值判定將奶牛目標(biāo)區(qū)域在圖像中框出,從而實(shí)現(xiàn)奶牛目標(biāo)的識(shí)別。傳統(tǒng)方法受環(huán)境因素影響較大因而普適性較差,近年來,基于深度學(xué)習(xí)的奶牛目標(biāo)檢測方法占據(jù)主流。

        1.1.1 傳統(tǒng)奶牛目標(biāo)檢測

        傳統(tǒng)奶牛目標(biāo)檢測方法大多通過目標(biāo)與背景的差異或通過背景建模、濾波等方式將目標(biāo)從背景中提取實(shí)現(xiàn)目標(biāo)檢測(圖2),背景建模方式以及濾波參數(shù)等會(huì)極大影響識(shí)別效果,算法對(duì)不同背景以及不同奶牛的普適性不強(qiáng)。針對(duì)奶牛嘴部咀嚼過程動(dòng)作幅度較小導(dǎo)致人工觀測困難的問題,宋懷波等[14] 通過分析奶牛反芻視頻中的光流場,識(shí)別出嘴部區(qū)域的候選區(qū)域,然后利用嘴部區(qū)域檢測模型進(jìn)一步確定反芻時(shí)奶牛嘴部的位置,以充盈率檢測模型效果,充盈率最高達(dá)到了98.51%。宋懷波等[13] 通過循環(huán)矩陣采集奶牛嘴部樣本,采用核相關(guān)濾波算法對(duì)奶牛嘴部區(qū)域進(jìn)行檢測,平均誤檢率為7.72%。

        針對(duì)奶牛整體目標(biāo)的檢測,宋懷波等[38] 利用背景建模方法可以有效估計(jì)像素的概率模型,并根據(jù)背景在圖像中像素不變的特點(diǎn)將背景剔除;劉冬等[39]提出了一種動(dòng)態(tài)背景建模方法,在混合高斯模型中引入懲罰因子,模型準(zhǔn)確率最高達(dá)到了95.00%。濾波算法也可以進(jìn)行背景的剔除,Bello 等[40] 為粒子濾波算法增加了臨時(shí)記憶能力,保存了前一次預(yù)測的奶牛位置并根據(jù)前一次的位置預(yù)測下一次的位置,同時(shí)結(jié)合了Mean-shift 算法實(shí)現(xiàn)了奶牛目標(biāo)檢測,該方法的準(zhǔn)確率為89.00%。Li 等[41] 對(duì)奶牛圖像人工截取一個(gè)興趣區(qū)(Region of interest, ROI),通過對(duì)該區(qū)域進(jìn)行二值化以及濾波等操作,獲取該區(qū)域的斑紋信息,并將該特征輸入支持向量機(jī)(Support vector machines, SVM) 進(jìn)行分類。Guo 等[42]結(jié)合了背景差分法和幀間差分法對(duì)奶牛目標(biāo)進(jìn)行檢測,結(jié)果表明,當(dāng)奶牛靜止時(shí),幀間差分法難以檢測,但融合了背景差分法則可以有效地提高其性能,從而取得較好的效果。

        1.1.2 基于深度學(xué)習(xí)的奶牛目標(biāo)檢測

        早期模型大多根據(jù)研究數(shù)據(jù)自主設(shè)計(jì)且模型層數(shù)較少。劉杰鑫等[17] 利用高斯混合模型剔除視頻背景,用卷積神經(jīng)網(wǎng)絡(luò)識(shí)別奶牛,模型準(zhǔn)確率最高達(dá)9 9 . 8 1 %。Bello 等[28] 利用卷積、ReLU 激活函數(shù)和池化操作,設(shè)計(jì)了一個(gè)四層卷積神經(jīng)網(wǎng)絡(luò)用于奶牛的識(shí)別,將奶牛背部圖像用于訓(xùn)練和測試,該模型在測試集上的準(zhǔn)確率為89.95%。Bezen 等[27] 利用RGB-D 圖像結(jié)合卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)奶牛識(shí)別模型,利用深度卷積神經(jīng)網(wǎng)絡(luò)提取奶牛及頸環(huán)信息,識(shí)別準(zhǔn)確率為93.65%。隨著計(jì)算機(jī)領(lǐng)域檢測和分割模型的進(jìn)步,部分深層模型被應(yīng)用于奶牛目標(biāo)的識(shí)別。李昊玥等[32]對(duì)Mask R-CNN 中的特征提取網(wǎng)絡(luò)ResNet-50 嵌入了注意力模塊(SE block) 以提高邊界檢測的精度,模型精度達(dá)到了100%。高精度的代價(jià)是模型參數(shù)量大,模型的實(shí)時(shí)性偏弱。為減少模型復(fù)雜度,可以采用輕量化模塊(CSResNeXt module) 替換模型的部分結(jié)構(gòu),帶來的精確率下降可以通過注意力模塊彌補(bǔ)[43]。Tian 等[44] 利用CBAM 注意力機(jī)制對(duì)GhostNet 進(jìn)行了改進(jìn),同時(shí)還融合了特征金字塔網(wǎng)絡(luò)(FPN),該模型可對(duì)奶牛目標(biāo)以及牛場中一些路障進(jìn)行識(shí)別與分割,檢測準(zhǔn)確率為94.86%。

        在這些模型當(dāng)中,YOLO 家族模型(圖3) 使用最廣泛。Tassinari 等[18] 利用YOLO算法實(shí)現(xiàn)奶牛的識(shí)別,準(zhǔn)確率達(dá)66.00%。Wang等[29] 融合YOLO 和核相關(guān)濾波器,對(duì)奶牛頭部和嘴部圖像進(jìn)行了模型訓(xùn)練,準(zhǔn)確率達(dá)95.00%。Wang 等[ 3 0 ] 對(duì)YOLOv4 模型進(jìn)行了改進(jìn),利用GhostNet module 減小了模型復(fù)雜度,同時(shí)采用深度可分離卷積替代了普通卷積以減小模型計(jì)算量,對(duì)奶牛眼部區(qū)域檢測的mAP 為96.88%。Qiao 等[31] 將自適應(yīng)空間特征融合模塊(Adaptively spatial feature fusion) 添加到了YOLOv5 的頭部以增強(qiáng)模型特征融合效果,模型的準(zhǔn)確率為96.20%。Mon 等[45]使用YOLOv5 模型進(jìn)行了奶牛位置的檢測,準(zhǔn)確率達(dá)到了90.00%。Xu等[36] 對(duì)YOLOv5s 網(wǎng)絡(luò)進(jìn)行了通道剪枝,在確保模型精度輕微下降的情況下,成功減小了模型大小和計(jì)算量,最終模型精度為99.50%。深度卷積網(wǎng)絡(luò)因其強(qiáng)大的特征提取能力逐步取代了傳統(tǒng)背景建模等方法,檢測模型的發(fā)展也極大地提升了奶牛目標(biāo)檢測的準(zhǔn)確率和魯棒性,正成為當(dāng)下研究的熱點(diǎn)。

        1.2 奶牛目標(biāo)跟蹤

        奶牛目標(biāo)跟蹤技術(shù)可以分為傳統(tǒng)奶牛目標(biāo)跟蹤方法和基于深度學(xué)習(xí)的奶牛目標(biāo)跟蹤方法(表2)。傳統(tǒng)奶牛目標(biāo)跟蹤方法大多使用光流法和差分法,根據(jù)奶牛運(yùn)動(dòng)視頻中的像素變化提取光流圖,進(jìn)而將背景剔除,實(shí)現(xiàn)奶牛目標(biāo)的跟蹤?;谏疃葘W(xué)習(xí)的方法則利用了目標(biāo)檢測網(wǎng)絡(luò),結(jié)合卡爾曼濾波等預(yù)估奶牛位置,從而實(shí)現(xiàn)奶牛目標(biāo)的跟蹤。當(dāng)奶牛運(yùn)動(dòng)緩慢時(shí),傳統(tǒng)方法相應(yīng)的光流圖提取會(huì)受到影響,而使用目標(biāo)檢測結(jié)合卡爾曼濾波的方法可以根據(jù)奶牛的實(shí)時(shí)運(yùn)動(dòng)情況進(jìn)行跟蹤,是當(dāng)前奶牛目標(biāo)跟蹤方法的主流思路。

        1.2.1 傳統(tǒng)奶牛目標(biāo)跟蹤方法

        奶牛目標(biāo)跟蹤技術(shù)是獲取奶牛個(gè)體信息及位置信息的基礎(chǔ),該技術(shù)的主要思路是利用識(shí)別結(jié)合后處理的操作實(shí)現(xiàn)對(duì)視頻中奶牛目標(biāo)的不斷跟蹤。Tong 等[51] 聯(lián)合稠密光流和幀間差分法進(jìn)行奶牛嘴部區(qū)域跟蹤,對(duì)視頻中每一幀反芻奶牛嘴部區(qū)域進(jìn)行識(shí)別,對(duì)提取的光流圖重新融合為視頻,實(shí)現(xiàn)了嘴部區(qū)域的實(shí)時(shí)跟蹤,跟蹤準(zhǔn)確率為89.12%。Makhura 等[34] 在目標(biāo)檢測算法的基礎(chǔ)上,引入數(shù)據(jù)關(guān)聯(lián)進(jìn)行多目標(biāo)跟蹤,計(jì)算當(dāng)前幀每一個(gè)觀測目標(biāo)與其可能的各種跟蹤目標(biāo)相關(guān)聯(lián)的概率。Liang 等[35] 提出了一種名為SiamFC 的跟蹤器用于奶牛目標(biāo)的跟蹤,對(duì)有遮擋、運(yùn)動(dòng)模糊、快速運(yùn)動(dòng)的目標(biāo)進(jìn)行了跟蹤試驗(yàn),跟蹤準(zhǔn)確率最高達(dá)100%。

        1.2.2 基于深度學(xué)習(xí)的奶牛目標(biāo)跟蹤方法

        YOLO檢測器配合卡爾曼濾波估算奶牛位姿,且隨視頻不斷更新,可以取得極佳的跟蹤效果,其流程如圖4 所示。Zheng 等[33] 使用融合了自注意力和混合卷積模塊的YOLOv7 檢測奶牛目標(biāo),利用卡爾曼濾波算法預(yù)估奶牛位置,模型識(shí)別準(zhǔn)確率為97.30%,多目標(biāo)跟蹤準(zhǔn)確率為83.00%。毛燕茹等[ 3 7] 利用YOLOv4 檢測奶牛嘴部區(qū)域,結(jié)合 Kalman 濾波和Hungarian 算法進(jìn)行跟蹤,實(shí)現(xiàn)了多目標(biāo)奶牛個(gè)體的嘴部跟蹤和反芻行為監(jiān)測,模型對(duì)奶牛嘴部上、下顎區(qū)域的識(shí)別準(zhǔn)確率分別為93.92% 和92.46%。Zheng 等[21] 對(duì)YOLOv5 檢測器進(jìn)行了剪枝操作以降低計(jì)算復(fù)雜度,同時(shí)融合Cascaded-Buffered IoU以擴(kuò)展探測和軌跡匹配空間,模型多目標(biāo)跟蹤準(zhǔn)確率達(dá)到86.10%。Guzhva等[46] 提出了一種LandmarkCNN 和Cow CNN 相結(jié)合的深度模型用于檢測奶牛,隨后使用自主設(shè)計(jì)的跟蹤器對(duì)經(jīng)過擠奶廳的奶牛進(jìn)行了跟蹤識(shí)別,實(shí)現(xiàn)了對(duì)奶牛長達(dá)4 min 的持續(xù)跟蹤且取得了較高的準(zhǔn)確率。Zheng 等[20] 提出了一種Siamese 注意力算法,對(duì)奶牛腿部區(qū)域的跟蹤準(zhǔn)確率為93.80%。劉月峰等[52] 設(shè)計(jì)了新型的正負(fù)樣本選取策略來改進(jìn)跟蹤模型,在自然場景下單目標(biāo)跟蹤平均重合度(Expectedaverage overlap, EAO)達(dá)到0.47。

        1.3 奶牛個(gè)體識(shí)別

        奶牛個(gè)體識(shí)別技術(shù)可以分為傳統(tǒng)奶牛個(gè)體識(shí)別方法、基于深度學(xué)習(xí)的奶牛個(gè)體識(shí)別方法以及基于度量學(xué)習(xí)的奶牛個(gè)體識(shí)別方法(表3)。傳統(tǒng)方式用人工特征提取方式進(jìn)行特征對(duì)比判別2 幅奶牛圖像以獲取身份信息,該方法效率較低;基于深度學(xué)習(xí)目標(biāo)檢測算法(以YOLO 為代表) 的個(gè)體身份識(shí)別,僅能識(shí)別經(jīng)過模型訓(xùn)練的奶牛圖像,即僅適用于閉集;針對(duì)新加入奶牛個(gè)體的識(shí)別問題,度量學(xué)習(xí)、重識(shí)別技術(shù)等被提出,使奶牛個(gè)體識(shí)別技術(shù)向開集識(shí)別的方向發(fā)展。

        1.3.1 傳統(tǒng)奶牛個(gè)體識(shí)別方法

        奶牛個(gè)體識(shí)別可以使用RFID 或GPS 項(xiàng)圈等智能設(shè)備,如圖5 所示。劉淵等[15] 利用RFID 和GPS 進(jìn)行奶牛個(gè)體定位與身份識(shí)別,取得較高的準(zhǔn)確率。但這些方法經(jīng)濟(jì)成本較高,且在牛場潮濕環(huán)境下設(shè)備容易損壞。基于視頻分析的奶牛個(gè)體識(shí)別技術(shù)主要利用視頻中奶牛個(gè)體的斑紋、體型等差異進(jìn)行特征提取并加以區(qū)分,早期大多為人工設(shè)計(jì)特征的提取方法。Li等[41] 對(duì)奶牛圖像人工截取一個(gè)感興趣區(qū)域(Regionof interest, ROI) 區(qū)域,通過對(duì)該區(qū)域進(jìn)行二值化以及濾波等操作,獲取該區(qū)域的斑紋信息,將該特征輸入SVM 模型進(jìn)行分類。張瑞紅等[47] 用梯度方向直方圖(HOG) 特征進(jìn)行多角度檢測,實(shí)現(xiàn)奶牛標(biāo)牌的定位,識(shí)別準(zhǔn)確率為96.98%。

        SVM 廣泛應(yīng)用于奶牛個(gè)體識(shí)別,該方法大多使用圖像處理算法將圖像特征提取,最后使用SVM 進(jìn)行個(gè)體分類實(shí)現(xiàn)識(shí)別,其效果如圖6 所示。Xiao 等[49] 通過將每頭奶牛背部圖像分割出來再進(jìn)行特征提取,最終輸入S VM 進(jìn)行特征的區(qū)分。Du 等[48] 使用VGG-16 提取奶牛軀干特征信息,添加了全局特征池化來降低所提取的淺層和深層特征維度,最后使用SVM 對(duì)所提取的特征進(jìn)行分類實(shí)現(xiàn)奶牛個(gè)體識(shí)別,準(zhǔn)確率為99.48%。Kumar 等[63]采用自主設(shè)計(jì)的深度卷積神經(jīng)網(wǎng)絡(luò)提取奶牛特征并利用SVM 對(duì)提取的特征進(jìn)行了奶牛個(gè)體識(shí)別,但檢測速度較慢,單幅圖像識(shí)別時(shí)間為30.74 s。Achour 等[50] 利用奶牛進(jìn)食時(shí)頭部圖像花紋的不同訓(xùn)練了卷積神經(jīng)網(wǎng)絡(luò),并對(duì)17 頭奶牛進(jìn)行了個(gè)體身份識(shí)別,準(zhǔn)確率為96.55%。Zhao 等[ 5 6 ] 使用LeNet-5 對(duì)30 頭奶牛進(jìn)來個(gè)體識(shí)別,準(zhǔn)確率為90.55%。傳統(tǒng)奶牛個(gè)體識(shí)別算法因提取方式低效、檢測時(shí)間長、檢測誤差大,因而難以替代顏色標(biāo)記法和智能設(shè)備識(shí)別法。

        1.3.2 基于深度學(xué)習(xí)的奶牛個(gè)體識(shí)別方法

        深度學(xué)習(xí)模型中的目標(biāo)檢測與分割模型被應(yīng)用于奶牛個(gè)體識(shí)別,其效果如圖7 所示。Xiao 等[ 4 9 ] 利用Mask-R-CNN 和SVM 網(wǎng)絡(luò)實(shí)現(xiàn)了48 頭奶牛的識(shí)別,準(zhǔn)確率為98.67%。Achour 等[50] 和Hu 等[61] 利用DCNN 進(jìn)行特征提取,結(jié)合SVM 進(jìn)行特征的分類從而完成個(gè)體識(shí)別。Zin 等[57] 利用自主設(shè)計(jì)的DCNN 進(jìn)行個(gè)體識(shí)別,對(duì)奶牛背部圖像進(jìn)行模型訓(xùn)練,結(jié)合圖像的顏色直方圖和灰度圖進(jìn)行背景和圍欄障礙的區(qū)分,準(zhǔn)確率最高達(dá)到了97.01%。Hu等[61] 融合了YOLO 和SVM 進(jìn)行了奶牛檢測,模型準(zhǔn)確率為98.36%。何東健等[22] 利用改進(jìn)的YOLOv3 網(wǎng)絡(luò)對(duì)89 頭奶牛進(jìn)行了個(gè)體識(shí)別,識(shí)別準(zhǔn)確率為95.91%。Andrew 等[54] 利用R-CNN 檢測模型進(jìn)行奶牛個(gè)體身份識(shí)別, 89 頭奶牛識(shí)別準(zhǔn)確率為86.10%,模型大小為489.54 M。多模態(tài)圖像也可以用于個(gè)體識(shí)別。Bhole 等[19] 使用了RGB 和熱圖像(Thermal images) 聯(lián)合輸入CNN 進(jìn)行特征提取,再使用SVM 進(jìn)行分類。

        在進(jìn)行特征提取時(shí),不同視角拍攝到的圖像特征會(huì)有差異,針對(duì)該問題,Weng 等[55] 使用了Two-Branch CNN 進(jìn)行特征提取,通過對(duì)比各Branchnetwork 提取特征的相似性來判斷是否是同一頭奶牛。一些研究也進(jìn)行了模型輕量化的工作, Hao等[53] 使用了知識(shí)蒸餾技術(shù)結(jié)合注意力機(jī)制訓(xùn)練了一個(gè)計(jì)算量更小的DCNN,完成了牛的個(gè)體識(shí)別。Lu 等[60] 利用奶牛的關(guān)鍵部位作為輔助提高識(shí)別的準(zhǔn)確率。以YOLO 為代表的目標(biāo)檢測網(wǎng)絡(luò)極大地提升了識(shí)別的速度與準(zhǔn)確率,但模型無法對(duì)未經(jīng)過訓(xùn)練的奶牛識(shí)別,這也是影響模型走向?qū)嵱眯缘年P(guān)鍵問題。

        1.3.3 基于度量學(xué)習(xí)的奶牛個(gè)體識(shí)別方法

        SVM或目標(biāo)檢測模型等無法找到未經(jīng)訓(xùn)練的奶牛個(gè)體,因而只能將新增奶牛個(gè)體歸類為已有類別中,導(dǎo)致了錯(cuò)誤的識(shí)別。針對(duì)新增個(gè)體的識(shí)別,度量學(xué)習(xí)是一種較好的解決思路。Andrew 等[59] 使用了度量學(xué)習(xí)的方法進(jìn)行個(gè)體識(shí)別任務(wù),該方法以特征聚類的思路改變了現(xiàn)有方法的特征分類思路,解決了網(wǎng)絡(luò)重新訓(xùn)練的問題。但其使用的ResNet-50 特征提取網(wǎng)絡(luò)參數(shù)量較大,同樣不利于模型的可移植性。Wang 等[23] 采用輕量級(jí)模型(ShuffleNetv2) 對(duì)奶牛進(jìn)行個(gè)體識(shí)別,同時(shí)還融合了交叉熵?fù)p失和三元組損失函數(shù),在保證模型輕量化的同時(shí)解決了新個(gè)體識(shí)別問題,識(shí)別精度達(dá)73.30%。Wang 等[58] 采用Asoftmax損失進(jìn)行新的個(gè)體識(shí)別,利用注意機(jī)制、反向殘差結(jié)構(gòu)和深度可分離卷積設(shè)計(jì)了輕量級(jí)奶牛特征提取網(wǎng)絡(luò),識(shí)別準(zhǔn)確率可達(dá)94.26%。度量學(xué)習(xí)可以有效拓展對(duì)新奶牛個(gè)體的識(shí)別,成為奶牛個(gè)體識(shí)別模型新的研究熱點(diǎn)。

        1.4 奶牛行為識(shí)別

        如表4 所示,奶牛行為識(shí)別方法可分為傳統(tǒng)方法和基于深度學(xué)習(xí)的方法。傳統(tǒng)方法中部分研究基于接觸式方式觀測奶牛行為,另一部分研究則利用LSTM 模型的記憶性以及RNN 網(wǎng)絡(luò)的循環(huán)性來提高模型準(zhǔn)確率?;谏疃葘W(xué)習(xí)的奶牛行為識(shí)別方法大多采用3D 卷積進(jìn)行奶牛的行為識(shí)別。

        1.4.1 傳統(tǒng)奶牛行為識(shí)別方法

        奶牛行為識(shí)別方法大致分為接觸式和非接觸式方法。接觸式方法依靠給奶牛穿戴傳感器獲取數(shù)據(jù)進(jìn)行分析,進(jìn)而發(fā)現(xiàn)奶牛行為。Shen 等[69] 利用三軸加速度傳感器采集數(shù)據(jù),使用SVM 算法對(duì)數(shù)據(jù)進(jìn)行進(jìn)食、反芻和其他行為3 個(gè)類別的分類,對(duì)進(jìn)食的識(shí)別精度和召回率分別為92.80% 和95.60%,對(duì)于反芻的識(shí)別精度和召回率分別為93.70% 和94.30%。傳統(tǒng)非接觸式方法大多利用人工提取特征結(jié)合SVM 網(wǎng)絡(luò)對(duì)奶牛行為進(jìn)行分類識(shí)別。任曉惠等[70] 利用螢火蟲尋優(yōu)算法優(yōu)化支持向量機(jī)的參數(shù),能有效區(qū)分不同奶牛的進(jìn)食、反芻、飲水行為,準(zhǔn)確率為98.02%。Guo 等[71]融合顏色和紋理進(jìn)行背景減除,隨后利用SVM 分類器實(shí)現(xiàn)了奶牛爬跨行為的識(shí)別,準(zhǔn)確率為90.92%。Jiang 等[72] 利用光流法進(jìn)行跛行檢測,將光流信息與視頻幀空間信息有效結(jié)合,識(shí)別精度為98.24%。宋懷波等[12, 16] 利用線性斜率最近鄰分類進(jìn)行跛行分析,準(zhǔn)確率達(dá)93.89%;利用Lucas-Kanade 稀疏光流算法進(jìn)行單目標(biāo)奶牛呼吸行為檢測,準(zhǔn)確率為98.58%。

        1.4.2 基于深度學(xué)習(xí)的奶牛行為識(shí)別方法

        LSTM 網(wǎng)絡(luò)因其記憶性被廣泛應(yīng)用于行為識(shí)別。Zhang 等[62]提出了一種半監(jiān)督長短期記憶(LSTM) 早期跛行自編碼器算法,準(zhǔn)確率為97.78%。Jiang 等[66] 使用YOLOv3 改進(jìn)算法提取奶牛區(qū)域,提出了一種奶牛背部曲率提取模型,用于提取奶牛背部曲線,最終使用改進(jìn)LSTM 模型實(shí)現(xiàn)跛行檢測。Wu 等[24] 提出了一種CNN-LSTM 算法用于識(shí)別單頭奶牛的基本運(yùn)動(dòng)行為,對(duì)5 種行為識(shí)別的平均準(zhǔn)確率、召回率和特異性分別為97.10%、96.50% 和98.30%。Yin等[25] 對(duì)LSTM 網(wǎng)絡(luò)增加BiFPN 實(shí)現(xiàn)不同深度信息的匯聚,該算法可在自然場景下實(shí)現(xiàn)奶牛行為識(shí)別,精度為97.87%。王克儉等[64] 在時(shí)域段網(wǎng)絡(luò)(TSN)的基礎(chǔ)上融合了時(shí)態(tài)移位模塊(TSM)、特征注意單元(FAU) 和長短期記憶(LSTM) 網(wǎng)絡(luò),識(shí)別準(zhǔn)確率達(dá)82.60%。

        3D 卷積被實(shí)踐證明有利于提取時(shí)空信息,傳統(tǒng)2D 卷積進(jìn)行視頻提取的操作需要在時(shí)間維度上再進(jìn)行一次融合,因而效果不佳,而3D 卷積則可以同時(shí)提取時(shí)間與空間維度(圖8)。Ma 等[ 6 5 ] 利用3D 卷積對(duì)RexNet 網(wǎng)絡(luò)進(jìn)行改進(jìn)實(shí)現(xiàn)了無接觸奶?;具\(yùn)動(dòng)行為識(shí)別,準(zhǔn)確率為95.00%。Wang等[26] 利用深度可分離卷積和3D 卷積操作構(gòu)建奶牛基本運(yùn)動(dòng)行為識(shí)別模型,準(zhǔn)確率達(dá)98.17%。史學(xué)偉等[73] 設(shè)計(jì)了R(2+1)D 模型對(duì)奶牛行為進(jìn)行識(shí)別,準(zhǔn)確率為89.20%。

        基于深度學(xué)習(xí)的關(guān)鍵點(diǎn)檢測模型也可以作為輔助行為判別的重要方式。杜粵猛等[67] 將FasterRCNN 卷積神經(jīng)網(wǎng)絡(luò)模型引入奶牛關(guān)鍵點(diǎn)檢測以提高跛行識(shí)別的可靠性,最終模型準(zhǔn)確率為97.22%。為解決人工發(fā)情監(jiān)測效率低的問題,Wang 等[10] 將背景信息增強(qiáng)模塊(CBAM) 和三聯(lián)體注意模塊(TAM) 融合于YOLO 模型以增強(qiáng)網(wǎng)絡(luò)對(duì)發(fā)情奶牛個(gè)體的關(guān)注,模型識(shí)別準(zhǔn)確率為93.90%。

        2 存在的挑戰(zhàn)

        現(xiàn)階段基于視頻分析的奶牛智能監(jiān)測方法取得了不俗的進(jìn)展,然而當(dāng)前技術(shù)的發(fā)展還存在較多挑戰(zhàn),算法的計(jì)算復(fù)雜度、普適性、準(zhǔn)確性等都是重要的影響因素,影響了模型的應(yīng)用。

        1) 現(xiàn)有研究大多局限于固定樣本,而隨著牛群規(guī)模不斷擴(kuò)大以及牛場奶牛頻繁更替,新增樣本的大量引入會(huì)影響模型的泛化性能?,F(xiàn)有深度卷積神經(jīng)網(wǎng)絡(luò)經(jīng)過訓(xùn)練后得到了較好的性能,但隨著新增目標(biāo)的引入,模型能否在變化樣本中有效識(shí)別未訓(xùn)練的對(duì)象,同一模型在多個(gè)牛場的泛化性能也是其重要的挑戰(zhàn)。

        2) 基于視頻分析的方法對(duì)非結(jié)構(gòu)化牛場環(huán)境中的遮擋有較大的靈敏性,遮擋問題會(huì)導(dǎo)致模型提取冗余或錯(cuò)誤的奶牛特征,進(jìn)而影響檢測、跟蹤、個(gè)體識(shí)別、行為識(shí)別的準(zhǔn)確率。同時(shí),現(xiàn)有模型訓(xùn)練大多需要龐大的數(shù)據(jù)集,數(shù)據(jù)的標(biāo)注處理工作帶來了較高的經(jīng)濟(jì)成本,而數(shù)據(jù)量較少可能影響模型性能,因而如何利用少樣本訓(xùn)練高準(zhǔn)確率模型是未來一個(gè)重要研究方向。

        3) 對(duì)于模型的實(shí)際應(yīng)用,現(xiàn)有深度模型為提高精確率大多層數(shù)較多,導(dǎo)致了計(jì)算復(fù)雜度較高。在對(duì)牛場中龐大的視頻流處理時(shí),較高的計(jì)算復(fù)雜度會(huì)導(dǎo)致模型的實(shí)時(shí)性變差,而縮減模型的深度可能會(huì)導(dǎo)致準(zhǔn)確率的降低,因而如何平衡模型的準(zhǔn)確性與復(fù)雜度需要重點(diǎn)關(guān)注。

        3 未來研究趨勢(shì)的展望

        針對(duì)上述挑戰(zhàn),本研究對(duì)基于視頻分析的奶牛智能監(jiān)測方法進(jìn)行了如下展望:

        1) 針對(duì)新個(gè)體加入或奶牛更替導(dǎo)致的模型泛化能力減弱問題,借助度量學(xué)習(xí)的思路,利用特征相似度匹配來進(jìn)行個(gè)體識(shí)別,可以使模型不受限于奶牛的數(shù)量,實(shí)現(xiàn)對(duì)新奶牛的識(shí)別。

        2) 針對(duì)遮擋問題,可以考慮為現(xiàn)有深度模型增加圖像融合及背景修復(fù)能力來恢復(fù)被遮擋的部分信息,通過將多個(gè)圖像進(jìn)行融合或利用背景信息進(jìn)行填補(bǔ)來實(shí)現(xiàn)。針對(duì)訓(xùn)練數(shù)據(jù)集較大的問題,研究中可以借助半監(jiān)督或無監(jiān)督方法。半監(jiān)督學(xué)習(xí)可以利用大量未標(biāo)記的奶牛數(shù)據(jù)和少量標(biāo)注過的數(shù)據(jù)來訓(xùn)練模型;無監(jiān)督學(xué)習(xí)可以利用獲取的奶牛圖像數(shù)據(jù)的結(jié)構(gòu)進(jìn)行自行數(shù)據(jù)標(biāo)注再進(jìn)行模型訓(xùn)練。對(duì)現(xiàn)有大量已訓(xùn)練模型,增量學(xué)習(xí)以及遷移學(xué)習(xí)也是有效提高模型訓(xùn)練效率的方法。

        3) 針對(duì)模型復(fù)雜度較高的問題,模型剪枝與輕量化模塊是減少模型大小和計(jì)算復(fù)雜度的有效方法。通過刪除神經(jīng)網(wǎng)絡(luò)中的冗余連接或參數(shù)減少模型大小和計(jì)算復(fù)雜度。對(duì)現(xiàn)有已訓(xùn)練模型,可通過知識(shí)蒸餾或網(wǎng)絡(luò)壓縮的方式,精煉小網(wǎng)絡(luò)來保全已有模型的精確度。

        總之,深度學(xué)習(xí)技術(shù)可以有效應(yīng)用于規(guī)模化奶牛智能監(jiān)測任務(wù),但實(shí)現(xiàn)實(shí)時(shí)多場景監(jiān)測仍需進(jìn)一步優(yōu)化。另外,許多實(shí)際應(yīng)用環(huán)境下的挑戰(zhàn)仍需不斷克服,比如不同環(huán)境、不同品種牛只模型的泛化性能和魯棒性等。為促進(jìn)規(guī)?;膛pB(yǎng)殖業(yè)的發(fā)展,需要從實(shí)際情況出發(fā)研發(fā)智能監(jiān)測模型,推動(dòng)其不斷進(jìn)步與發(fā)展。

        參考文獻(xiàn):

        [1]宋懷波, 李振宇, 呂帥朝, 等. 基于部分親和場的行走奶牛骨架提取模型[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2020, 51(8): 203-213.

        [2]楊蜀秦, 劉楊啟航, 王振, 等. 基于融合坐標(biāo)信息的改進(jìn)YOLO-v4 模型識(shí)別奶牛面部[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021, 37(15): 129-135.

        [3]LI Z, SONG L, DUAN Y, et al. Basic motion behaviourrecognition of dairy cows based on skeleton and hybrid convolution algorithms[J]. Computers and Electronics inAgriculture, 2022, 196: 106889-106893.

        [4]LI Z, ZHANG Q, LV S, et al. Fusion of RGB, opticalflow and skeleton features for the detection of lameness indairy cows[J]. Biosystems Engineering, 2022, 218: 62-77.

        [5]YANG G, XU X, SONG L, et al. Automated measurementof dairy cows body size via 3D point cloud dataanalysis[J]. Computers and Electronics in Agriculture,2022, 200: 107218-107226.

        [6]王政, 宋懷波, 王云飛, 等. 奶牛運(yùn)動(dòng)行為智能監(jiān)測研究進(jìn)展與技術(shù)趨勢(shì)[J]. 智慧農(nóng)業(yè)(中英文), 2022, 4(2): 36-52.

        [7]張姝瑾, 許興時(shí), 鄧洪興, 等. 基于YOLO_v8n-seg-FCA-BiFPN 的奶牛身體分割方法研究[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2024, 50(3): 282-289.

        [8]HUA Z, WANG Z, XU X, et al. An effective PoseC3Dmodel for typical action recognition of dairy cows basedon skeleton features[J]. Computers and Electronics inAgriculture, 2023, 212: 108152-108161.

        [9]郝玉勝, 林強(qiáng), 王維蘭, 等. 基于Wi-Fi 無線感知技術(shù)的奶牛爬跨行為識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2020, 36(19):168-176.

        [10]WANG Z, HUA Z, WEN Y, et al. E-YOLO: Recognitionof estrus cow based on improved YOLOv8nmodel[J]. Expert Systems with Applications, 2024, 238:1-13.

        [11]宋懷波, 華志新, 馬寶玲, 等. 基于SimCC-ShuffNetv2的輕量化奶牛關(guān)鍵點(diǎn)檢測方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2023, 54(10): 275-281.

        [12]宋懷波, 姜波, 吳倩, 等. 基于頭頸部輪廓擬合直線斜率特征的奶牛跛行檢測方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2018,34(15): 190-199.

        [13]宋懷波, 牛滿堂, 姬存慧, 等. 基于視頻分析的多目標(biāo)奶牛反芻行為監(jiān)測[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2018, 34(18): 211-218.

        [14]宋懷波, 李通, 姜波, 等. 基于 Horn-Schunck 光流法的多目標(biāo)反芻奶牛嘴部自動(dòng)監(jiān)測[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018, 34(10): 163-171.

        [15]劉淵, 楊澤林, 趙永軍. 基于RFID 的物聯(lián)網(wǎng)技術(shù)在畜牧業(yè)中的應(yīng)用[J]. 黑龍江畜牧獸醫(yī), 2012(16): 15-17.

        [16]宋懷波, 吳頔華, 陰旭強(qiáng), 等. 基于 Lucas-Kanade 稀疏光流算法的奶牛呼吸行為檢測[J]. 農(nóng)業(yè)工程學(xué)報(bào),2019, 35(17): 215-224.

        [17]劉杰鑫, 姜波, 何東健, 等. 基于高斯混合模型與CNN 的奶牛個(gè)體識(shí)別方法研究[J]. 計(jì)算機(jī)應(yīng)用與軟件,2018, 18(10): 159-164.

        [18]TASSINARI P, BOVO M, BENNI S, et al. A computervision approach based on deep learning for the detectionof dairy cows in free stall barn[J]. Computers and Electronicsin Agriculture, 2021, 182: 106030-106042.

        [19]BHOLE A, UDMALE S S, FALZON O, et al. CORF3Dcontour maps with application to Holstein cattle recognitionfrom RGB and thermal images[J]. Expert Systemswith Applications, 2022, 192: 116354-116365.

        [20]ZHENG Z, ZHANG X, QIN L, et al. Cows’ legs trackingand lameness detection in dairy cattle using videoanalysis and Siamese neural networks[J]. Computers andElectronics in Agriculture, 2023, 205: 107618.

        [21]ZHENG Z, QIN L. Pruned YOLO-tracker: An efficientmulti-cows basic behavior recognition and tracking technique[J]. Computers and Electronics in Agriculture,2023, 213: 108172-108181.

        [22]何東健, 劉建敏, 熊虹婷, 等. 基于改進(jìn)YOLO+v3 模型的擠奶奶牛個(gè)體識(shí)別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2020,51(4): 250-260.

        [23]WANG Y, XU X, WANG Z, et al. ShuffleNet-Triplet: Alightweight RE-identification network for dairy cows innatural scenes[J]. Computers and Electronics in Agriculture,2023, 205: 107632-107646.

        [24]WU D, WANG Y, HAN M, et al. Using a CNN-LSTMfor basic behaviors detection of a single dairy cow in acomplex environment[J]. Computers and Electronics inAgriculture, 2021, 182: 106016-106028.

        [25]YIN X, WU D, SHANG Y, et al. Using an efficient Net-LSTM for the recognition of single cow’s motion behavioursin a complicated environment[J]. Computers andElectronics in Agriculture, 2020, 10: 57-67.

        [26]WANG Y, LI R, WANG Z, et al. E3D: An efficient 3DCNN for the recognition of dairy cow's basic motion behavior[J]. Computers and Electronics in Agriculture,2023, 205: 107607-107616.

        [27]BEZEN R, EDAN Y, HALACHMI I. Computer visionsystem for measuring individual cow feed intake usingRGB-D camera and deep learning algorithms[J]. Computersand Electronics in Agriculture, 2020, 172: 104345-104356.

        [28]BELLO R, ZAWAWI A, SUFRIL A, et al. Image-basedindividual cow recognition using body patterns[J]. InternationalJournal of Advanced Computer Science and Applications,2020, 11(3): 92-98.

        [29]WANG Y, CHEN T, LI B, et al. Automatic identificationand analysis of multi-object cattle rumination basedon computer vision[J]. Journal of Animal Science andTechnology, 2023, 65(3): 519-534.

        [30]WANG Y, KANG X, CHU M, et al. Deep learning-basedautomatic dairy cow ocular surface temperature detectionfrom thermal images[J]. Computers and Electronicsin Agriculture, 2022, 202: 107429-107442.

        [31]QIAO Y, GUO Y, HE D. Cattle body detection based onYOLOv5-ASFF for precision livestock farming[J]. Computersand Electronics in Agriculture, 2023, 204: 107579-107589.

        [32]李昊玥, 陳桂芬, 裴傲. 基于改進(jìn) Mask R-CNN 的奶牛個(gè)體識(shí)別方法研究[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào), 2020, 41(6):161-168.

        [33]ZHENG Z, LI J, QIN L. YOLO-BYTE: An efficientmulti-object tracking algorithm for automatic"monitoringof dairy cows[J]. Computers and Electronics in Agriculture,2023, 209: 107857-107867.

        [34]MAKHURA O, WOODS J. Learn-select-track: An approachto multi-object tracking[J]. Signal Processing: ImageCommunication, 2019, 74: 153-161.

        [35]LIANG Y, CHEN X. Tracking guided actions recognitionfor cows[J]. Quantitative Biology, 2022, 10: 351-365.

        [36][36] XU X, WANG Y, HUA Z, et al. Light-weight recognition network for dairy cows based on the fusion ofYOLOv5s and channel pruning algorithm[J]. Transactionsof the CSAE, 2023, 39(15): 153-163.

        [37]毛燕茹, 牛童, 王鵬, 等. 利用Kalman 濾波和Hungarian算法的多目標(biāo)奶牛嘴部跟蹤及反芻監(jiān)測[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(19): 192-201.

        [38]宋懷波, 陰旭強(qiáng), 吳頔華, 等. 基于自適應(yīng)無參核密度估計(jì)算法的運(yùn)動(dòng)奶牛目標(biāo)檢測[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2019,50(5): 45-58.

        [39]劉冬, 趙凱旋, 何東健. 基于混合高斯模型的移動(dòng)奶牛目標(biāo)實(shí)時(shí)檢測[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2016, 47(5): 288-294.

        [40]BELLO R, MOHAMED A, TALIB A, et al. Computervision-based techniques for cow object recognition[C]//IOP Conference Series: Earth and Environmental Science.Bristol: IOP Publishing, 2021: 58-71.

        [41]LI W, JI Z, WANG L, et al. Automatic individual identificationof Holstein dairy cows using tailhead images[J].Computers and Electronics in Agriculture, 2017, 142:622-631.

        [42]GUO Y, HE D, CHAI L. A machine vision-based methodfor monitoring scene-interactive behaviors of dairycalf[J]. Animals, 2020, 10(2): 190-204.

        [43]YU Z, LIU Y, YU S, et al. Teat detection of dairy cowsbased on deep learning neural network FS-YOLOv4model[J]. Computers and Electronics in Agriculture,2022, 200: 107224-107234.

        [44]TIAN F, HU G, YU S, et al. An efficient multi-task convolutionalneural network for dairy farm object detectionand segmentation[J]. Computers and Electronics in Agriculture,2023, 211: 108000-108017.

        [45]MON S L, ZIN T T, TIN P, et al. Video-based automaticcattle identification system[C]// 2022 IEEE 11th GlobalConference on Consumer Electronics, Osaka: IEEE,2022: 490-491.

        [46]GUZHVA O, ARD? H, NILSSON M, et al. Now yousee me: Convolutional neural network based tracker fordairy cows[J]. Frontiers in Robotics and AI, 2018, 5:107-116.

        [47]張瑞紅, 趙凱旋, 姬江濤, 等. 基于機(jī)器學(xué)習(xí)的奶牛頸環(huán)ID 自動(dòng)定位與識(shí)別方法[J]. 南京農(nóng)業(yè)大學(xué)學(xué)報(bào),2021, 44(3): 586-595.

        [48]DU Y, KOU Y, LI B, et al. Individual identification ofdairy cows based on deep learning and feature fusion[J].Animal Science Journal, 2022, 93(1): 13789-13797.

        [49]XIAO J, LIU G, WANG K, et al. Cow identification infree-stall barns based on an improved Mask R-CNN andan SVM[J]. Computers and Electronics in Agriculture,2022, 194: 107638-107649.

        [50]ACHOUR B, BELKADI M, FILALI I, et al. Image analysisfor individual identification and feeding behaviourmonitoring of dairy cows based on convolutional neuralnetworks (CNN)[J]. Biosystems Engineering, 2020, 198:31-49.

        [51]TONG L, BO J, DIHUA W, et al. Tracking multiple targetcows’ ruminant mouth areas using optical flow andinter-frame difference methods[J]. IEEE Access, 2019, 7:18520-185531.

        [52]劉月峰, 劉博, 暴祥, 等. 基于超輕量化孿生網(wǎng)絡(luò)的自然場景奶牛單目標(biāo)跟蹤方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2023,54(10): 282-293.

        [53]HAO W, ZHANG K, HAN M, et al. A novel Jinnan individualcattle recognition approach based on mutual attentionlearning scheme[J]. Expert Systems with Applications,2023, 230: 120551-120562.

        [54]ANDREW W, GREATWOOD C, BURGHARDT T.Visual localisation and individual identification of holsteinfriesian cattle via deep learning[C]//2017 IEEE InternationalConference on Computer Vision Workshops(ICCVW). IEEE, 2017: 2850-2859.

        [55]WENG Z, MENG F, LIU S, et al. Cattle face recognitionbased on a two-branch convolutional neural network[J].Computers and Electronics in Agriculture, 2022, 196:106871-106882.

        [56]ZHAO K, HE D. Recognition of individual dairy cattlebased on convolutional neural networks[J]. Transactionsof the Chinese Society of Agricultural Engineering, 2015,31: 181-187.

        [57]ZIN T, PHYO C, HAMA H. Image technology basedcow identificatio[C]//Proceedings of the InternationalMulti Conference of Engineers and Computer Scientists2018, Hong Kong, 2018: 320-323.

        [58]WANG R, GAO R, LI Q, et al. An ultra-lightweightmethod for individual identification of cow-back patternimages in an open image set[J]. Expert Systems with Applications,2024, 15: 54-68.

        [59]ANDREW W, GAO J, MULLAN S, et al. Visual identificationof individual Holstein-Friesian cattle via deepmetric learning[J]. Computers and Electronics in Agriculture,2021, 185: 106133-106144.

        [60]LU Y, WENG Z, ZHENG Z, et al. Algorithm for cattleidentification based on locating key area[J]. Expert Systemswith Applications, 2023, 228: 120365-120378.

        [61]HU H, DAI B, SHEN W, et al. Cow identification basedon fusion of deep parts features[J]. Biosystems Engineering,2020, 192: 245-256.

        [62]ZHANG K, HAN S, WU J, et al. Early lameness detectionin dairy cattle based on wearable gait analysis usingsemi-supervised LSTM-Autoencoder[J]. Computers andElectronics in Agriculture, 2023, 213: 108252-108267.

        [63]KUMAR S, SINGH S K, SINGH R S, et al. Real-time recognitionof cattle using animal biometrics[J]. Journal ofReal-Time Image Processing, 2016, 13(3): 505-526.

        [64]王克儉, 孫奕飛, 司永勝, 等. 基于時(shí)空特征的奶牛視頻行為識(shí)別[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2023, 54(5): 261-358.

        [65]MA S, ZHANG Q, LI T, et al. Basic motion behavior recognitionof single dairy cow based on improved Rexnet3D network[J]. Computers and Electronics in Agriculture,2022, 194: 106772-106281.

        [66]JIANG B, SONG H, WANG H, et al. Dairy cow lamenessdetection using a back curvature feature[J]. Computersand Electronics in Agriculture, 2022, 194: 106729-106738.

        [67]杜粵猛, 史慧, 高峰, 等. 基于姿態(tài)估計(jì)和關(guān)鍵點(diǎn)特征向量的奶牛跛行識(shí)別方法[J]. 華中農(nóng)業(yè)大學(xué)學(xué)報(bào), 2023,42(5): 251-261.

        [68]SHOGO H, YOSHITAKA M, MASAFUMI M, et al.Leveraging computer vision-based pose estimation techniquein dairy cows for objective mobility analysis andscoring system[J]. Computers and Electronics in Agriculture,2024, 217: 108573-108582.

        [69]SHEN W, CHENG F, ZHANg Y, et al. Automatic recognitionof ingestive-related behaviors of dairy cows basedon triaxial acceleration[J]. Information Processing in Agriculture,2020, 8: 427-443.

        [70]任曉惠, 劉剛, 張淼, 等. 基于支持向量機(jī)分類模型的奶牛行為識(shí)別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2019, 50(S1): 290-296.

        [71]GUO Y, ZHANG Z, HE D, et al. Detection of cowmounting behavior using region geometry and opticalflow characteristics[J]. Computers and Electronics in Agriculture,2019, 10: 48-62.

        [72]JIANG B, YIN X, SONG H. Single-stream long-term opticalflow convolution network for action recognition oflameness dairy cow[J]. Computers and Electronics in Agriculture,2020, 175: 105536-105563.

        [73]史學(xué)偉, 司永勝, 韓憲忠, 等. 基于SE-R(2+1)D 網(wǎng)絡(luò)的自然環(huán)境下的奶牛行為識(shí)別[J]. 河北農(nóng)業(yè)大學(xué)學(xué)報(bào),2023, 46(1): 97-109.

        宋懷波,博士,教授,博士生導(dǎo)師。農(nóng)業(yè)農(nóng)村部農(nóng)業(yè)物聯(lián)網(wǎng)重點(diǎn)實(shí)驗(yàn)室副主任,“科創(chuàng)中國”農(nóng)業(yè)工程科技服務(wù)團(tuán)高級(jí)專家、農(nóng)業(yè)工程學(xué)會(huì)高級(jí)會(huì)員、陜西省圖形圖像學(xué)會(huì)理事,中國農(nóng)業(yè)工程學(xué)會(huì)畜牧工程分會(huì)第十屆理事會(huì)理事,中國農(nóng)學(xué)會(huì)農(nóng)業(yè)監(jiān)測預(yù)警分會(huì)理事、農(nóng)業(yè)工程學(xué)會(huì)青年工作委員會(huì)委員,人工智能學(xué)會(huì)智能農(nóng)業(yè)專委會(huì)會(huì)員,中國畜牧獸醫(yī)學(xué)會(huì)信息技術(shù)分會(huì)會(huì)員、陜西省計(jì)算機(jī)學(xué)會(huì)會(huì)員。主要從事大型畜禽健康行為智能識(shí)別技術(shù)、農(nóng)情信息獲取及識(shí)別等方面的理論研究。

        先后主持國家自然科學(xué)基金青年項(xiàng)目,國家重點(diǎn)研發(fā)項(xiàng)目子課題,陜西省重點(diǎn)研發(fā)計(jì)劃項(xiàng)目,陜西省自然科學(xué)基金,中央高?;究蒲袠I(yè)務(wù)經(jīng)費(fèi),國家8 6 3 項(xiàng)目子課題。在《B i o s y s t e m sEngineering》《Computers and Electronics inAgriculture》等期刊發(fā)表論文60 余篇,《Opticalengineering》《Precision agriculture》《BiosystemsEngineering》《Computers and Electronics inAgriculture 等20 余家雜志審稿人。

        【責(zé)任編輯 周志紅】

        基金項(xiàng)目:國家重點(diǎn)研發(fā)計(jì)劃 (2023YFD1301800);國家自然科學(xué)基金 (32272931);陜西省農(nóng)業(yè)重點(diǎn)核心技術(shù)項(xiàng)目(2023NYGG005)

        猜你喜歡
        機(jī)器視覺深度學(xué)習(xí)
        全自動(dòng)模擬目標(biāo)搜救系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        基于機(jī)器視覺的自動(dòng)澆注機(jī)控制系統(tǒng)的研究
        科技視界(2016年26期)2016-12-17 17:31:58
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        大場景三維激光掃描儀在研究生實(shí)踐教學(xué)培養(yǎng)中的應(yīng)用
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于機(jī)器視覺的工件鋸片缺陷檢測系統(tǒng)設(shè)計(jì)
        軟件工程(2016年8期)2016-10-25 15:55:22
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        国产综合自拍| 天下第二社区在线视频| 麻豆视频在线观看免费在线观看| 丝袜人妻中文字幕首页| 男人的精品天堂一区二区在线观看 | 中文字字幕在线精品乱码| 69久久夜色精品国产69| 亚洲 都市 校园 激情 另类| 狼友AV在线| 亚洲AV成人综合五月天在线观看| 61精品人妻一区二区三区蜜桃| 自拍av免费在线观看| 亚洲不卡av一区二区三区四区| 久久天堂精品一区二区三区四区| 色婷婷五月综合激情中文字幕| 97精品超碰一区二区三区| 久久免费网国产AⅤ| 一本大道久久a久久综合| 中日无码精品一区二区三区| 精品日本免费观看一区二区三区| 国产精品国产高清国产专区| 少妇伦子伦精品无吗 | 少妇人妻真实偷人精品视频| 欧美日韩精品乱国产| 国产综合精品久久久久成人| 尤物成av人片在线观看| 中文字幕人妻久久久中出| 成人日韩熟女高清视频一区| 久久精品国产精品| 999久久久免费精品国产| 亚洲 国产 哟| 一本大道久久精品一本大道久久| 在线视频自拍视频激情| 久久久精品国产亚洲av网深田| 插我一区二区在线观看| 国产亚洲人成a在线v网站| 伊人精品在线观看| 爆乳日韩尤物无码一区| 女同同成片av免费观看| 亚洲av免费手机在线观看 | 婷婷久久精品国产色蜜蜜麻豆 |