姚 州, 譚 焓, 田 芳, 周 勇, 章 程*
(1.華中農(nóng)業(yè)大學(xué)信息學(xué)院,湖北武漢430070 ;2.武漢軟件工程職業(yè)學(xué)院,湖北武漢430205;3.甘肅省金昌市畜牧獸醫(yī)總站,甘肅金昌737100)
養(yǎng)羊業(yè)是我國(guó)畜牧業(yè)發(fā)展的重要組成部分,在農(nóng)業(yè)經(jīng)濟(jì)中占有重要的地位。 羊肉具有高蛋白質(zhì)、低脂肪的特點(diǎn),深受人們的喜愛(ài)(馬友記等,2011)。 隨著信息化技術(shù)的發(fā)展,我國(guó)養(yǎng)羊業(yè)正由散養(yǎng)型向大規(guī)模、集約化、精準(zhǔn)化方向發(fā)展。 通過(guò)將物聯(lián)網(wǎng)技術(shù)、大數(shù)據(jù)技術(shù)、計(jì)算機(jī)視覺(jué)等現(xiàn)代智能技術(shù)與養(yǎng)羊業(yè)相結(jié)合,可以更高效率、更高收益地實(shí)現(xiàn)養(yǎng)羊業(yè)的發(fā)展,即智慧羊場(chǎng)。智慧羊場(chǎng)可以實(shí)現(xiàn)智能化、精準(zhǔn)化管理,實(shí)現(xiàn)肉制品的溯源以及疫情的及時(shí)監(jiān)測(cè)。
計(jì)算機(jī)視覺(jué)技術(shù)包括圖像處理、 圖像理解、智能識(shí)別等方面,主要是通過(guò)模擬人的視覺(jué)系統(tǒng)來(lái)實(shí)現(xiàn)對(duì)周圍空間物體的傳感、抽象、判斷(嚴(yán)勁濤,2019)。 隨著人工智能的快速發(fā)展,計(jì)算機(jī)視覺(jué)技術(shù)已在農(nóng)業(yè)、畜牧業(yè)、工業(yè)等領(lǐng)域得到廣泛應(yīng)用(孫哲南等,2019)。 本文總結(jié)了計(jì)算機(jī)視覺(jué)技術(shù)在羊場(chǎng)個(gè)體識(shí)別、行為識(shí)別、體尺與體重的估測(cè)、疾病監(jiān)測(cè)中的國(guó)內(nèi)外研究現(xiàn)狀,對(duì)其優(yōu)缺點(diǎn)進(jìn)行分析總結(jié),并提出未來(lái)發(fā)展的趨勢(shì),以期為該領(lǐng)域相關(guān)的研究提供參考。
個(gè)體識(shí)別是實(shí)現(xiàn)智慧羊場(chǎng)的基礎(chǔ),即賦予每只羊唯一ID,在管理羊的生長(zhǎng)狀態(tài)、追溯等方面具有重要意義。 過(guò)去,針對(duì)羊個(gè)體的識(shí)別主要靠人工識(shí)別(程洪花,2011),主觀意識(shí)太強(qiáng),容易識(shí)別錯(cuò)誤。 目前,在大規(guī)模養(yǎng)羊場(chǎng)的個(gè)體識(shí)別主要依靠接觸式的射頻識(shí)別技術(shù)(王玲等,2014;鄒小昱等,2013)來(lái)實(shí)現(xiàn),其主要由電子標(biāo)簽、天線、視頻識(shí)別器構(gòu)成。 在一定范圍內(nèi),視頻識(shí)別器可以對(duì)電子標(biāo)簽進(jìn)行識(shí)別。 但是,電子標(biāo)簽戴在羊的耳朵,容易造成羊的損傷,不利于羊的福利;在羊運(yùn)動(dòng)過(guò)程中還易造成電子標(biāo)簽的脫落或損傷。因此,急需具備易于操作、時(shí)效性強(qiáng)、特征突出以及無(wú)害處理的高效、準(zhǔn)確、非接觸式的識(shí)別羊個(gè)體的方法。 生物圖像識(shí)別正好滿足這一要求,也將是未來(lái)個(gè)體識(shí)別的主流趨勢(shì)。
生物圖像識(shí)別主要依靠計(jì)算機(jī)視覺(jué)技術(shù)對(duì)生物特征進(jìn)行識(shí)別。 目前,羊的生物特征主要包括面部、虹膜、DNA 指紋等(Felmer 等,2006)。 羊DNA指紋的識(shí)別雖然準(zhǔn)確率較高,但需要兩至三天的時(shí)間,目前當(dāng)今科學(xué)界滿足實(shí)時(shí)性這一需求,因此不被采納作為羊個(gè)體的識(shí)別。 羊的虹膜具有唯一性,可以準(zhǔn)確實(shí)現(xiàn)羊的識(shí)別。但是該技術(shù)需要精密的虹膜采集儀器,并且采集過(guò)程也非常困難,成本較高。因此, 羊的面部識(shí)別是研究羊個(gè)體識(shí)別的熱點(diǎn)問(wèn)題。 Corkery 等(2007)提出羊臉識(shí)別作為綿羊生物特征識(shí)別的初步研究。 主要通過(guò)針對(duì)50 只綿羊面部采用獨(dú)立分量技術(shù)進(jìn)行整體分析,運(yùn)用預(yù)先分類器實(shí)現(xiàn)評(píng)估。 結(jié)果表明,當(dāng)提取180 ~200 組分時(shí),識(shí)別率高達(dá)95.3%~96%。 但是,實(shí)驗(yàn)過(guò)程中,每只羊僅采集到2 ~4 張羊臉數(shù)據(jù),數(shù)據(jù)集較小,在大規(guī)模羊臉數(shù)據(jù)集中不適應(yīng)。 Yang 等(2015)通過(guò)分析綿羊的面部,將三重插值特征引入到級(jí)聯(lián)姿態(tài)回歸框架中,來(lái)定位稀疏分布的面部標(biāo)注點(diǎn),得到了較為精確的結(jié)果。 但是,該方法的前提是已經(jīng)檢測(cè)到了羊臉,無(wú)法在自然環(huán)境下提取到羊臉目標(biāo)。 而自然環(huán)境下標(biāo)準(zhǔn)的羊臉識(shí)別,第一步為羊臉的目標(biāo)檢測(cè),第二步為針對(duì)檢測(cè)結(jié)果進(jìn)行識(shí)別。 由于提取羊臉目標(biāo)不僅可以降低背景噪聲的干擾,而且可以提高羊臉識(shí)別準(zhǔn)確率。 Salama 等(2019)提出了一種基于貝葉斯優(yōu)化的混合深度學(xué)習(xí)的羊臉識(shí)別方法。針對(duì)采集的52 只羊的羊臉數(shù)據(jù)集,運(yùn)用貝葉斯優(yōu)化技術(shù)自動(dòng)調(diào)節(jié)卷積神經(jīng)網(wǎng)絡(luò),經(jīng)過(guò)參數(shù)測(cè)試與調(diào)整,最終識(shí)別準(zhǔn)確率高達(dá)98%。
在智慧羊場(chǎng)中, 個(gè)體識(shí)別領(lǐng)域未來(lái)的發(fā)展趨勢(shì)是借助計(jì)算機(jī)視覺(jué)技術(shù)對(duì)羊臉進(jìn)行識(shí)別來(lái)實(shí)現(xiàn)羊個(gè)體的識(shí)別。而目前,羊臉識(shí)別更多地借鑒人臉識(shí)別相關(guān)領(lǐng)域的方法進(jìn)行, 采集到的羊臉數(shù)據(jù)集相對(duì)有限,在較大規(guī)模數(shù)據(jù)集上的研究較少;羊臉數(shù)據(jù)集都由研究者自己采集, 無(wú)大型公開(kāi)的數(shù)據(jù)集供其參考。在今后數(shù)據(jù)采集中,希望可以收集大規(guī)模不同種類羊只的數(shù)據(jù)集, 借鑒人臉識(shí)別的優(yōu)秀成果,運(yùn)用遷移學(xué)習(xí)、深度學(xué)習(xí)等方法提高羊臉識(shí)別的準(zhǔn)確性、魯棒性。
動(dòng)物行為是指在特定的條件下, 生理和心理方面所產(chǎn)生的自然反應(yīng), 可以反映出動(dòng)物的整體態(tài)度, 可以通過(guò)其表現(xiàn)的不同狀態(tài)了解到動(dòng)物的需求(劉艷秋等,2019)。羊的行為包括運(yùn)動(dòng)檢測(cè)與跟蹤、母羊分娩檢測(cè)、飲水與排便、攻擊等。準(zhǔn)確地對(duì)羊的行為進(jìn)行識(shí)別可以及時(shí)發(fā)現(xiàn)異常。目前,大多數(shù)的養(yǎng)羊場(chǎng)都依靠人工來(lái)判別, 不能及時(shí)統(tǒng)計(jì)羊的行為, 而運(yùn)用計(jì)算機(jī)視覺(jué)技術(shù)可以及時(shí)檢測(cè)羊的各種行為。
羊的行為識(shí)別可以判別羊運(yùn)動(dòng)的活躍程度。韓?。?018)通過(guò)K-means 聚類算法實(shí)現(xiàn)了羊的站立、臥息、行走、其他四種行為的識(shí)別,結(jié)果表明,臥息行為識(shí)別高達(dá)95.6%,其余行為識(shí)別率在60%左右。 為解決這一問(wèn)題,引入GPS 速度信息對(duì)其矯正, 最終識(shí)別準(zhǔn)確率為89.2%。 朱偉杰(2018)針對(duì)奶山羊遮擋問(wèn)題,提出了一種基于上下文的信息與超像素級(jí)特征實(shí)現(xiàn)奶山羊的跟蹤,最終精確度達(dá)到76.5%,成功率達(dá)到61%;為了適應(yīng)多變的養(yǎng)殖環(huán)境, 提出一自適應(yīng)加權(quán)的粒子濾波跟蹤方法, 其特征提取主要是依靠顏色直方圖與HOG 的自適應(yīng)融合,精確度為70.5%,成功率為54.3%。但是該方法對(duì)尺度變化較為敏感,同時(shí)識(shí)別精度和成功率有待提高。
母羊的產(chǎn)前行為識(shí)別,有助于預(yù)測(cè)母羊的分娩時(shí)間以及產(chǎn)前的健康狀態(tài)(Forbes,2018)。 劉艷秋(2017)通過(guò)對(duì)母羊產(chǎn)前的站立、行走、刨地、趴窩、飲水、采食六種行為進(jìn)行識(shí)別,進(jìn)而推斷母羊產(chǎn)前的健康狀態(tài)以及預(yù)測(cè)分娩時(shí)間。通過(guò)運(yùn)用K-means算法對(duì)羊的趴窩行為進(jìn)行識(shí)別, 識(shí)別準(zhǔn)確率為99%,BP 神經(jīng)網(wǎng)絡(luò)對(duì)站立、行走、刨地行為進(jìn)行識(shí)別,平均準(zhǔn)確率為78.93%。 通過(guò)對(duì)母羊產(chǎn)前15 天和產(chǎn)后5 天的六種行為進(jìn)行統(tǒng)計(jì)分析,得出母羊產(chǎn)前行走以及站立逐漸增多,刨地幾乎沒(méi)有,飲水采食逐漸減少;生產(chǎn)日行走明顯增多,飲水采食減少,刨地頻率較多;產(chǎn)后行走站立持基本平穩(wěn),刨地幾乎沒(méi)有,飲水采食逐漸增多的特點(diǎn)。 但是本實(shí)驗(yàn)沒(méi)有在復(fù)雜變換的環(huán)境下進(jìn)行,在變化環(huán)境下的魯棒性有待研究。 Ceyhan 等(2012)以初產(chǎn)母羊、經(jīng)產(chǎn)母羊作為研究對(duì)象, 通過(guò)視攝像機(jī)采集分娩過(guò)程,通過(guò)特征提取識(shí)別羊的行為,結(jié)果表明,初產(chǎn)母羊熟悉度較低,站立、行走次數(shù)較多,而經(jīng)產(chǎn)母羊是熟悉度較高。 Sun 等(2019)針對(duì)母羊分娩中、分娩后對(duì)初生羔羊的檢測(cè), 選用以VGG16 為提取特征基礎(chǔ)網(wǎng)絡(luò),soft-NMS 算法的Faster-RCNN 可以實(shí)現(xiàn)較高的檢測(cè)準(zhǔn)確率,AP 指標(biāo)可達(dá)95.43%。 但是,該實(shí)驗(yàn)是將每一只母羊單獨(dú)分開(kāi)來(lái)檢測(cè),未考慮同一場(chǎng)景多只母羊同時(shí)分娩的情況。
針對(duì)公羊的運(yùn)動(dòng)量來(lái)提供飼料的供給, 以及健康的監(jiān)測(cè)。張曦宇等(2018)通過(guò)在羊的背部、頸部、前腿、后腿采集加速度傳感器的信息,對(duì)羊的靜立、行走、奔跑三種行為進(jìn)行識(shí)別,通過(guò)區(qū)間閾值分類法實(shí)現(xiàn)三種行為的平均準(zhǔn)確率為96.21%。但是通過(guò)傳感器獲取的信息,增加了損耗,下一步的發(fā)展趨勢(shì)是通過(guò)方便快捷的圖像處理技術(shù)來(lái)實(shí)現(xiàn)。 韓佳臻等 (2019) 通過(guò)深度學(xué)習(xí)網(wǎng)絡(luò)SEDenseNet 對(duì)奶山羊的站立、趴臥、進(jìn)食、蜷縮四種行為進(jìn)行識(shí)別,識(shí)別準(zhǔn)確率為93.18%左右。 但是,由于采集的數(shù)據(jù)集有限, 容易造成過(guò)擬合現(xiàn)象。Ren 等(2018)通過(guò)3D 視覺(jué)系統(tǒng)對(duì)4 只羊的站立、趴臥行為進(jìn)行監(jiān)測(cè),通過(guò)深度視頻流和紅外視頻流對(duì)羊的站立、趴臥行為進(jìn)行識(shí)別,結(jié)果表明,站立行為準(zhǔn)確率為96.4%,趴臥行為準(zhǔn)確率為94.16%。
綜合分析羊的行為識(shí)別, 運(yùn)用計(jì)算機(jī)視覺(jué)技術(shù)實(shí)現(xiàn)羊的飲食、 運(yùn)動(dòng)情況等是智慧羊場(chǎng)完善的趨勢(shì)。 目前, 計(jì)算機(jī)視覺(jué)技術(shù)在羊的行為識(shí)別還處于探索階段。 今后,在目標(biāo)跟蹤、行為識(shí)別算法的有效性,目標(biāo)識(shí)別、跟蹤的時(shí)效性有待提高。 在行為識(shí)別算法的泛化能力方面, 應(yīng)當(dāng)針對(duì)復(fù)雜的羊場(chǎng)環(huán)境分析,增強(qiáng)算法的魯棒性。
羊的體尺與體重是監(jiān)測(cè)羊成長(zhǎng)、 發(fā)育狀態(tài)的重要指標(biāo), 是養(yǎng)羊場(chǎng)選擇優(yōu)質(zhì)種羊的參考指標(biāo)之一(張帆等,2012;白俊艷等,2011)。 據(jù)調(diào)研,目前大多養(yǎng)羊場(chǎng)需要人工進(jìn)行體尺體重的測(cè)量, 在體尺測(cè)量時(shí), 需要一個(gè)人固定羊, 一個(gè)人用尺子測(cè)量,一個(gè)人用來(lái)記錄數(shù)據(jù),這樣不僅費(fèi)時(shí)又費(fèi)力;在測(cè)量體重時(shí),每只羊至少需要兩個(gè)人來(lái)完成,由于人與羊之間無(wú)法交流, 測(cè)量過(guò)程中容易因運(yùn)動(dòng)而造成測(cè)量不準(zhǔn),耗費(fèi)人力資源,而且會(huì)對(duì)羊造成應(yīng)激,影響其發(fā)育。計(jì)算機(jī)視覺(jué)技術(shù)可通過(guò)羊的視頻或照片, 根據(jù)適合的算法規(guī)則實(shí)現(xiàn)無(wú)應(yīng)激條件下測(cè)量羊的體尺與體重,可以實(shí)現(xiàn)方便、快捷、有效。 因此,運(yùn)用計(jì)算機(jī)視覺(jué)技術(shù)對(duì)羊的體尺、體重估測(cè)是當(dāng)前國(guó)內(nèi)外學(xué)者研究的熱點(diǎn)問(wèn)題之一。
江杰等(2014)通過(guò)背景差分法分割羊體,獲得羊的輪廓, 然后根據(jù)D-P 算法和海倫-秦九紹公式尋找羊的包絡(luò)線上曲率最大的點(diǎn)作為臀部測(cè)點(diǎn),依據(jù)該點(diǎn),從上往下、從左往右搜索鄰域內(nèi)的三個(gè)點(diǎn),最后用該四點(diǎn)可確定羊的體尺。但是,該方法容易受到背景圖分割不完整而帶來(lái)的干擾,對(duì)光線不具有抗干擾性。 牛林等(2014)通過(guò)運(yùn)用臀部、肩頸、前后腳四點(diǎn)計(jì)算羊的體尺, 并將其應(yīng)用在便攜式Linux系統(tǒng)中。 另外,Menesatti 等(2014)通過(guò)雙目系統(tǒng)獲得同源點(diǎn)三維信息,通過(guò)圖像處理得到點(diǎn)在空間中的位置和點(diǎn)之間的距離,用偏最小二乘回歸法對(duì)點(diǎn)間距離進(jìn)行了修正,得到體尺參數(shù)有較小的誤差。江杰(2015)通過(guò)引入視頻幀選取關(guān)鍵幀,并結(jié)合臀部測(cè)點(diǎn)、肩頸點(diǎn)、空間分布率來(lái)確定羊的體尺。 實(shí)驗(yàn)結(jié)果表明,在一定范圍內(nèi)獲得的關(guān)鍵幀,相對(duì)誤差平均3%。 受測(cè)量數(shù)量的限制,無(wú)法證明在大規(guī)模數(shù)據(jù)中的準(zhǔn)確性,不益于推廣。張麗娜(2017)通過(guò)從羊的左側(cè)、右側(cè)、上側(cè)來(lái)獲取羊的圖像,側(cè)視圖通過(guò)分區(qū)、輪廓擬合、測(cè)點(diǎn)提取,進(jìn)而實(shí)現(xiàn)體尺的測(cè)量,俯視圖通過(guò)骨架的對(duì)稱擬合算法, 實(shí)現(xiàn)較高精度的胸寬、腹寬、臀寬的測(cè)量。曾德斌等(2018)通過(guò)對(duì)羊的前后蹄測(cè)量點(diǎn)、臀部的測(cè)量點(diǎn)和最高點(diǎn)、耆甲的測(cè)量點(diǎn)、胸骨前緣測(cè)量點(diǎn)、頭部的最高點(diǎn)的測(cè)量與定位,根據(jù)距離計(jì)算公式可確定羊的體尺參數(shù),最終通過(guò)對(duì)十只羊的參數(shù)測(cè)量, 平均相對(duì)誤差小于1%。 周艷青等(2018)針對(duì)復(fù)雜環(huán)境的羊體分割,通過(guò)融合多尺度分水嶺、模糊C 均值方法、改進(jìn)的Graph Cut 分割方法來(lái)實(shí)現(xiàn)羊的背景分隔(Zhou 等,2018),進(jìn)而通過(guò)包絡(luò)線分析方法實(shí)現(xiàn)體尺測(cè)點(diǎn)檢測(cè),最終實(shí)現(xiàn)羊體尺的測(cè)量,獲得較好的測(cè)量結(jié)果。 Bai 等(2017)通過(guò)雙目攝像機(jī)獲得兩只羊的側(cè)視圖,通過(guò)空間分辨率獲得目標(biāo)點(diǎn)與成像點(diǎn)之間的關(guān)系,體長(zhǎng)是兩個(gè)相應(yīng)測(cè)量點(diǎn)之間的距離。 肩高和臀高是將相應(yīng)測(cè)量點(diǎn)與地面連接的垂直長(zhǎng)度。 申云輝(2019)基于雙目視覺(jué)系統(tǒng)對(duì)羊側(cè)視圖進(jìn)行輪廓提取,在輪廓線拐點(diǎn)的基礎(chǔ)上提取測(cè)點(diǎn),進(jìn)而實(shí)現(xiàn)體尺的計(jì)算,并將其測(cè)量結(jié)果在可視化系統(tǒng)界面顯示。
羊體尺的測(cè)量經(jīng)歷了從人工測(cè)量、 單目視覺(jué)測(cè)量、 雙目視覺(jué)測(cè)量、 多目視覺(jué)測(cè)量的發(fā)展進(jìn)程(張麗娜等,2016)。大體趨勢(shì)是朝著基于計(jì)算機(jī)視覺(jué)的體尺測(cè)量。 但目前的研究都是基于小規(guī)模數(shù)據(jù)集,根據(jù)數(shù)學(xué)原理提取相應(yīng)的特征點(diǎn),再根據(jù)幾何關(guān)系來(lái)確定體尺參數(shù),當(dāng)面對(duì)大規(guī)模數(shù)據(jù)集時(shí),測(cè)量準(zhǔn)確率是否可以達(dá)到目前水平有待研究,可否快速識(shí)別有待驗(yàn)證。因此,雙目視覺(jué)系統(tǒng)以及多目視覺(jué)系統(tǒng)是未來(lái)測(cè)量的趨勢(shì), 將會(huì)由二維視覺(jué)系統(tǒng)上升為三維視覺(jué)系統(tǒng), 獲取更加完整的羊的信息。 同時(shí),借鑒深度學(xué)習(xí)技術(shù),應(yīng)用于羊體尺測(cè)量的研究,更好的實(shí)現(xiàn)智慧羊場(chǎng)的智能化。
羊的體重值不僅可以作為羊成長(zhǎng)發(fā)育情況的參考,還可以作為智慧羊場(chǎng)中分群的重要指標(biāo)。在羊的體重測(cè)量方面, 由于無(wú)法讓羊在體重秤上固定不動(dòng),因此,動(dòng)態(tài)測(cè)量羊的體重是目前較為主流的方案。 在大型體重秤上,給羊唯一的通道,體重秤實(shí)時(shí)采集羊的體重, 對(duì)采集的體重信息分析處理, 可以得到羊的準(zhǔn)確體重, 降低人工的勞動(dòng)強(qiáng)度。對(duì)采集到的體重信息進(jìn)行處理,主要有位移積分法、平均法、EMD 分解等(張俊慧等,2014)。 位移積分法(張俊慧等,2014)對(duì)噪聲比較敏感,目前不被采納。由于在羊上體重秤和下體重稱階段,體重信息測(cè)量不準(zhǔn)確, 因此造成平均測(cè)量結(jié)果不準(zhǔn)確。 為解決這一問(wèn)題,對(duì)均值法進(jìn)行改進(jìn),剔除羊上體重秤和下體重稱階段的值, 并將剩余采集的體重值進(jìn)行排序、分組,組內(nèi)進(jìn)行均值,再對(duì)組間進(jìn)行均值,進(jìn)而使測(cè)得的體重較為準(zhǔn)確(劉斯達(dá),2017)。EMD 算法(呂乾濤等,2016)的目的在于將性能不好的信號(hào)分解為一組性能較好的IMFs 和殘余量,逐步得到較好的結(jié)果,但其最大的缺點(diǎn)是在其動(dòng)態(tài)調(diào)整最優(yōu)解時(shí),時(shí)間效率不固定,在測(cè)量過(guò)程中時(shí)間最慢需要30 秒,無(wú)法實(shí)時(shí)得到羊的體重值。 為解決這一問(wèn)題,EMD 算法 (王中立等,2017)被提出,在EMD 算法的基礎(chǔ)上,隨機(jī)加入高斯白噪聲來(lái)降低或消除EMD 的模態(tài)混疊現(xiàn)象。而這些測(cè)量方法雖然減輕了人工勞動(dòng)強(qiáng)度,但其大型體重秤的設(shè)備較貴, 且設(shè)備出現(xiàn)問(wèn)題不能及時(shí)解決。運(yùn)用計(jì)算機(jī)視覺(jué)技術(shù),可以實(shí)現(xiàn)無(wú)接觸測(cè)量,可以避免因設(shè)備原因造成的測(cè)量不準(zhǔn)確。
羊的體尺參數(shù)(體長(zhǎng)、體高、胸圍、管圍、胸深、胸寬)與體重呈正相關(guān),且胸圍和體長(zhǎng)對(duì)羊的相關(guān)性最高(白雅琴等,2019;陸會(huì)寧等,2019;陳華峰等,2018)。 張麗娜等(2017)通過(guò)支持向量機(jī)方法實(shí)現(xiàn)體質(zhì)量與體尺參數(shù)的非線性模型, 通過(guò)體尺預(yù)估體質(zhì)量,準(zhǔn)確率高達(dá)95.38%。 孫煒等(2018)通過(guò)胸圍的平方乘以體長(zhǎng)再除以10800 得到羊體重的預(yù)估值。 Menesatti 等(2014)通過(guò)羊的體長(zhǎng)、胸深、體高的參數(shù),運(yùn)用對(duì)數(shù)變換的最小二乘回歸算法實(shí)現(xiàn)羊的體重估測(cè)。 郝雪萍(2015)等通過(guò)將羊的體長(zhǎng)、體高、胸圍、胸寬與體重值建立多元線性回歸模型, 對(duì)羊的體重進(jìn)行預(yù)測(cè), 平均誤差為4.1%。 許鑫(2017)通過(guò)回歸模型分析方法,探討分析了七種羊體尺相關(guān)參數(shù)對(duì)體重的影響, 并證明了決定每種羊體重的重要參數(shù)。
目前,對(duì)羊體重模型的估測(cè),主要通過(guò)計(jì)算機(jī)視覺(jué)技術(shù)測(cè)量羊的體尺參數(shù), 然后將體重值與體尺參數(shù)建立回歸模型,進(jìn)而預(yù)測(cè)羊的體重。由于在計(jì)算羊的體尺時(shí), 容易因姿態(tài)偏差而造成體尺參數(shù)的測(cè)量失誤,進(jìn)而導(dǎo)致羊的體重值預(yù)估不準(zhǔn)確。未來(lái),羊體重模型的估計(jì)主要有兩個(gè)趨勢(shì):一是依靠精確的測(cè)量體尺模型, 以及精確的體尺與體重回歸模型,進(jìn)而精確預(yù)測(cè)羊的體重值。 但是,不同品種的體尺與體重回歸模型有較大差異, 在模型泛化方面較弱, 因此該方法僅適合單一品種羊的體重預(yù)測(cè)。 二是依靠精確的視覺(jué)系統(tǒng)采集不同姿態(tài)下羊的視覺(jué)圖像, 建立相應(yīng)的數(shù)學(xué)模型來(lái)估計(jì)羊的體重值。這種方法目前研究的比較少,但其受其他因素較小,因此泛化能力較強(qiáng),是未來(lái)研究無(wú)接觸測(cè)量羊體重的主要方向。
羊場(chǎng)疾病的監(jiān)測(cè)是羊日常管理的重中之重。目前,羊的疾病主要靠人工巡視監(jiān)測(cè),不能及時(shí)發(fā)現(xiàn)羊的異常狀態(tài)。 當(dāng)羊生病時(shí),會(huì)出現(xiàn)食欲不振、行為異常、面部痛苦、呼吸急促等特征。因此,可以運(yùn)用計(jì)算機(jī)視覺(jué)技術(shù)實(shí)時(shí)監(jiān)測(cè)羊的生理狀態(tài),及時(shí)預(yù)警異常狀態(tài)的羊, 防止因延遲發(fā)現(xiàn)病羊而造成疾病傳播所帶來(lái)的經(jīng)濟(jì)損失。 良好養(yǎng)殖的自動(dòng)化系統(tǒng)對(duì)于減少痛苦、 縮短時(shí)間和優(yōu)化綿羊生產(chǎn)是非常必要的。
為了識(shí)別羊面部的痛苦表情,McLennan 等(2016)提出了一種標(biāo)準(zhǔn)化的綿羊面部表情疼痛量表SPFES。結(jié)果表明,該方法可以準(zhǔn)確理解綿羊的痛苦表情。 Hutson 等(2017)通過(guò)人工智能來(lái)識(shí)別綿羊面部表情的自動(dòng)評(píng)估技術(shù)。 通過(guò)手動(dòng)標(biāo)記了480 只綿羊面部的表情特征,包括鼻孔變形、每只耳朵的旋轉(zhuǎn)和每只眼睛寬窄程度。 為此,他們開(kāi)發(fā)了一種人工智能系統(tǒng)來(lái)檢測(cè)綿羊面部表情的方法。該系統(tǒng)可用于識(shí)別五種面部表情,并評(píng)估其是否處于疼痛狀態(tài),以及疼痛的極端程度。Lu 等(2017)提出了一種多層次的方法來(lái)實(shí)現(xiàn)綿羊的面部表情識(shí)別。首先,運(yùn)用Viola-Jones 目標(biāo)檢測(cè)框架用于羊的正臉檢測(cè),采用級(jí)聯(lián)姿態(tài)回歸方法(CPR)實(shí)現(xiàn)羊的面部標(biāo)志點(diǎn)(耳朵、眼睛、鼻子)檢測(cè)。運(yùn)用基于特征的歸一化方法對(duì)耳、眼、鼻進(jìn)行歸一化處理,然后通過(guò)方向梯度直方圖(HOG)來(lái)實(shí)現(xiàn)綿羊面部表情特征的描述。最后將支持向量機(jī)(SVM)應(yīng)用于疼痛水平的估計(jì)。 但是該方法僅考慮到羊的正臉部分,未考慮到不同姿勢(shì)的羊臉的面部表情。Noor(2019)通過(guò)運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建羊面部表情疼痛量化表。該研究在進(jìn)行羊臉表情訓(xùn)練前,通過(guò)中值濾波器處理技術(shù)消除高斯和脈沖噪聲,利用殘差學(xué)習(xí)去噪卷積神經(jīng)網(wǎng)絡(luò)去除高斯噪聲。 然后, 通過(guò)使用VGG16、ResNet 模型用于五種面部表情,分別得到了100%、85%的準(zhǔn)確率。 通過(guò)對(duì)羊的面部表情識(shí)別,可以及時(shí)發(fā)現(xiàn)羊的痛苦,盡早地幫助他們緩解痛苦,可以帶來(lái)更大福利。
目前運(yùn)用計(jì)算機(jī)視覺(jué)技術(shù)在羊疾病監(jiān)測(cè)方面研究較少,處于初步探索階段。通過(guò)計(jì)算機(jī)視覺(jué)技術(shù)可以減輕飼養(yǎng)員的勞動(dòng)強(qiáng)度, 可以實(shí)時(shí)監(jiān)測(cè)羊的狀態(tài)。 未來(lái)可以通過(guò)計(jì)算機(jī)視覺(jué)技術(shù)監(jiān)測(cè)羊的反芻行為、呼吸頻率、面部表情等,并結(jié)合機(jī)器視覺(jué)技術(shù)探索具有精準(zhǔn)識(shí)別效率的算法。
計(jì)算機(jī)視覺(jué)技術(shù)在智慧羊場(chǎng)的探索正處于起步階段。在大數(shù)據(jù)時(shí)代,數(shù)據(jù)是基礎(chǔ),方法是手段。不僅需要采集大量的數(shù)據(jù), 還要不斷優(yōu)化算法的性能,才能在根本上解決問(wèn)題。 在應(yīng)用領(lǐng)域,計(jì)算機(jī)視覺(jué)技術(shù)應(yīng)當(dāng)與5G 技術(shù)相結(jié)合, 實(shí)現(xiàn)實(shí)時(shí)的智能監(jiān)測(cè), 以代替高昂的電子傳感器設(shè)備監(jiān)測(cè)技術(shù)。 在未來(lái),隨著人工智能的發(fā)展,計(jì)算機(jī)視覺(jué)技術(shù)將在智慧羊場(chǎng)發(fā)揮重要的作用。